Ráfagas de IA #9
Sesgos algorítmicos • Revolución en datos • IA inclusiva • Desinformación digital • Riesgos emergentes
Esto es Ráfagas de IA, una sección de Conectados, pero Humanos donde comparto las noticias y artículos sobre inteligencia artificial que más me han llamado la atención estas últimas dos semana. ¡Vamos a ello!
Meta enfrenta críticas por sesgo en su modelo Llama 4
Meta ha lanzado Llama 4 con la intención de eliminar sesgos en sus modelos de lenguaje. Sin embargo, expertos y organizaciones de derechos humanos, como GLAAD, expresan preocupación por posibles inclinaciones hacia puntos de vista conservadores, lo que podría reforzar desinformación y prácticas perjudiciales. La complejidad de ajustar respuestas en modelos de gran escala plantea desafíos éticos significativos.TDK presenta avance en transmisión de datos para IA
La empresa japonesa TDK ha desarrollado el "Spin Photo Detector", una tecnología que promete velocidades de transmisión de datos hasta diez veces más rápidas que las actuales. Este avance podría superar cuellos de botella en el rendimiento de la inteligencia artificial, mejorando la eficiencia energética y reduciendo la latencia en aplicaciones como centros de datos y dispositivos de realidad aumentada.Dispositivos de IA ofrecen autonomía a personas con discapacidad visual en China
Una innovadora tecnología portátil desarrollada en China combina cámaras, procesadores de IA y auriculares de conducción ósea para proporcionar asistencia de navegación en tiempo real a personas con discapacidad visual. Este sistema permite a los usuarios desplazarse de manera más segura e independiente, marcando un avance significativo en la aplicación de la inteligencia artificial para mejorar la calidad de vida.La desinformación ya entrena a la inteligencia artificial
Un reciente artículo de opinión en El País destaca cómo las campañas de desinformación en redes sociales no solo afectan a la opinión pública, sino que también contaminan los datos utilizados para entrenar modelos de IA. Esto puede llevar a que los sistemas reproduzcan y amplifiquen bulos, como se evidenció en un estudio de NewsGuard donde varios chatbots replicaron desinformación rusa como si fuera verídica. El artículo subraya la necesidad de que desarrolladores y plataformas asuman una mayor responsabilidad para evitar que la IA perpetúe falsedades.OpenAI refuerza su evaluación de riesgos en modelos de IA
OpenAI ha actualizado su marco de evaluación de riesgos para nuevos modelos de inteligencia artificial, incorporando categorías como la capacidad de autoconservación, ocultamiento de habilidades y resistencia a apagados. Esta medida responde a preocupaciones sobre comportamientos inesperados en entornos reales y busca mitigar riesgos severos a medida que los sistemas de IA se vuelven más complejos.
¡Más ráfagas muy pronto! 🚀
Javier
👉 Suscríbete a 'Conectados, pero Humanos' para descubrir cómo la tecnología, la ciencia y el humanismo moldean nuestras vidas, siempre con un enfoque reflexivo, cercano y con espacio para la curiosidad.