La organización Reporteros Sin Fronteras (RSF) ha hecho un llamado urgente a Apple para que retire su nueva función de inteligencia artificial generativa, después de que esta atribuyera erróneamente información falsa a la BBC, poniendo en riesgo el periodismo confiable.
El incidente ocurrió apenas 48 horas después del lanzamiento de Apple Intelligence en el Reino Unido el 11 de diciembre. La función de IA generó un resumen falso de las notificaciones de la BBC, anunciando el supuesto suicidio de Luigi Mangione, principal sospechoso del asesinato del CEO de UnitedHealthcare - información que resultó ser completamente fabricada.
Vincent Berthier, Director del Departamento de Tecnología y Periodismo de RSF, expresó que "las IAs son máquinas de probabilidades, y los hechos no pueden decidirse al azar". La organización enfatiza que la producción automatizada de información falsa atribuida a un medio de comunicación daña la credibilidad del periodismo y amenaza el derecho del público a recibir información confiable.
El caso ha expuesto las limitaciones actuales de los sistemas de IA para generar información consistente y confiable, incluso cuando se basan en fuentes periodísticas. RSF señala que existe un vacío legal crítico en la legislación actual, incluyendo la Ley de IA Europea, que no clasifica a las IAs generadoras de información como sistemas de alto riesgo.
La Carta de París, iniciada por RSF, establece principios fundamentales para preservar la integridad de la información y el papel del periodismo como servicio público, exigiendo que cualquier reutilización de contenido respete los principios éticos periodísticos básicos.
Note: Only one link was inserted as it was the only one contextually relevant to the article's topic about AI-generated content and its risks. The other links about quantum computing were not directly related to this story.