Una investigación internacional coordinada por la Unión Europea de Radiodifusión (EBU) y liderada por la BBC ha determinado que los asistentes de inteligencia artificial alteran o representan de manera incorrecta contenidos informativos en el 45% de los casos, independientemente del idioma, el país o la plataforma utilizada. El estudio, presentado en la Asamblea de Noticias de la EBU en Nápoles, es el mayor realizado hasta la fecha y contó con la participación de 22 medios públicos de 18 países, que analizaron más de 3.000 respuestas generadas por ChatGPT, Copilot, Gemini y Perplexity.
Los periodistas implicados evaluaron la precisión, las fuentes, la capacidad para distinguir hechos de opiniones y el contexto de las respuestas. Los resultados mostraron que el 31% de las respuestas presentaba problemas graves de atribución, con fuentes incorrectas, engañosas o inexistentes, y que un 20% contenía errores de precisión, como información desactualizada o inventada. Gemini fue la herramienta con peor desempeño, con fallos significativos en el 76% de las respuestas analizadas, más del doble que el resto, principalmente por su deficiente tratamiento de las fuentes.
El informe señala que estos problemas son “sistémicos, transfronterizos y multilingües”, en palabras del director de Medios de la EBU, Jean Philip De Tender, quien advirtió que esta distorsión puede afectar a la confianza del público: “Cuando la gente no sabe en qué confiar, acaba sin confiar en nada, y eso puede desincentivar la participación democrática”. Peter Archer, director de Programas de IA generativa de la BBC, subrayó que, aunque las redacciones están interesadas en aprovechar el potencial de la inteligencia artificial, “las personas deben poder confiar en lo que leen, ven y escuchan”.
El estudio también destaca el cambio de hábitos informativos, recordando que, según el Digital News Report 2025 del Instituto Reuters, el 7% de los consumidores de noticias en línea utiliza asistentes de IA como fuente principal de información, porcentaje que asciende al 15% entre los menores de 25 años.
Como respuesta, los autores han publicado el News Integrity in AI Assistants Toolkit, una guía con recomendaciones para mejorar la fiabilidad de las respuestas de los asistentes de IA y fomentar la alfabetización mediática. Además, la EBU y sus miembros han instado a las autoridades europeas y nacionales a aplicar las leyes existentes sobre integridad informativa, servicios digitales y pluralismo mediático, y reclaman una monitorización independiente y continua del rendimiento de estas herramientas.
El proyecto amplía un primer estudio de la BBC publicado en febrero de 2025, centrado en el manejo de noticias por parte de los sistemas de IA. La nueva fase confirma que los errores no se limitan a un idioma o mercado específico, sino que se reproducen en distintos contextos y plataformas. Entre los medios participantes figuran RTVE (España), ARD y ZDF (Alemania), RAI (Italia), Radio France, YLE (Finlandia), RTP (Portugal), CBC-Radio Canada, NPR (EE UU) y Deutsche Welle, entre otros.



