La inteligencia artificial (IA) ha dejado de ser un concepto futurista para convertirse en una realidad que permea múltiples sectores de la sociedad. En el ámbito periodístico, la Generative AI, capaz de crear contenido textual, visual y auditivo a partir de datos de entrada, está redefiniendo los cimientos de la profesión.
Un reciente informe de la UNESCO advierte sobre los desafíos y oportunidades que esta tecnología presenta, y cómo las organizaciones periodísticas deben adaptarse para sobrevivir en un paisaje mediático en constante evolución.
El doble filo de la innovación tecnológica
Las redacciones de todo el mundo están explorando el potencial de la Generative AI como herramienta de apoyo. Desde el análisis de grandes volúmenes de datos hasta la generación de borradores y resúmenes, la IA ofrece soluciones para agilizar procesos y optimizar recursos.
Universidades y centros de formación periodística están incorporando módulos especializados en IA, preparando a las nuevas generaciones para un entorno laboral donde la tecnología y el periodismo convergen más que nunca.
Sin embargo, esta adopción viene acompañada de una cautela justificada. Las «alucinaciones» de la IA—información inexacta o inventada que puede generar—plantean serias preocupaciones sobre la credibilidad y precisión de las noticias.
Además, la capacidad de crear deepfakes altamente convincentes supone una amenaza real para la integridad de la información y, por extensión, para la democracia. En un año marcado por procesos electorales críticos, la posibilidad de manipular imágenes y videos para desinformar o desacreditar a figuras públicas es un riesgo que no puede subestimarse.
La encrucijada de la propiedad intelectual
Uno de los puntos más controvertidos que destaca el informe es el uso que las grandes empresas tecnológicas hacen del contenido periodístico para entrenar sus modelos de IA. Sin acuerdos claros sobre derechos de autor y propiedad intelectual, estas corporaciones pueden beneficiarse económicamente del trabajo de periodistas y medios sin ofrecer una compensación justa.
Esto no solo pone en peligro la viabilidad económica de las organizaciones periodísticas, sino que también amenaza la diversidad cultural y lingüística al concentrar el poder mediático en unos pocos actores globales.
En países como Estados Unidos, las empresas de IA se amparan en el concepto de «uso justo» para justificar la utilización de contenidos protegidos por derechos de autor. Sin embargo, este argumento legal no es universalmente aceptado, y en otras jurisdicciones es considerado una violación flagrante de la propiedad intelectual.
La ausencia de estándares globales sobre cómo valorar y compensar el uso de contenidos periodísticos agrava el problema, dejando a los medios en una posición de vulnerabilidad frente a las gigantes tecnológicas.
Respuestas desde el sector y propuestas de regulación
Ante este panorama, diversas organizaciones periodísticas han comenzado a establecer códigos de conducta y directrices para el uso de la IA.
Estas pautas enfatizan la necesidad de transparencia, la importancia de la supervisión humana y el respeto por la integridad editorial. Medios en Europa y Estados Unidos están firmando acuerdos de licencia con empresas de Generative AI, buscando garantizar una compensación justa y establecer precedentes para futuras negociaciones.
A nivel regulatorio, señala el informe, la Unión Europea se posiciona a la vanguardia con su Ley de Inteligencia Artificial, que propone un enfoque basado en el riesgo y establece estrictos requisitos para los sistemas de IA de alto riesgo.
Además, el Reglamento General de Protección de Datos (GDPR) de la UE ya impone obligaciones significativas en cuanto a privacidad y manejo de datos, aspectos críticos en el entrenamiento y funcionamiento de modelos de IA.
Por su parte, la UNESCO ha emitido recomendaciones y principios éticos para la gobernanza de la IA, enfatizando la necesidad de salvaguardar los derechos humanos, promover la diversidad cultural y garantizar la transparencia y rendición de cuentas en el uso de estas tecnologías.
El desafío de las lenguas y culturas minoritarias
Un aspecto crucial que aborda el informe es el riesgo que la Generative AI representa para las lenguas y culturas minoritarias. Los modelos de IA se entrenan principalmente con datos en idiomas dominantes, lo que puede exacerbar la marginalización de otras lenguas y, por ende, de las culturas que las sustentan.
Países como Islandia están tomando medidas proactivas, invirtiendo en el desarrollo de recursos lingüísticos digitales para su idioma y colaborando con empresas de IA para garantizar su presencia en los modelos lingüísticos.
El informe de la UNESCO concluye con una serie de recomendaciones dirigidas a diferentes actores:
- Para las empresas de IA: implementar una gobernanza basada en los derechos humanos, respetar la propiedad intelectual y establecer mecanismos transparentes de compensación a los creadores de contenido. Además, deben trabajar activamente para mejorar la atribución y precisión de sus sistemas, evitando la propagación de información errónea o engañosa.
- Para los medios y periodistas: adoptar políticas claras sobre el uso de la IA, garantizando siempre la supervisión humana y la transparencia ante la audiencia. Es esencial proteger la privacidad de los usuarios y participar en el desarrollo de políticas de alfabetización mediática e informacional.
- Para los gobiernos: promover regulaciones que protejan los derechos humanos y fomenten la competencia justa en el sector de la IA. Es vital apoyar la diversidad mediática y cultural, evitando la concentración excesiva de poder en manos de unas pocas corporaciones.
- Para las organizaciones intergubernamentales: facilitar el diálogo multilateral para establecer estándares globales en la valoración y compensación del contenido, y promover enfoques holísticos que fortalezcan la viabilidad y sostenibilidad de los medios.