Imagen: Vska / Depositphotos

Un estudio realizado por investigadores de la Universidad de Valladolid y la Universidad de Beira Interior concluye que la mayoría de los medios de comunicación que han desarrollado normas internas sobre el uso de la inteligencia artificial (IA) en sus redacciones están priorizando la limitación del contenido generado automáticamente, la transparencia en su uso y la verificación de la información.

La investigación, realizada por Pilar Sánchez-García, Alba Díez-Gracia, Ignacio Repilado Mayorga y Pedro Jerónimo, y basada en el análisis de 45 manuales de estilo y directrices de autorregulación publicados entre 2023 y principios de 2025, señala que la adopción de estas normas responde a iniciativas individuales de los propios medios, ante la falta de una regulación específica a nivel legislativo.

El estudio identifica un consenso en la industria sobre la necesidad de supervisión humana en el uso de la IA generativa para la producción de contenido, con especial énfasis en evitar sesgos, garantizar la calidad informativa y preservar la confianza del público. Sin embargo, aunque las directrices analizadas reflejan un esfuerzo por establecer criterios internos claros, la regulación se encuentra todavía en una fase inicial y requiere una actualización constante para adaptarse a los avances tecnológicos.

El análisis de los documentos muestra que la mayoría de los medios restringen el uso de la IA generativa a tareas específicas y complementarias, como la transcripción, la traducción y la generación de resúmenes, evitando su empleo para la redacción completa de artículos sin supervisión humana. Según las directrices de El País, por ejemplo, la IA debe ser utilizada únicamente como una herramienta de apoyo al trabajo periodístico, mientras que en Les Echos-Le Parisien se establece que cualquier contenido generado por IA debe contar con la revisión y aprobación de un editor.

Te puede interesar:   De la IA a la radio: la triple apuesta de La Nación por el liderazgo en audio digital 

En cuanto a la generación de contenido multimodal, los manuales analizados revelan una postura más estricta en la creación de imágenes y vídeos mediante IA, con restricciones en 24 de los casos y prohibiciones expresas en al menos nueve. Medios como Hong Kong Free Press, Mensagem de Lisboa o Business Insider vetan completamente el uso de imágenes generadas por IA, mientras que otros, como BBC o Thomson Reuters, permiten su uso en gráficos y visualizaciones de datos, siempre que se garantice la transparencia sobre su origen.

Transparencia y verificación: principios clave en la regulación interna

La transparencia en el uso de la IA es uno de los principios más recurrentes en las normativas de autorregulación. En 43 de los 45 manuales analizados, se establece la necesidad de identificar claramente el contenido generado por inteligencia artificial. En el caso de Atresmedia, se especifica que los usuarios deben ser informados sobre el uso de estas herramientas, mientras que en The Guardian se exige que cualquier contenido generado por IA solo pueda publicarse con la supervisión humana y la aprobación de un editor senior.

Junto a la transparencia, la verificación de la información generada por IA es otro de los aspectos más destacados en los documentos revisados. Un total de 34 medios han incluido directrices sobre la importancia de realizar controles de calidad para evitar errores o sesgos en los contenidos automatizados. La Agencia EFE, por ejemplo, enfatiza la necesidad de revisar y contrastar cualquier material generado por IA antes de su publicación.

Te puede interesar:   Seis claves para fortalecer el periodismo local y obtener apoyo comunitario

La regulación del uso de datos y la protección de la privacidad también aparecen en las normativas, aunque en menor medida. En 28 de los documentos se menciona la importancia de evitar la inclusión de información personal en los prompts utilizados por los periodistas al emplear herramientas de IA.

Supervisión humana y límites éticos en el uso de IA

Uno de los hallazgos clave del estudio es la unanimidad en la necesidad de mantener el control humano sobre el contenido generado por inteligencia artificial. Salvo en dos casos, todas las normativas analizadas subrayan que la IA debe ser utilizada como una herramienta de apoyo, pero nunca como un sustituto del trabajo periodístico. En medios como NPR y El País, se refuerza la idea de que la supervisión editorial es fundamental para garantizar la credibilidad y la precisión de la información.

Asimismo, el estudio señala que algunas normativas, como la de Radiotelevisión Española (RTVE), incluyen prohibiciones concretas sobre el uso de la IA en determinados contextos, como la aplicación de técnicas subliminales, el reconocimiento facial o la creación de perfiles de audiencia basados en su comportamiento.

Un marco en evolución ante la falta de regulación externa

A pesar de la creciente adopción de normativas internas, el estudio concluye que la autorregulación en el uso de la IA en los medios de comunicación sigue siendo un proceso en evolución. Hasta la fecha, solo una normativa con un marco regulatorio legal ha sido identificada, la de RTVE, lo que pone de manifiesto la falta de una regulación específica a nivel gubernamental o supranacional.

Te puede interesar:   Crisis del periodismo local: propuestas para frenar la pérdida de diversidad informativa

El AI Act de la Unión Europea, aprobado en 2024, establece criterios generales para el uso de inteligencia artificial, pero no incluye regulaciones específicas para el sector mediático. Según el estudio, la ausencia de una normativa sectorial ha llevado a los medios a adoptar medidas propias, generando un panorama de autorregulación fragmentado y con distintos niveles de exigencia.

El informe concluye que, aunque las normas internas están contribuyendo a generar un marco de buenas prácticas en el uso de la IA en el periodismo, todavía existen desafíos pendientes, como la necesidad de criterios unificados y el desarrollo de mecanismos de evaluación y auditoría para garantizar el cumplimiento de las directrices establecidas.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí