viernes 24 de abril de 2026
InicioAudienciaLa mayoría de las redacciones españolas usan IA sin reglas claras y...

La mayoría de las redacciones españolas usan IA sin reglas claras y casi nunca informan a la audiencia

La adopción de la inteligencia artificial en las redacciones españolas avanza más rápido que su regulación interna. Según revela un estudio realizado por M. Ángeles Fernández-Barrero y Carlos Serrano-Martín, de la Universidad de Sevilla, la mayoría de los periodistas utiliza herramientas de IA en su trabajo diario sin contar con normas éticas claras ni con la obligación de informar a la audiencia sobre su uso. La investigación evidencia que la transparencia sigue siendo una asignatura pendiente en la integración de estas tecnologías en el periodismo, lo que plantea nuevos desafíos sobre la autoría, la responsabilidad editorial y la confianza del público.

La integración de herramientas de inteligencia artificial (IA) en el trabajo diario es ya una realidad para la mayoría de periodistas en España, pero persiste un vacío normativo interno y una débil cultura de transparencia hacia la audiencia.

Así lo constata un estudio académico de la Universidad de Sevilla que combina encuesta a 50 profesionales e ocho entrevistas en profundidad y que describe una adopción extendida —aunque desigual— de la IA, con escasas políticas internas, criterios de autoría difusos y una divulgación casi inexistente del uso de estas tecnologías, según revela el estudio hecho por M. Ángeles Fernández-Barrero y Carlos Serrano-Martín (Journalism and Media, 13 de septiembre de 2025).

Principales hallazgos del estudio

  • Uso extendido con fines operativos. El 72% de los periodistas encuestados declara utilizar algún tipo de herramienta de IA, principalmente para traducción, generación automática de contenidos y asistencia a la redacción y edición. La frecuencia varía por edad, rol y formación específica, con adopciones más intensivas entre perfiles jóvenes y tecnológicamente formados.

  • Normas internas, la excepción. Solo un 20,8% trabaja en medios con guías éticas específicas sobre IA; la mayoría no ha recibido instrucciones de su empresa ni de sus superiores, pese a que un 94% considera necesarias reglas internas.

  • Transparencia residual. El 87,8% afirma que su medio no exige revelar el uso de IA en tareas editoriales; cuando se pide divulgarlo, apenas un 10,8% utiliza fórmulas breves del tipo “contenido elaborado con ayuda de IA”. La atribución de autoría en piezas asistidas por IA se asigna mayoritariamente al periodista, aunque sin criterios homogéneos.

  • Qué piden las redacciones. Formación específica, publicación de políticas de uso y marcos claros de responsabilidad editorial y protección de datos figuran entre las demandas más repetidas.

Te puede interesar:  Medir el valor del periodismo en la IA es posible, cobrarlo sigue siendo el problema

Contexto regulatorio y de autorregulación

El estudio sitúa estos resultados en el marco del AI Act europeo, en vigor desde el 1 de agosto de 2024, que eleva los estándares de trazabilidad y explicabilidad y reclama que los sistemas generativos permitan identificar contenidos producidos por IA, especialmente en asuntos de interés público. Aunque muchas obligaciones serán progresivas, su aplicación apunta a prácticas de transparencia más exigentes en medios.

Claves profesionales que emergen

  • Transparencia con matices. El trabajo recoge posturas enfrentadas: desde quienes reclaman declarar el uso de IA en todas las fases, hasta quienes la equiparan a una herramienta de producción (como un transcriptor o un procesador de textos) cuyo uso no exige mención expresa. En ambos casos, el control humano y la rendición de cuentas del periodista aparecen como criterios vertebradores.

  • Autoría y responsabilidad. La ausencia de pautas estables genera incertidumbre sobre firma, propiedad intelectual y cadena de custodia de fuentes cuando intervienen modelos generativos, abriendo la puerta a modelos de autoría compartida o, al menos, a una atribución editorial explícita del proceso.

  • Formación y alfabetización algorítmica. La demanda de capacitación —técnica, deontológica y jurídica— se repite como condición para integrar IA con estándares de contraste, trazabilidad de datos, mitigación de sesgos y protección de derechos. En paralelo, marcos como la Recomendación de UNESCO sobre la Ética de la IA proporcionan principios generales de transparencia y responsabilidad aplicables al ámbito mediático.

Te puede interesar:  Más allá de la implantación de la inteligencia artificial en grandes medios internacionales

Qué implica para medios y audiencias especializadas

Para las redacciones españolas, el informe perfila una agenda inmediata: (1) definir políticas internas que especifiquen cuándo, cómo y con qué salvaguardas puede intervenir la IA en el flujo editorial; (2) estandarizar avisos de transparencia acordes al AI Act y a futuras normas nacionales, evitando etiquetas vacías y apostando por transparencia procedimental (qué se hizo, con qué datos y bajo qué supervisión); (3) documentar autoría y trazabilidad de fuentes y prompts; (4) auditar sesgos y asegurar la revisión humana en cada paso con criterios verificables. En un mercado de confianza frágil, el estudio sugiere que la adopción de IA será sostenible solo si queda anclada a protocolos verificables y a una comunicación clara con el lector especializado.

Fuente: Are the Media Transparent in Their Use of AI? Self-Regulation and Ethical Challenges in Newsrooms in Spain, de M. Á. Fernández-Barrero y C. Serrano-Martín (Journalism and Media, 13/09/2025).

Artículos relacionados

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here

ÚLTIMOS ARTÍCULOS

LO MÁS LEÍDO