La integración de herramientas de inteligencia artificial (IA) en el trabajo diario es ya una realidad para la mayoría de periodistas en España, pero persiste un vacío normativo interno y una débil cultura de transparencia hacia la audiencia.
Así lo constata un estudio académico de la Universidad de Sevilla que combina encuesta a 50 profesionales e ocho entrevistas en profundidad y que describe una adopción extendida —aunque desigual— de la IA, con escasas políticas internas, criterios de autoría difusos y una divulgación casi inexistente del uso de estas tecnologías, según revela el estudio hecho por M. Ángeles Fernández-Barrero y Carlos Serrano-Martín (Journalism and Media, 13 de septiembre de 2025).
Principales hallazgos del estudio
-
Uso extendido con fines operativos. El 72% de los periodistas encuestados declara utilizar algún tipo de herramienta de IA, principalmente para traducción, generación automática de contenidos y asistencia a la redacción y edición. La frecuencia varía por edad, rol y formación específica, con adopciones más intensivas entre perfiles jóvenes y tecnológicamente formados.
-
Normas internas, la excepción. Solo un 20,8% trabaja en medios con guías éticas específicas sobre IA; la mayoría no ha recibido instrucciones de su empresa ni de sus superiores, pese a que un 94% considera necesarias reglas internas.
-
Transparencia residual. El 87,8% afirma que su medio no exige revelar el uso de IA en tareas editoriales; cuando se pide divulgarlo, apenas un 10,8% utiliza fórmulas breves del tipo “contenido elaborado con ayuda de IA”. La atribución de autoría en piezas asistidas por IA se asigna mayoritariamente al periodista, aunque sin criterios homogéneos.
-
Qué piden las redacciones. Formación específica, publicación de políticas de uso y marcos claros de responsabilidad editorial y protección de datos figuran entre las demandas más repetidas.
Contexto regulatorio y de autorregulación
El estudio sitúa estos resultados en el marco del AI Act europeo, en vigor desde el 1 de agosto de 2024, que eleva los estándares de trazabilidad y explicabilidad y reclama que los sistemas generativos permitan identificar contenidos producidos por IA, especialmente en asuntos de interés público. Aunque muchas obligaciones serán progresivas, su aplicación apunta a prácticas de transparencia más exigentes en medios.
Claves profesionales que emergen
-
Transparencia con matices. El trabajo recoge posturas enfrentadas: desde quienes reclaman declarar el uso de IA en todas las fases, hasta quienes la equiparan a una herramienta de producción (como un transcriptor o un procesador de textos) cuyo uso no exige mención expresa. En ambos casos, el control humano y la rendición de cuentas del periodista aparecen como criterios vertebradores.
-
Autoría y responsabilidad. La ausencia de pautas estables genera incertidumbre sobre firma, propiedad intelectual y cadena de custodia de fuentes cuando intervienen modelos generativos, abriendo la puerta a modelos de autoría compartida o, al menos, a una atribución editorial explícita del proceso.
-
Formación y alfabetización algorítmica. La demanda de capacitación —técnica, deontológica y jurídica— se repite como condición para integrar IA con estándares de contraste, trazabilidad de datos, mitigación de sesgos y protección de derechos. En paralelo, marcos como la Recomendación de UNESCO sobre la Ética de la IA proporcionan principios generales de transparencia y responsabilidad aplicables al ámbito mediático.
Qué implica para medios y audiencias especializadas
Para las redacciones españolas, el informe perfila una agenda inmediata: (1) definir políticas internas que especifiquen cuándo, cómo y con qué salvaguardas puede intervenir la IA en el flujo editorial; (2) estandarizar avisos de transparencia acordes al AI Act y a futuras normas nacionales, evitando etiquetas vacías y apostando por transparencia procedimental (qué se hizo, con qué datos y bajo qué supervisión); (3) documentar autoría y trazabilidad de fuentes y prompts; (4) auditar sesgos y asegurar la revisión humana en cada paso con criterios verificables. En un mercado de confianza frágil, el estudio sugiere que la adopción de IA será sostenible solo si queda anclada a protocolos verificables y a una comunicación clara con el lector especializado.
Fuente: Are the Media Transparent in Their Use of AI? Self-Regulation and Ethical Challenges in Newsrooms in Spain, de M. Á. Fernández-Barrero y C. Serrano-Martín (Journalism and Media, 13/09/2025).



