La inteligencia artificial ya forma parte del ecosistema informativo. No solo acelera tareas: está reconfigurando cómo se informa, se edita, se distribuye y se consume la información. Los buscadores mutan en interfaces conversacionales; las audiencias reciben respuestas sintetizadas sin pasar por las portadas; las imágenes y voces sintéticas hacen verosímil lo falso; y las redacciones (grandes y pequeñas) se ven forzadas a decidir con rapidez qué integrar, cómo evaluarlo y con qué garantías. No es un fenómeno lateral ni pasajero: condiciona la calidad democrática del espacio público y la sostenibilidad de los medios.
Para contribuir a ordenar este panorama con criterios verificables y utilidad profesional, el Laboratorio de Periodismo de la Fundación Luca de Tena pone en marcha una sección permanente dedicada a la inteligencia artificial en los medios. Su propósito es claro: separar señal de ruido, ofrecer pruebas y estándares, y acompañar a las redacciones en decisiones que afectan a su credibilidad, sus procesos y su relación con las audiencias.
Adoptar IA sin método trae riesgos nítidos y acumulativos:
- Desinformación sintética (imagen, audio y vídeo) que eleva el listón de la verificación y exige nuevas rutinas de trazabilidad.
- Sesgos y opacidad en modelos y conjuntos de datos que pueden distorsionar coberturas sensibles y perpetuar desigualdades.
- Privacidad y seguridad de fuentes y materiales si no existen políticas de uso, almacenamiento y acceso bien definidas.
- Desintermediación de la distribución: respuestas generativas en plataformas que reducen el paso por la web del medio, presionando ingresos y métricas clave.
- Dependencias tecnológicas y costes ocultos al implantar “cajas negras” sin evaluación previa ni planes de reversibilidad.
- Relación con la audiencia: necesidad de rotular, explicar y rendir cuentas por contenidos asistidos por IA para no erosionar la confianza.
Lo que podemos ganar
Con rigor, la IA libera tiempo para el valor editorial y eleva la calidad:
- Automatización de tareas mecánicas (transcripción, limpieza de datos, etiquetado), que permite dedicar más horas a investigar, contrastar y explicar.
- Investigación reforzada: búsquedas en grandes corpus, análisis de documentos masivos y seguimiento de cambios que antes requerían semanas.
- Control de calidad: detección de duplicidades, inconsistencias y errores de datos o de estilo mediante herramientas internas auditables.
- Accesibilidad: traducciones, subtitulado y lectura asistida que hacen el periodismo más inclusivo y útil.
- Nuevos formatos de servicio público: explicadores vivos, comparadores, guías personalizadas y productos orientados a comunidades concretas, con métricas transparentes de impacto.
Hace falta método, no «hype»
El debate ya no es “usar o no usar” IA, sino cómo usarla: con estándares, procedimientos y métricas que permitan aprender sin comprometer la integridad del oficio. Eso implica definir con claridad:
- Qué tareas se pueden automatizar y cuáles exigen siempre intervención humana.
- Pruebas mínimas antes de desplegar herramientas en producción: calidad, robustez, reproducibilidad, seguridad y coste total.
- Documentación de decisiones: cómo se entrena, con qué datos, qué límites tiene, cómo se corrigen errores y cómo se audita.
- Derechos y transparencia: tratamiento de materiales con derechos de autor, consentimiento, y rotulado inequívoco para la audiencia.
- Formación continua de los equipos y evaluación periódica del impacto real (no promesas comerciales).
Qué aportará la nueva sección
Esta nueva línea editorial nace para ofrecer evidencia útil y replicable, con un enfoque práctico y crítico a la vez. Publicará periódicamente:
- Una vez al mes, un informe de seguimiento (tracking) de algunos de los hitos acaecidos en los últimos 30 días.
Periódicamente:
- Reportajes y análisis en profundidad sobre implementaciones reales en redacciones de distintos tamaños: qué funcionó, qué no, costes, límites y aprendizajes.
- Pruebas comparativas y guías de implementación, con checklists operativos (calidad, trazabilidad, seguridad, impacto de negocio) que puedan adoptarse tal cual en las redacciones.
- Ética y gobernanza: modelos de políticas de uso responsable, gestión de datos y contenidos sensibles, y pautas de rotulado y rendición de cuentas ante la audiencia.
- Verificación y seguridad: técnicas y flujos de trabajo para detectar manipulación audiovisual, y protocolos de respuesta ante incidentes.
- Observatorio regulatorio y de estándares: implicaciones prácticas de marcos normativos y buenas prácticas sectoriales, traducidas a decisiones operativas.
- Opinión.
- Etc.
A quién va dirigida
Periodistas, editores, directivos, equipos técnicos y académicos que necesitan criterios claros para decidir qué adoptar, cómo probarlo, cómo medirlo y cómo explicarlo a su público. También a gestores de producto y audiencias que deben traducir la tecnología en valor editorial medible.
Cada pieza buscará un objetivo operativo: que el lector pueda tomar una decisión concreta o mejorar un proceso al día siguiente.
La inteligencia artificial no sustituye el juicio periodístico; lo vuelve más necesario. Con criterio, pruebas y responsabilidad, puede fortalecer el corazón del oficio: ofrecer información veraz, comprensible y útil, protegida por procesos visibles y auditables. Esta nueva sección nace precisamente para acompañar a las redacciones en ese camino, con rigor y vocación de servicio.



