Las redacciones de todo el mundo están incorporando herramientas de inteligencia artificial en sus procesos diarios sin que exista, en muchos casos, una traducción operativa de los principios éticos en normas concretas de uso, lo que está generando una brecha entre la adopción tecnológica y la capacidad real de supervisión editorial, según un informe del grupo de trabajo internacional sobre IA y periodismo coordinado por el Center for News, Technology & Innovation (CNTI).
El análisis, basado en la revisión de investigaciones académicas y políticas desarrolladas por medios y organizaciones profesionales, señala que el uso de IA ya está extendido en el sector, pero la formalización de normas internas sigue siendo limitada y desigual. En algunos contextos, especialmente fuera de Europa y Norteamérica, una parte mayoritaria de periodistas ha trabajado sin políticas específicas en sus redacciones.
Entre los medios que sí han definido guías, el enfoque es recurrente: se prioriza la transparencia en el uso de herramientas, la supervisión humana y la verificación de los contenidos generados. Sin embargo, estas políticas suelen quedarse en declaraciones generales y no detallan cómo deben aplicarse en la práctica, lo que dificulta su implementación en el día a día.
Uno de los principales déficits identificados es la escasa atención a los sistemas tecnológicos que hay detrás de las herramientas, especialmente cuando se trata de soluciones externas. Las políticas se centran en los resultados, pero rara vez abordan los algoritmos, los posibles sesgos o las condiciones de uso, pese a que estos factores pueden influir en las decisiones editoriales y en la independencia de los medios.
El informe también apunta a un aumento de la dependencia de grandes plataformas tecnológicas en la producción informativa, además de su papel tradicional en la distribución de contenidos. Esta evolución introduce nuevos riesgos en términos de control, autonomía y gestión de datos dentro de las organizaciones periodísticas.
Otro de los ámbitos menos desarrollados es el de la contratación tecnológica. Los estudios revisados indican que muchos acuerdos con proveedores de IA permiten modificar condiciones sin previo aviso, lo que limita la capacidad de las redacciones para gestionar riesgos relacionados con la privacidad o la confidencialidad.
El documento recoge además casos en los que la falta de integración de estas políticas en los flujos de trabajo ha derivado en usos no supervisados de herramientas de IA, incluyendo la utilización de versiones personales sin garantías de protección de datos. Algunas organizaciones han comenzado a responder con soluciones internas, como asistentes basados en IA que orientan a los periodistas sobre cuándo y cómo utilizar estas tecnologías.
El grupo de trabajo identifica como reto principal trasladar las políticas del plano conceptual al operativo, integrándolas en las rutinas de producción y ampliando la participación en su diseño a perfiles diversos dentro de las redacciones. También señala la necesidad de más investigación aplicada y de guías específicas sobre el uso de herramientas externas, un ámbito que sigue poco desarrollado pese a su impacto creciente en el periodismo.



