
Italia se ha adelantado a buena parte del resto de Europa al aprobar una norma deontológica que pretende regular el uso de la inteligencia artificial en el periodismo. El nuevo artículo 19 del Testo Unico dei Doveri del Giornalista, que entrará en vigor en junio de 2025, reconoce que la tecnología puede cambiar rutinas, acelerar procesos y abaratar costes, pero establece tres principios inamovibles: la IA no sustituye al periodista, el uso de estas herramientas debe declararse de forma explícita, y las obligaciones éticas —verificar datos, contrastar fuentes, respetar la verdad— siguen siendo irrenunciables.
Sobre el papel, el marco parece claro. Pero en las redacciones, las preguntas se acumulan: ¿cuándo se considera que se ha usado IA?, ¿basta con una nota al pie?, ¿qué ocurre cuando la herramienta está integrada en el sistema editorial y nadie sabe ya dónde empieza el algoritmo y dónde termina el trabajo humano?
La norma forma parte de la nueva versión del código ético profesional italiano, unificado en 2021 tras décadas de cartas y documentos dispersos —como la Carta de Treviso sobre menores o la Carta de Roma sobre migraciones— y que ahora incorpora también la regulación sobre inteligencia artificial.
Es, como recoge de The Fix, una de las primeras iniciativas a escala nacional en Europa para abordar el impacto de las herramientas generativas en la producción periodística. Pero como ocurre con frecuencia en Italia, donde la regulación no siempre va acompañada de cumplimiento efectivo, el reto no está solo en lo que dice el artículo 19, sino en cómo se aplicará.
El artículo establece que todo uso de IA debe ser transparente, que los periodistas siguen siendo responsables últimos de lo que publican, y que ninguna máquina puede sustituir la función humana del oficio. Lo que no especifica es cómo debe hacerse esa transparencia ni qué se entiende exactamente por “uso”.
¿Contar con la ayuda de ChatGPT para estructurar un texto requiere una mención explícita? ¿Y usar un corrector como Grammarly? ¿Y una IA para resumir informes o traducir notas? ¿Qué pasa si el sistema de edición ya integra IA sin que el redactor lo sepa?
Para Gianluca Amadori, uno de los consejeros del Colegio de Periodistas italiano implicado en la redacción del nuevo código, el principio es claro: el público debe saber si una IA ha intervenido en la elaboración del contenido. “La obligación de verificar la información sigue siendo del periodista”, defiende. Pero también admite que el Colegio solo puede imponer normas a los profesionales, no a los editores. A las empresas, explica, solo se les pueden hacer recomendaciones, aunque en las últimas negociaciones sindicales el uso de IA ya se ha incluido entre los asuntos prioritarios.
Carlo Bartoli, presidente del Colegio, comparte ese diagnóstico. En una respuesta enviada por escrito a The Fix, advierte de que la tentación empresarial de automatizar procesos y recortar costes está ahí, como ocurrió ya con la llegada de internet y las redes sociales. “Abandonar los principios del oficio por seguir las reglas del beneficio”, advierte, “puede tener consecuencias desastrosas”. La norma, aclara, va dirigida también a los editores, sobre todo a los responsables editoriales, que están colegiados y, por tanto, sujetos al código.
Pero el artículo 19 no define procedimientos concretos ni formatos de aplicación. No hay una guía práctica que oriente a los redactores sobre cómo deben declarar el uso de estas herramientas, ni ejemplos que aclaren los límites. Todo queda, por ahora, en manos de la interpretación individual. Y eso puede convertirse —como alerta The Fix— en una trampa disciplinaria para quienes trabajan como autónomos o en condiciones precarias, sin el respaldo estructural de una redacción.
El propio autor del reportaje, el periodista Alberto Puliafito, explica que para escribirlo ha utilizado una IA personalizada, entrenada con sus propios textos, que le ayuda a revisar, estructurar y traducir contenidos. Es una herramienta, dice, que no sustituye su criterio ni toma decisiones, pero que le permite ganar tiempo para centrarse en lo esencial: hablar con fuentes, analizar respuestas, construir un enfoque narrativo. “No puedo saber con exactitud en cuántas fases del proceso la usé”, reconoce. “Pero el control es mío, porque fui yo quien diseñó y alimentó la herramienta, quien revisó y editó cada palabra”.
Ese uso, sin embargo, quedaría bajo el foco del nuevo artículo 19. ¿Debería declararse en una nota? ¿Sería necesario citar la herramienta? ¿Qué ocurre si el asistente ayuda solo a reformular o corregir?
La discusión no es menor. En redacciones presionadas por la velocidad, el SEO y la precariedad, el uso de IA ya es una realidad cotidiana. Lo constatan los propios datos que maneja Puliafito: muchos periodistas italianos ya utilizan herramientas automáticas, pero sin protocolos comunes, sin formación específica y sin estándares compartidos. Por eso, aunque la norma italiana marca un paso adelante, también deja al descubierto un vacío mayor: la ausencia de cultura compartida sobre cómo integrar la IA en el periodismo sin renunciar a sus principios.
Ni Amadori ni Bartoli ven la IA como una amenaza en sí misma. Ambos insisten en que puede ser una aliada si se utiliza con ética, pero también advierten de los riesgos de que su integración se decida desde los intereses de los editores y no desde los principios del oficio. La proliferación de contenidos sintéticos —especialmente en imagen, vídeo y audio— fuera del periodismo profesional puede, alertan, erosionar la confianza pública. Y sin confianza, recuerdan, no hay democracia posible.
El artículo 19 aspira a poner límites y ofrecer garantías, pero sin formación, discusión abierta y políticas editoriales claras, su impacto será limitado. “Las reglas son necesarias, pero no suficientes”, concluye Puliafito. “Lo que necesitamos es cultura, conocimiento compartido y responsabilidad colectiva”. Porque la verdadera pregunta no es si se debe usar IA en el periodismo, sino qué tipo de periodismo y de ecosistema mediático se quiere construir.