Los medios de comunicación están adoptando progresivamente herramientas de inteligencia artificial (IA) para mejorar sus procesos de producción y distribución de contenidos, explorando formas en las que esta tecnología puede complementar el trabajo periodístico sin comprometer los estándares de calidad y veracidad.
Uno de los principales periódicos del mundo, The New York Times, ha dado un paso importante en esta dirección al aprobar el uso de IA para su personal de producto y redacción, con el objetivo de facilitar tareas como la generación de titulares optimizados para buscadores, la redacción de textos para redes sociales o la síntesis de contenidos.
Sin embargo, la compañía mantiene restricciones estrictas para evitar que estas herramientas sustituyan la labor editorial de los periodistas o comprometan la integridad de la información.
Según ha revelado el medio estadounidense Semafor, el Times ha comunicado internamente el lanzamiento de una serie de herramientas de IA que podrán ser utilizadas por su equipo, entre ellas un sistema propio denominado Echo, diseñado para resumir artículos, informes y contenido interactivo de la publicación.
Además, la empresa ha puesto a disposición de su plantilla documentos y vídeos de formación con directrices sobre el uso responsable de la IA en la producción de noticias.
Un enfoque controlado de la IA
En un documento interno dirigido a los empleados de la redacción, The New York Times ha expresado su postura sobre la integración de la inteligencia artificial en el periodismo. La compañía destaca que la IA generativa puede ser una herramienta de apoyo para sus periodistas, ayudándoles a analizar información, estructurar contenidos o desarrollar ideas, pero insiste en que no debe reemplazar el criterio humano en la creación de noticias.
El Times también señala que la IA ya juega un papel relevante en su operativa, por ejemplo, en la transcripción de entrevistas, la organización de bases de datos y la generación de traducciones. Sin embargo, advierte que su implementación debe estar sujeta a controles estrictos para garantizar que su uso no comprometa la precisión ni la ética periodística.
Para ello, el diario ha aprobado el uso de determinadas herramientas externas, como GitHub Copilot (asistente de programación basado en IA), Google Vertex AI (utilizado para el desarrollo de productos), NotebookLM, el propio ChatExplorer del Times, así como algunos servicios de IA de Amazon y una versión específica de la API de OpenAI. No obstante, el acceso a esta última solo será posible con la autorización previa del departamento legal del periódico.
Límites y preocupaciones
Pese a la apertura a nuevas herramientas, la compañía ha establecido límites estrictos sobre su uso. El Times prohíbe a sus periodistas emplear IA para redactar o modificar sustancialmente artículos, introducir información confidencial o con derechos de autor en plataformas de IA, eludir muros de pago mediante estos sistemas o publicar imágenes y vídeos generados por inteligencia artificial sin la debida identificación.
Entre las aplicaciones permitidas de la IA se encuentran la generación de titulares optimizados para motores de búsqueda (SEO), la redacción de resúmenes para newsletters, la creación de fichas de citas o tarjetas informativas para redes sociales, la elaboración de preguntas para entrevistas y el desarrollo de contenido interactivo, como cuestionarios. Sin embargo, la empresa insiste en que estos usos deben estar supervisados por periodistas y alineados con las directrices editoriales del medio.
El periódico también ha advertido sobre los riesgos de que la IA genere información inexacta, lo que ha generado cierto escepticismo entre sus empleados. Según Semafor, algunos miembros de la redacción han manifestado preocupación por la posibilidad de que esta tecnología fomente la producción de titulares poco creativos, conduzca a la automatización excesiva de tareas periodísticas o genere contenidos erróneos que puedan afectar la credibilidad del medio.
En plena disputa legal con OpenAI
La decisión del Times de avanzar en el uso de herramientas de IA coincide con su batalla legal contra OpenAI, a la que acusa de haber utilizado contenido de su periódico sin autorización para entrenar sus modelos de lenguaje. En una demanda presentada en diciembre de 2023, el medio sostiene que OpenAI incurrió en una infracción masiva de derechos de autor al incluir material del Times en su base de datos sin licencia.
El conflicto entre el Times y OpenAI refleja las tensiones en la industria periodística sobre el impacto de la inteligencia artificial en el sector. Mientras algunos medios exploran su potencial para mejorar la eficiencia en las redacciones, otros temen que su expansión pueda socavar el valor de los contenidos informativos y amenazar la sostenibilidad del periodismo tradicional.