La creciente integración de modelos generativos de inteligencia artificial en los procesos informativos está redefiniendo, con ritmos dispares y resultados ambiguos, el modo en que se concibe y se ejerce el periodismo. No se trata ya de conjeturas ni de escenarios futuristas: desde la transcripción automática hasta la redacción asistida, pasando por el análisis de grandes bases de datos o la traducción multilingüe, la IA se ha convertido en una herramienta omnipresente en muchas redacciones del mundo.
En paralelo, se multiplican las voces que advierten del riesgo de ceder terreno a sistemas que replican sesgos, erosionan la confianza del lector y ponen en entredicho la autoría y la ética del relato periodístico.
Numerosos profesionales han compartido con Columbia Journalism Review sus experiencias, dudas y reflexiones sobre el uso cotidiano de estas herramientas. Desde redactores de tecnología hasta directores editoriales, pasando por reporteros visuales, desarrolladores y responsables de impacto social, el testimonio coral recogido por la publicación ofrece un mapa diverso y matizado de cómo se está asimilando la inteligencia artificial en el ecosistema informativo y cuáles son las líneas rojas que muchos se resisten a cruzar.
Asistente ágil, pero sin firma
Entre quienes han incorporado la IA como una aliada cotidiana destaca Ben Welsh, fundador del departamento de aplicaciones informativas de Reuters, donde la inteligencia artificial genera ya alrededor de una cuarta parte del código. En su redacción, los modelos de lenguaje asisten en la producción de gráficos automatizados y en la exploración de datos electorales o económicos, sin intervención humana directa. Welsh subraya el cambio de paradigma: herramientas antes inaccesibles requieren ahora menos conocimientos técnicos y producen mejores resultados.
También en The New York Times, según relata Zach Seward, director editorial de iniciativas con IA, la tecnología se emplea en investigaciones, análisis de cambios en webs oficiales y mejoras en los flujos de trabajo. Pero Seward advierte de su escasa utilidad en solitario: “Es un truco de salón. La diferencia la marca el periodista que sabe cómo usarla”.
Escribir sigue siendo cosa de humanos
Una de las divisiones más marcadas se produce en torno a la autoría. Emilia David, reportera especializada en IA en VentureBeat, reconoce que emplea estas herramientas para generar titulares, resumir artículos o refinar ideas, pero se niega a delegar en ellas el proceso de redacción: “No quiero que mis lectores sientan que un modelo repite datos sin más. Quiero ayudarles a tomar decisiones informadas”.
Jason Koebler, cofundador del medio independiente 404 Media, rechaza de plano integrarlas en el proceso de escritura: “Muchas empresas quieren sustituirnos con estas herramientas. Nosotros nos posicionamos del lado de las personas, no de las plataformas”. Aun así, emplea IA para tareas como transcripciones, análisis de vídeos o generación de peticiones FOIA complejas, siempre con control humano posterior.
También Khari Johnson, periodista especializado en tecnología en CalMatters, rechaza que la IA escriba por él. Sí la utiliza para revisar transcripciones o analizar documentos legislativos, pero subraya el impacto que puede tener en la relación con el lector: “Es mi firma la que aparece en el texto. No la de una máquina”.
Productividad y límites
En otros casos, la IA se asume como una extensión funcional del trabajo, especialmente para agilizar tareas mecánicas. Gina Chua, directora ejecutiva de Semafor, explica que su redacción está desarrollando bots de corrección, motores de búsqueda y herramientas para comparar coberturas informativas entre medios. “La clave es experimentar, pero sin perder de vista el criterio editorial”, señala.
Ina Fried, corresponsal tecnológica de Axios, detalla que la IA le ha permitido recuperar entrevistas, localizar fragmentos relevantes y preparar con más profundidad sus reportajes. Pero en Axios, puntualiza, no se publica contenido generado por IA, salvo para ilustrar sus capacidades o limitaciones.
Traducción, diversidad y medioambiente
En paralelo, varios testimonios alertan de los desafíos que plantea la IA en materia de diversidad lingüística y sostenibilidad. Araceli Gómez-Aldana, periodista bilingüe en WBEZ (Chicago), ve en los modelos de lenguaje una oportunidad para superar las barreras idiomáticas, aunque advierte que aún no garantizan traducciones precisas, respetuosas con los matices culturales o con los registros locales.
Sisi Wei, responsable de impacto en CalMatters, llama la atención sobre el coste medioambiental del uso masivo de IA. “Una sola interacción con un modelo como ChatGPT consume de tres a diez veces más energía que una búsqueda convencional”, denuncia. Su organización ha optado por ejecutar localmente algunos modelos para minimizar ese impacto.
Señales de alerta: manipulación y banalización
Tristan Lee, investigador visual, advierte de cómo la IA ha empeorado el trabajo en muchas áreas: desde la proliferación de imágenes falsas hasta el deterioro de los buscadores por el contenido basura generado automáticamente. Aunque admite que ciertas tareas le resultan más eficientes gracias a estas herramientas, sostiene que la calidad general se ha resentido.
La preocupación por la credibilidad visual también la comparte David Carson, fotoperiodista con tres décadas de experiencia. “Las imágenes hiperrealistas creadas por IA son, por definición, falsas”, señala. Propone, como posible solución, el uso de certificados de autenticidad digital (C2PA) que permitan rastrear la procedencia de cada imagen o vídeo.
Preservar la integridad editorial
Otros testimonios inciden en la necesidad de mantener la autonomía profesional frente al empuje tecnológico. Brian Merchant, autor y excolumnista de Los Angeles Times, considera que el uso acrítico de estas herramientas está “diluyendo el oficio” y empujando al sector a una homogeneización peligrosa. “La IA no puede ser el nuevo salvavidas que nos ofrecen tras cada crisis. Si no negociamos los términos de uso, hay que rechazarla”, afirma.
Karen Rønde, representante de los medios daneses ante las tecnológicas, advierte de cómo la concentración en pocas plataformas de IA puede afectar a la pluralidad mediática y a la soberanía informativa: “Los modelos no entienden nuestras normas culturales ni nuestras leyes. El riesgo es una homogeneización del relato global que borre las voces locales”.
La audiencia como brújula
Varios periodistas coinciden en que el verdadero criterio debe seguir siendo la utilidad para el lector. Claire Leibowicz, del Partnership on AI, relata cómo medios como la BBC o la CBC canadiense tomaron decisiones opuestas ante un mismo dilema: usar o no IA para proteger la identidad de las fuentes. Ambas decisiones, afirma, se basaron en la relación de confianza con la audiencia.
Tal como recoge Columbia Journalism Review, el periodismo se encuentra en un momento de encrucijada: la inteligencia artificial puede amplificar capacidades, pero también erosionar las bases éticas del oficio. La tecnología no sustituye al criterio, y el sentido último del periodismo, recuerdan muchos de los consultados, no está en automatizar textos ni en optimizar recursos, sino en preservar la relación entre quienes escriben y quienes leen.



