Ni ChatGPT puede diagnosticar cáncer, ni la imagen compartida del papa Francisco en el hospital cuando estuvo ingresado era real. Ambos son contenidos relacionados de una forma u otra con inteligencia artificial que se publicaron en webs de noticias este 2025, y que pueden provocar desinformación. No solo de forma directa: también contribuyen, como tantos otros ejemplos que no provienen de los medios, a contaminar el ecosistema informativo de internet y generar, a la larga, más ruido y desinformación.

Todo empezó hace dos años. Con la democratización de las herramientas de inteligencia artificial, especialmente de IA generativa, llegó una revolución que ha afectado a multitud de sectores; también, al periodismo. Lo ha hecho desde distintas aristas. Por un lado, hay contenidos generados con IA que se crean para desinformar o que, aunque no tengan esa intencionalidad, acaban desinformando. Por otro, tanto el uso de la IA en periodismo, como la forma en que se comunica sobre ella, en ciertos casos puede requerir más contexto del que se da para no acabar aportando datos erróneos que, lejos de informar a las personas, crean en ellas imaginarios incorrectos y peligrosos sobre esta tecnología.

El más evidente es el primer escenario. Desde que hay herramientas accesibles y cada vez más perfeccionadas, como Midjourney, DALL-E o Grok, que permiten generar imágenes y vídeos con un solo prompt (o instrucción), hemos visto montones de contenidos que se han aprovechado para difundir bulos. En 2023, este boom arrancó con las imágenes generadas con IA virales del papa Francisco usando un abrigo blanco de plumas estilo Balenciaga y de Donald Trump huyendo de la policía.

Durante el año pasado, este tipo de programas de IA se usaron para mostrar a la boxeadora argelina Imane Khelif como si fuera un hombre para legitimar el bulo de que la Organización Mundial de Boxeo la había despojado de sus títulos, para crear una imagen falsa de un grupo de policías arrodillados ante hombres musulmanes durante los disturbios en el Reino Unido, para desinformar durante la DANA en España y durante los huracanes de Estados Unidos con vídeos falsos, y en las elecciones presidenciales de ese país, con imágenes falsas a favor de Donald Trump y contra Kamala Harris. En 2025 hemos detectado cómo en YouTube y TikTok hay canales que utilizan IA generativa (imagen, audio y vídeo) para desinformar sobre política española y europea.

Estos son solo algunos ejemplos de usos que no provienen del periodismo, pero ante los que los periodistas y fact-checkers, como Maldita.es, tenemos que reaccionar y debemos desmentir y contextualizar para evitar que propaguen desinformación y otros peligros, como timos y estafas.

Pero el otro escenario, que quizá no es tan evidente y en el que el periodismo juega un papel protagonista en primera persona, también implica riesgos para la calidad de la información. A menudo nos encontramos con titulares que otorgan capacidades a sistemas de inteligencia artificial que, en realidad, no tienen actualmente.

Ejemplos muy recientes tienen que ver con la supuesta capacidad del chatbot de OpenAI, ChatGPT, para diagnosticar enfermedades “antes que los médicos”. Y no: una IA no puede sustituir a un médico ni dar un diagnóstico fiable, ya que puede cometer errores, entrenarse con datos no fiables y recomendar tratamientos inadecuados, y es peligrosísimo que una persona piense que sí. Es un caso entre miles de titulares y textos que prometen que un chatbot de IA te puede hacer la declaración de la renta, adivinar la lotería de Navidad (de verdad, paremos las noticias pronosticando qué número va a salir cada diciembre) o que tiene conciencia. Como periodistas, hacemos un flaco favor a la ciudadanía exagerando las capacidades de una IA; esto también es desinformación.

Lo mismo sucede en el extremo opuesto cuando se alarma de forma exagerada y sin dar contexto e información contrastada sobre los peligros de esta tecnología. Obviamente, debemos informar y dar voz a los expertos y expertas con visiones distintas, pero quizá es hora de evitar el clickbait que asegura que la IA (como si fuera en sí misma un ente y no una tecnología desarrollada y utilizada por personas) va a acabar con la humanidad.

También se han usado contenidos generados con IA en webs y revistas. Ciertas imágenes del papa Francisco hospitalizado, de Julio Iglesias firmando un documento y de la bioquímica Margarita Salas son imágenes que podrían ser reales, pero que fueron creadas con este tipo de herramientas. En estos casos, dejarle claro al lector que esa imagen ha sido generada con IA puede ayudarle a distinguir qué es real y qué no, porque cuando lo vemos publicado, asumimos que es real: las imágenes hiperrealistas no nos generan el mismo efecto que encontrar una viñeta o una ilustración en un medio de comunicación, estas sabemos a simple vista que son una interpretación. Un pie de foto puede no bastar, ya que el uso y difusión de estas imágenes fuera de estos contextos (donde no estará el pie) puede provocar desinformación y generar falsos relatos.

Que todo esto esté bullendo en internet y en redes sociales tiene otro efecto colateral: el ecosistema donde desde hace años buscamos información está cambiando y llenándose de (perdón por la expresión) ‘mierda’ creada con IA. El escritor Cory Doctorow acuñó el término ‘mierdificación’ para definir el proceso por el cual, según su teoría, las plataformas digitales pueden volverse cada vez peores, hasta que dejan de servir a los usuarios. La IA se ha convertido en un factor importante para este proceso, ya que vuelve más fácil y rápido crear contenidos de poco valor… o falsos, que acaben desinformando. Un ejemplo concreto son los buscadores, que ya devuelven contenidos generados con IA, por ejemplo de artistas, obras pictóricas y ciudades.

Volvemos a los ejemplos anteriores utilizados en webs y revistas: por mucho pie de foto que tengan, cuando se indexan en buscadores pueden acabar difundiéndose como si fueran reales. Esto tiene un riesgo especial cuando se trata de contenidos históricos. Usar imágenes hiperrealistas creadas con IA de mujeres extranjeras que participaron en la Guerra Civil, una supuesta política republicana o de soldados (algunos de los casos encontrados) pueden alterar nuestra percepción sobre personajes y hechos históricos y generar falsas narrativas.

Todo lo analizado ya podía ocurrir con otras herramientas digitales edición; Photoshop, sin ir más lejos. Pero a medida que avanzan las herramientas de IA, los peligros de que se difundan sin contexto contenidos generados con inteligencia artificial aumentan. Como periodistas, no contribuyamos a ello y busquemos maneras éticas y responsables de utilizar IA y de informar sobre ella. No hacerlo no solo ensucia el ecosistema informativo y contribuye a la desinformación contra la que luchamos; también ahonda en la creciente desconfianza ciudadana con los medios de comunicación. Si los contenidos generados con IA hacen que cada vez sea más difícil discernir lo que es real de lo que no, los periodistas no podemos ponerlo más difícil. IA, sí, pero con responsabilidad y ética periodística.

  • Coordinadora de Estrategia de IA y Desinformación y coordinadora de Maldita Tecnología en Fundación Maldita.es.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí