sábado 4 de abril de 2026
InicioConfianza en el periodismoLa expansión de contenidos generados por inteligencia artificial acelera la erosión de...

La expansión de contenidos generados por inteligencia artificial acelera la erosión de la confianza en la información digital

La proliferación de imágenes, vídeos y audios generados o manipulados mediante inteligencia artificial durante acontecimientos informativos de alto impacto está intensificando una pérdida de confianza estructural en el ecosistema digital, según advierten investigadores y expertos en comunicación y tecnología, que señalan en un artículo publicado en la NBC, que la convivencia entre pruebas auténticas y contenidos sintéticos dificulta cada vez más que los ciudadanos distingan lo real de lo falso en el momento mismo en que se produce la noticia, especialmente cuando la información circula de forma masiva y desordenada en redes sociales incentivadas por la lógica del engagement.

Durante los primeros días de 2026, varios episodios de actualidad internacional se han visto acompañados de una oleada de contenidos falsos o alterados. La operación de Estados Unidos en Venezuela, anunciada por el presidente Donald Trump, fue seguida casi de inmediato por la circulación de imágenes generadas por inteligencia artificial, vídeos antiguos reutilizados y fotografías manipuladas que se difundieron como si fueran pruebas reales de los hechos.

De forma paralela, tras la muerte de una mujer tiroteada por un agente de inmigración en su vehículo, se viralizó una imagen falsa, aparentemente basada en un vídeo auténtico, mientras otros usuarios empleaban herramientas de IA para intentar eliminar digitalmente la máscara del agente implicado.

Jeff Hancock, director fundador del Stanford Social Media Lab, explica que este tipo de situaciones erosionan lo que denomina la “confianza por defecto” en la comunicación digital, es decir, la tendencia a creer lo que se ve hasta que exista un motivo claro para dudar. A su juicio, la aceleración tecnológica provocada por la inteligencia artificial hará que, al menos a corto plazo, las personas desconfíen incluso de contenidos auténticos cuando los consumen en entornos digitales, especialmente en contextos informativos caóticos y de rápida evolución.

Los expertos recuerdan que la desinformación no es un fenómeno nuevo y que crisis de confianza similares han acompañado otros hitos tecnológicos, desde la expansión de la propaganda tras la invención de la imprenta en el siglo XV hasta la manipulación de imágenes con Photoshop en la era digital. Sin embargo, Hancock subraya que los momentos de noticias en desarrollo son especialmente vulnerables, ya que la escasez inicial de datos verificados abre espacio a materiales manipulados que se presentan como pruebas visuales.

Te puede interesar:  Los encuentros vecinales, los talleres de alfabetización mediática y las redacciones temporales refuerzan la relación entre The Dallas Morning News y su audiencia

Un ejemplo reciente se produjo cuando Trump difundió en su cuenta verificada de Truth Social una imagen del líder venezolano Nicolás Maduro esposado y con los ojos vendados a bordo de un buque militar. Poco después, comenzaron a circular imágenes no verificadas relacionadas con su supuesta captura, algunas de las cuales fueron transformadas en vídeos generados por inteligencia artificial y amplificadas en otras plataformas. Entre quienes compartieron este tipo de contenidos figuró Elon Musk, propietario de X, que reposteo un vídeo aparentemente sintético en el que ciudadanos venezolanos agradecían a Estados Unidos la detención de Maduro, mientras en el país se producían celebraciones reales.

El impacto de estas tecnologías no se limita al ámbito informativo. Pruebas generadas por inteligencia artificial ya han aparecido en procedimientos judiciales y han llegado a engañar a responsables políticos y militares. A finales del año pasado, circularon de forma masiva vídeos falsos en los que supuestos soldados ucranianos pedían perdón al pueblo ruso y anunciaban su rendición, una operación que combinaba manipulación visual y narrativa propagandística.

Hancock sostiene que, aunque buena parte de la desinformación sigue basándose en el uso engañoso de materiales reales, la inteligencia artificial está multiplicando su alcance y sofisticación. En su opinión, la detección visual de falsificaciones será pronto inviable para el ojo humano, lo que dejará obsoletos muchos de los consejos tradicionales de alfabetización mediática basados en identificar errores evidentes en las imágenes.

Desde el ámbito académico, Renee Hobbs, profesora de estudios de comunicación en la Universidad de Rhode Island, advierte del agotamiento cognitivo que provoca la exposición constante a una mezcla de contenidos reales y sintéticos. Esa saturación, explica, dificulta que las personas mantengan un esfuerzo sostenido para verificar la información y puede llevar al desapego como mecanismo de defensa, con el riesgo añadido de que se debilite la motivación misma por buscar la verdad.

Te puede interesar:  La inteligencia artificial desplazará el acceso directo a las noticias y obligará a las redacciones a reforzar la verificación en 2026

En paralelo, organismos internacionales trabajan en nuevas estrategias educativas. La Organización para la Cooperación y el Desarrollo Económicos tiene previsto publicar en 2029 una evaluación global sobre alfabetización mediática e inteligencia artificial dirigida a estudiantes de 15 años, con el objetivo de medir su capacidad para interpretar críticamente contenidos digitales.

Incluso directivos de grandes plataformas han reconocido públicamente la magnitud del problema. Adam Mosseri, responsable de Instagram, ha señalado recientemente que la presunción de que las imágenes y vídeos reflejan hechos reales ya no es válida y que la adaptación social a este nuevo entorno será lenta y compleja, obligando a los usuarios a prestar más atención a quién comparte los contenidos y con qué finalidad.

Las investigaciones en detección de deepfakes también muestran límites preocupantes. Hany Farid, profesor de informática en la Universidad de California en Berkeley, señala que las personas tienden a clasificar erróneamente contenidos reales y falsos en proporciones similares, un sesgo que se agrava cuando el material tiene carga política y activa mecanismos de confirmación ideológica. En ese escenario, explica, la credibilidad depende menos de la evidencia que de la afinidad con la visión del mundo del receptor.

Por último, Siwei Lyu, profesor de informática en la Universidad de Buffalo y colaborador en la plataforma abierta de detección DeepFake-o-meter, destaca que la confianza previa en figuras conocidas —políticos, celebridades o contactos personales— incrementa la eficacia de las suplantaciones generadas por inteligencia artificial. Aunque reconoce que no todos los usuarios pueden analizar técnicamente cada contenido, subraya la importancia de cuestionar el origen, el contexto y la intención de lo que se consume y comparte como una primera línea de defensa frente a la desinformación.

Artículos relacionados

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here

ÚLTIMOS ARTÍCULOS

LO MÁS LEÍDO