domingo 5 de abril de 2026
InicioAudienciaChatbots más rápidos, más falsedades

Chatbots más rápidos, más falsedades

Las principales herramientas de inteligencia artificial generativa afrontan un retroceso en una de las tareas más básicas: separar hechos de falsedades. Una auditoría independiente revela que, pese a un año de avances técnicos y a la incorporación de búsquedas en tiempo real, los chatbots repiten desinformación en un 35 % de las respuestas sobre temas de actualidad, casi el doble que hace un año. El informe apunta a un cambio de patrón: la cautela que antes se traducía en silencios o negativas ha sido sustituida por una voluntad de responder siempre, lo que ha abierto la puerta a narrativas procedentes de webs de baja fiabilidad, granjas de contenido y operaciones de influencia que los modelos no logran distinguir de fuentes legítimas.

Diez herramientas líderes de IA generativa repiten afirmaciones falsas en más de un tercio de las respuestas sobre temas de actualidad, según una nueva auditoría de NewsGuard, de septiembre de 2025, que compara su desempeño con el de hace un año y concluye que la tasa de desinformación casi se ha duplicado: 35 % en agosto de 2025 frente al 18 % de agosto de 2024.

El cambio coincide con una transición del “no responder” a “responder siempre”: la proporción de no-respuestas cae del 31 % al 0 % con la incorporación de búsquedas en tiempo real en la web, un giro que aumenta la exposición de los modelos a un ecosistema informativo contaminado por webs de baja tracción, publicaciones en redes sociales y granjas de contenido que aparentan fiabilidad sin serlo, incluidas operaciones de desinformación vinculadas a Rusia.

La adopción de búsqueda en la web en tiempo real elimina el bloqueo clásico por “fecha de corte” y anima a los asistentes a ofrecer salidas en todo tipo de consultas de actualidad. Donde antes la prudencia se traducía en silencio o en mensajes de limitación, ahora la respuesta llega siempre, pero con más señales de arrastre de fuentes débiles. La consecuencia es que, a mayor cobertura de asuntos en curso —elecciones, conflictos, crisis sanitarias o debates regulatorios—, más posibilidades existen de que el modelo recoja narrativas no verificadas y las presente como hechos.

Te puede interesar:  Más allá de la implantación de la inteligencia artificial en grandes medios internacionales

El monitor de NewsGuard evalúa mensualmente a 10 herramientas con tres estilos de instrucciones: neutrales, dirigidas para inducir la falsedad y de “actor malicioso” para simular intentos de eludir salvaguardas. Los temas abarcan política internacional, salud, migraciones, economía y empresas. Cada elemento se clasifica como a) repetición de una afirmación falsa, b) desmentido con información verificada o c) no-respuesta. En el último ciclo, los desmentidos crecen respecto a 2024, las no-respuestas desaparecen y, aun así, el porcentaje de salidas que reproducen falsedades sube hasta el 35 %.

Dónde fallan y por qué

El patrón que describe el informe es consistente: los chatbots tratan como equivalentes fuentes de calidad y sitios de escaso seguimiento que imitan marcas reconocidas, a menudo con nombres y diseños similares. La táctica de “lavado” informativo consiste en sembrar falsedades en páginas sin apenas interacción humana, perfiles de redes sociales y contenidos generados por IA, para que los modelos —al rastrear la web— encuentren esos materiales y los utilicen como base. El resultado es una cadena de errores que comienza fuera del modelo pero se amplifica cuando el sistema responde con confianza.

Para redacciones que integran asistentes en flujos de documentación o apoyo a la edición, el hallazgo central es operativo: respuestas inmediatas no equivalen a mayor fiabilidad en cobertura de última hora. El riesgo crece en mercados informativos con menor densidad de fuentes auditadas o con campañas de influencia activas. La recomendación práctica es reforzar capas de verificación humana antes de incorporar cualquier afirmación obtenida vía chatbot, exigir trazabilidad de fuentes, desconfiar de webs look-alike y evitar basar piezas en capturas o hilos de redes sociales sin contraste independiente

Te puede interesar:  Podcast 38# (especial). El periodismo que viene: claves para entender 2026. La visión de destacados miembros de la industria de los medios

La evolución observada en un año revela un intercambio estructural: más capacidad para contestar a temas en curso, menos cautela a la hora de filtrar lo que la web ofrece en tiempo real. Mientras no mejoren los mecanismos de evaluación de credibilidad y la detección de redes coordinadas, la promesa de sistemas “más seguros y confiables” no se traduce, en la práctica, en mejores respuestas sobre la conversación pública. Para los equipos de prensa, el mensaje es claro: integrar IA generativa puede acelerar tareas, pero exige reforzar los protocolos de verificación, sobre todo cuando el asunto aún está en movimiento.

Artículos relacionados

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here

ÚLTIMOS ARTÍCULOS

LO MÁS LEÍDO