Diez herramientas líderes de IA generativa repiten afirmaciones falsas en más de un tercio de las respuestas sobre temas de actualidad, según una nueva auditoría de NewsGuard, de septiembre de 2025, que compara su desempeño con el de hace un año y concluye que la tasa de desinformación casi se ha duplicado: 35 % en agosto de 2025 frente al 18 % de agosto de 2024.
El cambio coincide con una transición del “no responder” a “responder siempre”: la proporción de no-respuestas cae del 31 % al 0 % con la incorporación de búsquedas en tiempo real en la web, un giro que aumenta la exposición de los modelos a un ecosistema informativo contaminado por webs de baja tracción, publicaciones en redes sociales y granjas de contenido que aparentan fiabilidad sin serlo, incluidas operaciones de desinformación vinculadas a Rusia.
La adopción de búsqueda en la web en tiempo real elimina el bloqueo clásico por “fecha de corte” y anima a los asistentes a ofrecer salidas en todo tipo de consultas de actualidad. Donde antes la prudencia se traducía en silencio o en mensajes de limitación, ahora la respuesta llega siempre, pero con más señales de arrastre de fuentes débiles. La consecuencia es que, a mayor cobertura de asuntos en curso —elecciones, conflictos, crisis sanitarias o debates regulatorios—, más posibilidades existen de que el modelo recoja narrativas no verificadas y las presente como hechos.
El monitor de NewsGuard evalúa mensualmente a 10 herramientas con tres estilos de instrucciones: neutrales, dirigidas para inducir la falsedad y de “actor malicioso” para simular intentos de eludir salvaguardas. Los temas abarcan política internacional, salud, migraciones, economía y empresas. Cada elemento se clasifica como a) repetición de una afirmación falsa, b) desmentido con información verificada o c) no-respuesta. En el último ciclo, los desmentidos crecen respecto a 2024, las no-respuestas desaparecen y, aun así, el porcentaje de salidas que reproducen falsedades sube hasta el 35 %.
Dónde fallan y por qué
El patrón que describe el informe es consistente: los chatbots tratan como equivalentes fuentes de calidad y sitios de escaso seguimiento que imitan marcas reconocidas, a menudo con nombres y diseños similares. La táctica de “lavado” informativo consiste en sembrar falsedades en páginas sin apenas interacción humana, perfiles de redes sociales y contenidos generados por IA, para que los modelos —al rastrear la web— encuentren esos materiales y los utilicen como base. El resultado es una cadena de errores que comienza fuera del modelo pero se amplifica cuando el sistema responde con confianza.
Para redacciones que integran asistentes en flujos de documentación o apoyo a la edición, el hallazgo central es operativo: respuestas inmediatas no equivalen a mayor fiabilidad en cobertura de última hora. El riesgo crece en mercados informativos con menor densidad de fuentes auditadas o con campañas de influencia activas. La recomendación práctica es reforzar capas de verificación humana antes de incorporar cualquier afirmación obtenida vía chatbot, exigir trazabilidad de fuentes, desconfiar de webs look-alike y evitar basar piezas en capturas o hilos de redes sociales sin contraste independiente
La evolución observada en un año revela un intercambio estructural: más capacidad para contestar a temas en curso, menos cautela a la hora de filtrar lo que la web ofrece en tiempo real. Mientras no mejoren los mecanismos de evaluación de credibilidad y la detección de redes coordinadas, la promesa de sistemas “más seguros y confiables” no se traduce, en la práctica, en mejores respuestas sobre la conversación pública. Para los equipos de prensa, el mensaje es claro: integrar IA generativa puede acelerar tareas, pero exige reforzar los protocolos de verificación, sobre todo cuando el asunto aún está en movimiento.



