Un proyecto financiado por la Agencia Estatal de Investigación (AEI) ha desarrollado una herramienta de inteligencia artificial explicable capaz de analizar de forma multimodal textos, imágenes, estilo de escritura y patrones de difusión para detectar desinformación y explicar al usuario cómo y por qué un contenido resulta falso o manipulativo, en un entorno digital en el que el 88% de la población española considera que la desinformación es un problema y el 66% afirma encontrarse con información falsa al menos una vez por semana, según el Eurobarómetro 464, una situación intensificada tras la pandemia por el aumento del consumo de contenidos digitales.
La iniciativa, denominada XAI-Disinfodemics, fue impulsada por David Arroyo Guardeño, del Grupo de Investigación en Ciberseguridad y Protección de la Privacidad (GiCP) del Consejo Superior de Investigaciones Científicas (CSIC), y coordinada por el catedrático Paolo Rosso, de la Universidad Politécnica de Valencia. La ayuda de Proyectos de I+D+I en Líneas Estratégicas permitió desarrollar una metodología socio-tecnológica orientada al análisis de la desinformación en español, segunda lengua materna del mundo con 483 millones de hablantes.
El sistema combina técnicas de procesamiento del lenguaje natural, análisis de imagen y estudio de dinámicas de propagación para identificar no solo bulos, sino también técnicas psicolingüísticas y narrativas orientadas a provocar emociones y favorecer la viralidad. Según Arroyo, el planteamiento busca integrar enfoques técnicos y sociales para comprender las narrativas, los actores y los mecanismos de difusión asociados a discursos negacionistas y campañas de conspiración.
Entre los desarrollos alcanzados figuran la caracterización del estilo de escritura de emisores de contenido manipulativo y clickbait, la detección automatizada de negacionismo y teorías conspirativas en redes sociales, la ciberatribución mediante análisis lingüístico avanzado y la identificación de comunidades polarizadas y patrones de amplificación artificial. El equipo trabajó con cientos de miles de muestras anotadas y generó publicaciones científicas, metodologías para el desmentido de bulos científicos y herramientas open source destinadas a analistas, verificadores y especialistas en ciberinteligencia.
El proyecto ha colaborado con el Foro contra las campañas de desinformación del Departamento de Seguridad Nacional y con la Oficina de Ciencia y Tecnología del Congreso de los Diputados, órgano que asesora en la toma de decisiones basadas en evidencia científica.
La línea de investigación continúa en iniciativas como Safehorizon, financiado por Horizon Europe, centrado en la detección y prueba del crimen digital organizado mediante el análisis de grandes volúmenes de información, y en el proyecto regional CIRMA, orientado a prevenir ataques de suplantación de identidad.



