viernes 3 de abril de 2026
InicioInteligencia ArtificialUna investigación identifica que las herramientas multimodales y la supervisión humana predominan...

Una investigación identifica que las herramientas multimodales y la supervisión humana predominan en los proyectos europeos de IA contra la desinformación

Una investigación académica firmada por Mabel Sánchez-Torres, Francisco Javier Paniagua Rojano y Raúl Magallón Rosa analiza 25 iniciativas europeas que incorporan inteligencia artificial para combatir la desinformación y concluye que, en el conjunto de proyectos estudiados, predominan herramientas orientadas a la detección y verificación automatizada de contenidos, desarrolladas en cooperación entre universidades, empresas tecnológicas, medios y organizaciones sociales, bajo un enfoque de supervisión humana como norma operativa para reducir errores y sesgos.

El trabajo toma como punto de partida el directorio del proyecto SmartVote, que recopiló 125 proyectos internacionales relacionados con desinformación y herramientas de detección, de los que 52 declaraban un uso explícito de IA. A partir de ese universo, los autores acotan el análisis a una submuestra europea de 25 proyectos, seleccionados por estar basados o coordinados en Europa, declarar de forma expresa el uso de IA y contar con trazabilidad documental mínima a través de fuentes institucionales o técnicas verificables, lo que les permite codificar de forma homogénea variables tecnológicas, organizativas y estratégicas.

La metodología combina un análisis sistemático de documentación pública (sitios oficiales, informes, repositorios y fichas de proyecto) con un cuestionario estructurado enviado a coordinadores y responsables técnicos de algunas iniciativas, con el objetivo de triangular información cuantitativa y cualitativa sobre tipos de tecnología, áreas de impacto, actores implicados y niveles de financiación.

El estudio señala que el despliegue de IA se concentra, principalmente, en sistemas que actúan como filtro previo para priorizar señales o contenidos potencialmente engañosos antes de la revisión por parte de equipos humanos, un esquema que el artículo vincula a modelos human-in-the-loop aplicados a la verificación.

En el plano tecnológico, el análisis describe una orientación multimodal relevante dentro de la muestra: 9 de los 25 proyectos (36%) combinan varias técnicas de IA, especialmente procesamiento del lenguaje natural con aprendizaje automático o profundo, como base para estrategias de detección, clasificación y verificación. El artículo también destaca que la visión por computador aparece con menor presencia cuando se presenta como tecnología principal (2 proyectos, 8%), pese a que la investigación subraya el peso creciente de la desinformación audiovisual y sugiere un desajuste entre la evolución multimodal de los contenidos falsos y la capacidad tecnológica de ciertas iniciativas para verificarlos con la misma intensidad.

Te puede interesar:  La audiencia fantasma: la IA no te quita lectores, te quita la relación

Por objetivos, el estudio sitúa como dominante el uso de IA para apoyar la verificación periodística y mejorar la trazabilidad de la información en internet. En términos proporcionales, más de la mitad de los proyectos analizados (64%) aplican IA como apoyo a la automatización del fact-checking, el cruce de datos entre fuentes y la priorización de contenidos para revisión, mientras que otra parte significativa se orienta a alfabetización mediática (28%) y un grupo menor a gobernanza y políticas públicas (8%), donde la IA se emplea como recurso para explicar sesgos, promover estándares éticos o fortalecer la resiliencia ciudadana ante la desinformación.

El mapa de actores refleja, según el artículo, una estructura de cooperación intersectorial. Universidades y centros de investigación participan en 14 de los 25 proyectos (56%) y lideran más del 70% de las iniciativas, con un papel centrado en desarrollo técnico, validación metodológica y marcos éticos. Las empresas aparecen con una participación frecuente (64%), aportando recursos técnicos y capacidades para desplegar modelos y plataformas; los medios intervienen en 10 proyectos (40%) como entornos de prueba y validación en rutinas de redacción; y las organizaciones sin ánimo de lucro figuran en seis iniciativas (24%) con funciones ligadas a mediación social, formación y alfabetización.

España, Francia y Grecia encabezan el número de iniciativas dentro de la muestra

La distribución geográfica de los proyectos se concentra en Europa occidental y meridional y, según el artículo, España, Francia y Grecia encabezan el número de iniciativas dentro de la muestra, seguidas por Alemania, Italia, Países Bajos y Reino Unido, con participación más limitada de países de Europa central y oriental. El trabajo añade que la colaboración internacional es un rasgo relevante del ecosistema analizado, al menos en 13 iniciativas (52%) con participación de varios países.

Te puede interesar:  Las visualizaciones explicativas mejoran la comprensión del uso de la IA en la producción de noticias

En financiación, el estudio indica que de los 25 proyectos se dispone de datos económicos para 19, con un nivel de financiación mediano entre 1 y 5 millones de euros, franja en la que se agrupa el mayor número de iniciativas (44%). En los extremos aparecen cuatro proyectos con presupuestos por debajo de 100.000 euros, asociados a pilotos o actividades formativas de corto recorrido, y al menos un caso por encima de 10 millones, vinculado a un consorcio europeo de gran escala. La investigación atribuye parte de los vacíos de información a prácticas de rendición de cuentas heterogéneas: los proyectos financiados con fondos públicos nacionales o europeos tienden a publicar presupuestos con mayor claridad, mientras que los impulsados por compañías tecnológicas, fundaciones o esquemas privados no siempre ofrecen ese detalle.

La investigación recoge como retos principales la mejora de la precisión algorítmica y la reducción de falsos positivos, la prevención de sesgos vinculados a datos de entrenamiento, y la dependencia tecnológica europea de infraestructuras externas para procesamiento y almacenamiento. También apunta al impacto de la IA generativa como factor de presión añadido, tanto por la capacidad de producir contenidos falsos con alto realismo como por el incremento de la carga de verificación en campañas virales y procesos electorales, donde la velocidad de circulación dificulta la respuesta periodística y amplifica el coste operativo de la comprobación.

Estudio: “Cartography of the Use of Artificial Intelligence Against Disinformation in Europe: Trends, Stakeholders, and Emerging Challenges”, Social Sciences (MDPI), 29 de enero de 2026.

Artículos relacionados

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here

ÚLTIMOS ARTÍCULOS

LO MÁS LEÍDO