La desinformación sigue cada día aumentando, perjudicando a miles de personas, especialmente a colectivos menos favorecidos, blanco de muchas campañas interesadas, intoxicando la convivencia, y erigiéndose como una fuente de poder para inmiscuirse en asuntos en los que la gente debería elegir basándose en información veraz, como por ejemplo unas elecciones.

Pese a los esfuerzos de algunos colectivos, tanto privados como financiados por organismos públicos, quienes están detrás de las campañas masivas de desinformación siguen teniendo gran presencia e impacto en momentos decisivos, y también en el día a día.

¿Qué puede hacer la tecnología, no ya para comprobar si una foto es real o está descontextualizada, sino a gran escala? ¿Es posible una red internacional que, valiéndose de la inteligencia artificial, logre atajar y acabar, al menos con los grandes focos de desinformación?

A esta pregunta trata de responder en un reciente artículo George Krasadakis, autor del libro de reciente aparición The Innovation Mode: How to Transform Your Organization into an Innovation Powerhouse, publicado por Springer.

Según Krasadakis, lo que hace que las fake news sean un problema extremadamente difícil de resolver es la dificultad para identificar, rastrear y controlar contenido no confiable. 

 

Muy difícil solución por la vía de la concienciación

La solución por la vía de crear conciencia sobre el problema entre los usuarios de las redes sociales, “llevaría tiempo y una gran cantidad de recursos. Por ejemplo, crear conciencia sobre el problema de las noticias falsas requeriría un programa global y continuo que ‘eduque’ a los usuarios en línea para que apliquen el pensamiento crítico al consumir y compartir contenido digital”.

Una solución sólo tecnológica requeriría de unos protocolos digitales avanzados para evaluar el contenido (por ejemplo, para detectar y verificar de manera eficiente el contenido menos confiable), indica

También hay dificultades, agrega Krasadakis, para manejar las historias falsas probables: incluso cuando hay evidencia temprana de que una historia falsa está circulando en línea, no hay mucho que hacer hasta que haya certeza al respecto. “De lo contrario, por ejemplo, eliminar una historia o evitar que la gente la comparta basándose en señales tempranas, podría percibirse como un intento de intervención y censura”.

“El problema en sí está bien entendido y hay esfuerzos continuos dentro de los medios comunicación y las empresas de redes sociales para mitigarlo” explica Krasadakis. “Y, si bien algunos de estos esfuerzos pueden resultar de alguna manera efectivos, el problema de las noticias falsas demuestra ser más grande y complicado: va más allá de los límites de las redes sociales y las empresas de noticias: es principalmente un problema social”, agrega.

Por otro lado, el contenido falso está diseñado para ser viral; sus creadores quieren que se difunda de forma orgánica y rápida. “Las historias falsas están diseñadas para atraer la atención y desencadenar reacciones emocionales, de modo que los usuarios se sientan tentados a compartir las ‘noticias’ con personas de ideas afines en sus redes sociales. Con los trucos y el momento adecuados, una historia falsa puede volverse viral en horas”.

La solución: un registro global de “fake news” etiquetadas

Según Krasadakis, el uso de las últimas tecnologías digitales (por ejemplo, procesamiento de lenguaje natural y sistemas avanzados de comprensión de contenido) junto con una red global de humanos (revisores independientes) que analizaran, puntuaran y etiquetaran continuamente el contenido en un repositorio de contenido global, unificada e inmutable permitiría atacar de raíz la desinformación.

Una vista de una solución híbrida para las noticias falsas: una red global de revisores impulsada por el Procesamiento del Lenguaje Natural y las últimas tecnologías digitales. Fuente: https://www.theinnovationmode.com/

“Este repositorio de contenido proporcionaría una base sólida para monitorear el fenómeno, medir el impacto de las posibles soluciones y, lo que es más importante, cuantificar la participación de todos los principales medios informativos y plataformas de redes sociales en el problema de las noticias falsas y dejar que el mundo lo sepa”, indica.

 

Más centrada en el análisis retrospectivo que en el tiempo real

Esta ‘Red de evaluación de fake news’ propuesta por Krasadakis se centraría menos en la clasificación en tiempo real de contenido nuevo y más en un análisis retrospectivo de ‘noticias falsas’ a gran escala con la intención de cuantificar el problema, extraer patrones y compartir el conocimiento derivado con todas las partes involucradas. Esta solución pone énfasis en medir el nivel de responsabilidad de cada una de las principales partes interesadas (proveedores de noticias, editores o plataformas de redes sociales) en un intento de educar, generar conciencia e influencia a nivel mundial sobre las estrategias de ‘responsabilidad social corporativa’ de las empresas de medios online”, subraya.

Imagine -explica el autor de The Innovation Mode- un proceso de “muestreo de contenido” que se ejecuta a diario: un muestreo de la actividad de publicación e intercambio de contenido global. “Impulsado por rastreadores especiales y tecnologías avanzadas de Procesamiento de Lenguaje Natural, este proceso ‘escucha’ historias y ‘noticias’ en un conjunto representativo de los principales sitios web, redes sociales y blogs populares”. Descubre y organiza ‘contenido nuevo’ y ‘nuevas referencias de contenido’ en un almacén de contenido unificado, deduplicado e inmutable , especialmente diseñado para manejar historias, hechos y sus asociaciones, detalla.

El contenido recién identificado se unifica y se vincula a su ‘copia maestra’, otras ‘historias’ relacionadas y cualquier información fáctica y metadatos relevantes. Luego se compara con el contenido ya etiquetado, con el objetivo de estimar el “grado de desviación de la realidad” utilizando “versiones verificadas de la misma historia” y patrones conocidos.

Además, la plataforma puede ofrecer API para exponer los patrones y el conocimiento extraído del análisis continuo de contenido para permitir que terceros predigan la confiabilidad del nuevo contenido, en el ‘momento de publicación’ o en el ‘momento de compartir’.

La inteligencia artificial permitiría identificar la historia central

La inteligencia artificial agrega un valor significativo al permitir la identificación de la ‘historia central’ en el contenido (los elementos clave de una historia, por ejemplo, entidades nombradas, los eventos, la ocasión, la línea de tiempo, etc.) y encontrar otras variaciones en el grupo consolidado de contenido. Los agentes de IA podrían encontrar publicaciones cruzadas y versiones más recientes de la misma historia, junto con referencias, hilos de discusión de usuarios, quejas, etc., provenientes de diferentes fuentes, en varios idiomas y niveles de calidad.

El ‘orquestador de verificación de hechos’, como se ve en la ilustración anterior, sintetiza las listas de historias que deben ser evaluadas por la red global de revisores. Este componente simplifica el proceso de evaluación, con sugerencias y recomendaciones inteligentes.

Tan pronto como una historia adquiere suficiente confianza (votos y verificaciones de hechos), la IA generaliza los hallazgos a todas las variaciones conocidas de la historia y a los diferentes tipos de cobertura, lo que permite cuantificar la fiabilidad tanto de la historia principal como de sus variantes.

Los componentes de inteligencia artificial eligen los patrones y siguen monitoreando cada historia en busca de nuevos hechos y eventos que deben verificarse.

 

Más información: 

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here