Foto de archivo de la Unidad de Delitos Telemáticos de la Guardia Civil

Detectar contenidos que hacen apología del terrorismo o menoscaban la integridad de colectivos o personas en particular, entre otros muchos casos, es uno de los retos que tienen gobiernos y reguladores para evitar que se difundan masivamente. Pero no es un problema sencillo. Representaciones excesivas de violencia que atenta contra la dignidad de las víctimas, sitios pornográficos sin verificación de edad, negacionistas del Holocausto, extremistas religiosos, glorificación de drogas, instrucciones para suicidarse o para construir una bomba, etc., están presentes en la red y en ocasiones, de manera más habitual de lo que sería deseable. El número de denuncias penales aumenta año tras año.

Para ayudar en la búsqueda de una solución, una herramienta, encargada por la Autoridad Estatal de Medios de Renania del Norte-Westfalia, y desarrollada junto con la empresa berlinesa Condat AG, ha tenido tanto éxito, que ha salido del entorno para el que se pensó inicialmente, y se está expandiendo por toda Europa.

Tras ser probada inicialmente en Renania del Norte-Westfalia, las autoridades alemanas de medios la han utilizado en todo el país y ahora, otros gobiernos europeos están trabajando también con ella, por ejemplo, Austria. Los organismos de control austriacos también están interesados ​​en las búsquedas automatizadas de sitios web, plataformas de video, redes sociales y servicios de mensajería. Bélgica está negociando también su uso. Y otros países ya han preguntado por ella.

Según publica Der Tagesspiegel, al igual que un motor de búsqueda, el programa busca este tipo de contenido utilizando palabras clave y enlaces. Para ello se usan diversas técnicas. Los vídeos se descomponen mediante la extracción de fotogramas clave. Los textos en las imágenes se reconocen mediante reconocimiento óptico de caracteres (OCR, por sus siglas en inglés). La tecnología de voz a texto permite que se reconozca el texto en los archivos de audio, y se utilizan otras rutinas para obtener información adicional, como la identificación de la región, los números de usuario y otros datos. Actualmente, la herramienta puede examinar más de 10.000 páginas por día, pero este rendimiento se puede aumentar en función de las necesidades del país o el organismo que lo requiera.

Además, la herramienta es capaz de aprender. Se pueden introducir fácilmente nuevas imágenes o ejemplos de texto y la inteligencia artificial se encarga del resto, para ir acumulando patrones.

La tecnología hace el trabajo preliminar. El examen posterior lo llevan a cabo empleados de las autoridades estatales de medios. Si este es el caso, la violación puede ser remitida a las autoridades investigadoras. La herramienta también verifica automáticamente si el contenido de las infracciones que ya se han encontrado todavía se puede encontrar en línea.

Siguiente paso, adaptarla para luchar contra la desinformación

Aunque aún no está preparada para ello, a futuro Kivi puede ser un apoyo para detectar violaciones de la debida diligencia periodística, o la difusión de noticias falsas. “Estamos trabajando en eso”, dice Barbara Banczyk, responsable del proyecto de IA en el equipo de supervisión de la Autoridad Estatal de Medios de Renania del Norte-Westfalia.

La parte principal de las posibles violaciones legales identificadas se puede encontrar en el área de la pornografía. Una parte más pequeña, pero no insignificante, son las representaciones de la violencia y la negación del Holocausto y la incitación al odio. Las infracciones detectadas se procesan según la prioridad, es decir, la gravedad de la infracción.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí