Un enfoque estructurado para la gobernanza del contenido en línea. Image: Foro Económico Mundial

La desinformación se consolida como el mayor riesgo global a corto plazo, según el Informe de Riesgos Globales 2025 del Foro Económico Mundial. En un contexto electoral en el que más de la mitad de la población mundial ha acudido a las urnas, los paneles Truth vs. Myth in Elections y To Moderate or Not to Moderate?, celebrados durante la Reunión Anual en Davos, abordaron la urgencia de frenar las narrativas falsas sin comprometer derechos fundamentales como la libertad de expresión. Los debates giraron en torno a cinco prioridades que buscan equilibrar protección y pluralismo en la era digital, según ha resumido ahora la propia organización.

Una amenaza estructural: impacto político y social

La difusión de contenido falso, alimentada por la inteligencia artificial generativa y las dinámicas de la economía de la atención, ya no es un fenómeno periférico. Moldavia se presentó como un caso paradigmático: su primer ministro, Dorin Recean, denunció la infiltración de deepfakes utilizados para distorsionar el debate sobre su posible adhesión a la Unión Europea. La campaña de desinformación alcanzó una inversión equivalente al 2,5 % del PIB del país, y mostró cómo la manipulación emocional y el uso de símbolos pueden desestabilizar democracias emergentes.

El contexto global no es más alentador. Según el Edelman Trust Barometer 2025, el 40 % de los encuestados a nivel mundial —y un 53 % entre los jóvenes de 18 a 34 años— justifica la difusión intencionada de desinformación si persigue una causa que consideran legítima. Este fenómeno, cada vez más normalizado, evidencia una crisis de confianza en las instituciones tradicionales y plantea nuevos dilemas éticos a los medios y a los reguladores.

Te puede interesar:   Oscar Villasante y José Orantos asumen la dirección de ‘El Correo’ y ‘Hoy’ tras los relevos decididos por Vocento

La moderación de contenidos en el centro del debate

El enfoque más citado por los panelistas fue la Digital Services Act (DSA) de la Unión Europea. Jean-Noël Barrot, ministro francés para Europa, defendió que “lo que es ilegal fuera de línea debe serlo también en línea”, insistiendo en que la transparencia algorítmica debe ser una obligación. No obstante, otros participantes advirtieron sobre los límites de este marco. Sasha Havlicek, del Institute for Strategic Dialogue, alertó sobre las prácticas invisibles —como redes de bots y cuentas falsas— que distorsionan el discurso sin que los usuarios sean conscientes de ello.

La moderación masiva presenta retos técnicos y políticos. Solo en 2024 se moderaron 1.600 millones de contenidos. Tirana Hassan, exdirectora ejecutiva de Human Rights Watch, subrayó que el enfoque debe ser compatible con los derechos humanos: “La moderación debe proteger, no silenciar. Un exceso puede facilitar el control autoritario”, señaló. Volker Türk, Alto Comisionado de la ONU para los Derechos Humanos, recordó la especial responsabilidad de las plataformas en contextos de conflicto o crisis.

Los algoritmos como amplificadores del daño

El diseño de las plataformas digitales fue otro foco de análisis. Havlicek subrayó que “la economía de la atención no genera un entorno de libertad de expresión”, sino uno donde las grandes tecnológicas deciden qué ve el usuario según criterios de monetización. La IA, si bien es parte del problema por su capacidad para amplificar bulos, también podría ser parte de la solución, ayudando a detectar contenidos dañinos. Sin embargo, el dilema persiste: cómo utilizar esta tecnología sin caer en arbitrariedades ni reforzar sesgos preexistentes.

Te puede interesar:   Il Foglio finaliza su experimento con inteligencia artificial y anuncia una sección semanal escrita por IA

Cinco líneas de acción

Los paneles de Davos convergieron en cinco principios para frenar la desinformación sin socavar derechos democráticos ni contribuir a nuevas formas de censura:

  • Transparencia. Acceso a datos y supervisión externa para evaluar el impacto de algoritmos y sistemas de recomendación.
  • Educación crítica. Fortalecer la alfabetización mediática desde edades tempranas para identificar fuentes confiables.
  • Gobernanza multilateral. Impulsar normas consensuadas entre gobiernos, tecnológicas y sociedad civil.
  • Diseño ético. Proteger a los menores y a los grupos vulnerables con sistemas seguros por diseño.
  • Moderación proporcional. Establecer mecanismos que no limiten el debate legítimo ni cedan poder en exceso a las plataformas.

Papel de los medios y responsabilidad compartida

Frente a este escenario, el papel de los medios vuelve al centro. Almar Latour, director ejecutivo de The Wall Street Journal, remarcó la necesidad de mantener la independencia editorial y reconstruir la confianza en las instituciones informativas. “La sugerencia de que la desinformación no tuvo un papel relevante en las elecciones pasadas es, en sí misma, desinformación”, afirmó.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí