La inteligencia artificial está revolucionando la industria de los medios. Imagen: Skorzewiak / Depositphotos

La adopción acelerada de tecnologías basadas en inteligencia artificial por parte de empresas, gobiernos y medios de comunicación está generando una creciente preocupación entre los usuarios, al mismo tiempo que la regulación avanza a ritmos muy desiguales en cada región del mundo. La mayoría de los consumidores reconoce utilizar sistemas impulsados por IA en su vida cotidiana, pero desconfía de su funcionamiento y teme por la falta de control en el uso de sus datos.

Esta tensión entre el entusiasmo por la innovación y la necesidad de protección normativa está reconfigurando el debate público sobre la inteligencia artificial.

Precisamente, Digital Content Next —la asociación estadounidense que agrupa a editores de contenido digital— ha recopilado en un informe reciente los principales aspectos que los líderes del sector deben tener en cuenta ante el desarrollo y la regulación de la IA, a partir de estudios globales sobre actitudes, riesgos y marcos legales.

Uno de los análisis destacados es el estudio Trust, Attitudes, and Use of Artificial Intelligence: A Global Study 2025, realizado por la Universidad de Melbourne junto a KPMG, que encuestó a más de 48.000 personas en 47 países. El informe concluye que el 66 % de las personas usa IA de forma habitual y un 83 % considera que traerá beneficios significativos. Sin embargo, solo el 46 % confía en estos sistemas y un 70 % reclama una regulación nacional e internacional para garantizar su funcionamiento seguro.

El grado de involucramiento con las nuevas tecnologías es especialmente elevado en mercados emergentes. Según el informe Global Digital Media and Tech Trends Report de Kantar Media, el 86 % de los usuarios de India afirma seguir activamente los avances tecnológicos, seguido por un 76 % en China y un 73 % en Brasil. En India, un 78 % asegura que la IA ya impacta en su vida diaria, frente al 46 % en Estados Unidos.

La preocupación por la falta de transparencia y control también se refleja en el Digital Trends Report 2025 de Adobe. Casi la mitad de los 8.301 encuestados afirma que prioriza tener visibilidad y control sobre sus datos, y un 33 % exige claridad sobre cómo se generan las recomendaciones con IA. Según el informe, las organizaciones que escalan el uso de estas herramientas deben adoptar políticas éticas, explicar el funcionamiento de los algoritmos y garantizar que los datos se gestionen con responsabilidad para mantener la confianza de los usuarios.

En paralelo, los índices de confianza hacia las organizaciones están cayendo. El informe de Thales sobre confianza global en 2025 revela que la preocupación por un uso indebido de la IA ha pasado del 47 % en 2024 al 57 % en 2025. Ningún sector supera el 50 % en niveles de «alta confianza». En el caso de los medios de comunicación, el desplome es llamativo: solo un 3 % de los consumidores afirma confiar en ellos, frente al 6 % del año anterior. Parte de este descenso se atribuye a la reducción de controles en las plataformas sociales. En contraste, los servicios gubernamentales experimentan un ligero aumento, del 37 % al 42 %, impulsados por nuevas normativas como el Reglamento de Resiliencia Operativa Digital (DORA) en la Unión Europea.

Las amenazas sobre los datos no son teóricas. El State of Data Security Report 2025 de Varonis, basado en el análisis de 1.000 empresas, advierte de que el 99 % de las organizaciones ha tenido datos sensibles expuestos a herramientas de IA. Además, el 88 % mantiene cuentas antiguas activas y el 90 % ha dejado datos sensibles accesibles en la nube. El 98 % permite el uso de aplicaciones no autorizadas, incluidas plataformas de IA no aprobadas oficialmente. Estos datos sugieren que el ritmo de adopción tecnológica supera con creces al de las medidas de mitigación del riesgo.

A pesar de los esfuerzos de transparencia, muchas empresas dudan en revelar cuándo un contenido ha sido generado con IA, por miedo a perder credibilidad. Estudios citados por Media Pulse apuntan a que el contenido creado por humanos —aunque imperfecto— genera mayor conexión emocional con la audiencia. Esta percepción podría explicar por qué la autenticidad sigue siendo un valor clave para conservar la fidelidad del público.

En el terreno regulatorio, la fragmentación es evidente. La Unión Europea ha sido pionera con su AI Act, en vigor desde agosto de 2024, que exigirá desde 2026 que todo contenido generado con IA y los deepfakes estén debidamente etiquetados. En América Latina, Brasil y Perú trabajan en marcos similares inspirados en la legislación europea. Canadá ha aprobado la Artificial Intelligence and Data Act (AIDA), con foco en transparencia y rendición de cuentas. China impone normas estrictas de moderación y licencias, mientras que India plantea un modelo techno-legal. Australia ha desarrollado un marco de garantía federal y regional, y el Reino Unido mantiene un enfoque más flexible sin legislación específica, apoyándose en organismos reguladores ya existentes.

En Estados Unidos, la situación es más compleja. Aunque durante 2024 se anticipaba una posible ley federal sobre IA, la Cámara de Representantes ha aprobado en 2025 un proyecto que impone una moratoria de diez años a las leyes estatales y locales sobre esta materia. Esta decisión choca con la percepción mayoritaria de la ciudadanía: según el Pew Research Center, el 58 % teme que la regulación no sea suficiente, frente al 21 % que teme un exceso normativo.

Digital Content Next advierte de que esta disparidad normativa representa un reto para las empresas con presencia internacional. Las estrategias basadas en inteligencia artificial deben adaptarse a las exigencias locales si se quiere evitar conflictos legales o pérdida de reputación. En este contexto, establecer desde ahora políticas internas claras sobre el uso de la IA no solo mejora la preparación regulatoria, sino que se convierte en una herramienta clave para reforzar la confianza del consumidor. La regulación ya no es solo una cuestión de cumplimiento: también lo es de reputación y legitimidad.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí