sábado 4 de abril de 2026
InicioAudienciaAdepa constata una adopción desigual de la IA en los medios argentinos...

Adepa constata una adopción desigual de la IA en los medios argentinos y reclama salvaguardas para la autoría, la transparencia y la compensación por contenidos

La inteligencia artificial avanza en las redacciones argentinas con un uso aún fragmentado, condicionado por los recursos y la capacitación de cada medio. Un informe presentado por la Asociación de Entidades Periodísticas Argentinas (Adepa) describe cómo esta tecnología se aplica en la producción de textos, audios y transcripciones, alerta sobre la falta de protocolos unificados y reclama un marco común que asegure transparencia, autoría humana y sostenibilidad para el periodismo.

La Asociación de Entidades Periodísticas Argentinas (Adepa) ha publicado un informe que dibuja el estado de la inteligencia artificial (IA) en redacciones del país, identifica avances y carencias en su uso editorial, organizativo y de relación con las audiencias, y plantea la necesidad de un marco de principios compartidos que preserve la autoría humana, la transparencia ante el público y la sostenibilidad del negocio informativo.

El estudio, realizado con apoyo del International Fund for Public Interest Media (IFPIM) a partir de 20 entrevistas semiestructuradas con directivos y equipos de medios nacionales, regionales e hiperlocales entre enero y febrero de 2025, subraya que la IA reconfigura el ecosistema informativo y obliga a equilibrar innovación y rigor profesional.

El universo analizado se reparte entre un 25 % de medios hiperlocales, un 40 % regionales y un 35 % nacionales; el 35 % son nativos digitales y el 65 % tradicionales. En tamaño, el 40 % son pequeños, el 35 % medianos y el 25 % grandes.

La adopción tecnológica es dispar y correlaciona con recursos, infraestructura y capacitación: los grupos de mayor escala concentran las inversiones y los equipos especializados, mientras proyectos locales experimentan con herramientas externas y formación progresiva.

Usos editoriales y salvaguardas

Adepa documenta que el 29 % de los medios utiliza IA para redacción, titulación, traducción o edición, siempre con revisión previa de un editor. La transcripción automática de entrevistas está implantada en el 38 % de los casos y el 40 % ofrece narración sonora de artículos con voces sintéticas, incluidas clonaciones autorizadas de autores para personalizar la escucha.

La generación de imágenes y vídeos realistas es minoritaria por el riesgo de desinformación: “Recurrimos a la IA solo cuando no hay alternativas en bancos de imágenes y lo consignamos en la publicación; evitamos figuras humanas”, indicó un medio regional. La consigna transversal es inequívoca: “Los modelos no son perfectos; siempre requieren supervisión humana”, señaló un medio nacional.

Te puede interesar:  Más contexto, mejores respuestas: así influye el mensaje en la inteligencia artificial

La industria carece de un protocolo unificado; muchas redacciones trabajan con guías internas en elaboración y piden un “consenso básico de principios compartidos” adaptable a cada realidad, análogo a un manual de estilo. Las capacitaciones son generalizadas pero heterogéneas por perfil y ritmo de adopción. Adepa recomienda fijar marcos de gobernanza, evaluar riesgos (sesgos, privacidad, derechos de terceros y laborales) y asegurar supervisión humana en todo el ciclo de vida de proyectos con IA.

Audiencias, transparencia y educación

El 75 % de los medios declara transparentar el uso de IA cuando afecta al contenido —sobre todo en imágenes y recursos visuales—, si bien la comunicación al lector es irregular cuando la asistencia se limita a funciones como la optimización SEO.

Solo el 10 % ha puesto en marcha estrategias para educar a la audiencia sobre IA y no se detectan canales formales de retroalimentación específicos para producciones asistidas por estas herramientas. La personalización mediante resúmenes automáticos, motores de recomendación o configuración de consumo se encuentra en fase exploratoria.

Adepa advierte que la utilización no consentida de contenidos periodísticos para entrenar modelos amenaza la sostenibilidad de los medios, al concentrar atención e ingresos publicitarios en plataformas que no derivan tráfico ni compensación proporcional a las fuentes originales. Hasta la publicación del informe no existían acuerdos de licenciamiento entre medios argentinos y plataformas de IA generativa; en la región, se citan convenios puntuales de Perplexity con El Comercio (Perú) y La Nación (Costa Rica). Los medios medianos y pequeños temen quedar fuera de innovaciones y eventuales pactos comerciales y respaldan regulaciones que garanticen protección de la propiedad intelectual y posibilidad de negociación colectiva.

Te puede interesar:  Podcast 38# (especial). El periodismo que viene: claves para entender 2026. La visión de destacados miembros de la industria de los medios

Panorama internacional de referencia

El documento recoge tendencias globales: más de 100 convenios de licencias entre tecnológicas y editores; el acuerdo de Associated Press con OpenAI; la demanda de The New York Times contra OpenAI y Microsoft en paralelo a acuerdos de licencia con otras firmas; y modelos de negociación colectiva como el de Dinamarca. En el ámbito regulatorio, la primera fase de la AI Act de la UE empezó a aplicarse en febrero de 2025 y varios países exploran normas de transparencia y compensación.

Casos y herramientas en uso

En Argentina, Clarín opera UalterAI para sintetizar artículos y destacar citas y cifras; La Nación ha constituido una unidad de IA con desarrollos para análisis de datos y audio con voz entrenada del autor; Infobae trabaja con la plataforma propia ScribNews; y redacciones como La Voz del Interior, La Gaceta, 0221, Todo Jujuy y Chequeado incorporan suites para transcripción, análisis de tendencias, edición de vídeo y asistentes internos. Entre las herramientas citadas figuran NotebookLM y Pinpoint (Google), ChatGPT, Gemini, Marfeel, DALL·E, Midjourney, Descript, ElevenLabs o Perplexity, con usos que van de la desgrabación y traducción a la segmentación y sugerencia de temas.

Principales conclusiones y recomendaciones del informe

  • Supervisión y autoría humanas: condición irrenunciable en todas las etapas; prohibición de delegar responsabilidad editorial en sistemas automatizados.
  • Transparencia con el lector: identificación explícita del uso de IA y explicación de herramientas y propósitos cuando proceda.
  • Mitigación de riesgos y protección de datos: evaluación sistemática de sesgos y cumplimiento de privacidad; cautelas reforzadas en contenido visual.
  • Propiedad intelectual y licencias: exigencia de trazabilidad y retribución equitativa por el uso de contenidos periodísticos en el entrenamiento o en respuestas de asistentes.
  • Colaboración multiactor: articulación entre medios, Estado, sector tecnológico y sociedad civil para un ecosistema robusto, diverso y sostenible.

Artículos relacionados

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here

ÚLTIMOS ARTÍCULOS

LO MÁS LEÍDO