El mercado de licencias de contenidos para inteligencia artificial se está formando con una estructura que puede repetir los desequilibrios que marcaron la relación entre los medios, los buscadores y las redes sociales durante las dos últimas décadas, según advierte el informe “Same Gatekeepers, New Tollbooths: Mapping the AI Content Licensing Market”, elaborado por Courtney Radsch y Karina Montoya para el Center for Journalism & Liberty del Open Markets Institute.
El documento sostiene que los sistemas de IA dependen de contenidos periodísticos y creativos para entrenarse, actualizarse y responder a los usuarios, pero el mercado que debería compensar ese uso está beneficiando sobre todo a grandes editores con capacidad de negociación, mientras deja fuera a medios locales, regionales, independientes, étnicos, indígenas y en lenguas distintas del inglés.
El informe identifica tres fallos estructurales en el mercado emergente.
El primero es que el valor de los contenidos sigue midiéndose en buena parte a partir del tráfico referido por plataformas, un criterio que pierde sentido cuando los productos de IA ofrecen respuestas directas y reducen la necesidad de visitar las fuentes originales.
El segundo es que las compañías de IA tienden a separar artificialmente el uso de contenidos para entrenamiento del uso posterior mediante sistemas de recuperación aumentada (RAG), aunque el informe sostiene que ambos forman parte de una misma cadena de valor.
El tercero es que las propias compañías tecnológicas están seleccionando con qué medios negocian, lo que reproduce una dinámica de dependencia en la que los intermediarios dominantes deciden quién cobra y bajo qué condiciones.
Radsch y Montoya describen un mercado dividido en tres niveles. En la parte superior se sitúan los acuerdos bilaterales entre grandes compañías de IA y grandes grupos editoriales, con contratos confidenciales y cifras que solo se conocen parcialmente. El informe menciona, entre otros casos, acuerdos de OpenAI con aproximadamente 35 editores, el programa de Perplexity con una veintena de medios, el mercado de contenidos de Microsoft con un grupo inicial de ocho editores invitados y el pacto de News Corp con OpenAI, estimado en unos 250 millones de dólares durante cinco años. Según el análisis, estos acuerdos pueden generar ingresos relevantes para algunos editores, pero no han frenado la erosión del tráfico procedente de interfaces de IA.
El segundo nivel está formado por intermediarios y mercados de licencias, como TollBit, Sphere.ai, ScalePost, Created by Humans, Defined.AI, ProRata, Microsoft o Cloudflare. Estas empresas ofrecen servicios como detección y bloqueo de bots, redirección a muros de pago, mercados de pago por uso o pago por rastreo, herramientas de atribución y análisis del uso que hacen los sistemas de IA de los contenidos periodísticos. El informe señala que este nivel puede aportar más visibilidad a los editores sobre cómo se utiliza su contenido, pero también advierte de que los intermediarios aplican comisiones que en algunos casos pueden situarse entre el 15% y el 50% de los ingresos generados.
El tercer nivel es el de la mayoría no compensada. Ahí se encuentran miles de medios y creadores que no acceden ni a acuerdos bilaterales ni a programas de intermediación. El informe considera que esta exclusión puede tener consecuencias especialmente graves para el periodismo local y especializado, porque estos contenidos son valiosos para la calidad informativa de los sistemas de IA, pero sus editores carecen de tamaño, capacidad jurídica o reconocimiento de marca suficiente para negociar individualmente con las grandes plataformas.
La pérdida de tráfico agrava el problema. El informe recoge que los sistemas de IA generan una proporción mínima de las referencias externas hacia los medios frente al peso de Google y otros buscadores tradicionales. También señala que algunos rastreadores de IA acceden a volúmenes muy superiores de páginas respecto al tráfico humano que devuelven. OpenAI habría rastreado unas 1.700 páginas por cada visitante enviado de vuelta a los sitios de los editores, Anthropic unas 73.000 por cada visitante y Perplexity unas 369. Además, el porcentaje de bots de IA que eluden las restricciones de robots.txt habría pasado del 3,3% en el cuarto trimestre de 2024 al 12,9% en marzo de 2025.
El informe vincula esta dinámica con el riesgo de “canibalización de contenidos”. Según Radsch, los sistemas de IA necesitan un suministro continuo de contenido humano de calidad para mantener la calidad de sus resultados. Si la IA contribuye a deteriorar la base económica que sostiene la producción de ese contenido, los propios sistemas pueden terminar degradando sus respuestas por falta de fuentes originales, verificadas y actualizadas.
Una agenda regulatoria para evitar que las plataformas definan el mercado
El documento plantea que el mercado privado no puede resolver por sí solo el desequilibrio entre unas pocas compañías compradoras de contenidos y una gran cantidad de editores y creadores fragmentados. Para corregir esa asimetría, propone marcos de licencia estatutaria que establezcan obligaciones de pago aplicables a todo el mercado, mecanismos de negociación colectiva y sectorial para que los medios pequeños puedan negociar junto a los grandes, requisitos de transparencia sobre los términos de los acuerdos y sistemas técnicos de identificación, atribución y compensación a nivel de modelo.
Las autoras también proponen que los esquemas de compensación incluyan expresamente a medios locales, regionales, independientes y no anglófonos, con el fin de evitar una mayor concentración del poder informativo y una reducción de la diversidad de datos que alimentan los sistemas de IA. El informe toma como referencia modelos como el código australiano de negociación entre plataformas y medios, la ley canadiense de noticias en línea y los sistemas de gestión colectiva de derechos en sectores como la música.
El informe sostiene que la valoración justa de los contenidos no debe limitarse al tráfico perdido ni al uso puntual en una respuesta generada por IA. Los contenidos periodísticos aportan, según el análisis, material lingüístico y argumentativo para el entrenamiento de modelos, verificación factual, información actualizada para responder sobre hechos recientes y credibilidad cívica cuando las respuestas de IA se apoyan en fuentes periodísticas.
Radsch y Montoya advierten de que las decisiones que se adopten ahora sobre precios, intermediarios, gobernanza y acceso a los contenidos serán difíciles de modificar cuando el mercado quede consolidado. El documento defiende que la compensación por el uso de contenidos periodísticos en IA no debe depender de acuerdos voluntarios ni de la selección discrecional de beneficiarios por parte de las plataformas, sino de reglas públicas que reconozcan el valor económico, legal y democrático de la producción periodística.



