La mutación del ecosistema informativo hacia motores de respuesta basados en inteligencia artificial está sacudiendo el equilibrio que sostuvo durante tres décadas a los medios digitales: buscadores que indexan, enlaces que derivan tráfico, páginas vistas que se monetizan con publicidad y suscripciones, y una cadena de valor en la que editores y anunciantes compartían incentivos.
La irrupción de los chatbots, que entregan directamente “la respuesta” sin lista de enlaces ni inventario publicitario asociado, coincide con un descenso del tráfico referido y un alza de costes de ancho de banda por rastreos masivos, y empuja a las redacciones a rearmar su gobernanza de datos y su negociación con las tecnológicas en un marco regulatorio más tenso y con ingresos presionados.
Matthew Prince, consejero delegado de Cloudflare, plantea una intervención de mercado con “pay-per-crawl” —un modelo anunciado el 1 de julio— para condicionar el acceso de los modelos de IA al contenido y crear un circuito de licencias y pagos por rastreo. En una entrevista con Crazystupidtech, Prince detalla el alcance de la propuesta.
El argumento central se apoya en dos palancas: la cuota de Cloudflare como infraestructura —aproximadamente el 20 % de los sitios web usan sus servicios— y la posibilidad de bloquear a escala determinados rastreadores de IA con permiso de los clientes, con el objetivo de forzar a las grandes plataformas a negociar condiciones económicas de indexación y uso de contenido.
El diagnóstico que acompaña la propuesta sitúa el desplazamiento del tráfico referido desde buscadores hacia chatbots y respuestas asistidas por IA como una amenaza directa al modelo editorial. La entrevista sostiene que hoy resulta entre 125 y 750 veces más difícil obtener tráfico referido desde chatbots que desde el Google de “antes”, con ratios peores en algunos actores, y cita incrementos de costes de ancho de banda por rastreos automáticos de hasta el 50 % en repositorios de alta consulta. La combinación de menos clics de retorno, más rastreo y monetización fuera del dominio del editor constituye, en esta lectura, un triple impacto sobre ingresos, costes y control del ciclo de valor.
La palanca negociadora que Prince plantea pivota sobre Google. La tesis es que, mientras el buscador no pague por rastrear contenido destinado a alimentar productos de IA (resúmenes, respuestas enriquecidas, entrenamiento), el resto del sector será reticente a generalizar pagos; de ahí que el debate se desplace hacia un cambio de política del propio Google y, en paralelo, hacia la presión regulatoria: la entrevista alude a investigaciones abiertas en múltiples jurisdicciones sobre la vinculación entre búsqueda e IA y su posible carácter anticompetitivo.
En ese contexto, el bloqueo del rastreador de Google por parte de algunos editores —impensable hace muy poco— aparece, siempre según el relato de la entrevista, como un punto de presión que ya se contempla en determinadas conversaciones.
El diseño de “pay-per-crawl” se acompasa con una metáfora de la industria del entretenimiento: si las diferencias técnicas entre modelos se estrechan, el contenido exclusivo pasaría a ser la ventaja competitiva y el mercado podría asumir “ventanas” temporales de acceso —exclusivas limitadas, segundas ventanas, explotación posterior— en las que los sistemas de IA compitan por catálogos únicos, reportajes de alto valor o bases de datos originales.
Bajo ese enfoque, el editor no sería retribuido por palabras publicadas, sino por el valor incremental que su contenido añade a la base de conocimiento de cada servicio de IA, con algoritmos de tarificación y liquidación global todavía por definir.
La faceta operativa y jurídica incorpora dos piezas que interesan directamente a publishers y directores de tecnología editorial. Por un lado, el refuerzo de las medidas anti-evasión para rastreadores que sortean robots.txt o muros de pago, moviendo el debate desde la “etiqueta” de acceso (respetar o no un no-index/no-crawl) hacia términos de uso y cumplimiento legal, con la infraestructura como punto de control; por otro, la geolocalización jurídica del contenido servida desde determinadas regiones para acogerse a marcos normativos más nítidos en materia de rastreo y uso de datos editoriales, un terreno aún hipotético que exigirá legislación específica y criterios de competencia claros.
El relato incluye, además, un mapa de actores. La entrevista presenta a OpenAI como compañía dispuesta a acuerdos de licencia con editores; identifica a otros agentes cuya conducta considera elusiva; y sitúa a competidores de infraestructura menos alineados con esta agenda. El efecto buscado es un estándar de mercado en el que, a partir de un hito de política pública o de una decisión empresarial de Google, el resto de compañías de IA migren a esquemas de pago por rastreo y uso, replicando lo sucedido en música y vídeo cuando la facilidad de uso superó al incentivo de la copia.
Qué implica para editores y publishers
- Gobernanza del rastreo
Revisión de políticas de robots.txt, cabeceras y listas de permitidos/bloqueos para rastreadores de IA; evaluación de soluciones de control a nivel de perímetro (CDN/WAF) que permitan granularidad por agente, frecuencia y propósito (entrenamiento, RAG, respuesta directa). - Estrategia de licencias y ventanas
Inventario de contenidos con alto valor diferencial (exclusivas, bases de datos, verticales locales), segmentación por ventanas temporales y diseño de paquetes negociables con IA: accesos exclusivos, periodos de embargo y clausulados de atribución y uso. - Modelo económico
Preparación de una matriz de precios de referencia por tipo de contenido y volumen de consultas; definición de indicadores para liquidaciones (consultas servidas, cobertura, impacto en suscripciones). - Compliance y trazabilidad
Registro de accesos de agentes automatizados, conservación de pruebas y protocolos de respuesta ante evasiones o usos indebidos; evaluación de vías legales en jurisdicciones aplicables cuando se crucen límites contractuales o regulatorios. - Arquitectura y costes
Medición del impacto del rastreo en ancho de banda y cachés; uso de reglas de rate-limiting y autenticación para reducir costes de tráfico no monetizable; simulaciones de impacto de bloqueos parciales en SEO frente a beneficios potenciales por licencias. - Negociación coordinada
Participación en iniciativas sectoriales para estandarizar señales de “uso permitido/uso restringido” en IA, métricas de atribución y plantillas de contrato; alineamiento entre dirección editorial, tecnología y legal para una posición coherente.
Lo que está en juego
El movimiento descrito en la entrevista no es una solución cerrada, sino un intento de fijar el terreno de juego: condicionar el acceso a gran escala al contenido periodístico para forzar la aparición de un mercado de licencias en IA. La viabilidad dependerá de tres vectores que el sector deberá observar: la política de Google en el cruce búsqueda/IA y su respuesta a la presión regulatoria; la capacidad técnica y contractual de los editores para controlar el rastreo sin comprometer de forma irreversible su descubribilidad; y la rapidez con la que los grandes modelos acepten un esquema de pago por acceso que reconozca el valor del contenido original.
La apuesta de Cloudflare combina presión técnica —bloqueos a escala bajo mandato del cliente—, presión de mercado —licencias y ventanas— y presión regulatoria —aprovechar el escrutinio a la integración de búsqueda e IA— para acelerar ese desenlace. La ventana de decisión, si el descenso del tráfico referido continúa y los costes de rastreo crecen, se acorta para las redacciones. La respuesta, en este escenario, ya no pasa solo por audiencias y páginas vistas, sino por gobernanza del dato editorial, control del perímetro y negociación de acceso a conocimiento.



