Diciembre de 2025 mantuvo el acelerador pisado en la intersección de inteligencia artificial y periodismo, cerrando el año con nuevos acuerdos entre medios y tecnológicas, batallas legales pioneras, implementaciones arriesgadas en las redacciones y avances regulatorios encaminados a proteger la integridad informativa.
En este tracking mensual recopilamos los hitos más significativos detectados tras el 5 de diciembre, ofreciendo una visión estructurada de cómo la IA sigue reconfigurando la industria informativa global.
Meta y los medios: licencias de IA para rescatar el tráfico perdido
Meta (Facebook) dio el gran giro comercial del mes al firmar múltiples acuerdos de licencia de datos con grandes medios de comunicación de EE. UU. y Europa. En un movimiento similar al de OpenAI o Microsoft, Meta aseguró convenios con USA Today, People Inc. (Dotdash Meredith), CNN, Fox News, The Daily Caller, Washington Examiner y Le Monde, entre otros.
El objetivo: alimentar con contenido periodístico verificado a su agente conversacional Meta AI, proporcionando a los usuarios noticias en tiempo real con enlaces a artículos originales de esos medios.
La compañía, que había dejado de pagar a editores en 2022 y retirado la pestaña de Noticias de Facebook en 2024, revierte así su postura para “supercargar” su chatbot con información confiable y actualizada. Aunque los términos financieros no se revelaron (Meta habla de acuerdos “comerciales” de varios años), editores y analistas celebran el paso como un reconocimiento del valor económico del contenido periodístico.
“Meta ahora demuestra que está dispuesta a pagar a los editores por licencias de IA,” afirmó un ejecutivo citado por Digiday, señalando que la presión conjunta (como bloquear crawlers no remunerados) empieza a dar frutos.
Este viraje llega cuando el tráfico desde Google se desploma y los chatbots se consolidan, empujando a los gigantes tecnológicos a compensar a las cabeceras para obtener fuentes fiables. Meta, cuyo modelo Llama 4 fue criticado por bajo rendimiento, busca con estas alianzas mantenerse relevante en la carrera de la IA. La estrategia también es defensiva: invertir “centavos” en contenido es sensato tras gastar miles de millones en IA, apuntan expertos, pues prefigura un mercado donde cada cita de la IA al artículo de un medio conlleve pago al editor.
Perplexity en el banquillo: NYT y Chicago Tribune demandan por «robo» de contenido
El frente legal escaló este mes con las primeras demandas de grandes diarios contra un buscador de IA. The New York Times y Chicago Tribune presentaron sendas querellas federales contra Perplexity AI, acusando a esta startup de infringir masivamente sus derechos de autor. A diferencia de otras disputas centradas en el entrenamiento de modelos, aquí el foco es el uso en tiempo real de los contenidos: Perplexity, un buscador potenciado por IA, extraería artículos completos de forma no autorizada para elaborar sus respuestas, incluso sorteando muros de pago.
El Tribune alega que la herramienta Comet de Perplexity resume y muestra sus notas casi palabra por palabra, anulando el valor de la suscripción digital. Por su parte, el NY Times afirma que Perplexity ha copiado a gran escala textos, vídeos y pódcast de su autoría, produciendo salidas de IA “idénticas o muy similares” a las originales.
Incluso denuncia un posible daño reputacional: la IA habría “alucinado” contenido falso atribuyéndolo al Times, confundiendo a la audiencia sobre la autoría. Estas demandas —que se suman a la de Reuters en 2024 y a acciones de Reddit, Dow Jones, Britannica o Merriam-Webster contra Perplexity— marcan un punto de inflexión legal.
Los medios no solo exigen compensación por entrenar IA con sus archivos: ahora buscan frenar la reutilización instantánea de su trabajo mediante RAG (búsqueda aumentada por IA) sin permiso. La oleada de litigios sugiere que, si los tribunales avalan estas quejas, las plataformas de IA deberán negociar licencias o rediseñar sus sistemas de respuesta para no incurrir en piratería informativa. “Ya no se trata solo de los datos de entrenamiento, sino de cómo las IA sirven contenido al usuario y quién posee esa información,” resumió ContentGrip. La presión legal coincide con acuerdos voluntarios en sentido opuesto (Meta y otros pagando licencias), configurando un fin de año decisivo en la batalla «medios vs. IA» por los derechos sobre el contenido.
Experimento fallido: el pódcast por IA del Washington Post desata alarmas
La búsqueda de eficiencia mediante IA golpeó la confianza editorial en The Washington Post este mes. El diario lanzó “Your Personal Podcast”, una herramienta que genera boletines de audio personalizados con voz sintética a partir de sus noticias, solo para enfrentar un bochorno interno: la propia redacción descubrió que el sistema cometía errores graves y sesgos.
En pruebas previas al lanzamiento, entre el 68% y el 84% de los guiones generados fueron reprobados por no cumplir los estándares del periódico. Los periodistas identificaron desde fallos menores de pronunciación hasta citas mal atribuidas o fabricadas por la IA. Incluso detectaron que el agente añadía «opiniones» o interpretaciones no presentes en la noticia, presentándolas como si fuesen la postura del diario.
Pese a este dictamen contundente –el informe interno concluyó que ajustes menores al prompt “difícilmente mejorarán los resultados sin introducir más riesgos”, el equipo de producto decidió seguir adelante con el lanzamiento, marcando la función como “beta” y advirtiendo de que podría contener errores.
La reacción en la sala de redacción fue de estupor e indignación: “Es asombroso que se permitiera lanzar esto. Jamás imaginé que el Post deformaría deliberadamente su propio periodismo y difundiría errores a nuestra audiencia a gran escala,” escribió un editor en un mensaje interno. Varios periodistas señalaron que errores de este calibre serían causa de despido si los cometiera un redactor humano.
Además, la metedura de pata llega en mal momento: “Justo cuando la administración Trump nos tiene bajo escrutinio y acusa a nuestros reporteros de imprecisiones, sacamos un producto lleno de fallos,” lamentó otro editor. La controversia pone de relieve la tensión entre el afán por personalizar la información vía IA –una tendencia que algunos ven como clave para atraer nuevas audiencias jóvenes– y el riesgo de socavar la credibilidad.
Aunque otras empresas también experimentan con audio automatizado (Yahoo lanzó un producto casi idéntico al mismo tiempo, y el LA Times reveló que una presentadora empleó su voz clonada por IA durante una baja médica), el periodismo sigue receloso de delegar su vínculo con la audiencia en modelos propensos a alucinar.
Este caso del Post servirá, sin duda, de advertencia: la confianza construida por años puede tambalearse con un solo experimento de IA mal calibrado.
OpenAI tiende la mano a las redacciones con un «Academy» especializado
En un movimiento orientado a ganar aliados en las salas de redacción, OpenAI lanzó el 17 de diciembre la OpenAI Academy for News Organizations, una plataforma educativa en línea para periodistas, editores y directivos de medios.
Desarrollada en conjunto con el American Journalism Project y el Lenfest Institute, esta academia ofrece formación gratuita, guías prácticas y recursos de código abierto para ayudar a los medios a adoptar la IA de forma responsable. El portal arranca con módulos bajo demanda como “Conceptos esenciales de IA para periodistas”, casos de uso en investigación periodística, verificación, traducción, análisis de datos y automatización de flujos de trabajo.
También proporciona plantillas para redactar políticas éticas internas sobre IA y marcos de gobernanza, reconociendo la preocupación en las redacciones por la precisión, la transparencia y el impacto en el empleo.
OpenAI presentó la iniciativa en la cumbre “AI and Journalism” (co-organizada con el Brown Institute y Hearst en Nueva York), subrayando su compromiso con un ecosistema informativo saludable.
No es casualidad que este lanzamiento llegue mientras OpenAI enfrenta demandas de los propios medios por el uso de sus contenidos: la academia parece buscar un acercamiento colaborativo, dotando a los periodistas de herramientas y conocimientos para “ahorrar tiempo y enfocarse en trabajo de alto impacto” con ayuda de la IA.
La compañía recuerda que ha invertido durante años en apoyar el periodismo de calidad –cita acuerdos con News Corp, Financial Times, Condé Nast, Hearst y colaboraciones con WAN-IFRA, INMA, etc.– y que ChatGPT ya sirve a 800 millones de usuarios semanales información de medios “de confianza”.
Con la OpenAI Academy, la firma de Sam Altman (ahora de regreso tras su crisis interna de noviembre) busca normalizar la presencia de la IA en las redacciones, no como sustituto sino como aliado para potenciar el reporting, a la vez que atiende las inquietudes legítimas de la profesión. Resta ver cuántos periodistas aprovecharán esta formación y si ello se traduce en una adopción más segura y crítica de herramientas de IA en 2026.
Al Jazeera y Google Cloud: la IA como «socio activo» en la producción de noticias
Mientras algunos medios se resisten a la IA generativa, otros la abrazan para transformarse. Al Jazeera Media Network anunció el 21 de diciembre “The Core”, una ambiciosa iniciativa para integrar sistemas de IA en toda su operación informativa.
En colaboración con Google Cloud, el gigante catarí de noticias implementará un modelo integral de IA con seis pilares que abarcan desde el procesamiento de datos complejos y generación de contenido inmersivo, hasta la obtención de contexto analítico y la automatización de flujos internos. El objetivo, en palabras de su director general Sheikh Nasser bin Faisal Al Thani, es pasar de usar la IA como “herramienta pasiva” a convertirla en un “socio activo” del periodista.
Esto significa que la IA asistirá a reporteros y editores en tareas que van más allá de la simple creación de texto: análisis de grandes bases de datos, producción de gráficos o piezas multimedia avanzadas, traducciones automáticas de alta calidad, detección de patrones en la información y optimización de la distribución multiplataforma, entre otras. “Al Jazeera se compromete a mantener nuestro liderazgo en la era de la IA,” señaló Al Thani, agregando que “The Core” busca modernizar el periodismo combinando la experticia humana con la potencia de la inteligencia artificial.
Alex Rutter, director de IA de Google Cloud para EMEA, calificó el proyecto como un “paso decisivo hacia la próxima generación de medios inteligentes”, subrayando que las herramientas de Google ayudarán a redefinir cómo se informa y cómo se consume la noticia.
Este movimiento de Al Jazeera se suma a la tendencia de grandes grupos mediáticos (como TIME, NYT o AP) que están creando sus propias plataformas de IA o alianzas tecnológicas para no ceder terreno a terceros.
En un contexto en que la infraestructura informativa global se vuelve cada vez más híbrida (humano+máquina), algunos especialistas sostienen que The Core ejemplifica la estrategia de un medio de proyectarse al futuro: proteger su propiedad intelectual dentro de un ecosistema controlado y, a la vez, explotar la IA para innovar en formatos y eficiencia sin perder sus estándares de calidad y veracidad.
La UE mueve ficha: código de transparencia para frenar deepfakes y desinformación
En el terreno regulatorio, Europa despidió 2025 avanzando sobre la principal amenaza que la IA supone para el periodismo: la distorsión de la realidad mediante contenidos sintéticos. El 17 de diciembre, la Comisión Europea publicó el primer borrador del Código de Práctica sobre la Transparencia del Contenido Generado por IA, un marco voluntario que prepara el camino para las obligaciones que impondrá la inminente Ley de IA en 2026.
El código propone una serie de compromisos técnicos y organizativos para proveedores y usuarios de sistemas generativos, orientados a garantizar que todo contenido artificial esté claramente marcado como tal.
Entre sus medidas clave destaca la implementación de marcas identificadoras a múltiples niveles: metadatos incrustados, marcas de agua visibles e incluso “huellas digitales” para imágenes, audio y vídeo creados o manipulados por IA.
Asimismo, exige a las plataformas etiquetar explícitamente deepfakes y textos generados por IA cuando estos se presenten al público como informativos, usando un icono y glosario común en la interfaz para alertar al usuario. El borrador también subraya que los despliegues de IA deben mantener mecanismos internos de cumplimiento, capacitar a su personal en estas normas y cooperar con las autoridades de supervisión.
Si bien prevé excepciones para contenidos claramente artísticos, satíricos o bajo control editorial humano (por ejemplo, un medio noticioso tradicional no tendría que “etiquetar” cada artículo redactado por periodistas), el mensaje es claro: la UE quiere un ecosistema informativo de confianza, donde el ciudadano pueda distinguir fácilmente entre realidad y síntesis.
Este código, actualmente en consulta, servirá como guía para que empresas como Google, Meta, OpenAI o las propias redacciones adopten buenas prácticas de señalización de contenido antes de que entren en vigor las obligaciones legales.
Complementa iniciativas como la Declaración de Copenhague (noviembre) que pedía proteger a los medios frente a deepfakes, y refleja un consenso creciente en políticas públicas: sin transparencia en la IA, la democracia informativa peligra.
En breve: otros hitos de IA en el periodismo (diciembre 2025)
-
Google prueba titulares generados por IA en su feed Discover. Varios usuarios notaron que la app reemplazó los headlines originales de noticias por resúmenes tipo clickbait creados por IA. Google confirmó que es un “experimento de interfaz” limitado, pero la reacción negativa sugiere que alterar los titulares de los medios sin permiso erosiona la confianza y podría inducir errores de contexto.
-
Future PLC adopta estrategia “Google Zero”. El grupo británico de medios (propietario de TechRadar, Marie Claire, PC Gamer, etc.) reportó una caída de ingresos trimestral atribuida al desplome del tráfico desde Google. En respuesta, anunció un plan para reducir su dependencia del buscador, apostando por suscripciones, newsletters y comunidad propia –un giro similar al de otros editores que buscan sobrevivir al nuevo ecosistema post-buscadores.
-
Nueva York exigirá avisos en anuncios con avatares de IA. Un reflejo del creciente escrutinio a la manipulación audiovisual: el estado de Nueva York aprobó una ley que obliga a los anunciantes a divulgar claramente si utilizan presentadores o personajes generados por IA en piezas publicitarias. Si bien la norma apunta al ámbito comercial, refuerza la idea de que la audiencia tiene derecho a saber cuándo una imagen o voz es artificial, principio aplicable también a contenidos informativos.
-
Colaboración UE–Canadá en IA confiable. La Unión Europea firmó un memorándum con Canadá para cooperar en estándares, regulación y adopción responsable de la IA. Ambos se comprometieron a intercambiar mejores prácticas y desarrollar conjuntamente enfoques que concilien innovación y respeto a derechos fundamentales, incluyendo la protección del pluralismo mediático en la era algorítmica.
Principales fuentes consultadas
-
Reuters — “Meta strikes multiple AI deals with news publishers, Axios reports”
-
Axios — “Meta signs deals with news publishers for its AI chatbot”
-
The Verge — “Meta strikes AI licensing deals with CNN, Fox News, and USA Today”
-
USA Today Co. (PR) — “USA TODAY Co. and Meta Announce Multi-Year AI Licensing Partnership”
-
Meta Newsroom (FR) — “Meta et le Groupe Le Monde annoncent un partenariat…”
-
Le Monde — “Intelligence artificielle : Meta signe un accord…”
-
Reuters — “New York Times sues Perplexity AI for ‘illegal’ copying of content”
-
The Guardian — “New York Times sues AI startup for ‘illegal’ copying of millions of articles”
-
Engadget — “The New York Times and Chicago Tribune sue Perplexity…”
-
The Verge — “New York’s new law forces advertisers to say when they’re using AI avatars”
-
Oficina de la Gobernadora de NY — “Governor Hochul Signs Legislation… (AI transparency…)”
-
TechCrunch — “EU opens antitrust probe into Google’s use of content for AI features”
-
Comisión Europea (PDF) — “First draft Code of Practice on transparency of AI-generated content”
-
OpenAI — “Introducing OpenAI Academy for News Organizations”
-
Semafor — “Washington Post pulls plug on error-prone AI-generated podcast”
-
Semafor — “Iterate Through: why The Washington Post launched an error-ridden AI product”
-
VPM — “Washington Post pulls AI-generated podcasts after errors”
Metodología y uso de IA
Este seguimiento mensual ha sido elaborado con el apoyo de herramientas de inteligencia artificial para el filtrado inicial, la organización de fuentes y la detección de patrones informativos y elaboración de borradores. Todas las decisiones editoriales, la selección final de hechos y la redacción han sido supervisadas y validadas por un equipo humano, garantizando precisión y contexto.



