Febrero consolidó un cambio de fase en la relación entre inteligencia artificial y periodismo: la conversación dejó de girar principalmente en torno a “qué puede hacer la IA” y pasó a centrarse en qué exige demostrar cuando se usa —o cuando se denuncia que se usa— en contextos informativos.
En la práctica, la IA dejó de ser únicamente una herramienta y pasó a comportarse como un hecho editorial: algo que, por su impacto potencial en la veracidad, la atribución, la privacidad y la confianza, obliga a documentar procesos, fijar límites y responder con rapidez cuando algo falla.
El mes también reforzó una tensión que ya atraviesa a medios, reguladores y audiencias: por un lado, la IA promete eficiencia y nuevas capacidades (búsqueda avanzada en archivos, automatización de servicios, producción asistida); por otro, incrementa el coste de la verificación y amplifica daños cuando se usa para manipular identidades, fabricar escenas o “contaminar” el ecosistema informativo con contenido sintético. En ese choque —entre capacidades y riesgos— emergió una lógica común que empieza a imponerse: la auditabilidad.
No basta con afirmar que hay supervisión humana o que se aplican estándares; se abre paso la expectativa de que exista trazabilidad, mecanismos de corrección y reglas verificables.
En paralelo, febrero mostró cómo los debates sobre IA y periodismo ya no pueden separarse de dos frentes externos: el regulatorio (investigaciones y propuestas legislativas que buscan acotar usos dañinos y fijar obligaciones) y el político-electoral (normas y proyectos que intentan frenar la automatización engañosa en campañas, con efectos directos sobre el entorno en el que trabajan las redacciones).
El resultado: la IA aparece menos como un “tema de tecnología” y más como una infraestructura que reordena responsabilidades.
Marco regulatorio y supervisión pública
Nueva York: propuesta de ley para exigir transparencia editorial cuando se use IA en noticias
El Senado del Estado de Nueva York difundió el 2 de febrero una propuesta legislativa —bajo el nombre de Fostering Accuracy and Integrity in Reporting (FAIR) Act / FAIR News Act— que plantea obligaciones específicas para el sector informativo: identificación del contenido generado mediante IA y requisitos de revisión humana antes de publicación. El texto se presenta como una respuesta a la proliferación de piezas automatizadas y al riesgo de que se difundan como periodismo sin controles equivalentes.
Reino Unido: Ofcom redefine qué puede regular (y qué no) cuando la IA genera imágenes y vídeos
El 3 de febrero, Ofcom publicó una actualización que combina dos elementos: el avance de su investigación sobre X en relación con el chatbot Grok y, sobre todo, una delimitación explícita de los márgenes de la Online Safety Act respecto a chatbots. El regulador subraya que no toda la generación de contenido por IA queda cubierta: depende de si el servicio encaja en categorías reguladas (por ejemplo, contenido pornográfico sujeto a medidas de edad, o contenidos “user-to-user”). La nota funciona como documento de referencia para redacciones porque aclara el terreno en el que se mueven los riesgos: parte del contenido sintético que circula puede quedar fuera del perímetro, con implicaciones para la respuesta institucional ante abusos.
Reino Unido: el regulador de privacidad abre investigación formal por el uso de datos personales en “deepfakes” sexualizados
Ese mismo día 3 de febrero, la ICO anunció investigaciones formales sobre entidades vinculadas a Grok para examinar el tratamiento de datos personales y la posible generación de contenido sexualizado no consentido, incluyendo casos que afectarían a menores. La ICO encuadra el asunto como un problema de control sobre datos personales y de “safeguards by design”, y vincula la investigación al daño público potencial. El hito es relevante para el periodismo porque sitúa la discusión de los deepfakes en un plano regulatorio concreto: no solo como desinformación, sino como posible infracción de protección de datos, con responsabilidades rastreables.
Protección de menores: UNICEF eleva el listón del lenguaje y pide tipificar el contenido sexual infantil generado por IA
El 4 de febrero, UNICEF difundió una declaración en la que advierte del aumento de imágenes sexualizadas generadas o manipuladas con IA, incluyendo prácticas de “nudificación”, y reclama medidas a gobiernos, plataformas y desarrolladores.
La organización insiste en una idea central: el daño no es “virtual” aunque el contenido sea sintético, y pide ampliar definiciones legales para incluir material de abuso sexual infantil creado por IA, además de reforzar detección y prevención (no solo retirada posterior). Para redacciones, el texto es significativo porque contribuye a fijar un marco de referencia moral y político que luego utilizan reguladores y legisladores: lo sintético también puede constituir abuso real.
Unión Europea: el “código” de IA de propósito general se organiza en un mecanismo de implementación
La Comisión Europea publicó el 12 de febrero una nota sobre la primera reunión constitutiva del Signatory Taskforce del Código de Buenas Prácticas para IA de propósito general (GPAI). El documento detalla dos elementos prácticos: la creación de un foro de intercambio para implementación del código y la adopción de reglas de procedimiento, con énfasis explícito en transparencia y respeto a normas de competencia.
En clave periodística, este hito es relevante porque desplaza el debate de principios a ejecución: quién participa, cómo se acuerdan estándares y qué mecanismos pueden (o no) servir para canalizar reclamaciones de sectores afectados, incluidos editores y medios cuyos contenidos se reutilizan o reinterpretan por asistentes.
Unión Europea: el Parlamento sitúa el “Digital Omnibus on AI” como ajuste con impacto en calendarios y capacidades
El Legislative Train del Parlamento Europeo actualizó el estado del Digital Omnibus on AI, describiendo propuestas que tocan la aplicación de obligaciones para sistemas de alto riesgo y el papel del AI Office. La ficha recoge, entre otros hitos del mes, la publicación (en febrero) de un borrador de informe parlamentario y la discusión de enmiendas, incluidas referencias a riesgos como los deepfakes sexualizados. Más allá del tecnicismo, el valor informativo está en el subtexto: la UE debate cómo ajustar la implementación de reglas de IA sin abrir grietas en derechos fundamentales ni debilitar la capacidad de control, algo que repercute en el ecosistema informativo regulado.
Estados Unidos: Vermont envía al gobernador una ley de divulgación de IA engañosa en publicidad política
El 18 de febrero, Vermont Public informó de la aprobación legislativa de un proyecto que obliga a incluir avisos cuando se use tecnología digital para manipular o generar material de campaña con intención de engañar, dentro de un periodo previo a las elecciones. El texto incluye, según la crónica, un enfoque estrecho con excepciones para sátira o parodia y habilita mecanismos de aplicación bajo el marco de protección al consumidor. Aunque no es una norma “de medios”, su incidencia sobre periodismo es directa: aumenta la necesidad de contextualizar, verificar y explicar material audiovisual que circulará en redes y publicidad, y ofrece una herramienta de alfabetización pública basada en disclosure.
Políticas editoriales y nuevos usos declarados en redacciones
Chicago Public Media (WBEZ): política explícita de usos permitidos y prohibidos, con foco en supervisión humana
Actualizada el 13 de febrero, la política de uso aceptable de IA de Chicago Public Media detalla cómo se puede emplear IA en tareas internas y establece límites en ámbitos sensibles, con énfasis en controles editoriales y divulgación cuando corresponda. En un momento en que la credibilidad depende de procesos que el público pueda comprender, el documento funciona como pieza de transparencia: no promete “IA ética” en abstracto, sino reglas operativas y un marco de responsabilidades dentro de la redacción.
RTVE: una herramienta de búsqueda con IA para navegar documentos desclasificados del 23-F
RTVE publicó la presentación de un buscador asistido por IA para explorar miles de páginas de documentos desclasificados vinculados al 23-F. La propuesta se enmarca como un producto de acceso y archivo: no sustituye el trabajo periodístico, pero cambia su punto de partida al facilitar el rastreo de nombres, conceptos y conexiones en un corpus documental masivo. En la práctica, es un ejemplo de “IA como infraestructura documental” aplicada a servicio público informativo, con un valor simbólico: la IA no solo produce texto, también reorganiza el acceso a fuentes primarias.
Fallos, retractaciones y el coste reputacional de automatizar
Ars Technica: retractación por citas fabricadas y el recordatorio de que “la IA también deja huella”
El 15 de febrero, Ars Technica publicó una nota editorial retractando un artículo tras reconocer que incluía citas fabricadas. La pieza se convirtió en un caso pedagógico por dos motivos: evidencia la fragilidad de los flujos de trabajo cuando una herramienta se integra sin controles suficientes y muestra una reacción editorial basada en corrección visible y rendición de cuentas. En un ecosistema saturado de contenido sintético, la retractación no solo repara un error puntual: también fija un estándar de respuesta ante fallos atribuibles a automatización.
Investigación publicada en el mes
Febrero dejó un patrón claro en la investigación académica y de preprints: el interés se desplaza desde “si la IA sirve” hacia cómo se integra sin erosionar estándares periodísticos y cómo se detectan (o se miden) daños en el entorno informativo. Dos líneas dominan: la observación de prácticas reales en redacciones (qué se usa, con qué fricciones, con qué expectativas) y la investigación sobre detección de manipulación (deepfakes, rumores visuales, verificación multilingüe) que impacta de lleno en el trabajo cotidiano de verificación.
Generative AI y periodismo automatizado: una síntesis amplia que reordena definiciones
El 14 de febrero, Journal. Media (MDPI) publicó una revisión sistematizada de 185 estudios (2012–2024) sobre automatización y, más recientemente, IA generativa aplicada al periodismo. El artículo sostiene que la accesibilidad y la capacidad de procesar datos no estructurados están reconfigurando la noción clásica de “periodismo automatizado”, desbordando el modelo histórico basado en plantillas y datos estructurados, y obligando a reconsiderar marcos de evaluación y prácticas editoriales.
IA en periodismo local: lo que los periodistas creen que la IA puede hacer (versus lo que realmente hace)
El 26 de febrero, un preprint en arXiv analizó prácticas, desafíos y oportunidades del AI-supported reporting en periodismo local a partir de entrevistas con periodistas locales en Alemania. El estudio describe una brecha entre expectativas y uso real, con disposición a usar IA para procesar datos y descubrir historias, pero también con límites ligados a comprensión técnica, integración en rutinas y control editorial. Es un aporte relevante porque pone el foco en el eslabón más vulnerable del ecosistema —la prensa local— donde la presión de recursos convive con una necesidad alta de confianza comunitaria.
Tabla: estudios académicos destacados y preprints publicados en febrero de 2026 sobre IA y periodismo
| Título | Autores | Revista o repositorio | Fecha (feb 2026) | Enlace | Resumen |
|---|---|---|---|---|---|
| Generative AI and the New Landscape of Automated Journalism: A Systematized Review of 185 Studies (2012–2024) | Michelle Bartleman et al. | Journal. Media (MDPI) | 13 feb 2026 | https://www.mdpi.com/2673-5172/7/1/39 | Revisión amplia sobre automatización e IA generativa que propone redefinir “periodismo automatizado” en la era GenAI. |
| They Think AI Can Do More Than It Actually Can: Practices, Challenges, & Opportunities of AI-Supported Reporting In Local Journalism | Besjon Cifliku; Hendrik Heuer | arXiv | 26 feb 2026 | https://arxiv.org/abs/2602.22887 | Entrevistas en periodismo local: brecha entre expectativas y uso real; oportunidades y límites en reporting con IA. |
| Grok in the Wild: What Do Users Ask Grok? | Katelyn Xiaoying Mei et al. | arXiv | 11 feb 2026 | https://arxiv.org/abs/2602.11286 | Estudia cómo usuarios consultan a un asistente; aporta pistas sobre mediación algorítmica de información en contextos públicos. |
| @GrokSet: A Multi Multi-party Human-LLM Interaction Dataset | Matteo Migliarini, et al. | arXiv | 11 feb 2026 | https://arxiv.org/abs/2602.21236 | Dataset de interacciones multiusuario con un LLM, útil para analizar dinámicas conversacionales en plataformas. |
| Cross-Domain Fake News Detection: An LLM-augmented Multi-Modal Multi-Agent Framework | Xuankai Yang et al. | arXiv | 2 feb 2026 | https://arxiv.org/abs/2602.01726 | Propone arquitectura multimodal y multiagente para detección de noticias falsas en dominios diversos. |
| Fact or Fake? Assessing the Role of Deepfake Detectors in Multimodal Misinformation Detection | A S M Sharifuzzaman Sagar, et al. | arXiv | 2 feb 2026 | https://arxiv.org/abs/2602.01854 | Evalúa cómo detectores de deepfakes contribuyen (o no) a detectar desinformación multimodal. |
| Web-Scale Multimodal Summarization Using CLIP as a Reference-Based Similarity Metric | Mounvik K, N Harshit | arXiv | 16 feb 2026 | https://arxiv.org/abs/2602.14889 | Explora evaluación de resúmenes multimodales a escala web, relevante para productos de síntesis de noticias. |
| MViR: Multilingual Visual Rumor Verification with Multimodal Large Language Model | Haochen Liang, et al. | arXiv | 26 feb 2026 | https://arxiv.org/abs/2602.22944 | Verificación multilingüe de rumores visuales con modelos multimodales: implicaciones para verificación en redacciones. |
Un puente entre investigación y práctica: CNTI publica un briefing sobre políticas internas de IA
En febrero, el Center for News, Technology & Innovation (CNTI) publicó el Briefing #3 de su grupo global de investigación sobre IA y periodismo, centrado en políticas de redacción. El documento resume hallazgos sobre cómo las guías existentes tienden a enfatizar principios, pero a menudo no aterrizan mecanismos prácticos (incluida la compra de herramientas y la dependencia de terceros), y subraya la necesidad de que la supervisión humana sea algo operativo, no meramente declarativo.
América Latina: adopción práctica y el frente electoral
WAN-IFRA: de la exploración a la práctica editorial en redacciones latinoamericanas
El 19 de febrero, WAN-IFRA publicó un análisis que reúne experiencias de medios latinoamericanos integrando IA en operaciones diarias —no como promesa genérica, sino como respuesta a problemas concretos (transcripción, contextualización, apoyo a decisiones editoriales, SEO). El texto enfatiza enfoques “human-in-the-loop” y la idea de IA como infraestructura que ordena procesos y libera tiempo, en lugar de reemplazar juicio periodístico. En términos de industria, es una señal de madurez: el aprendizaje se desplaza desde el experimento aislado hacia herramientas prototipadas con objetivos editoriales explícitos.
México: reforma electoral para prohibir bots y regular IA en campañas, con impacto en el entorno informativo
El 25 de febrero, WIRED en Español detalló una propuesta de reforma electoral presentada por la presidenta Claudia Sheinbaum que incluye prohibición de bots y regulación del uso de IA en campañas políticas, con mecanismos de supervisión que reforzarían el papel del INE para controlar contenido en redes y ordenar suspensiones ante irregularidades.
El proyecto incorpora la lógica de “aviso al ciudadano” cuando se use IA para generar y difundir contenido político. Para el periodismo, el hito importa por un motivo operativo: si prospera, empuja hacia un mercado político con más disclosures y, al mismo tiempo, eleva el volumen de material que deberá ser interpretado, verificado y contextualizado por medios y verificadores.
Principales fuentes consultadas
- New York State Senate — FAIR News Act. https://www.nysenate.gov/newsroom/press-releases/2026/patricia-fahy/fahy-rozic-introduce-ny-fair-news-act-protect
- Ofcom — Investigation into X, and scope of the Online Safety Act. https://www.ofcom.org.uk/online-safety/illegal-and-harmful-content/investigation-into-x-and-scope-of-the-online-safety-act
- ICO — ICO announces investigation into Grok. https://ico.org.uk/about-the-ico/media-centre/news-and-blogs/2026/02/ico-announces-investigation-into-grok/
- UNICEF — Deepfake abuse is abuse. https://www.unicef.ch/en/current/news/2026-02-04/deepfake-abuse-abuse
- Comisión Europea — First meeting of the Signatory Taskforce of the General-Purpose AI Code of Practice. https://digital-strategy.ec.europa.eu/en/news/first-meeting-signatory-taskforce-general-purpose-ai-code-practice
- Parlamento Europeo — Digital Omnibus on AI. https://www.europarl.europa.eu/legislative-train/package-digital-package/file-digital-omnibus-on-ai
- Vermont Public — Vermont lawmakers approve bill requiring disclosure of deceptive AI in political ads. https://www.vermontpublic.org/local-news/2026-02-18/vermont-lawmakers-approve-bill-disclosure-deceptive-ai-political-ads
- Chicago Public Media / WBEZ — AI Policy. https://www.wbez.org/ethics-corrections/ai-policy
- RTVE — RTVE crea una IA para buscar en los documentos desclasificados sobre el 23-F. https://www.rtve.es/rtve/20260227/rtve-crea-ia-buscador-documentos-desclasificados-23-f/16957045.shtml
- Ars Technica — Editor’s Note: Retraction of article containing fabricated quotations. https://arstechnica.com/staff/2026/02/editors-note-retraction-of-article-containing-fabricated-quotations/
- MDPI (Journal. Media) — Generative AI and the New Landscape of Automated Journalism: A Systematized Review of 185 Studies (2012–2024). https://www.mdpi.com/2673-5172/7/1/39
- arXiv — They Think AI Can Do More Than It Actually Can: Practices, Challenges, & Opportunities of AI-Supported Reporting In Local Journalism. https://arxiv.org/abs/2602.22887
- arXiv — Grok in the Wild: What Do Users Ask Grok? https://arxiv.org/abs/2602.11286
- arXiv — @GrokSet: A Multi Multi-party Human-LLM Interaction Dataset. https://arxiv.org/abs/2602.21236
- arXiv — Cross-Domain Fake News Detection: An LLM-augmented Multi-Modal Multi-Agent Framework. https://arxiv.org/abs/2602.01726
- arXiv — Fact or Fake? Assessing the Role of Deepfake Detectors in Multimodal Misinformation Detection. https://arxiv.org/abs/2602.01854
- arXiv — Web-Scale Multimodal Summarization Using CLIP as a Reference-Based Similarity Metric. https://arxiv.org/abs/2602.14889
- arXiv — MViR: Multilingual Visual Rumor Verification with Multimodal Large Language Model. https://arxiv.org/abs/2602.22944
- CNTI — AI & Journalism Working Group Briefing #3 | February 2026. https://cnti.org/wp-content/uploads/2026/02/AI-JOURNALISM-WORKING-GROUP-Feb-2026.pdf
- WAN-IFRA — AI in Latin American newsrooms: Moving from exploration to editorial practice. https://wan-ifra.org/2026/02/artificial-intelligence-in-latin-american-newsrooms-moving-from-exploration-to-editorial-practice/
- WIRED en Español — La reforma electoral de México plantea prohibir bots y regular la IA en campañas políticas. https://es.wired.com/articulos/la-reforma-electoral-de-mexico-plantea-prohibir-bots-y-regular-la-ia-en-campanas-politicas
- GOV.UK — Science-led collaboration against deepfakes. https://www.gov.uk/government/case-studies/science-led-collaboration-against-deepfakes
Metodología y uso de IA
Este seguimiento mensual ha sido elaborado con el apoyo de herramientas de inteligencia artificial para el filtrado inicial, la organización de fuentes y la detección de patrones informativos y elaboración de borradores. Todas las decisiones editoriales, la selección final de hechos y la redacción han sido supervisadas y validadas por un equipo humano, garantizando precisión y contexto.



