Enero de 2026 confirmó que la confianza informativa ya no se discute solo en términos de calidad periodística, sino como un problema de infraestructura democrática, de diseño regulatorio y de arquitectura tecnológica.
En varias regiones, el foco se desplazó hacia los contenidos sintéticos (especialmente los deepfakes) y hacia la forma en que gobiernos, plataformas y redacciones pueden reaccionar sin deteriorar derechos fundamentales ni abrir la puerta a presiones indirectas sobre el periodismo.
En paralelo, informes publicados durante el mes reforzaron un diagnóstico recurrente: el público percibe el ecosistema informativo como más opaco, más fragmentado y más vulnerable a manipulaciones, mientras la automatización y los asistentes de IA empiezan a actuar como “intermediarios editoriales” de facto.
Sobre ese telón de fondo, enero dejó decisiones y propuestas concretas (España, Unión Europea, Estados Unidos, Corea del Sur, Reino Unido, México) y también señales del sector para exigir transparencia a la IA y reforzar estándares verificables de atribución, corrección y rendición de cuentas.
España: rectificación, deepfakes y el riesgo de convertir la confianza en un campo de batalla jurídico
El Gobierno español colocó la cuestión de los deepfakes en el centro de una reforma legal con impacto directo sobre la circulación de información y sobre el día a día de los medios. En la rueda de prensa posterior al Consejo de Ministros del 13 de enero, el Ejecutivo presentó un anteproyecto para actualizar el derecho de rectificación con el argumento de adaptarlo a la realidad digital y ampliar su alcance a entornos online. En ese marco, el planteamiento incorporó de forma explícita los contenidos manipulados o generados mediante inteligencia artificial, con mención directa al fenómeno de los deepfakes, como ámbito en el que podrían activarse mecanismos de rectificación y protección de derechos.
La discusión pública que siguió no fue estrictamente técnica. Parte del debate se desplazó a una cuestión de confianza en sentido amplio: cómo proteger a ciudadanos y reputaciones frente a campañas de manipulación audiovisual sin reforzar, al mismo tiempo, un mecanismo potencialmente disuasorio para la investigación periodística, especialmente cuando el conflicto político es elevado y la litigiosidad puede aumentar. La cobertura sobre la propuesta subrayó esa tensión entre la actualización normativa para un entorno de desinformación más sofisticada y el temor a usos expansivos del derecho de rectificación que acaben convirtiéndose en presión editorial por la vía de reclamaciones y procedimientos.
En ese clima, organizaciones del sector y de defensa de libertades informativas situaron la reforma dentro de un ecosistema ya cargado de fricciones entre poder político, reputación, procesos judiciales y periodismo. Un comunicado difundido el 14 de enero por la Plataforma en Defensa de la Libertad de Información (PDLI), recogido por Clabe, alertó del aumento de presiones, riesgos legales y restricciones indirectas que pueden derivar en autocensura o en debilitamiento de la función de control del poder. La advertencia no se formuló como una discusión abstracta: se vinculó a un entorno en el que la incertidumbre jurídica y la posibilidad de escalada de reclamaciones pueden alterar incentivos editoriales y, con ello, afectar a la percepción ciudadana de independencia y credibilidad.
La dimensión española de enero también mostró un patrón que se repite en otros países: el combate contra bulos y la manipulación audiovisual tiende a presentarse como una política de integridad democrática, mientras su crítica se articula como una defensa preventiva frente al control del relato. En términos de confianza, el punto relevante no es la existencia de discrepancia política, sino que la propia política de “protección frente a la desinformación” puede convertirse en un nuevo foco de sospecha si no incorpora garantías claras, procedimientos proporcionados y trazabilidad en la toma de decisiones. En un ecosistema mediático ya erosionado por la polarización, ese riesgo se amplifica.
Deepfakes: del problema de verificación al problema de credibilidad generalizada
El mes dejó una constatación cada vez más habitual en el debate internacional: la proliferación de deepfakes no solo añade una tarea más de verificación, sino que amenaza con contaminar el valor probatorio de la imagen y el vídeo como soportes de evidencia pública. Un reportaje publicado en enero por NBC News abordó ese desplazamiento desde la falsificación puntual hacia un “colapso” de confianza online: cuando los contenidos sintéticos se vuelven baratos y ubicuos, una parte del público tiende a desconfiar por defecto, lo que afecta incluso a materiales reales difundidos por medios con estándares.
Esa deriva tiene implicaciones periodísticas que van más allá del fact-checking. El problema ya no es solo detectar una pieza falsa, sino mantener la capacidad de construir consenso factual cuando parte de la audiencia adopta un escepticismo preventivo y, al mismo tiempo, selecciona qué creer en función de afinidades previas. En términos de confianza, la amenaza es doble: por un lado, los deepfakes facilitan campañas de difamación o manipulación; por otro, ofrecen un argumento de negación (“esto es un fake”) que puede utilizarse para desacreditar informaciones veraces. Enero no resolvió ese dilema, pero sí lo concentró en agendas legislativas y en iniciativas sectoriales que buscan, ante todo, etiquetado, atribución y trazabilidad.
Europa: sanciones por manipulación informativa y presión para que la IA no reescriba las noticias sin control
En la Unión Europea, el mes estuvo marcado por dos líneas de acción complementarias. La primera, de naturaleza geopolítica y de seguridad, se articuló alrededor de la manipulación informativa como instrumento de interferencia. A finales de enero, el Consejo de la UE anunció sanciones en el marco de su régimen contra la manipulación e interferencia informativa (FIMI), un movimiento que sitúa la desinformación no solo como un problema de plataforma o de alfabetización mediática, sino como una herramienta operativa susceptible de respuesta diplomática y restrictiva. (RFI)
La segunda línea, más cercana a la industria y a la intermediación tecnológica, fue la discusión sobre la integridad de la información cuando el acceso a noticias empieza a estar mediado por asistentes de IA. En enero se reforzó la presión de organizaciones de medios para que los sistemas de IA sean transparentes sobre fuentes y para que no distorsionen contenidos periodísticos al sintetizarlos. Este impulso conectó con una preocupación muy específica: cuando un asistente resume, mezcla o reescribe noticias sin atribución robusta, el daño reputacional puede recaer sobre la marca periodística original, aunque el error haya sido introducido en la capa algorítmica. En términos de confianza, el ciudadano suele percibir “la información” como un continuo, sin distinguir con claridad entre producción periodística, indexación, resumen y respuesta automática.
Ese marco explica por qué enero concentró atención en iniciativas de campaña y en señales regulatorias emergentes sobre etiquetado y rendición de cuentas de sistemas de IA. La conversación europea se apoyó, además, en el contexto del Reglamento de Servicios Digitales (DSA) y en el despliegue de obligaciones de transparencia para plataformas, aunque el mes estuvo menos definido por una única gran decisión normativa que por el encadenamiento de hitos y debates con fecha verificable.
Reino Unido: “etiquetas nutricionales” para noticias generadas por IA y la disputa por las fuentes
Una de las piezas más citadas del mes sobre el impacto de la automatización en la confianza informativa provino del Institute for Public Policy Research (IPPR). El 30 de enero, IPPR publicó “AI’s got news for you: Can AI improve our information environment?”, un informe centrado en el papel de la IA como nueva “puerta de entrada” a la información y en los riesgos de opacidad, sesgos e incentivos económicos adversos para el periodismo. (IPPR)
El informe planteó, entre otras propuestas, la idea de incorporar “etiquetas” estandarizadas para que el público pueda entender de dónde salen las respuestas de la IA, qué fuentes se han utilizado y con qué criterios, en un movimiento que busca aproximar la transparencia informativa a estándares comparables a los de trazabilidad en otros sectores. En paralelo, defendió un marco de licenciamiento y compensación para el uso de periodismo en sistemas de IA, precisamente por el efecto que la intermediación automática puede tener sobre el tráfico hacia los medios y sobre la sostenibilidad de redacciones, un factor que termina influyendo en la calidad percibida y, por extensión, en la confianza. (IPPR)
La relevancia periodística de este hito en enero no fue la novedad conceptual (el debate venía de antes), sino la cristalización en una publicación fechada y en propuestas concretas que conectan transparencia técnica, atribución editorial y economía del periodismo. Ese triángulo es clave: la confianza no depende solo de códigos de ética, sino también de que el circuito de distribución no “desfigure” el contenido y de que el modelo de negocio no empuje a prácticas que el público interpreta como degradación del rigor.
Corea del Sur: regulación de la IA como política de “confianza” y etiquetado en publicidad
En Asia, enero ofreció señales especialmente nítidas desde Corea del Sur, donde el debate sobre IA y seguridad informativa se ha visto atravesado por la preocupación social por usos abusivos de contenidos sintéticos. A finales de mes, se informó de la entrada en escena de un marco regulatorio amplio, descrito como un intento de equilibrar promoción de la industria y construcción de confianza mediante obligaciones de evaluación de riesgos y requisitos de etiquetado o marca de agua para contenidos generados por IA. La publicación de referencia subrayó que el enfoque pretende normalizar la identificación de contenido sintético como mecanismo de reducción de engaños y de estabilización de la confianza pública. (The Guardian)
En paralelo, una medida más específica conectó directamente con la problemática de los deepfakes como engaño masivo en entornos cotidianos: Corea del Sur avanzó hacia la obligación de etiquetar anuncios generados con IA, con el argumento de frenar fraudes y publicidad engañosa que utiliza imágenes o figuras falsas. Aunque el ámbito es comercial, el principio es relevante para la confianza informativa: el etiquetado no solo protege al consumidor, también establece una norma cultural sobre cuándo un contenido debe declararse sintético, lo que puede irradiar hacia usos informativos y reducir zonas grises. (AP News)
El caso surcoreano resulta ilustrativo porque aproxima el problema de confianza a una gobernanza de la señal: qué marcas visibles o invisibles necesita el ecosistema para que el ciudadano no tenga que adivinar si lo que ve es real, reenmarcado o fabricado. Enero dejó claro que esa gobernanza no se limita a la política electoral: se extiende a estafas, abusos y desinformación de baja intensidad que, acumulada, degrada la credibilidad general del entorno digital.
Estados Unidos: la respuesta legal a los deepfakes íntimos y la lógica de reparación como parte de la confianza pública
En Estados Unidos, enero no estuvo dominado por un único gran paquete regulatorio sobre información, pero sí por un movimiento legislativo con fuerte carga simbólica: la discusión sobre deepfakes sexuales y daño reputacional como asunto de derechos y reparación. Durante el mes, se reactivó el foco sobre la necesidad de habilitar vías civiles para víctimas de imágenes íntimas no consentidas generadas mediante IA, un debate que suele agruparse en torno a propuestas como el DEFIANCE Act. La cobertura de enero lo situó en un punto clave: cuando la tecnología abarata la falsificación, el sistema jurídico tiende a responder reforzando remedios, creando desincentivos y buscando acelerar retiradas. (docs.fcc.gov)
Aunque el objeto inmediato no es el periodismo, el impacto sobre la confianza informativa es real. Primero, porque refuerza un marco social: los deepfakes no se consideran solo un problema de “contenido”, sino una práctica con daño medible y responsabilidad exigible. Segundo, porque consolida el principio de que la identificación de contenido sintético y la capacidad de impugnarlo forman parte de la higiene del espacio público. En un entorno donde la audiencia consume noticias mezcladas con piezas manipuladas, la confianza también se apoya en la existencia de mecanismos claros de denuncia, corrección y reparación.
México y América Latina: señales de respuesta normativa y el telón de fondo de presiones al periodismo
En América Latina, enero dejó menos “grandes informes” cuantitativos sobre confianza, pero sí dos señales relevantes para un tracking centrado en hechos fechados. La primera estuvo vinculada a la desinformación electoral y a la preocupación por deepfakes en procesos políticos: en México, la discusión pública sobre herramientas legales frente a contenidos sintéticos y campañas de manipulación se reactivó en enero a través de iniciativas y propuestas que buscaban tipificar o sancionar determinados usos de deepfakes en contextos electorales y de daño reputacional. La relevancia para la confianza es directa: el debate no se formula solo como protección de candidaturas, sino como integridad del proceso informativo que acompaña la decisión ciudadana. (xataka.com.mx)
La segunda señal se relacionó con presiones y riesgos legales para el periodismo, un componente estructural de la confianza. Un análisis publicado el 21 de enero describió el efecto de la persecución judicial, la intimidación y la autocensura sobre el periodismo en Colombia, situando la confianza en un marco donde la seguridad y la independencia condicionan qué información llega a publicarse y con qué grado de verificación. En contextos de hostilidad, el público no solo duda del contenido: también duda de la posibilidad de que el periodismo actúe como contrapoder, y esa duda erosiona credibilidad institucional a largo plazo. (latamjournalismreview.org)
En términos de comparación internacional, enero mostró un contraste: mientras Europa y algunos países asiáticos enfatizan etiquetado y transparencia técnica, en partes de América Latina el problema de confianza está inevitablemente entrelazado con condiciones de ejercicio profesional, amenazas y litigiosidad. La confianza, en ese escenario, no es solo una evaluación de veracidad; es también una evaluación de libertad real para informar.
Los indicadores globales publicados en enero: confianza institucional, polarización y el papel frágil de los medios
El mes estuvo acompañado por dos referencias de alto uso en el debate público. La primera fue el Edelman Trust Barometer 2026, publicado en enero, que volvió a situar a los medios como un actor con niveles de confianza inferiores a otras instituciones en muchos países, con variaciones por mercado y con un diagnóstico transversal de fragmentación social. El informe global y la presentación pública de Edelman ofrecieron el marco general del año: la confianza se estrecha hacia círculos afines, aumenta la reticencia a confiar en “el otro” y el consumo informativo se vuelve más identitario. (edelman.com)
La segunda referencia, con lectura más sectorial, fue el informe del Reuters Institute “Journalism, media, and technology trends and predictions 2026”, accesible en su página y en PDF fechado en enero. El documento describió la combinación de baja confianza, caída de engagement y desplazamiento de audiencias hacia creadores y canales alternativos, además de la presión que introduce la IA: intermediación automática, riesgo de resúmenes incorrectos y necesidad de reforzar transparencia editorial y estándares de corrección para diferenciarse en un entorno saturado. (Reuters Institute)
En España, el Barómetro del CIS de enero aportó el contexto de clima político y confianza institucional desigual, aunque no incorporó un módulo específico sobre confianza en medios en el resumen más citado del mes. Aun así, su valor para este tracking es contextual: el ambiente de polarización y de evaluación negativa de instituciones actúa como multiplicador de sospecha hacia la información, especialmente cuando la conversación pública está dominada por disputa política y por acusaciones cruzadas. (CIS)
Visto en conjunto, enero dejó una relación de causalidad que suele ser difícil de probar en un único estudio, pero que sí aparece como hipótesis operacional en los documentos del mes: cuanto más opaco es el circuito de producción y distribución (IA, plataformas, resúmenes automáticos), cuanto más intensa es la litigiosidad o presión sobre medios, y cuanto más identitaria es la vida pública, más se desplaza la confianza desde “instituciones informativas” hacia “redes de afinidad”. La consecuencia, para el periodismo profesional, es que la credibilidad depende cada vez más de señales verificables de proceso: atribución, correcciones visibles, transparencia de fuentes y explicación de métodos, además de marcos regulatorios que reduzcan el coste social del engaño sin convertirse en palancas de control editorial.
Iniciativas del sector: transparencia de la IA y defensa de la atribución como condición de confianza
Enero también registró movimientos del sector que, sin ser normativos, buscan influir en estándares de mercado. La publicación del IPPR y el informe del Reuters Institute convergieron en un punto: la confianza se juega, crecientemente, en la capa de intermediación. Si los usuarios llegan a la actualidad a través de “respuestas” en vez de a través de piezas, la batalla por la credibilidad se traslada a cómo se citan fuentes, cómo se corrigen errores y cómo se expone el origen de los datos. (IPPR)
En ese marco, la demanda de transparencia a empresas de IA no se limita a “pagar por contenidos”. Incluye también mecanismos de reclamación, trazabilidad y visibilidad de fuentes, porque la confianza no es solo un contrato económico: es una relación de responsabilidad sobre el impacto público de una respuesta. Enero dejó claro que una parte del sector mediático considera que el daño reputacional por distorsión algorítmica es ya un problema operativo, no un escenario hipotético.
En breve
El Consejo de la UE utilizó enero para reforzar la idea de que la manipulación informativa puede activar respuestas de política exterior mediante sanciones, consolidando un enfoque que trata la desinformación como amenaza híbrida, no solo como problema de consumo mediático. (RFI)
El informe de IPPR, fechado el 30 de enero, formalizó propuestas de etiquetado estandarizado para noticias generadas por IA y conectó transparencia de fuentes con sostenibilidad del periodismo, en un momento en que los asistentes se consolidan como puerta de entrada a la actualidad. (IPPR)
Principales fuentes consultadas
- Gobierno de España. “Rueda de prensa tras el Consejo de Ministros (13/01/2026)”.
https://www.lamoncloa.gob.es/consejodeministros/resumenes/Paginas/2026/130126-rueda-de-prensa-ministros.aspx - Clabe (recoge comunicado PDLI). “La PDLI alerta del aumento de presiones, riesgos legales y restricciones indirectas al ejercicio del periodismo” (14/01/2026).
https://clabe.org/2026/01/14/la-pdli-alerta-del-aumento-de-presiones-riesgos-legales-y-restricciones-indirectas-al-ejercicio-del-periodismo/ - Reuters Institute for the Study of Journalism. “Journalism, media, and technology trends and predictions 2026” (enero 2026).
https://reutersinstitute.politics.ox.ac.uk/journalism-media-and-technology-trends-and-predictions-2026
https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2026-01/Trends_and_Predictions_2026.pdf - Edelman. “2026 Edelman Trust Barometer”.
https://www.edelman.com/trust/2026/trust-barometer
https://www.edelman.com/sites/g/files/aatuss191/files/2026-01/2026%20Edelman%20Trust%20Barometer%20Global%20Report_Final.pdf - Club Internacional de Prensa. “El Barómetro Edelman 2026 revela una preocupante falta de confianza en el periodismo” (enero 2026).
https://clubinterprensa.org/el-barometro-edelman-2026-revela-una-preocupante-falta-de-confianza-en-el-periodismo/ - NBC News. “AI is intensifying a ‘collapse’ of trust online, experts say” (enero 2026).
https://www.nbcnews.com/tech/tech-news/experts-warn-collapse-trust-online-ai-deepfakes-venezuela-rcna252472 - IPPR. “AI’s got news for you: Can AI improve our information environment?” (30/01/2026).
https://www.ippr.org/articles/ais-got-news-for-you - Consejo de la Unión Europea. Comunicación sobre sanciones vinculadas a manipulación e interferencia informativa (enero 2026).
https://www.consilium.europa.eu/en/press/press-releases/2026/01/29/russia-s-actions-destabilising-the-situation-in-ukraine-eu-lists-additional-individuals-and-entities/ - The Guardian. “South Korea’s ‘world-first’ AI laws face pushback…” (29/01/2026).
https://www.theguardian.com/world/2026/jan/29/south-korea-world-first-ai-regulation-laws - Associated Press. “South Korea to require advertisers to label AI-generated ads” (enero 2026).
https://apnews.com/article/6df668ae93489da7d448c66e53905bbb - Xataka (México). Cobertura sobre iniciativas frente a deepfakes en contexto electoral (enero 2026).
https://www.xataka.com.mx/legislacion-y-derechos/mexico-senado-va-deepfakes-quiere-que-cualquiera-cree-falsos-ia-para-elecciones-sea-castigado-ley - LatAm Journalism Review. Análisis sobre presiones judiciales y efectos sobre el periodismo en Colombia (21/01/2026).
https://latamjournalismreview.org/articles/colombia-petro-crackdown-media/
Metodología y uso de IA
Este seguimiento mensual ha sido elaborado con el apoyo de herramientas de inteligencia artificial para el filtrado inicial, la organización de fuentes y la detección de patrones informativos y elaboración de borradores. Todas las decisiones editoriales, la selección final de hechos y la redacción han sido supervisadas y validadas por un equipo humano, garantizando precisión y contexto.



