viernes 3 de abril de 2026
InicioConfianza en el periodismoTracking mensual sobre confianza en el periodismo, credibilidad, desinformación y transparencia editorial

Tracking mensual sobre confianza en el periodismo, credibilidad, desinformación y transparencia editorial

Febrero de 2026 dejó un patrón nítido en torno a la confianza en el periodismo: dejó de abordarse solo como un problema de reputación y pasó a aparecer ligada a condiciones concretas del ecosistema informativo, desde la transparencia en el uso de la inteligencia artificial y la regulación de plataformas hasta las normas editoriales y la capacidad ciudadana para verificar contenidos. Investigaciones de opinión, decisiones regulatorias, medidas de plataformas y actuaciones de organismos internacionales coincidieron durante el mes en una misma idea: la credibilidad ya no depende únicamente de la relación entre el medio y su audiencia, sino también de las reglas, los procesos y las infraestructuras que ordenan la circulación de la información.

Las publicaciones y decisiones institucionales registradas en febrero de 2026 describen un mes en el que la confianza en el periodismo se abordó menos como un problema abstracto de reputación y más como una propiedad operativa del ecosistema informativo: depende de reglas de transparencia, de la arquitectura de las plataformas, de políticas editoriales explícitas sobre IA y de capacidades sociales para verificar información. Esta lectura aparece de forma convergente en investigaciones de opinión pública, iniciativas regulatorias y acciones de plataformas y organismos internacionales.

Un primer eje del mes fue la brecha entre el valor social atribuido a la información y la confianza real en los intermediarios. En Estados Unidos, un análisis del Pew Research Center cuantificó un patrón que atraviesa otros debates del mes: la mayoría expresa baja confianza en los periodistas para actuar en el interés público (57%, sumando “no demasiada” y “ninguna” confianza), mientras una minoría declara confianza (“mucha” o “bastante”).

En paralelo, el mismo paquete de investigación mostró una asimetría relevante para la credibilidad: las personas se ven más capaces de verificar noticias por sí mismas que al resto de la sociedad, lo que desplaza el foco desde “confiar en un emisor” hacia “gestionar un entorno de verificación individual”.

En Europa, la conversación pública del mes se apoyó en datos de Eurobarómetro difundidos por Euronews que apuntan a un aumento en la exposición percibida a desinformación y a un nivel limitado de confianza en la capacidad para reconocerla, reforzando la idea de que la credibilidad se está midiendo en clave de “navegación” y no solo de “relación con el medio”.

El segundo eje fue la institucionalización de la transparencia como mecanismo de confianza, especialmente en torno a la inteligencia artificial. Tres tipos de actores empujaron en esa dirección durante febrero: reguladores, plataformas y organizaciones profesionales del periodismo. En la Unión Europea, el European Board for Digital Services enmarcó explícitamente el impacto de los chatbots de IA y las actividades de enforcement como materia de coordinación prioritaria en su declaración tras el encuentro de febrero. En Australia, el regulador (ACMA) registró reglas de radio comercial que introducen obligaciones de “disclosure” cuando se usan voces sintéticas en programas regulares o informativos, y reforzó disposiciones de correcciones y transparencia de quejas: la transparencia aparece definida como condición para que la audiencia tome decisiones informadas. En Estados Unidos, el debate legislativo a nivel estatal (Nueva York) se orientó a imponer divulgación del uso de IA y supervisión humana en contenido periodístico, con discusión pública sobre tensiones entre transparencia y autonomía editorial

Un tercer eje fue la consolidación de un marco de “integridad de la información” que conecta confianza, desinformación y gobernanza de plataformas, con una dimensión marcadamente internacional. UNESCO documentó en febrero una secuencia de actividades que combinan coordinación regulatoria (Pretoria), construcción de capacidades (alfabetización mediática e informacional) y alineamiento con estándares de transparencia y rendición de cuentas en plataformas digitales. Estas piezas asociaron explícitamente credibilidad y confianza a la cooperación entre reguladores, sociedad civil, investigadores y educación mediática, lo que implica un desplazamiento desde la “corrección posterior” hacia la “prevención” y el diseño institucional.

Un cuarto eje fue la convergencia entre confianza editorial y condiciones económicas/organizativas. En España, el Gobierno presentó en febrero un anteproyecto de ley para regular la publicidad institucional con criterios de objetividad y transparencia, vinculando pluralismo, independencia y uso de recursos públicos—un punto donde el modelo de negocio y la credibilidad aparecen explícitamente conectados. En paralelo, la dimensión de “gobernanza” tecnológica se reforzó con mensajes de consultoría/mercado (Gartner) que describen un entorno de regulación fragmentada y crecimiento de soluciones de gobernanza de IA, un contexto que afecta a medios en tanto organizaciones usuarias de IA y dependientes de plataformas y normas de transparencia.

Finalmente, febrero dejó un recordatorio de riesgo reputacional de alta intensidad: una crisis pública ligada a citas fabricadas generadas por una herramienta de IA en un medio tecnológico, con retractación y debate posterior sobre estándares editoriales. Esta clase de incidentes se convirtió en un caso de referencia del mes sobre cómo la IA puede afectar directamente a la credibilidad informativa cuando entra en la cadena de producción sin verificación suficiente.

Hechos relevantes del mes

Mayoría de estadounidenses con baja confianza en que los periodistas actúen en el interés público. En febrero, el Pew Research Center publicó un análisis (Pew-Knight Initiative) según el cual el 57% de los adultos en EE. UU. declara baja confianza en que los periodistas actúen en el interés público (40% “no demasiada” y 17% “ninguna”), frente a un 43% que declara “mucha” o “bastante” confianza. El mismo análisis documenta una diferencia partidista pronunciada en la confianza declarada (porcentajes de confianza “mucha/bastante” superiores entre demócratas que entre republicanos).

Brecha de autoeficacia verificadora: más confianza en “mi capacidad” que en la del resto para verificar noticias. En el marco del informe “Americans’ Complicated Relationship With News”, Pew reportó que la mayoría de adultos estadounidenses se declara muy o algo confiada en saber qué pasos seguir para comprobar la exactitud de una noticia (29% “muy” y 50% “algo”), pero solo una minoría declara ese nivel de confianza en la capacidad de “otras personas” (3% “muy” y 22% “algo”). Este patrón define un cambio de foco: la credibilidad se desplaza desde la confianza en instituciones hacia comportamientos de verificación individuales.

Eurobarómetro: aumento de la exposición percibida a desinformación en la UE. Euronews difundió en febrero datos de Eurobarómetro sobre desinformación en Europa: en 2025, un 36% de encuestados en la UE afirmó estar expuesto “a menudo” o “muy a menudo” a desinformación y “fake news” en la última semana, frente al 28% en 2022 (incremento de ocho puntos porcentuales en exposición percibida). El mismo artículo subraya que se trata de exposición percibida y no verificación de falsedad de los contenidos.

Eurobarómetro: guerras y desinformación entre las principales preocupaciones ciudadanas en Europa. Otra pieza de Euronews situó la desinformación como una de las grandes preocupaciones, junto con conflictos cercanos a fronteras europeas, en una lectura pública de encuesta de Eurobarómetro del Parlamento Europeo publicada en febrero. Este encuadre coloca la desinformación como asunto de seguridad societal y no únicamente de calidad mediática.

La Junta Europea de Servicios Digitales (DSA) entra en el debate sobre chatbots de IA y enforcement. El European Board for Digital Services publicó el 5 de febrero una nota indicando que en su reunión de 4 de febrero discutió el impacto del uso de chatbots de IA, los desarrollos recientes y actividades de enforcement, así como acciones futuras. La declaración enmarca el tema en clave de coordinación y desafíos emergentes.

Meta detalla medidas para las “midterms” de 2026: transparencia publicitaria y etiquetado de contenido generado por IA. En una entrada del 19 de febrero, Meta describió su enfoque para las elecciones de medio mandato en EE. UU. con cuatro elementos relevantes para credibilidad: requisitos de autorización y “paid for by” en anuncios; archivo de anuncios en una biblioteca pública durante siete años (con un volumen de entradas en EE. UU. reportado por la compañía); restricción de nuevos anuncios políticos en la última semana de campaña; y divulgación/etiquetado de anuncios políticos creados o editados con IA. Además, la compañía describe el etiquetado “AI info” para contenido orgánico detectado como generado/alterado por IA, apoyándose en estándares como C2PA, y obligación de autoetiquetado en ciertos contenidos fotorrealistas o con audio realista.

Te puede interesar:  ABC News refuerza el valor de la pregunta como mecanismo de confianza con la campaña “Keep Asking”

Nueva York propone regular la IA en redacciones con obligaciones de divulgación y supervisión humana. En un reportaje del 7 de febrero, Times Union explicó una propuesta legislativa estatal (“New York Fundamental Artificial Intelligence Requirements in News Act”) que introduciría obligaciones para que organizaciones periodísticas operando en Nueva York divulguen el uso de IA en contenido publicado y que el contenido “sustancialmente creado” por IA lleve un aviso; también plantea que contenido generado por IA sea revisado por un empleado humano con control editorial antes de publicación y que el trabajo de empleados no se use para entrenar sistemas sin aviso público, entre otros elementos. El texto documenta apoyos sindicales y advertencias de expertos sobre implicaciones para independencia editorial y Primera Enmienda.

Australia: obligación regulatoria de informar cuando una voz sintética presenta programas o noticias en radio comercial. La Australian Communications and Media Authority (ACMA) publicó el 10 de febrero que ha registrado reglas actualizadas para radiodifusión comercial (Commercial Radio Code of Practice 2026) que exigen avisar a la audiencia cuando una voz sintética se usa para presentar un programa regular o un informativo, señalando que es la primera vez que la IA se aborda en un código de práctica de radiodifusión. La misma nota incluye el refuerzo de disposiciones sobre correcciones de errores en noticias y mayor transparencia en reportes de quejas, y fija la entrada en vigor del código para el 1 de julio de 2026.

España: anteproyecto para regular publicidad institucional con criterios de objetividad y transparencia. El Gobierno español comunicó el 24 de febrero que da luz verde al anteproyecto de ley para regular la publicidad institucional con criterios de objetividad y transparencia. El anuncio enmarca la medida en relación con pluralismo y con garantías de asignación de publicidad pública bajo criterios transparentes, evitando usos discrecionales que puedan distorsionar el ecosistema informativo.

UNESCO documenta el “Pretoria Proposition for Collective Action” sobre gobernanza de plataformas y rendición de cuentas. UNESCO publicó el 19 de febrero un informe sobre la conferencia de Pretoria (11–13 febrero) en el que señala que más de 340 personas de 84 países y autoridades de 50 países se reunieron y concluyeron con un acuerdo de principios de acción colectiva (“Pretoria Proposition for Collective Action”). El texto define el objetivo como cooperación estructurada entre reguladores, estándares compartidos y mecanismos de aprendizaje, con un enfoque multiactor donde sociedad civil, investigación y educación mediática aparecen como piezas de rendición de cuentas e integridad informativa.

Coordinación regulatoria africana sobre integridad informativa y responsabilidades de plataformas. UNESCO informó el 16 de febrero sobre una consulta/mesa redonda con autoridades reguladoras africanas (en el marco de la conferencia de Pretoria) para aportar insumos a futuras directrices vinculadas a resoluciones de la Comisión Africana de Derechos Humanos y de los Pueblos. El texto describe que las directrices apuntan a supervisar responsabilidades de empresas tecnológicas en integridad informativa, incluyendo mecanismos de fact-checking independiente y un enfoque para acceso universal a contenido de servicio público; también indica una previsión de presentación de directrices en mayo de 2026 tras consultas.

Capacitación en alfabetización mediática e informacional y periodismo sensible a conflictos, incorporando el papel de la IA. UNESCO reportó el 6 de febrero dos programas formativos sobre Media and Information Literacy (MIL) y periodismo sensible a conflictos, con participación de 52 representantes de medios y sociedad civil. El contenido incluyó estándares internacionales de libertad de expresión, estrategias para contrarrestar discurso de odio y el rol de la IA en la formación del discurso público y percepciones.

Formación y microfinanciación para estrategias MIL: inclusión, acceso a información fiable y mitigación de desinformación. UNESCO publicó el 5 de febrero detalles de un “bootcamp” MIL con 30 líderes jóvenes, con sesiones sobre identificación de contenido dañino, moderación de contenidos, seguridad digital y uso ético de contenido generado por IA. La nota describe también un concurso de microfinanciación (“seed grants”) orientado a proyectos de inclusión informativa (por ejemplo, currículo MIL en lengua de signos keniana y colaboración con radio comunitaria para alfabetización mediática e integridad informativa).

GlobalFact 2026: EFCSN abre registro para la conferencia internacional y refuerza un marco europeo de estándares de verificación. El 25 de febrero, la European Fact-Checking Standards Network (EFCSN) comunicó que coorganiza GlobalFact 2026 en Vilna y abrió el registro. La pieza describe a la red como una asociación de organizaciones de fact-checking comprometidas con estándares de independencia, transparencia y calidad periodística, y cuantifica su base de miembros verificados.

Crisis de credibilidad vinculada a IA: retractación por citas fabricadas atribuidas a una fuente real. En febrero se documentó una retractación pública por la publicación de una pieza que contenía citas fabricadas generadas por una herramienta de IA y atribuidas a una fuente que no las había dicho, con reconocimiento explícito de fallo de estándares. La existencia del incidente y la retractación fue reportada por 404 Media el 17 de febrero y por MediaPost el 16 de febrero, y el propio “editor’s note” del medio aparece fechado el 15 de febrero.

Otros hechos relevantes

La conversación profesional en España vincula credibilidad con transparencia en el uso de IA en las redacciones. Una nota difundida por FAPE recoge declaraciones de la presidenta de la Asociación de la Prensa de Madrid, María Rey, en las que se plantea promover la implicación de directores de medios en un compromiso de transparencia para que el uso de IA no dañe la credibilidad periodística, en un contexto descrito de pérdida de credibilidad y polarización.

Pew subraya la cuestión de la responsabilidad por la alfabetización verificadora: quién debe asegurar que la gente sepa comprobar noticias. En una pieza asociada a su investigación de febrero, Pew plantea explícitamente el debate sobre a quién atribuye la ciudadanía la responsabilidad de que las personas—especialmente jóvenes—sepan qué información es confiable y cómo comprobar exactitud, situándolo en un entorno de información “cada vez más complejo” influido por avances en IA.

El boletín de Pew (12 febrero) convierte la caída de confianza en periodistas en “dato de la semana”. En su newsletter “The Briefing” de febrero, Pew destacó los porcentajes de confianza en periodistas y la brecha partidista como elemento central de su comunicación pública de hallazgos, señalando explícitamente las categorías de respuesta (“mucha”, “bastante”, “no demasiada”, “ninguna”).

Pew (19 febrero) vuelve sobre el tema desde otra puerta: newsletters como vía de consumo y la verificación como hábito social. En la edición del 19 de febrero de “The Briefing”, Pew utiliza como “chart of the week” un hallazgo de su estudio sobre relación con noticias: alta confianza en la propia capacidad para verificar frente a baja confianza en la capacidad ajena. Aunque el foco editorial del boletín es el consumo de newsletters como fuente de noticias, vuelve a reforzar el marco del mes: credibilidad entendida como práctica de verificación individual en un entorno de sobrecarga.

Meta enfatiza en febrero el etiquetado como transparencia también fuera de anuncios políticos. Además de la divulgación en anuncios, Meta describió en febrero mecanismos de identificación y etiquetado (“AI info”) para contenido generado o editado por IA fuera de publicidad, citando el uso de estándares industriales como C2PA y estableciendo obligaciones de etiquetado para ciertos contenidos orgánicos con video fotorrealista o audio realista, con posibilidad de penalizaciones si no se cumple.

ACMA incorpora correcciones y quejas como palancas de confianza además del “disclosure” de IA. En la misma nota regulatoria, ACMA explicitó que el nuevo código incluye provisiones reforzadas sobre correcciones de errores en cobertura informativa y mayor transparencia en reportes de quejas, vinculando estas medidas con el fortalecimiento de la confianza entre radiodifusores y audiencias.

Te puede interesar:  La confianza en las noticias ya no puede explicarse solo desde la audiencia, el pasado y la razón, según una investigación académica

Gartner sitúa la gobernanza de IA como respuesta a una ola regulatoria y a riesgos de uso no gestionado. Aunque no centrado en periodismo, Gartner publicó el 17 de febrero un Q&A en el que afirma que el coste de riesgo de IA no gestionado crece y proyecta aumento de regulación fragmentada y crecimiento del gasto en plataformas de gobernanza de IA. Este encuadre contribuye al contexto organizativo del mes: mayor presión a sistemas verificables y auditables cuando la IA afecta a procesos de producción y distribución de información.

Selección de papers destacados del mes

  • The Verification Crisis: Expert Perceptions of GenAI Disinformation Threats — Hallazgo principal: el trabajo recoge percepciones expertas sobre amenazas de desinformación con GenAI y reporta escepticismo sobre herramientas técnicas de detección, con preferencia por estándares de procedencia (“provenance”) y marcos regulatorios pese a barreras de implementación; también identifica diferencias entre impacto de video deepfake (efecto inmediato) y generación masiva de texto (riesgo sistémico de fragmentación epistemológica).
  • Fact or Fake? Assessing the Role of Deepfake Detectors in Multimodal Misinformation Detection — Hallazgo principal: presenta un análisis sistemático del papel de detectores de deepfakes en verificación multimodal (imagen-texto), planteando si los detectores aportan señal útil o si introducen sesgos de “autenticidad” que pueden distorsionar el razonamiento basado en evidencia.
  • VILLAIN at AVerImaTeC: Verifying Image-Text Claims via Multi-Agent Collaboration — Hallazgo principal: describe un sistema de fact-checking multimodal basado en colaboración multiagente (modelos visión-lenguaje), con recuperación de evidencias, análisis por agentes de modalidad y generación de pares pregunta-respuesta para resolver inconsistencias, orientado a verificación de afirmaciones imagen-texto.
  • Supply vs. Demand in Community-Based Fact-Checking on Social Media —  Hallazgo principal: analiza la interacción entre “demanda” de qué se quiere verificar y “oferta” de lo que verificadores comunitarios están dispuestos a aportar, señalando que la relación entre ambas fuerzas ha sido poco medida de forma conjunta y planteando el problema de desajuste entre lo que se solicita y lo que se entrega.
  • Beyond Raw Detection Scores: Markov-Informed Calibration for Boosting Machine-Generated Text Detection — Hallazgo principal: propone un enfoque de calibración para mejorar la detección de texto generado por máquina, justificándolo por riesgos asociados como desinformación y phishing, y por la necesidad de detectores fiables.
  • FactSim: Fact-Checking for Opinion Summarization — Hallazgo principal: aborda la evaluación de factualidad en tareas de resumen de opiniones (opinion summarization), proponiendo enfoques de verificación para evaluar sistemas generativos, en un contexto donde la precisión factual es un componente de credibilidad de la salida.
  • The CLEF-2026 CheckThat! Lab: Advancing Multilingual Fact-Checking — Hallazgo principal: define y contextualiza el laboratorio CheckThat! (CLEF-2026) como marco para avanzar tecnologías contra desinformación y manipulación en comunicación online, con alcance multilingüe y multiplataforma.
  • What do people want to fact-check? — Hallazgo principal: aporta evidencia a gran escala sobre “demanda” de verificación cuando ciudadanos pueden preguntar libremente qué desean fact-checkear, analizando miles de afirmaciones enviadas a un sistema de fact-checking con IA y clasificándolas por dimensiones semánticas (dominio, forma epistémica, verificabilidad, entidad objetivo y referencia temporal).
  • Paid to Look Like Truth: The Prevalence and Dark Patterns of Advertorials — Hallazgo principal: propone una metodología automatizada para detectar advertorials y estima su prevalencia en un conjunto amplio de sitios; el trabajo describe la presencia de patrones problemáticos de presentación (dark patterns) y los conecta con percepciones de credibilidad al “parecer verdad” pese a ser contenido publicitario.
  • Context Shapes LLMs Retrieval-Augmented Fact-Checking —  Hallazgo principal: evalúa cómo la colocación de evidencias y el contexto afectan a la verificación factual basada en LLMs con recuperación de información (retrieval-augmented), usando varios datasets de fact-checking y comparando modelos, con implicaciones directas para fiabilidad/credibilidad de pipelines de verificación automatizada.

Fuentes consultadas

  • Majority of Americans express low confidence in journalists to act in public’s best interests — Pew Research Center (Pew-Knight Initiative) — https://www.pewresearch.org/short-reads/2026/02/11/majority-of-americans-express-low-confidence-in-journalists-to-act-in-publics-best-interests/
  • Americans’ Complicated Relationship With News — Pew Research Center — https://www.pewresearch.org/journalism/2026/02/11/americans-complicated-relationship-with-news/
  • Who should make sure people know how to verify news, according to Americans? — Pew Research Center — https://www.pewresearch.org/journalism/2026/02/11/who-should-make-sure-people-know-how-to-verify-news-according-to-americans/
  • The Briefing (12 febrero 2026) — Pew Research Center — https://www.pewresearch.org/newsletter/the-briefing/the-briefing-2026-02-12/
  • The Briefing (19 febrero 2026) — Pew Research Center — https://www.pewresearch.org/newsletter/the-briefing/the-briefing-2026-02-19/
  • In Pretoria, digital platforms regulators build on UNESCO’s stewardship on accountability and transparency — UNESCO — https://www.unesco.org/en/articles/pretoria-digital-platforms-regulators-build-unescos-stewardship-accountability-and-transparency
  • African regulators working together to advance human rights-based digital platform governance — UNESCO — https://www.unesco.org/en/articles/african-regulators-working-together-advance-human-rights-based-digital-platform-governance
  • Media and civil society trained on Media and Information Literacy and conflict-sensitive reporting in Kyrgyzstan — UNESCO — https://www.unesco.org/en/articles/media-and-civil-society-trained-media-and-information-literacy-and-conflict-sensitive-reporting
  • UNESCO supported Kenyan youth organizations to develop Media and Information Literacy strategies — UNESCO — https://www.unesco.org/en/articles/unesco-supported-kenyan-youth-organizations-develop-media-and-information-literacy-strategies
  • Press statement of the European Board for Digital Services following its 17th meeting — Comisión Europea (Shaping Europe’s digital future) — https://digital-strategy.ec.europa.eu/en/news/press-statement-european-board-digital-services-following-its-17th-meeting
  • How Meta Is Preparing for the 2026 US Midterm Elections — Meta Newsroom — https://about.fb.com/news/2026/02/meta-prepares-for-2026-us-midterms/
  • New York wants rules for AI in news. Experts say it could undercut independence. — Times Union — https://www.timesunion.com/capitol/article/new-york-ai-newsroom-bill-21329093.php
  • AI disclosure required under new commercial radio rules — ACMA (Australian Communications and Media Authority) — https://www.acma.gov.au/articles/2026-02/ai-disclosure-required-under-new-commercial-radio-rules
  • El Gobierno da luz verde al anteproyecto de ley para regular la publicidad institucional de manera objetiva y transparente — Ministerio para la Transformación Digital y de la Función Pública (España) — https://digital.gob.es/comunicacion/notas-prensa/mtdfp/2026/02/el-gobierno-da-luz-verde-al-anteproyecto-de-ley-que-reforzara-la
  • Perceived exposure to disinformation and fake news rising in Europe: Which countries suffer most? — Euronews (Next) — https://www.euronews.com/next/2026/02/02/perceived-exposure-to-disinformation-and-fake-news-rising-in-europe-which-countries-suffer
  • Europeans see wars and disinformation as top concerns, Eurobarometer survey finds — Euronews (My Europe) — https://www.euronews.com/my-europe/2026/02/04/europeans-see-wars-and-disinformation-as-top-concerns-eurobarometer-survey-finds
  • EFCSN to Co-Host GlobalFact 2026 in Vilnius: Registration Now Open — EFCSN — https://efcsn.com/news/2026-02-25_globalfact-2026-registration/
  • María Rey: La APM promoverá… un compromiso de transparencia para que el uso de IA no dañe la credibilidad periodística — FAPE — https://fape.es/maria-rey-la-apm-promovera-la-implicacion-de-los-directores-de-los-medios-espanoles-en-un-compromiso-de-transparencia-para-que-el-uso-de-ia-no-dane-la-credibilidad-periodistica/
  • Ars Technica pulls article with AI fabricated quotes about AI generated article — 404 Media — https://www.404media.co/ars-technica-pulls-article-with-ai-fabricated-quotes-about-ai-generated-article/
  • AI Goes Awry: Ars Technica Retracts Article With ‘Fabricated’ Quotations — MediaPost — https://www.mediapost.com/publications/article/412853/ai-goes-awry-ars-technica-retracts-article-with.html
  • Editor’s Note: Retraction of article containing fabricated quotations — Ars Technica — https://arstechnica.com/staff/2026/02/editors-note-retraction-of-article-containing-fabricated-quotations/
  • The CLEF-2026 CheckThat! Lab: Advancing Multilingual Fact-Checking — arXiv — https://arxiv.org/abs/2602.09516
  • Fact or Fake? Assessing the Role of Deepfake Detectors in Multimodal Misinformation Detection — arXiv — https://arxiv.org/abs/2602.01854
  • The Verification Crisis: Expert Perceptions of GenAI Disinformation Threats — arXiv — https://arxiv.org/abs/2602.02100
  • VILLAIN at AVerImaTeC: Verifying Image-Text Claims via Multi-Agent Collaboration — arXiv — https://arxiv.org/abs/2602.04587
  • Supply vs. Demand in Community-Based Fact-Checking on Social Media — arXiv — https://arxiv.org/abs/2602.06005
  • Beyond Raw Detection Scores: Markov-Informed Calibration for Boosting Machine-Generated Text Detection — arXiv — https://arxiv.org/abs/2602.08031
  • FactSim: Fact-Checking for Opinion Summarization — arXiv — https://arxiv.org/abs/2602.08709
  • What do people want to fact-check? — arXiv — https://arxiv.org/abs/2602.10935
  • Paid to Look Like Truth: The Prevalence and Dark Patterns of Advertorials — arXiv — https://arxiv.org/abs/2602.12810
  • Context Shapes LLMs Retrieval-Augmented Fact-Checking — arXiv — https://arxiv.org/abs/2602.14044
  • Gartner Global AI Regulations Fuel Billion-Dollar Market for AI Governance Platforms — Gartner — https://www.gartner.com/en/newsroom/press-releases/2026-02-17-gartner-global-ai-regulations-fuel-billion-dollar-market-for-ai-governance-platforms

Metodología y uso de IA

Este seguimiento mensual ha sido elaborado con el apoyo de herramientas de inteligencia artificial para el filtrado inicial, la organización de fuentes y la detección de patrones informativos y elaboración de borradores. Todas las decisiones editoriales, la selección final de hechos y la redacción han sido supervisadas y validadas por un equipo humano, garantizando precisión y contexto.

Artículos relacionados

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here

ÚLTIMOS ARTÍCULOS

LO MÁS LEÍDO