En un ecosistema mediático saturado de contenido, con audiencias cada vez más fragmentadas y con la irrupción masiva de desinformación creada con IA, Chequeado cumple 15 años redefiniendo qué significa verificar, construir confianza y conectar con nuevas audiencias en la era de la inteligencia artificial y del scroll infinito. Este año, la organización argentina fundada en 2010 y pionera en periodismo de verificación, educación y tecnología cívica en América Latina, recibió el premio WAN-IFRA al mejor proyecto de fact-checking del mundo, un reconocimiento que refleja su evolución y el alcance de su trabajo.
¿Cómo se recupera la confianza en medio del ruido y los algoritmos? ¿Qué hacen para entender mejor el potencial —y los límites— de la IA generativa? ¿Cuál es su estrategia para conectar con millennials y zetas que consumen medios alternativos ante el hartazgo del ciclo informativo tradicional?
Entre nuevas lógicas de consumo y una tecnología que acelera tanto riesgos como oportunidades, Franco Piccato, director ejecutivo de Chequeado, sostiene que el futuro del periodismo dependerá menos de los algoritmos y más de la capacidad de reconstruir vínculos. También considera decisivo participar activamente en la conversación global sobre el desarrollo y la regulación de la IA.
Desde esa mirada, el periodista argentino anticipa un periodismo donde la verificación se vuelve parte natural de cada decisión editorial, la confianza es el verdadero diferencial y las personas son el centro.
En su recorrido, la organización creó un programa de educación, desarrolló productos tecnológicos y construyó redes regionales —como el colectivo LatamChequea—, además de cofundar Factchequeado junto con Maldita.es para llegar a las comunidades latinas en Estados Unidos.
A partir de esa experiencia, Piccato explica por qué es clave que el periodismo se involucre en la construcción de una IA al servicio de las personas e identifica qué pueden hacer hoy los medios para prepararse para lo que viene.
(P) Chequeado cumple 15 años en un ecosistema informativo más complejo que nunca, con fragmentación de audiencias y crisis de confianza. ¿Qué aprendizajes de este recorrido considerás que resultan más vigentes para los medios que hoy intentan construir o recuperar confianza en un entorno mediado por la inteligencia artificial?
(R) En estos 15 años aprendimos que la confianza se construye con consistencia, transparencia e integridad. Escuchar más, explicar mejor, ser transparentes en el proceso periodístico y reconocer errores públicamente contribuyen a fortalecer la confianza. El trabajo en red, la apertura a la colaboración y la innovación como forma de acercarse a nuevas audiencias son pilares de esa construcción. Hoy, en un ecosistema donde la IA acelera tanto la desinformación como las oportunidades, la clave sigue siendo la integridad de la información que circula. Apostar a la colaboración y a la tecnología al servicio de las personas es, más que nunca, un camino para fortalecer esa confianza.
(P) La IA generativa multiplicó la escala, la velocidad y el realismo de la desinformación. ¿Cómo se transformó el trabajo de los fact-checkers?
(R) Nos enfrentamos a un cambio de escala que desafía todas las rutinas del periodismo. Hoy además de verificar también buscamos anticipar, explicar, contextualizar, educar y acompañar. La IA nos obliga a ser más rápidos, pero también más pedagógicos. En Chequeado respondemos a esa aceleración fortaleciendo el trabajo educativo y el pensamiento crítico como la tecnología humana más valiosa. Frente a la inteligencia artificial, la inteligencia humana colectiva sigue siendo nuestra mejor respuesta.
(P) ¿Qué desafíos les planteó la desinformación con IA y qué cambios concretos tuvo que asumir el equipo para verificar audios, imágenes o videos creados sintéticamente?
(R) Tuvimos que repensar procesos, sumar capacidades técnicas y, sobre todo, fortalecer la diversidad de nuestro equipo. En Chequeado conviven periodistas, programadores, especialistas en datos, educadores y comunicadores que abordan el problema desde distintas perspectivas. Nos capacitamos y exploramos nuevas herramientas para entender mejor el potencial —y los límites— de la IA. También trabajamos con expertos de otras disciplinas, como por ejemplo ingenieros de sonido. Pero lo esencial sigue siendo la metodología y la ética: no dar nada por cierto sin evidencia.

(P) Si bien Chequeado ya utilizaba IA, desde la irrupción de los modelos generativos en 2022 la organización orientó sus esfuerzos para entender, experimentar y desarrollar herramientas basadas en esta tecnología. ¿Qué balance hacés del proceso de adopción y adaptación de la IA en la redacción?
(R) No empezamos por la tecnología, sino por los problemas a resolver. Creamos un Laboratorio de IA para probar, equivocarnos y aprender rápido. De ahí surgieron prototipos que luego escalaron hasta convertirse en productos con identidad propia. El Desgrabador, El Chequeador, El Explorador, y el más reciente Asistente de Redacción con IA nacieron como soluciones internas y buscan resolver necesidades concretas de manera simple. Sumar a los usuarios y a otras organizaciones en los procesos de prueba fue clave, para aprender de sus necesidades y detectar problemas. Nos manejamos con mucha prudencia para mitigar riesgos de alucinación o errores de precisión.
(P) ¿Qué aprendizajes y errores los ayudaron a orientar mejor la estrategia?
(R) Fue —y sigue siendo— un proceso de aprendizaje permanente. Entendimos que la IA puede potenciar la eficiencia y la creatividad de las redacciones si se usa con propósito y con criterio ético. Pero también que los atajos tecnológicos sin reflexión pueden dañar más que ayudar. Nos equivocamos cuando priorizamos la herramienta sobre la necesidad. Acertamos cuando ponemos la tecnología al servicio de la misión.
(P) ¿Qué criterios usan hoy para determinar la autenticidad de un contenido? ¿Es viable pensar en mecanismos universales de trazabilidad que garanticen la procedencia de lo que circula?
(R) Es indispensable avanzar hacia mayores estándares globales de transparencia y trazabilidad, pero eso no puede quedar solo en manos de organizaciones de la sociedad civil o de los medios. Las plataformas tecnológicas tienen una responsabilidad ineludible. Necesitamos mecanismos abiertos, auditables y compartidos que ayuden a las personas a entender de dónde proviene lo que consumen. Es una conversación global que tenemos que seguir impulsando desde el periodismo, las organizaciones civiles y los organismos públicos. Impulsamos estándares abiertos y marcas de procedencia, pero también sabemos que ninguna tecnología reemplaza el juicio humano.
(P) ¿Notan que la audiencia está más alerta o más confundida frente a esta nueva ola de desinformación? ¿Aumentó la demanda de chequeos?
(R) Vivimos en una era de desorden informativo. Vemos audiencias más alertas pero también más confundidas y que en algunos casos evitan las noticias. Aumentó la demanda de chequeos y contenidos explicativos, sobre todo en temas de IA, salud y política. Todos tenemos acceso a más información, pero también estamos más vulnerables. Hoy la desinformación no solo busca engañar, busca erosionar la confianza. Por eso no basta con saber si algo es verdadero o falso: importa quién lo dice y con qué propósito. La integridad de los contenidos también se mide por la integridad de quienes los producen. Esto requiere que las personas activen su pensamiento crítico cuando se cruzan con una posible desinformación.
(P) ¿Cómo trabajan la transparencia de uso de IA de cara a la audiencia?
(R) Con la misma lógica que aplicamos a nuestras fuentes y metodologías: contándolo de forma abierta y pública. Cuando usamos IA en algún proceso, lo explicamos. Y cuando decidimos no usarla, también. La transparencia es una forma de construir confianza y de marcar límites éticos. Por eso hicimos pública nuestra Política de Uso de IA, para que cualquiera pueda conocer cómo pensamos y actuamos en este tema. La elaboración de la política fue un proceso colectivo con participación de todas las áreas, y está en revisión permanente en un contexto que evoluciona rápido.
(P) Las nuevas generaciones se informan principalmente a través de redes sociales y sus fuentes suelen ser influencers o creadores de noticias, una economía que crece con fuerza a nivel global. También ya hay personas que se informan con asistentes de IA. ¿Cómo buscan entender los hábitos informativos de los jóvenes y cómo logran acercarse a ellos? ¿Hacen alianzas con periodistas que construyeron su marca personal o influencers para generar contenidos y enganchar al público joven?
(R) Buscamos escucharlos, entender sus consumos, sus fuentes, sus preocupaciones y también lo que no les preocupa. Hacemos indagaciones cualitativas, encuestas y pruebas de producto, llevamos nuestro trabajo a festivales, eventos y otros espacios masivos en vía pública. Conversamos con ellos, teniendo en cuenta que los jóvenes son el presente del ecosistema informativo.
Por eso, los escuchamos y aprendemos de sus lógicas. Exploramos lenguajes, dinámicas de consumo y nos aliamos con creadores e influencers que para ellos también son referencias. Intentamos crear contenido en formatos ágiles, audiovisuales, interactivos y distribuidos en los canales donde están: redes, plataformas y, cada vez más, entornos de mensajería privada.

(P) En una columna de opinión para el periódico español El País señalaste que “la mejor defensa contra la mentira viral es una ciudadanía informada”. Desde la experiencia concreta de Chequeado y del trabajo regional que impulsan, ¿el periodismo tendría que asumir un rol activo y formativo en la educación mediática de la sociedad? ¿Qué otros actores deberían intervenir para que tenga un impacto real en la vida de las personas, que las ayude a fortalecer competencias para detectar información falsa y ser críticos con lo que consumen?
(R) Desde el periodismo además de informar, tenemos la oportunidad de formar. En Chequeado entendemos la alfabetización mediática e informacional como una tarea compartida entre medios, sector público, comunidad educativa y sociedad civil. El Estado tiene un rol central por su alcance y su capacidad de política pública. Las organizaciones locales y la academia aportan conocimiento y territorio. Y los medios pueden ser el puente entre esos mundos, ayudando a que más personas entiendan cómo se produce, circula y evalúa la información.
(P) Hoy la confusión alcanzó tal magnitud que hasta los propios periodistas pueden dudar si un contenido es verdadero o si está manipulado o hecho con IA generativa. ¿Cómo se puede incorporar la verificación en las redacciones sin que quede solo en manos de equipos especializados?
(R) Volver a las bases del periodismo es una buena brújula. Verificar no es una tarea separada: es el corazón del oficio. Nos entusiasma cuando podemos colaborar con redacciones que deciden integrar la verificación como parte de cada proceso editorial. Y eso requiere formación, herramientas y cultura organizacional. No hace falta tener un “equipo de fact-checking” para chequear: hace falta una redacción que valore la evidencia.
(P) En tu columna también hablás de la “pérdida de confianza” como el verdadero daño de la desinformación. ¿Qué estrategias puede adoptar el periodismo para reconstruir la confianza con audiencias cada vez más escépticas?
(R) El camino de la transparencia en tus procesos y financiamiento, rendición de cuentas y honestidad intelectual es un sendero que reconstruye y preserva confianza. Decir “nos equivocamos” cuando toca. Explicar cómo trabajamos, por qué chequeamos y con qué criterios. Abrir nuestras fuentes. Contarte cómo llegamos a la conclusión que llegamos y que la comunidad pueda hacer el mismo ejercicio y sacar su propia conclusión.
(P) Dos informes publicados recientemente muestran cómo la IA está transformando el panorama de la información. Uno determinó que los asistentes alteran o representan de manera incorrecta contenidos informativos en el 45% de los casos, y que también respondieron con datos falsos y lo hicieron con tono de autoridad. Además de confundir al usuario, se plantea que esto genera un daño en la reputación de los medios cuando la IA cita erróneamente su contenido. Por otro lado, casi la mitad de los artículos publicados en internet ya son generados con IA. ¿Creés necesaria y viable una regulación de la IA para exigirles a las tecnológicas transparencia, verificación y autenticidad de la información? ¿El periodismo puede ayudar a construir IA al servicio de las personas?
(R) Cuando las crisis de desinformación con IA estallan, por ejemplo en contextos electorales, renacen los reclamos de marcos normativos que aseguren transparencia y responsabilidad en el desarrollo de la IA y en la circulación de contenidos. Es importante que el periodismo participe de esa conversación. No se trata solo de pedir regulación para asegurar mayor trazabilidad, marcas de agua o metadata que indiquen si un contenido fue creado con IA, sino de aportar conocimiento, buenas prácticas, evidencia y ejemplos de uso responsable. El periodismo puede ayudar a construir una IA que mejore la calidad del debate público y amplíe derechos.
(P) ¿Cómo te imaginás el periodismo y el fact-checking dentro de cinco años?
(R) Imagino un periodismo más híbrido, donde la tecnología y la inteligencia artificial sean aliadas cotidianas, con la integridad como brújula, pero sin reemplazar el juicio humano ni la vocación de servicio público. La verificación va a estar cada vez más integrada al proceso periodístico, no como una especialidad aislada sino como una práctica transversal.
(P) ¿Cuál será el diferencial de los medios u organizaciones que logren sostener relevancia, utilidad y confianza en la era de la inteligencia artificial?
(R) El diferencial de quienes sigan siendo relevantes no va a ser solo la rapidez o la eficiencia, sino la confianza que logren construir en medio del ruido. Los medios y organizaciones que prosperen serán los que usen la IA con propósito, transparencia y ética, pero sobre todo los que sigan poniendo a las personas en el centro: sus necesidades informativas, su derecho a comprender y su capacidad para tomar decisiones informadas. En ese sentido, el futuro del periodismo no depende tanto de los algoritmos como de nuestra capacidad para seguir conectando de manera significativa con las comunidades a las que servimos.



