martes 5 de mayo de 2026
InicioInteligencia ArtificialLa IA falla como intérprete de resultados, pero funciona como asistente técnico...

La IA falla como intérprete de resultados, pero funciona como asistente técnico en la cobertura electoral

La experiencia de una redacción local en Estados Unidos muestra que la inteligencia artificial no ofrece resultados fiables cuando se utiliza para interpretar datos electorales en tiempo real, pero sí puede desempeñar un papel útil como apoyo técnico en la construcción de herramientas que automatizan la recogida de resultados y reducen la carga manual durante la noche electoral.

La agencia local estadounidense Bay City News, que cubre información del área de la bahía de San Francisco, ha documentado una conclusión práctica tras probar la inteligencia artificial en la cobertura de resultados electorales en 13 condados: los modelos generativos no han resultado fiables para interpretar directamente datos de votaciones, pero sí han sido útiles como apoyo técnico para construir herramientas de automatización. La experiencia, recogida por Ciara Zavala en el playbook “A Playbook for Newsrooms: Revolutionizing Election Coverage with AI Part II”, muestra cómo una redacción local puede reducir tareas repetitivas durante la noche electoral sin ceder a la IA la lectura ni la validación de los datos.

Bay City News partía de un problema habitual en el periodismo local. Sus periodistas necesitaban ofrecer resultados en tiempo real de elecciones municipales, escolares y de condado que no suelen estar cubiertas por servicios nacionales como Associated Press o Ballotpedia, más centrados en contiendas estatales, nacionales o de mayor visibilidad. La ausencia de una vía estandarizada para conectar las webs de los registros electorales con el sitio de un medio obligaba a copiar y pegar manualmente nombres de candidatos, medidas electorales, votos, porcentajes y actualizaciones procedentes de páginas oficiales con formatos distintos.

La redacción ya había probado en 2024 un flujo asistido por IA para reducir esa carga de trabajo. Los modelos ayudaron entonces a extraer información de papeletas, documentos PDF y páginas web de los condados, y a convertir esos datos en hojas de cálculo estructuradas. Ese sistema permitió preparar un panel electoral con información para votantes de los 13 condados, incluyendo candidatos, medidas, plazos, centros de votación y otros datos útiles antes de la jornada electoral.

El mismo proyecto también permitió generar diseños en HTML a partir de hojas de cálculo, sin contar con un equipo interno de desarrollo. Esa parte funcionó porque la IA se utilizó para estructurar información previa y producir código o fórmulas que alimentaban un panel público. El problema apareció cuando la redacción intentó trasladar esa lógica a la actualización en directo de resultados durante la noche electoral.

Las webs de los condados presentaban estructuras diferentes, ritmos de actualización distintos y cambios de formato que podían romper cualquier automatización. Además, Bay City News se encontró con una dificultad añadida: las oficinas electorales no siempre publicaban con antelación los llamados “zero reports”, las plantillas de resultados a cero que permiten probar scrapers antes de la noche electoral. Algunos condados los facilitaban pocas horas antes del cierre de urnas y otros no los publicaban, lo que dejaba poco margen para ensayar el sistema con datos reales de estructura conocida.

Te puede interesar:  Un proyecto de la Agencia Estatal de Investigación impulsa una IA explicable para detectar desinformación en español

En 2025, el equipo intentó resolver esa falta de estandarización con una hipótesis distinta: si las fuentes eran heterogéneas, quizá podía estandarizarse la entrada. La redacción diseñó un flujo automatizado que convertía las páginas de resultados de cada condado en capturas de pantalla. A partir de ahí, herramientas como Zapier, ScreenshotOne, Google Drive y modelos como ChatGPT o Claude debían extraer la información necesaria y volcarla en una hoja de cálculo conectada al panel electoral.

El planteamiento tenía sentido operativo. Zapier permitía crear una automatización relativamente accesible para una redacción sin un equipo técnico amplio, y su sistema de lógica condicional hacía posible agrupar los 13 condados en un mismo flujo, en lugar de mantener 13 automatizaciones separadas. La idea era que todas las páginas de resultados, aunque procedieran de sistemas distintos, llegaran al modelo en un formato visual uniforme.

La prueba mostró una limitación importante. Incluso con instrucciones detalladas, estructuras de salida definidas y datos de prueba en los que todos los recuentos estaban a cero, los modelos devolvían respuestas inconsistentes. La redacción tuvo que etiquetar manualmente los elementos que quería extraer, pero las respuestas seguían variando cada vez que se activaba el flujo. El problema se repitió tanto con ChatGPT como con Claude, según el playbook, y fue especialmente visible cuando los modelos se integraban dentro de una automatización.

Ese fracaso cambió el enfoque del proyecto. Bay City News concluyó que no podía confiar en la IA para interpretar, recopilar o analizar directamente resultados electorales. La redacción decidió volver a técnicas tradicionales de scraping, pero con una diferencia relevante: utilizaría la IA para ayudar a construir el scraper, no para leer los datos publicados por los condados.

La nueva función de la IA fue más técnica que editorial. Claude sirvió para ayudar a escribir código, explicar errores, ajustar configuraciones, orientar el uso de herramientas y acompañar a un equipo sin formación especializada en programación durante el desarrollo del sistema. El modelo no intervenía en la interpretación de los resultados, sino en la creación de una herramienta que extraía datos de forma más controlada desde las fuentes oficiales.

Te puede interesar:  Las visualizaciones explicativas mejoran la comprensión del uso de la IA en la producción de noticias

El flujo final se apoyó en scrapers convencionales, con Python, Selenium para páginas renderizadas con JavaScript y BeautifulSoup para sitios HTML más simples. También contemplaba ejecución en paralelo para varios condados, reintentos ante fallos, tiempos de espera más amplios y generación de archivos CSV con los resultados. La redacción podía después revisar esos archivos antes de publicar el contenido en su panel electoral.

La verificación humana siguió siendo una pieza central del proceso. El objetivo no era sustituir el criterio editorial, sino eliminar parte del trabajo mecánico. En lugar de copiar datos desde 13 webs distintas cada media hora, los periodistas podían revisar una hoja de cálculo generada por el scraper y comprobar si los resultados coincidían con las fuentes oficiales. La automatización reducía la carga operativa, pero la validación final permanecía en manos de la redacción.

El aprendizaje principal del proyecto es que la utilidad de la IA depende de la capa del proceso en la que se aplica. En una cobertura electoral, pedir a un modelo que interprete resultados introduce un riesgo difícil de aceptar, porque la salida puede variar aunque la instrucción sea la misma. En cambio, usarlo como asistente para construir una herramienta verificable permite aprovechar su capacidad técnica sin ponerlo entre la fuente oficial y el dato publicado.

El playbook recomienda a otras redacciones trabajar de forma incremental. Antes de crear el scraper, aconseja identificar qué plataforma utiliza cada condado, recopilar URL reales, definir el formato de salida y construir la automatización condado por condado. También sugiere incluir desde el principio condiciones propias de la noche electoral, como alta carga en servidores, posibles bloqueos, tiempos de espera extendidos y reintentos automáticos.

La experiencia apunta a una vía especialmente útil para medios locales y redacciones con pocos recursos técnicos. La IA no resolvió por sí sola la cobertura electoral, pero permitió a un equipo sin una estructura de ingeniería desarrollar una herramienta que antes habría requerido perfiles especializados. Ese cambio amplía las posibilidades de las redacciones pequeñas para cubrir más territorio, especialmente en elecciones locales que suelen quedar fuera de los servicios nacionales.

Bay City News prevé seguir iterando el sistema en próximos ciclos electorales. La redacción considera necesario probar los scrapers bajo condiciones de presión similares a las de una noche electoral y anticipar cambios en las webs de los condados.

Artículos relacionados

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here

ÚLTIMOS ARTÍCULOS

LO MÁS LEÍDO