El Center for Cooperative Media, dependiente de la Universidad de Montclair (Estados Unidos), ha actualizado la extensa guía sobre la aplicación de la inteligencia artificial generativa y la automatización en redacciones de ámbito local. Joe Amditis, director asociado de operaciones en el Center, encabeza este trabajo, titulado “AI and automation: An updated guide to using LLMs for local news”. El documento recopila experiencias, recomendaciones y ejemplos prácticos que abarcan desde la redacción y edición asistida hasta el desarrollo de boletines y la categorización de contenidos periodísticos mediante modelos de lenguaje (LLM).
La guía engloba aspectos teóricos y prácticos sobre el uso de LLMs (Modelos de Lenguaje a Gran Escala) como ChatGPT, Claude o Gemini, y enfatiza la integración equilibrada de la automatización con la verificación humana. El autor advierte que la adopción de estos recursos requiere un conocimiento básico de la tecnología y la definición de reglas éticas y editoriales claras:
- Enfoque en principios estables: Amditis propone centrarse en conceptos y buenas prácticas generales para no quedar desactualizados ante la velocidad de las innovaciones en inteligencia artificial.
- Diseño de prompts y cadenas de razonamiento: el documento explica en detalle cómo estructurar preguntas e indicaciones para obtener resultados más precisos y reducir errores.
- Automatización progresiva: la obra describe metodologías para automatizar ciertas tareas repetitivas y administrativas, pero sin desplazar el juicio y la intervención del personal editorial.
- Riesgos y sesgos: el texto aborda la posibilidad de “alucinaciones” en los modelos de lenguaje y la necesidad de verificar las respuestas para evitar la difusión de información errónea.
Herramientas y ejemplos de integración
La publicación dedica apartados específicos a la interacción con aplicaciones de automatización y almacenamiento de datos, como Zapier y Airtable. El autor destaca cómo estas plataformas pueden orquestar flujos de trabajo:
- Recopilación y resumen de contenidos: el manual detalla la automatización de boletines informativos (newsletters) que recolectan artículos o notas a través de Web Clippers y APIs externas, los procesan con ChatGPT o Claude para resumirlos, y finalmente los exportan a herramientas de mailing y redes sociales.
- RAG (Retrieval Augmented Generation): el texto explica cómo subir documentos a un bot para que el modelo recurra a ellos en busca de información actualizada y específica, en lugar de limitarse a la base de entrenamiento previa.
- Digest o informes diarios: varios ejemplos muestran sistemas que generan resúmenes de la actividad en Slack o emails de la redacción, a fin de producir reportes internos con posibles seguimientos o próximos pasos.
- Gestión de ficheros: una sección avanza cómo clasificar archivos en Google Drive mediante AI, según categorías y niveles de confidencialidad, para que el equipo ahorre tiempo en tareas de clasificación.
Casos de estudio en redacciones locales
Amditis ilustra la guía con experiencias de diversas salas de prensa de Estados Unidos, interesadas en aprovechar la IA para mejorar sus rutinas y ampliar su cobertura informativa:
- The Jersey Bee: la organización local, dirigida por Simon Galperin, utiliza ChatGPT y otros bots como apoyo en la ‘recolección de noticias’ y generación de boletines diarios para 12 comunidades. Se automatiza el proceso de reunir información, se resumen artículos y se editan antes de su distribución.
- The Baltimore Times: el equipo emplea IA para crear imágenes con DALL-E, asistir en la redacción de borradores y producir versiones en audio de ciertos contenidos, a fin de expandir el acceso a públicos con dificultades de lectura.
- The Marshall Project: la redacción recurre a ChatGPT como apoyo para resumir grandes volúmenes de textos legales y políticos, de modo que los periodistas puedan concentrarse en la verificación y el análisis de fondo.
Otras entidades, como Colorado Public Radio o Boulder Reporting Lab, ilustran diferentes grados de apertura o cautela ante el uso de inteligencia artificial: algunos limitan el empleo de ChatGPT a tareas administrativas; otros generan automáticamente titulares y subtítulos, dejando a los editores la corrección final.
Aspectos éticos y divulgación
La guía subraya la relevancia de adoptar una política interna clara sobre el uso de IA. Al citar pautas de la Associated Press (AP) y de organizaciones como Poynter, recomienda:
- Transparencia: informar a la audiencia cuándo se aplica IA y en qué partes del proceso editorial.
- Control humano: someter a revisión las piezas generadas o resumidas por bots, previniendo errores que podrían mermar la credibilidad del medio.
- Sesgos y equidad: considerar el contexto cultural y los sesgos potenciales en el entrenamiento de los modelos, siguiendo recursos como el “AI x Racial Justice Toolkit” (Mozilla Foundation).
- Visión a largo plazo: ajustar o desactivar sistemas de IA si dejan de alinearse con la misión periodística o comprometen la calidad del contenido.
Ejemplos de automatizaciones y complementos
El manual incluye plantillas para crear integraciones con distintas aplicaciones y explica el concepto de “custom instructions” (instrucciones personalizadas), que permiten guiar la IA según objetivos concretos:
- Asistentes virtuales en Slack: configurar un bot que responda consultas sobre coberturas específicas o redacte resúmenes diarios.
- Formularios y clasificación: emparejar formularios de Google o Airtable con ChatGPT, de forma que el sistema filtre y agrupe la información según temas, urgencia o relevancia para la comunidad.
- Edición y estilo: emplear reglas fijas de sintaxis, tono y extensión para asegurar uniformidad en las noticias generadas con asistencia de IA.
Creciente adopción y precaución
La guía menciona el avance rápido de la inteligencia artificial en campos como la traducción automática, la generación de imágenes y la edición de vídeo. Sin embargo, resalta la importancia de la supervisión humana para conservar la confianza del público. Algunas redacciones, como la de Colorado Newsline, aplican la IA en la organización de entrevistas pero no en la producción final de artículos. Otras, como Axios Denver, realizan experiencias piloto en la detección de deepfakes y en la elaboración de contenidos sobre campañas políticas.
Expertos mencionados por Amditis, como Ethan Mollick (Universidad de Pensilvania), sostienen que el “prompt engineering” —es decir, la capacidad de formular buenas preguntas a la IA— es hoy una habilidad valiosa, aunque quizá temporal, puesto que los modelos evolucionan para comprender mejor el lenguaje natural.
Proyecciones y evolución futura
El documento avisa que gran parte de la información podría quedar desfasada en cuestión de meses, dada la velocidad de actualización de ChatGPT, Claude, Gemini y otros sistemas similares. No obstante, insiste en que dominar aspectos fundamentales —diseño de prompts, transparencia, supervisión, integración con otras herramientas— proporcionará una base sólida para abordar sucesivas generaciones de IA.
Para quienes temen un enfoque excesivo en la generación automática, Amditis recuerda las limitaciones evidentes: muchos bots se equivocan al leer nombres, fallan en la pronunciación de ciertos términos o reproducen errores del entrenamiento inicial. También destaca la posible “fatiga” del público, que va tomando consciencia de las creaciones artificiales y demanda mayor autenticidad o claridad sobre la procedencia de los contenidos.