Insider.com y businessinsider.com, propiedad de Axel Springer, tienen ya una hoja de ruta concreta para explorar y experimentar con herramientas de inteligencia artificial (IA) en sus redacciones durante las próximas seis semanas.
En un comunicado interno a la plantilla, la directora ejecutiva, Julie Gerstein, ha explicado que un grupo piloto estará trabajando en varias líneas de acción, con el objetivo de desarrollar un repositorio de «prompts» o indicaciones que pueda ser compartido con todo el equipo de la redacción.
Este proyecto se centrará en cuatro áreas principales:
- Resúmenes de noticias: este grupo buscará estandarizar los «prompts» para generar resúmenes de noticias. Si la experimentación resulta exitosa, estos «prompts» serán integrados en la herramienta Muse y se utilizarán para sugerir resúmenes de historias para todo el equipo.
- Servicios de traducción: la IA será utilizada para experimentar con servicios de traducción rápidos y precisos, para subtítulos de vídeos traducidos, traducciones de entrevistas y fuentes, así como traducciones de páginas web.
- Creación de indicaciones editoriales: el equipo tratará de determinar las mejores indicaciones para diferentes casos de uso, como investigación, edición y mejora de historias, y generación de propuestas.
- Hacks de productividad: se buscarán las mejores indicaciones para tomar y sintetizar notas de reuniones y redactar correos electrónicos.
Desde Insider animan a todo el personal de la redacción a experimentar con la IA, independientemente de si forman parte del grupo piloto o no.
Sin embargo, Gerstein advierte en el comunicado que, aunque la IA puede ser una herramienta efectiva para crear lenguaje en torno a información ya comprobada, no debería ser utilizada para citar hechos directamente o utilizarla para verificar la información de otras fuentes. Asimismo, señala que la IA puede proporcionar información relevante pero que debe ser confirmada independientemente.
La editora ejecutiva de Insider también menciona que la IA no debería usarse para proporcionar información actualizada, ya que la mayoría de los datos de entrenamiento de ChatGPT se basan en modelos que se actualizaron por última vez hace varios años. Además, resalta que no es adecuada para el análisis de datos, ya que puede producir resultados inexactos incluso con pequeños conjuntos de datos, y a menudo imita el análisis de datos, pero proporciona resultados inexactos.