Reuters es uno de los grupos que ha explicado para qué usará y para qué no la inteligencia artificial. Foto: Senseiich. Licencia Creative Commons.

La inteligencia artificial se va extendido en todos los ámbitos del periodismo, y es necesario acotar, desde la alta dirección de cada medio, cuáles son los usos apropiados y cuáles no, antes de que suceda como con el uso de las redes sociales, en donde la falta de protocolos internos ha hecho que en muchos casos los periodistas no sepan a qué atenerse o, peor aún, se cometan graves errores de uso precisamente por esa falta de un documento que expliqué cómo actuar, independientemente de que se aplique también el sentido común en casos dudosos.

Es lo que acaba de hacer Reuters que, en un memorando interno dirigido a los periodistas de sus redacciones (Reuters es una agencia mundial proveedora de información, pero cuenta también con medios propios como reuters.com), determina el uso de la IA en sus redacciones. La carta, firmada por Alessandra Galloni y Alix Freedman, editora en jefe y editora global de ética y estándares de Reuters, respectivamente, establecen los cuatro pilares fundamentales de la estrategia de la empresa editoria en torno a la IA.

Pilar 1: la IA es un avance que ofrece la posibilidad de potenciar la labor periodística

El primero de estos pilares se refiere a la consideración de la IA, incluyendo modelos generativos de texto como ChatGPT, como un avance que ofrece la posibilidad de potenciar la labor periodística y empoderar a sus periodistas. Por lo tanto, como primer punto de partida, se aliente su uso. «Desde su fundación, Reuters ha adoptado nuevas tecnologías para entregar información al mundo, desde las palomas hasta el telégrafo e Internet», se cita textualmente en la carta.

Te puede interesar:   Cómo hacer más participativas las secciones de opinión de medios locales: el ejemplo de The Coloradoan

Pilar 2: la responsabilidad del periodista en la aprobación de cualquier contenido generado por IA

El segundo pilar se centra en la responsabilidad de los periodistas y editores de Reuters en la aprobación de cualquier contenido que se genere con ayuda de la IA. Independientemente de cómo se produzca una historia de Reuters, los estándares editoriales y éticos de la agencia se mantienen firmes, recuerdan. Es decir: ninguna información emanada de una IA puede darse por válida sin contrastar. Es una fuente más que debe ser comprobada, y el responsable de esa comprobación es el periodista. Según el memorándum, dada la proliferación de contenidos generados por IA, Reuters se mantiene vigilante para que sus fuentes de contenido sean reales, bajo el mantra: «Sé escéptico y verifica».

Pilar 3: transparencia

El tercer pilar es la transparencia. Reuters se compromete a informar a su audiencia global sobre el uso de estas herramientas. Aunque no detallará cada paso del proceso editorial, si una herramienta de IA es esencial para el resultado final, Reuters será transparente al respecto, y esa responsabilidad de traslada a los periodistas. Galloni y Alix Freedman afirman: «La transparencia es una parte esencial de nuestro ethos. Daremos a nuestros lectores y clientes tanta información como sea posible sobre el origen de una noticia, desde la especificidad de nuestras fuentes hasta los métodos utilizados para crearla o publicarla».

Te puede interesar:   Cómo adaptar la edición impresa a los nuevos tiempos: el ejemplo de Le Dauphiné Libéré

Pilar 4: la exploración de las posibilidades de la IA no es algo opcional

Por último, el cuarto pilar establece que la exploración de las posibilidades que ofrecen las nuevas herramientas no es opcional. A pesar de que todavía se está estudiando cómo hacer un uso más apropiado de ellas, Reuters tiene claro que debe esforzarse por expandir, desarrollar y adaptar sus noticias, indican ambas directivas. «Es un deber ineludible conforme a los Principios de Confianza de Reuters, que exigen no escatimar esfuerzos para expandir, desarrollar y adaptar las noticias», señala la carta.

En la sección de preguntas y respuestas de la carta, ambas directivas proporcionan detalles adicionales sobre cómo Reuters ha estado utilizando la tecnología y la automatización hasta ahora. Por ejemplo, se menciona que Reuters ha desarrollado alertas de noticias completamente automatizadas desde los años 90 y que ahora publica más de 1.000 piezas de datos económicos al mes sin intervención humana.

Por otro lado, se resalta que, a pesar de que la IA no puede hacer reportajes originales, es cada vez mejor aprendiendo de lo que ya se ha producido para crear nuevo contenido. Esto significa que, en teoría, la IA podría ser utilizada para apoyar la creación de resúmenes de historias pasadas, o para ayudar a editar historias o extraer hechos para ser verificados.

Te puede interesar:   Felix Ramallo: “Queremos que consumir una noticia en LN sea una experiencia que se distinga del resto de los medios”

«No deberíamos compartir una historia inédita con ninguna otra plataforma o servicio abierto de IA (como ChatGPT)»

Asimismo, se enfatiza que los periodistas de Reuters pueden usar herramientas de IA como ChatGPT para generar ideas de titulares e historias. Sin embargo, se insiste en la importancia de ser conscientes de sus limitaciones y apliquen los mismos estándares y salvaguardas que se usarían en cualquier otra circunstancia. «Algunas reglas son básicas: así como nunca subiríamos el texto de una noticia inédita a Twitter o Facebook, no deberíamos compartir una historia inédita con ninguna otra plataforma o servicio abierto de IA (como ChatGPT). Nuestros equipos técnicos están trabajando para salvaguardar las herramientas tecnológicas que usamos que protegerían el contenido de Reuters para que no se guarde en herramientas abiertas como OpenAI», explican.

De cara al futuro, Reuters planea emitir una serie de directrices más formales a medida que vayan adquiriendo experiencia con estas herramientas de IA.

Sugieren que se use OpenArena

Asimismo, ambas directivas sugieren que, para experimentar con la generación de contenido, Reuters Editorial use OpenArena, que es una plataforma de TR labs que proporciona acceso a OpenAI. «A través de OpenArena, podemos asegurarnos de que lo que nuestro personal pone en la interfaz no se comparta con Microsoft y Open AI»

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí