Un estudio realizado por el Nordic AI Journalism Network, bajo el auspicio de Utgivarna (la Organización de Editores Suecos), que contó con la participación de representantes de 13 medios suecos, ha puesto sobre la mesa la necesidad de que los medios se preocupen por abordar cuestiones relacionadas con la transparencia en el uso de la inteligencia artificial (IA) en el periodismo, si quieren que la relación con los lectores no se vea afectada.

El proyecto, liderado por Agnes Stenbom de Schibsted y Olle Zachrison de Swedish Radio, se propuso mejorar las condiciones actuales para que la audiencia entienda cuándo, cómo y por qué se utiliza la IA en los medios editoriales suecos.

A través de una serie de talleres digitales entre diciembre de 2023 y febrero de 2024, el estudio culminó con siete recomendaciones fundamentales para una mayor transparencia en el uso de la IA en el periodismo, que se espera sean adaptadas a las condiciones editoriales locales de cada medio:

  1. Transparencia en el uso de IA con ‘impacto periodístico significativo’
  2. La herramienta interna de IA no requiere transparencia
  3. La transparencia de la IA debe ser un tema iterativo
  4. Ser específicos sobre el tipo de herramienta de IA aplicada
  5. Compartir información en conexión con el contenido consumido
  6. Armonizar el lenguaje de la industria alrededor de la IA generativa
  7. Evitar etiquetas visuales (iconos) para la IA en los medios editoriales
Te puede interesar:   ¿Cómo deberían ser compensados los medios por ceder a la IA sus contenidos? La "checklist" para editores de la profesora Anya Schiffrin

1. Transparencia en el uso de IA con ‘impacto periodístico significativo’

Esta recomendación se basa en la premisa de que cualquier uso de IA que tenga un impacto periodístico significativo debe manejarse con apertura y claridad hacia la audiencia. La determinación de qué constituye un “impacto periodístico significativo” queda a discreción del editor, lo que permite adaptar la transparencia a las necesidades específicas de cada publicación. Esto se aplica a varios tipos de medios y contenido, incluido el uso de IA generativa y otras herramientas de IA en el periodismo investigativo.

2. La herramienta interna de IA no requiere transparencia

El estudio argumenta que no es necesario proporcionar información pública sobre aplicaciones internas donde la IA se utiliza para apoyar el trabajo editorial o comercial. Algunos ejemplos que se citan incluyen la transcripción para uso interno, software de corrección de pruebas y trabajo de SEO, donde el foco está en el resultado y no en los métodos utilizados para lograrlo.

3. La transparencia de la IA debe ser un tema iterativo

Reconociendo que las tecnologías de IA están en etapas tempranas de desarrollo, es crucial ser abierto y claro sobre su uso, un enfoque que debe reevaluarse con el tiempo a medida que evolucionan la tecnología y las expectativas de los usuarios.

Te puede interesar:   Un estudio español desvela nuevas claves sobre los formatos de mayor éxito en LinkedIn y las mejores horas para publicar

4. Ser específicos sobre el tipo de herramienta de IA aplicada

Para evitar percepciones de la IA como una fuerza autónoma sin control editorial, se alienta a las compañías mediáticas a ser específicas al comunicar a su audiencia qué tipo de IA se utilizó, sirviendo esto también una función educativa.

5. Compartir información en conexión con el contenido consumido

Cuando se necesita transparencia sobre el uso de la IA, la información debe compartirse en conexión con el contenido periodístico consumido. Esto permite a los consumidores de medios entender por sí mismos hasta qué punto la IA ha tenido un impacto periodístico significativo.

6. “Creado con el apoyo de”, para recordar que hay un proceso editorial detrás

Se recomienda un enfoque armonizado para describir el uso de la IA dentro de y entre las compañías mediáticas, utilizando formulaciones como “creado con el apoyo de” para señalar el impacto real de la IA en el contenido y recordar que hay un proceso editorial detrás.

7. Evitar etiquetas visuales (iconos) para la IA en los medios editoriales

El estudio aconseja que no se incorpore el etiquetado visual estandarizado para la IA en medios editoriales, argumentando que podría diferenciar injustamente el contenido afectado por la IA del creado por periodistas humanos, complicar la implementación consistente a través de diferentes plataformas y resultar engorroso dado el estado actual del desarrollo de la IA. Además, establecer un estándar visual podría volverse rápidamente irrelevante a medida que surgen nuevas herramientas y casos de uso de IA.

Te puede interesar:   Claude 3, el modelo de IA que podría convertirse en estándar en los medios por su alto grado de fiabilidad y su visión ética

Más información:

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí