Los lectores no confían demasiado en las noticias redactadas por inteligencia artificial. Si hace unos días, una encuesta revelaba que en Suiza los usuarios de medios no quieren información generada por IA en temas relevantes, ahora es una investigación en Estados Unidos la que concluye en este mismo sentido y confirma este rechazo.

Este nuevo estudio, realizado por académicos de la Universidad de Minnesota y la Universidad de Oxford, dirigido por Benjamin Toff y Felix M. Simon, y titulado “Or they could just not use it?: The Paradox of AI Disclosure for Audience Trust in News”, arroja luz sobre las complicadas dinámicas entre la innovación tecnológica en los medios de comunicación y la confianza del público en las noticias producidas por IA.

Hallazgos clave de la investigación

A pesar de la creciente integración de la IA en diversas esferas de la vida cotidiana, y cada vez más en las redacciones de periódicos, el estudio revela una profunda desconfianza entre los ciudadanos estadounidenses hacia las noticias redactadas por IA. Sólo un 10% de los encuestados considera que la IA es mejor que los humanos en la elaboración de contenido periodístico.

Este escepticismo se intensifica entre aquellos que previamente tenían una alta confianza en los medios y un conocimiento sólido sobre el periodismo. Sin embargo, según el estudio, no se percibe que los artículos escritos por IA sean menos precisos o justos en comparación con los escritos humanos.

Te puede interesar:   Podcast #15. Estrategia para desarrollar newsletters. Entrevista a Chus Naharro

La investigación apunta a que más del 80% de los participantes opinan que es crucial que los medios de comunicación informen a los lectores cuando se utiliza la IA en la producción de noticias. Además, un 78% de los encuestados sugiere que se debería proporcionar una nota explicativa detallando cómo se empleó la IA en la creación de los artículos. La mitad de los participantes se mostró a favor de incluir una firma en los artículos, atribuyendo el trabajo a la IA.

Un hallazgo particularmente interesante es que, cuando los artículos indican las fuentes utilizadas para su creación, la confianza del público tiende a restaurarse. Los resultados del estudio sugieren que los efectos negativos en la percepción de confiabilidad se contrarrestan en gran medida cuando los artículos revelan la lista de fuentes utilizadas para generar el contenido. Esto subraya la importancia de la transparencia en la utilización de las tecnologías de IA por parte de los medios de comunicación.

El estudio resalta un desafío crucial para las salas de redacción en todo el mundo: la necesidad de una comunicación clara y transparente sobre el uso de la IA, especialmente en cómo se utiliza para producir noticias. Tal enfoque podría ser esencial para mantener o incluso reforzar la confianza del público en una época de creciente escepticismo hacia los medios, confirma la investigación.

Te puede interesar:   Carta de París, el documento que busca establecer los principios éticos en el uso de la IA en el periodismo

Muestra y reclutamiento

Para la investigación, se seleccionó una muestra de 1.483 participantes de habla inglesa en EE. UU. utilizando la plataforma Prolific. Los participantes fueron asignados aleatoriamente a dos condiciones: un grupo de control que leyó historias atribuidas a una organización de noticias ficticia, y otro que vio etiquetas indicando el uso de IA en la redacción. Algunos también vieron listas de fuentes utilizadas para generar los artículos. Se formularon preguntas para evaluar la percepción de la confiabilidad, precisión y parcialidad de las noticias.

Se compararon las respuestas medias a las preguntas entre los grupos de control y de tratamiento para evaluar los efectos del tratamiento. Se prestó especial atención a las diferencias en la percepción según el nivel de confianza previo en las noticias y el conocimiento sobre procedimientos periodísticos.

Más información:

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí