Los chatbots basados en inteligencia artificial pueden ser muy útiles en el día a día de las personas, pero también ser peligrosos, muy peligrosos como difusores de desinformación. Así lo advierte Gordon Crovitz, codirector ejecutivo de NewsGuard, una compañía que rastrea la información errónea en línea.
En declaraciones a The New York Times, Crovitz sostiene que ChatGPT “va a ser la herramienta más poderosa para difundir información errónea que jamás haya existido en Internet”.
Y añade: “La creación de una nueva narrativa falsa ahora se puede hacer a una escala dramática y con mucha más frecuencia; es como tener agentes de IA que contribuyen a la desinformación”.
En un experimento realizado por NewsGuard, los investigadores le pidieron a ChatGPT que escribiera contenido que presentara afirmaciones dañinas para la salud sobre las vacunas, imitando la propaganda y la desinformación de China y Rusia y haciéndose eco del tono de los medios de comunicación partidistas.
La respuesta ofrecida por ChatGPT fue realmente impactante porque tenía verosimilitud, aunque las manifestaciones eran falsas; es decir, ofreció respuestas que parecían autorizadas y respaldadas por la ciencia, pero que a menudo eran demostrablemente falsas.
La producción del bot llegaba a citar estudios científicos falsos e incluso referencias a falsedades que no se mencionan en el mensaje original.
Las advertencias, como instar a los lectores a “consultar con su médico o un profesional de la salud calificado”, generalmente estaban ocultas bajo varios párrafos de información incorrecta.
Foto de cabecera: Depositphotos