Autor de la imagen: MingPhoto / Depositphotos

El rápido avance de la inteligencia artificial generativa está planteando preguntas fundamentales sobre cómo integrarla en medios de comunicación en ámbitos como el empleo (que no sustituya a personas, sino que las ayuden en su trabajo), la privacidad, los derecho de autor y la veracidad de la información, entre otros.

Sin embargo, comparativamente aún son pocos los medios que han decidido elaborar políticas claras sobre su uso para que los periodistas sepan cómo sacarle provecho dentro de un marco de transparencia y apoyo a la calidad periodística.

De hecho, muchos periodistas se quejan de que los medios de comunicación en los que trabajan no tienen ni políticas claras al respecto ni planes de formación. 

Pero sí hay medios u organizaciones periodísticas que deciden elaborar propuestas de trabajo y compartirlas, para dejar clara su postura y para que pueda servir como referencia para otras organizaciones en circunstancias similares, ya que no hay aún estándares que se adopten de manera generalizada.

El Centro Internacional para Periodistas (ICFJ) es una de las últimas organizaciones que ha emprendido la tarea de desarrollar una política de uso de IA y compartirla públicamente, para que pueda servir de referencia.

Motivación para la creación de la política de uso de la IA

El ICFJ identificó una necesidad crítica de estandarizar el uso de herramientas de IA dentro de su organización, motivada por dos perspectivas principales:

  • Preocupaciones sobre la IA: inquietudes sobre cómo la IA podría afectar el empleo, el impacto en la comunidad periodística, el aumento de la desinformación y la seguridad en su uso.
  • Potencial de la IA: oportunidades para optimizar procesos organizativos, analizar impactos de programas y potenciar el periodismo.
Te puede interesar:   Una encuesta desvela un temor generalizado a que la desinformación generada por la IA altere los procesos electorales

Para abordar estas cuestiones, el ICFJ formó un grupo de trabajo con miembros de diversos departamentos y niveles jerárquicos, asegurando que la política resultante fuera aplicable.

El primer objetivo del grupo de trabajo sobre IA fue establecer algunos principios que los guiarían a lo largo del proceso. En concreto:

    • Que la IA no cause daño.
    • Proteger los derechos, la privacidad y el trabajo original de otros.
    • Utilizar contenido y datos con consentimiento.
    • Mantener la transparencia.

“Después de identificar estos principios, comenzamos nuestra investigación. Comenzamos con la Asociación sobre las directrices de la IA. Leímos artículos, escuchamos podcasts, hablamos con colegas y asistimos a seminarios web y debates en persona. Una vez que confiamos en nuestros conocimientos, comenzamos a redactar la política”.  

Estas son algunas de las claves del documento surgido de ese proceso (AI Use Policy)

Detalles clave de la política

1. Principios básicos

  • No causar daño: evitar daños a individuos o la comunidad.
  • Proteger derechos y privacidad: salvaguardar los derechos de terceros y la privacidad de la información.
  • Consentimiento para uso de datos y contenido: utilizar solo datos y contenidos con el consentimiento explícito de los involucrados.
  • Transparencia: ser claros sobre cómo y para qué se utiliza la IA.

2. Prácticas recomendadas

  • Uso de IA para generar borradores, analizar datos y automatizar tareas repetitivas, siempre bajo revisión y edición humana.
  • Prohibición del uso exclusivo de material generado por IA sin revisión humana.
Te puede interesar:   Recomendaciones para que los medios sean más transparentes en el uso de la IA

3. Despliegue ético

  • Transparencia: informar a los empleados y al público sobre el uso de IA.
  • Precisión y verificación: requerir verificación humana para contrarrestar los errores y fabricaciones de la IA.
  • Sesgo y Equidad: atender y mitigar los sesgos potenciales en las herramientas de IA.
  • Intención de Uso: limitar el uso de IA a propósitos legítimos y seguros.

4. Gestión de riesgos y seguridad

  • Evaluación y mitigación de riesgos antes de adoptar cualquier herramienta de IA.
  • Protección de datos confidenciales y adherencia a políticas de seguridad organizacional.

5. Capacitación y colaboración

  • Capacitación periódica del personal sobre el uso responsable de la IA.
  • Fomento de la colaboración con la comunidad periodística para abordar desafíos relacionados con la IA.

6. Cumplimiento de la política

  • Medidas de cumplimiento ejecutadas por el equipo de seguridad de la información.
  • Procesos establecidos para manejar excepciones y no cumplimientos, con revisiones regulares de la política.

Conclusiones del proceso

Desde el ICFJ han compartido también lo que han aprendido durante el proceso, en forma de recomendaciones:

  • Necesidad de aprendizaje continuo: la investigación de IA es compleja y requiere un enfoque proactivo y educativo constante.
  • Colaboración organizativa: se sugiere la creación de espacios colaborativos (como canales de Slack) para facilitar la investigación y el desarrollo de la política.
  • Importancia de la comunicación: es crucial mantener informado a todo el personal sobre el propósito y el impacto de la política.
  • Proceso de revisión optimizado: el equipo de revisión debe comprender cómo la política afecta a todos los departamentos, más allá del simple copyediting.
  • Actualización regular: incorporar un proceso dentro de la política para revisar y actualizar regularmente el documento a medida que surjan nuevas herramientas de IA.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí