En una reciente entrevista de Iñaki Gabilondo a Yuval Noah Harari, autor de Sapiens y Homo Deus, el historiador israelí mostraba su preocupación por cómo afrontarán los gobiernos del mundo el control del desarrollo de la inteligencia artificial, una preocupación a la que se ha sumado la Unión Europea, que ha iniciado un debate sobre los aspectos éticos de esta cuestión y ya plantea un marco normativo que profundice en la figura de los robots.

Pero quizá la iniciativa más interesante hasta ahora es la que ha llevado a cabo el pasado mes de enero el Future of Live Institute, que ha elaborado, con la colaboración de más de 2.000 expertos, una serie de principios que deberían constituir la guía para el desarrollo de la inteligencia artificial en el planeta.

Las 23 claves que recoge el informe Asilomar AI Principles cuentan con el apoyo de más de 1.200 referentes del mundo de la innovación científica y tecnológica, como Elon Musk o Stephen Hawking, y 800 científicos expertos en el tema, entre ellos, el director del Instituto de Investigación de Inteligencia Artificial del CSIC, Ramón López Mantaras que, en declaraciones a Teknautas avanza que aunque “son principios de buenas intenciones, es bueno que el tema esté encima de la mesa”.

Los principios que propone el Future of Live Institute son los siguientes:

Temas de investigación

  1. Objetivo de la investigación: el objetivo de la investigación de la inteligencia artificial no debería ser crear inteligencia sin control, sino una inteligencia beneficiosa.
  1. Financiación de la investigación: La inversión en inteligencia artificial debería ir acompañada de fondos que faciliten profundizar en su uso beneficioso, que incluyan cuestiones espinosas sobre ciencias de la computación, economía, legislación, ética y estudios sociales como por ejemplo:
  • ¿Cómo podemos hacer que los futuros sistemas de inteligencia artificial sean seguros, de modo que hagan lo que queramos sin fallar o ser hackeados?
  • ¿Cómo podemos hacer crecer nuestra prosperidad a través de la automatización mientras mantenemos los recursos y el propósito de las personas?
  • ¿Cómo podemos actualizar nuestros sistemas legales para que sean más justos y eficientes, para mantener el ritmo de la inteligencia artificial y para gestionar los riesgos asociados con ésta?
  • ¿Con qué conjunto de valores debe alinearse la inteligencia artificial y cuál debe ser su estatus legal y ético?
  1. Relación entre Ciencia y Política: debería haber un intercambio sano y constructivo entre los investigadores y los legisladores.
  1. Cultura de la investigación: debería fomentarse una cultura de cooperación, confianza y transparencia entre los investigadores y desarrolladores de inteligencia artificial.
  1. Evitar las prisas: los equipos que desarrollen sistemas de inteligencia artificial deberían cooperar activamente para evitar atajos en los estándares de seguridad.
Te puede interesar:   Cuatro retos en los que los medios deben poner foco este año, aprovechando las tecnologías emergentes

Ética y valores

  1. Seguridad: los sistemas de inteligencia artificial deberían ser seguros y verificables a lo largo de su vida operativa.
  1. Transparencia con los errores: Si un sistema de inteligencia artificial causa daño debería ser posible conocer la causa.
  1. Transparencia judicial: cualquier intervención de un sistema autónomo en una decisión debería ir acompañada de una explicación satisfactoria y auditable por parte de una autoridad humana competente.
  1. Responsabilidad: los diseñadores y desarrolladores de sistemas avanzados de inteligencia artificial son depositarios de las implicaciones morales de su uso, mal uso y acciones, con la responsabilidad y oportunidad de dar forma a dichas implicaciones.
  1. Alineación de valores: los sistemas de inteligencia artificial autónomos deberían ser diseñados para que sus objetivos y comportamientos puedan alinearse con los valores humanos a lo largo de sus operaciones.
  1. Valores humanos: los sistemas de inteligencia artificial deberían ser compatibles en su diseño y operatividad con los ideales de dignidad y derechos humanos, libertades y diversidad cultural.
  1. Privacidad personal: la gente debería tener el derecho de acceso, gestión y control sobre los datos que genera, ofreciendo a los sistemas de inteligencia artificial la capacidad de analizar y utilizar esa información.
  1. Libertad y privacidad: la aplicación de la inteligencia artificial a los datos personales no puede restringir de forma poco razonable la libertad de las personas.
  1. Beneficio compartido: las tecnologías de inteligencia artificial deberían beneficiar y fortalecer a tanta gente como sea posible.
  1. Prosperidad compartida: la prosperidad económica creada por la inteligencia artificial debería ser compartida ampliamente, para el beneficio de toda la Humanidad.
  1. Control humano: los seres humanos deberían poder escoger si delegan decisiones a los sistemas de inteligencia artificial para completar objetivos escogidos previamente.
  1. Sin subversión: el poder conferido por el control de sistemas de inteligencia artificial avanzados debería respetar y mejorar, más que subvertir, los procesos sociales y cívicos de los que depende la salud de la sociedad.
  1. Carrera armantística: se debería evitar cualquier carrera armamentística de armas autónomas letales.
Te puede interesar:   Formatos, storytelling y modelo de negocios, elementos fundamentales para lograr que los jóvenes quieran estudiar periodismo

Cuestiones a largo plazo

  1. Capacidad de precaución: cuando no haya consenso, deberíamos evitar conclusiones anticipadas sobre los límites de las futuras capacidades de la inteligencia artificial.
  1. Importancia: la inteligencia artificial avanzada podría representar un profundo cambio en la historia de la vida en la Tierra, y debería ser planificada y gestionada con el cuidado y los recursos adecuados.
  1. Riesgos: los riesgos asociados a los sistemas de inteligencia artificial, especialmente los catastróficos o existenciales, deben estar sujetos a la planificación y la posibilidad de mitigarlos.
  1. Automejora recurrente: los sistemas de inteligencia artificial diseñados para automejorarse de manera recurrente o autoreplicarse, de forma que pudiera llevar al rápido incremento en su calidad o cantidad, deben estar sujetos a unas estrictas medidas de control y seguridad.
  1. Bien común: la superinteligencia debería ser desarrollada sólo en servicio de unos ideales éticos ampliamente compartidos y para beneficio de toda la Humanidad, más que para un Estado u organización.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí