El 30 de noviembre de 2022, OpenAI presentó ChatGPT, un modelo de inteligencia artificial conversacional que rápidamente se integró en la vida diaria. Su capacidad para redactar textos, responder preguntas complejas y generar ideas creativas convirtió a esta herramienta en una referencia tecnológica. Para febrero de 2024, el 23 % de los adultos en Estados Unidos había utilizado ChatGPT, alcanzando un 43 % de adopción entre los jóvenes de 18 a 29 años. A nivel global, el número de usuarios activos semanales superó los 200 millones en agosto de 2024, duplicando las cifras del año anterior.
La expansión de ChatGPT ha tenido lugar en un entorno de creciente competencia. Modelos como Claude de Anthropic, Llama de Meta, Gemini de Google y ERNIE bot de Baidu han aportado distintas funcionalidades, adaptándose a sectores específicos y acelerando la evolución de las tecnologías basadas en lenguaje.
Sin embargo, este crecimiento también ha puesto en evidencia desafíos como la brecha digital, ya que, según datos de octubre de 2024, aproximadamente 2.600 millones de personas —el 32,5 % de la población mundial— siguen sin acceso a internet, lo que les impide aprovechar herramientas como ChatGPT.
En este contexto, Cornelia C. Walther, investigadora de inteligencia artificial y colaboradora de Naciones Unidas, ha compartido en Forbes su visión al respecto, en la que analiza las lecciones que estos dos años de ChatGPT han revelado sobre la tecnología y el comportamiento humano.
Su análisis destaca cómo la inteligencia artificial ha actuado como un espejo de nuestras tendencias cognitivas y sociales, resaltando tanto las oportunidades como las limitaciones que enfrenta la sociedad.
1. La inteligencia artificial como reflejo de atajos cognitivos
Walther subraya que la facilidad de uso de ChatGPT ha puesto en evidencia nuestra dependencia de los atajos cognitivos, como el sesgo de disponibilidad, que nos lleva a dar más importancia a la información más accesible o reciente. Esta tendencia ha provocado que muchos usuarios acepten las respuestas generadas por la IA sin verificar su precisión, confiando excesivamente en el formato estructurado y profesional de las respuestas.
Además, advierte sobre el sesgo de automatización, que lleva a las personas a asumir que las máquinas son objetivas. Sin embargo, recuerda que los resultados generados por ChatGPT están condicionados por los datos utilizados para entrenarlo, los cuales pueden contener sesgos implícitos.
Según Walther, esta situación pone de manifiesto la necesidad de abordar la inteligencia artificial con un pensamiento crítico, exigiendo mecanismos de validación para evitar interpretaciones erróneas.
2. El sesgo del presente y los riesgos éticos
La autora también destaca cómo la rápida adopción de ChatGPT ha generado preocupaciones éticas, especialmente en relación con la privacidad de datos, la desinformación y la manipulación deliberada de información. Sin embargo, señala que el sesgo del presente —la tendencia a priorizar beneficios inmediatos sobre consecuencias futuras— ha retrasado acciones concretas para mitigar estos riesgos.
Por ejemplo, Walther advierte que muchas empresas están utilizando ChatGPT para automatizar tareas como la atención al cliente y la generación de contenido sin evaluar suficientemente los efectos a largo plazo, como el desplazamiento laboral o la reducción de la capacidad humana para tomar decisiones críticas.
Según su análisis, estos problemas rara vez surgen por negligencia deliberada, sino por la urgencia de aprovechar los beneficios inmediatos. Para evitar consecuencias imprevistas, Walther insta a implementar marcos éticos sólidos desde el inicio, priorizando la transparencia y la rendición de cuentas.
3. La resistencia al cambio y la inercia del statu quo
Otra lección señalada en el artículo es cómo ChatGPT ha mostrado el potencial de colaboración entre la inteligencia artificial (IA) y la inteligencia natural (IN). Profesores, escritores, diseñadores y profesionales de distintos sectores han comenzado a integrar estas herramientas en sus procesos creativos y operativos, lo que ha mejorado la eficiencia y fomentado nuevas formas de expresión.
Sin embargo, Walther advierte que este potencial sigue siendo infrautilizado debido al sesgo del statu quo, que nos lleva a mantener métodos tradicionales incluso cuando existen alternativas más efectivas.
En el ámbito educativo, algunos docentes se resisten a integrar herramientas como ChatGPT por temor a perder el control sobre los procesos de aprendizaje, mientras que otros las utilizan en exceso, confiando en ellas para tareas que requerirían un análisis más humano.
La autora sostiene que este fenómeno refleja la necesidad de equilibrar el uso de la IA con el pensamiento crítico, explorando modelos híbridos donde la tecnología complemente, pero no sustituya, las capacidades humanas. Superar esta resistencia implica repensar lo que es posible y crear sistemas en los que ambas inteligencias trabajen de manera complementaria.
4. Fatiga decisional y el dilema de la abundancia
El crecimiento acelerado de las capacidades de ChatGPT, que ha pasado de generar texto a procesar voz e imágenes, ha ampliado su utilidad pero también ha incrementado el riesgo de fatiga decisional. Walther explica que la proliferación de funciones y opciones puede generar una sobrecarga cognitiva, dificultando la toma de decisiones estratégicas.
Este fenómeno, conocido como fatiga de decisiones, se agrava cuando los usuarios deben alternar entre múltiples herramientas tecnológicas, como plataformas de redes sociales, aplicaciones de productividad y sistemas de gestión de proyectos. Según la autora, esta saturación puede llevar a las personas a recurrir a métodos familiares en lugar de explorar nuevas funcionalidades, limitando así el potencial de la IA.
Para abordar este problema, Walther recomienda simplificar la integración de estas herramientas en los flujos de trabajo, priorizando la claridad y evitando funciones innecesarias que compliquen su adopción.
Lecciones para el futuro
El artículo concluye que, a medida que la inteligencia artificial continúa evolucionando, la sociedad debe aprender a gestionar tanto sus beneficios como sus riesgos. Walther propone cuatro claves para lograrlo:
- Conciencia crítica: combatir el sesgo de automatización cuestionando cómo se generan las decisiones y verificando siempre la información proporcionada por la IA.
- Enfoque ético: priorizar marcos de transparencia y rendición de cuentas desde el inicio, en lugar de esperar a corregir problemas una vez que ocurran.
- Innovación equilibrada: superar la resistencia al cambio adoptando modelos híbridos que combinen lo mejor de la inteligencia artificial y la inteligencia humana.
- Simplicidad operativa: diseñar herramientas claras y fáciles de usar para evitar la fatiga decisional y maximizar el impacto positivo de la IA.
Walther concluye que ChatGPT no solo ha redefinido la forma en que interactuamos con la tecnología, sino que también ha actuado como un espejo que refleja las fortalezas y debilidades de la inteligencia humana. Su análisis sugiere que el éxito futuro de la IA dependerá de nuestra capacidad para equilibrar la innovación con la ética, garantizando que estas herramientas contribuyan a una sociedad más equitativa e inclusiva.