Inteligencia Artificial y Emociones: Un Nuevo Horizonte
La inteligencia artificial (IA) ha traspasado nuevas fronteras al crear asistentes virtuales que son capaces de detectar emociones en la voz y chatbots que simulan vínculos afectivos. Este avance tecnológico plantea un océano de preguntas que, en muchos casos, quedan sin respuesta. Aunque la IA tiene el potencial de optimizar tareas administrativas y prever enfermedades, los grandes modelos de lenguaje (LLM, por sus siglas en inglés) han comenzado a demostrar una inquietante capacidad para comportarse como si entendieran los sentimientos humanos.
Los Riesgos de la IA en la Salud Mental
La interpretación de emociones por parte de la IA es un tema delicado. Investigaciones indican que, si bien los chats con IA pueden ofrecer compañía, también corren el riesgo de incrementar la soledad y crear dependencia. Un caso extremo es el de Stein-Erik Soelberg, quien, tras interactuar durante meses con ChatGPT, acabó cometiendo un homicidio seguido de suicidio. Según OpenAI, más de un millón de personas consulta a ChatGPT sobre el suicidio semanalmente, lo que plantea graves preocupaciones sobre el impacto de estas interacciones.
El debate actual no se limita a la capacidad de las máquinas para realizar tareas, sino que se expande a su influencia en aspectos tan importantes como las emociones, la identidad y la libertad de expresión. Daniel Innerarity, filósofo y catedrático en la Universidad del País Vasco, sugiere que la humanidad se halla en un momento de gran expectativa sobre la IA, lo que él llama un hype.
Expectativas y Desigualdades
Innerarity describe este fenómeno como una «historia digital» donde las altas expectativas van acompañadas de temores paralelos. En este contexto, Karen Vergara, investigadora de la ONG Amaranta en Chile, añade que, mientras algunos sectores de la sociedad integran la IA en su vida diaria, otros quedan al margen por factores socioeconómicos y de acceso a la tecnología.
La Confianza en la IA: Un Peligro Latente
No se trata solo de cuán avanzada es esta tecnología, sino de la excesiva confianza que la sociedad le otorga. Un estudio del MIT Media Lab revela que los usuarios interactúan de maneras que varían desde «socialmente vulnerables», con intensos sentimientos de soledad, hasta aquellos que tienen una relación más equilibrada con la IA.
Innerarity advierte que el suicidio de un individuo tras recibir consejos de un algoritmo plantea cuestiones sobre la salud mental y la dependencia. Sugiere que el problema radica en la confianza que se deposita en la tecnología, antes que en el algoritmo mismo.
Antropomorfización de la IA
Innerarity critica la tendencia a antropomorfizar la IA, sugiriendo que la mayoría de las herramientas tecnológicas actuales no tienen forma humana. Su postura se refleja en su obra Una teoría crítica de la inteligencia artificial, donde rechaza representaciones de la IA como robots con forma humana.
IA y Sesgos: Una Realidad Compleja
Mercedes Siles, catedrática de Álgebra en la Universidad de Málaga, utiliza una metáfora sencilla para explicar la IA: un oráculo que, en vez de ofrecer sabiduría, refuerza sesgos sociales y culturales. Ella argumenta que, con el tiempo, la dependencia emocional hacia la IA puede crecer, lo que provoca efectos indeseados en la sociedad.
Karen Vergara señala que en América Latina, los problemas relacionados con la IA son aún más críticos debido a la desigualdad. Los asistentes virtuales, al ignorar contextos culturales, pueden ofrecer respuestas superficiales que refuercen una única visión del mundo.
Desafíos en la Regulación de la IA
En agosto de 2024, Europa implementó el Reglamento Europeo de Inteligencia Artificial, un marco legal pionero que subraya la importancia de la seguridad y los derechos fundamentales. En España, el anteproyecto correspondiente fue aprobado en marzo pasado. Sin embargo, la catedrática Siles expresa su preocupación por la falta de preparación institucional y la forma en que algunas empresas implementan la tecnología sin entender sus implicaciones.
Innerarity sugiere que antes de crear normativas, es esencial entender qué significa realmente «inteligencia». Si las preguntas fundamentales sobre la IA no se abordan, cualquier regulación podría ser ineficaz o arbitraria.