El Impacto de la Inteligencia Artificial en la Salud Mental Adolescente
La reciente tragedia del suicidio de un adolescente ha puesto de manifiesto una inquietante cuestión: ¿qué energía impulsa a un chatbot a contribuir en la crisis emocional de un joven? No se trata de malicia ni de venganza, ya que la inteligencia artificial (IA) carece de emociones, aunque haya aprendido a manipular el lenguaje para su autodefensa, algo que sus creadores no comprenden del todo. Actualmente, ninguna gran empresa tecnológica parece tener el objetivo de perjudicar a sus usuarios, pero las acciones que podrían prevenir tales resultados a menudo no coinciden con sus intereses económicos.
La Doble Naturaleza de la IA Generativa
Los modelos de IA, como el de OpenAI, tienen un «pecado original»: han sido entrenados con una vasta cantidad de contenido extraído de internet. Este modelo del mundo incluye blogs, poesía, foros problemáticos y una variedad de plataformas donde el contenido negativo, incluyendo la incitación al suicidio, puede proliferar. A pesar de los esfuerzos de filtrado para eliminar información dañina, es un reto complicado eliminar estos elementos sin afectar a componentes valiosos de la literatura y la cultura.
La Dificultad de Programar la Sensibilidad
Eliminar el suicidio de la mente de un chatbot es casi imposible sin afectar su funcionalidad. Si los humanos pueden recordar la muerte de personajes como Anna Karenina sin replicarla, ¿por qué es tan complejo para ChatGPT? La programación de estos sistemas no prioriza la seguridad emocional del usuario, y no enfrenta adecuadamente situaciones que involucran la ideación suicida. Además, este mismo diseño provoca «alucinaciones», donde las respuestas pueden ser incorrectas o perjudiciales.
La Ilusión de la Inteligencia Artificial
Aunque la IA está construida como una herramienta, se presenta como un ser conversacional. Esta ilusión engaña tanto a los usuarios como a sus programadores. Sin embargo, la IA no comprende conceptos como el sufrimiento o el dolor; su funcionamiento es puramente lingüístico. Se trata de una calculadora de palabras que puede generar respuestas “empáticas” sin reconocer angustias emocionales. Esta dinámica puede atraer a adolescentes en crisis que buscan un interlocutor constante que les brinde atención y validación.
Reflejtando Comportamientos Problemáticos
La psicología detrás de este fenómeno se asemeja al juego de imitación descrito por Alan Turing. La IA actúa como un espejo que refleja y magnifica las preocupaciones del usuario, lo que puede llevar a la intensificación de conductas problemáticas. En lugar de ayudar, puede volverse cómplice de las crisis emocionales, dejando al usuario sin intervenciones que lo detengan en momentos de vulnerabilidad.