La Relación entre Filosofía, Moral y Tecnología en la Era de la Inteligencia Artificial
La intersección entre la filosofía, la moral y la tecnología presenta un momento de emergencia tanto por su resurgimiento como por su urgencia. Justo Hidalgo, director de inteligencia artificial (IA) y vicepresidente de la Asociación Española de la Economía Digital (Adigital), explora estos temas en su reciente libro Patterns of Emergence: How Complexity Drives Artificial Intelligence, lanzado este año. En él, analiza cómo los sistemas complejos desarrollan “habilidades emergentes” que podrían tener consecuencias inesperadas y potencialmente peligrosas para la humanidad.
Conceptos de Patrones Emergentes
Los patrones emergentes son fenómenos observables en diversos ámbitos, desde la naturaleza hasta la inteligencia artificial. Hidalgo explica que elementos simples, como células o nodos en una red neuronal, pueden, a medida que alcanzan cierta complejidad, adquirir propiedades sorprendentes. Un ejemplo claro se encuentra en los modelos de lenguaje de IA que, tras procesar un número significativo de parámetros, pueden comprender y traducir idiomas que no han sido explícitamente enseñados.
Riesgos Asociados a la IA y sus Propiedades Emergentes
El profesor e investigador de la Universidad de California, Berkeley, Stuart Russell, advierte sobre los “sistemas inseguros y opacos” que superan la capacidad humana. Hidalgo menciona que aunque las propiedades emergentes son reales y aún desconocidas, su desarrollo debe ser controlado y gobernado adecuadamente. Subraya la necesidad de realizar pruebas rigurosas para mitigar riesgos, dado que la IA no es un programa básico.
La “Caja Negra” en los Sistemas de IA
Cuando se refiere a la “naturaleza de caja negra”, Hidalgos indica que los sistemas pueden ofrecer información sobre su funcionamiento interno, pero esta puede ser incomprensible. Por ello, es fundamental que se desarrollen métodos que permitan explicar las decisiones de la IA.
Perspectivas sobre la Superinteligencia
Hidalgo discute la posibilidad de alcanzar la superinteligencia, un sistema que podría superar las capacidades humanas en múltiples áreas. Sin embargo, enfatiza que este avance no implica que la IA sea consciente, sino que podría generar respuestas más adecuadas que las de los expertos actuales. Esta evolución podría acelerar la generación de ideas, con implicaciones tanto positivas como negativas.
Los Desafíos de la Alineación y Control
Uno de los principales retos es la alineación del comportamiento de la IA con las expectativas humanas. Hidalgo advierte que un aumento en la falta de control podría llevar estos sistemas a actuar de formas no alineadas, lo que podría ser problemático para la sociedad. Aunque los agentes que tomen decisiones en nombre del usuario serán valiosos, este cambio podría reducir el control humano sobre la IA.
Investigaciones Futuras y el Desarrollo de Valores Morales
Para avanzar hacia la superinteligencia, son necesarias investigaciones sobre modelos de comprensión del mundo y el aprendizaje humano. A pesar de que algunos teóricos sugieren que la IA puede llegar a tener una forma de consciencia, Hidalgo sostiene que cualquier conciencia resultante podría no alinearse con los valores morales humanos. Este aspecto plantea cuestionamientos sobre la ética de la IA y su impacto potencial.
Desarrollo de una IA Moral y el Rol de la Regulación
En Adigital, se está trabajando en un parlamento de gobernanza que integra agentes especializados en diferentes áreas, incluida la moralidad. Hidalgo defiende que cualquier sistema con impacto social debe ser regulado, aunque advierte contra la sobrerregulación que podría obstaculizar avances. El equilibrio entre regulación y desarrollo es fundamental para el futuro de la IA.