El Uso de la Inteligencia Artificial en las Entidades Públicas de Colombia
El debate sobre la implementación de la Inteligencia Artificial (IA) en el ámbito público colombiano se intensifica. Un funcionario de la empresa estatal de renovación de Bogotá, RenoBo, sugirió optimizar las respuestas a los derechos de petición mediante IA. Sin embargo, había reservas en su equipo sobre el uso de bots para responder a estos requerimientos ciudadanos. “Me sentiría mal si un derecho de petición me lo contestara un bot», manifestó un miembro del equipo. A pesar de las preocupaciones, el uso de estas herramientas se está convirtiendo en una necesidad para mejorar la eficiencia del Estado, aunque también plantea desafíos a los procesos participativos.
El Contexto Actual del Uso de IA en Colombia
Con la creciente carga de trabajo que enfrentan los funcionarios públicos debido a la cantidad de documentos que deben procesar, muchos de ellos recurren a la IA para ser más efectivos. Sin embargo, el uso de versiones gratuitas de estas herramientas conlleva riesgos, desde inventar respuestas incorrectas hasta exponer información sensible que puede ser utilizada por terceros.
Las advertencias han sido claras. El 5 de noviembre, la Corte Suprema de Justicia anuló un fallo porque se basó en sentencias que no existían, reafirmando un mensaje previo de la Corte Constitucional sobre las “alucinaciones” generadas por modelos de IA. Tras esto, los funcionarios judiciales recibieron un manual para el uso responsable de estas herramientas, enfatizando que la IA debe ser vista como un apoyo y no un sustituto del criterio humano.
La Inercia en la Capacitación y Regulación del Uso de IA
En el marco de esta discusión, se realizó una revisión sobre el uso de herramientas de IA en diversas entidades. Hasta el momento, solo cuatro de 42 funcionarios consultados afirmaron haber recibido capacitación adecuada para utilizar estas tecnologías de manera efectiva. Según el contratista de la Unidad Nacional de Gestión del Riesgo, la capacitación se percibe como una tarea secundaria que muchos ignoran. Aunque varias entidades reportan estar trabajando en formaciones, estas suelen centrarse en herramientas propias y no en las comerciales, lo cual limita la habilidad de los funcionarios para evaluar y utilizar plenamente estas tecnologías.
El conocimiento sobre el funcionamiento de modelos de IA, como ChatGPT, también es limitado. Pocos son conscientes de que estas plataformas pueden usar la información suministrada por los usuarios para mejorar su rendimiento, lo que plantea serias implicaciones sobre la privacidad y el manejo de datos.
Casos de Uso y Dependencia de IA en el Sector Público
A pesar de las advertencias, la IA se ha vuelto una herramienta común en el trabajo diario de muchos servidores públicos. Desde la redacción de documentos hasta la elaboración de discursos, su uso es evidente. Varias entidades locales, como la Alcaldía de Bogotá y la Gobernación de Casanare, han adoptado la tecnología de manera informal, con contratistas utilizando ChatGPT para realizar diversas tareas y aliviar su carga laboral.
En la Rama Judicial, un estudio reciente reveló que un tercio de los funcionarios ha utilizado IA para facilitar su trabajo, con herramientas como ChatGPT en la vanguardia. Sin embargo, la dependencia de estas herramientas varía, y algunos funcionarios se sienten más cómodos usándolas que otros, lo que resalta la necesidad de una política institucional clara sobre su uso.
Desafíos Éticos y la Necesidad de Políticas Claras
El uso de IA plantea dilemas éticos y prácticos en la administración pública. Algunos empleados temen que su productividad sea evaluada por su capacidad para integrar esta tecnología, lo que genera presión en quienes se sienten menos preparados para utilizarla. Además, la falta de directrices claras sobre su uso ha incentivado a algunos a ocultar su dependencia de estas herramientas, generando un ciclo de desconfianza y opacidad en su aplicación.
La instalación de políticas adecuadas y capacitaciones rigurosas son esenciales para mitigar estos problemas y garantizar que la IA se utilice de manera ética y responsable en la interacción con los ciudadanos.