Control de la Inteligencia Artificial en la Unión Europea: el Informe de la FRA
Los mecanismos de control impuestos por Bruselas a las herramientas de inteligencia artificial (IA) aún no son suficientes para garantizar el respeto a los derechos fundamentales. Esta preocupación fue expresada por la Agencia de la UE para los Derechos Fundamentales (FRA), que ha analizado el impacto de la IA en cinco áreas de alto riesgo: asilo, educación, empleo, aplicación de la ley y beneficios sociales.
Revisión Crítica del Marco Normativo
El informe del FRA, publicado recientemente, representa un desafío para la Comisión Europea, que había prorrogado en un plazo de 16 meses la adaptación de las herramientas de IA de “alto riesgo” a la normativa vigente. La FRA considera que la legislación actual no aborda adecuadamente los riesgos asociados con estos sistemas. Además, las empresas responsables de su desarrollo han mostrado incertidumbre sobre cómo evitar la violación de derechos fundamentales.
Ejemplos de Aplicaciones de Alto Riesgo
El informe destaca varios casos relevantes, como el uso de IA en procesos de selección de personal mediante herramientas que filtran y valoran currículos. También se examinan los sistemas automáticos que determinan la elegibilidad para recibir ayudas por discapacidad y las aplicaciones de vigilancia en exámenes. Según el informe, “estos sistemas deben ser confiables, ya que influyen en decisiones cruciales que afectan la vida cotidiana de las personas”.
Impacto en la Protección de Datos
La investigación revela que los proveedores de sistemas de IA son conscientes de los desafíos en cuanto a la protección de datos y la discriminación de género. Sin embargo, a menudo pasan por alto la posibilidad de que estos sistemas vulneren derechos fundamentales. Un ejemplo destacado es el caso de las herramientas que evalúan las capacidades lectoras de los niños, que pueden poner en riesgo su derecho a la educación.
Clasificación de Sistemas de IA en la Normativa Europea
El reglamento europeo de IA, vigente desde agosto de 2024, clasifica los sistemas en función de los riesgos que representan para la ciudadanía, asignando distintas obligaciones y requerimientos. Por ejemplo, las herramientas de “riesgo nulo”, como los detectores de spam, no tienen restricciones, mientras que las clasificadas como de “riesgo inaceptable” están prohibidas. Esto incluye aquellas que infrinjan la privacidad o exploten vulnerabilidades personales.
Industria de la IA en Desconcierto
Recientemente, la Comisión decidió posponer por 16 meses el inicio de la supervisión de sistemas de IA de alto riesgo. El argumento radica en que deben publicarse estándares claros antes de exigir el cumplimiento normativo, una tarea aún pendiente. El informe del FRA, basado en entrevistas con proveedores, operadores y expertos, señala que muchos desarrolladores y usuarios de estos sistemas carecen de estrategias para evaluar y mitigar los riesgos en términos de derechos fundamentales.
La FRA subraya que la autorregulación, es decir, el esfuerzo de los proveedores por evaluar los riesgos de sus sistemas, es relevante, pero “no toma en cuenta de manera sistemática los derechos fundamentales”.