Los chatbots de inteligencia artificial (IA) han emergido como elementos centrales en el ecosistema digital en un corto periodo. Sin embargo, su popularidad ha suscitado preocupaciones sobre la privacidad, especialmente en relación con el rastreo publicitario y la recopilación de datos personales. Una reciente investigación destaca que herramientas como ChatGPT, Claude, Grok y Perplexity utilizan diversos rastreadores provenientes de empresas reconocidas como Meta, Google y TikTok. Estos rastreadores han sido diseñados para seguir la actividad de los usuarios en línea, ofreciendo una mejor comprensión de sus preferencias y comportamientos, incluyendo el acceso a conversaciones privadas con los chatbots.
Transformación en la Interacción Digital
Según Narseo Vallina, investigador de Imdea Networks y coautor del estudio, “los modelos de lenguaje están revolucionando la forma en que los usuarios interactúan con servicios online y realizan tareas cotidianas”. Vallina también advierte que los desarrolladores de IA están adoptando modelos de negocio tradicionales de publicidad digital, lo que podría comprometer aún más la privacidad de los usuarios.
Riesgos Inherentes a la Recopilación de Datos
El estudio ha identificado un riesgo significativo: enlaces que permiten el acceso a conversaciones completas en Grok y Perplexity, expuestos de manera pública. Esto significa que cualquier persona con la URL correspondiente podía acceder a los diálogos íntegros. Guillermo Suárez-Tangil, coautor del trabajo, menciona que “hasta el 3 de abril, estos enlaces estaban disponibles por defecto, lo que representa un grave problema de privacidad”. A pesar de que no hay evidencia de que terceros hayan accedido a este contenido, el riesgo permanece latente.
Variedad en el Nivel de Riesgo entre Chatbots
No todos los chatbots presentan el mismo nivel de vulnerabilidad. Por ejemplo, en ChatGPT y Claude, se comparte información con terceros sobre el título de cada conversación, lo cual puede revelar detalles sobre la intención del usuario, incluyendo preocupaciones médicas o legales. Hasta el momento, ninguna de las empresas involucradas ha proporcionado comentarios sobre estos hallazgos.
Impacto en el Modelo de Negocio
La inclusión de herramientas de rastreo en chatbots de IA, que buscan monetizar sus servicios, plantea inquietudes sobre un acceso sin precedentes a las vidas privadas de los usuarios. Aniketh Girish, investigador de Imdea Networks y coautor del estudio, enfatiza que la rápida evolución de esta tecnología ha superado la concienciación sobre sus riesgos: “La gente tiende a confiar en herramientas que parecen útiles, subestimando el riesgo incluso cuando la infraestructura de publicidad subyacente continúa siendo la misma que hace 20 años”.
Retos en la Regulación Europea
La situación se complica aún más en Europa, donde el Reglamento de Protección de Datos se establece para salvaguardar a los usuarios de tales abusos. Jorge García Herrero, abogado que colaboró en la investigación, sostiene que las empresas deben cumplir con normativas claras, que en muchos casos son vulneradas. “Estas cuatro compañías, en lugar de cumplir, utilizan políticas de privacidad complejas que confunden a los usuarios”.
Investigaciones Futuras
Los investigadores aún no han analizado las IA pertenecientes a empresas como Meta y Google debido a que estas ya cuentan con sus propios sistemas de analítica y publicidad. “Lo que nuestra investigación ha revelado es que los rastreadores de terceros en estas plataformas de IA permiten la observación de datos sensibles de usuarios que no son propietarios del servicio”, concluye Suárez-Tangil.