Yaël Eisenstat es una experta en la lucha contra el extremismo y la polarización en redes sociales, con más de 20 años de experiencia en el campo. Esta estadounidense ha desempeñado roles como diplomática, analista de la CIA y asesora del vicepresidente Joe Biden durante el segundo mandato de Barack Obama. En 2018, se unió a Facebook como directora de integridad global de elecciones, encargándose de supervisar la política de anuncios políticos, justo al estallar el escándalo de Cambridge Analytica. Este escándalo implicó el uso de datos de 87 millones de perfiles de Facebook para realizar publicidad electoral personalizada a favor de Donald Trump en 2016. Eisenstat recuerda que su decisión de unirse a la compañía llegó tras las declaraciones de Mark Zuckerberg en el Senado, justo un minuto después de finalizar su intervención.
Sin embargo, su etapa en Facebook fue breve, duró solo seis meses. Durante su tiempo en la empresa, observó la falta de capacidad para asegurar la limpieza de las elecciones y al final decidió hablar públicamente sobre los peligros que presenta la compañía, conocida posteriormente como Meta. Eisenstat había pensado que podría contribuir a mejorar la situación de una empresa que juega un papel crucial en los riesgos actuales para la democracia, pero encontró que había cometido un error de juicio.
Desde su salida, Eisenstat se ha centrado en concienciar sobre estos problemas. Actualmente, es directora de política e impacto en el centro de investigación Cybersecurity for Democracy. Recientemente, participó en el I Encuentro Internacional por los Derechos Digitales en Barcelona.
Estado Actual de la Democracia y las Redes Sociales
Pregunta. ¿La democracia está mejor protegida frente a la influencia de las plataformas en la actualidad que en 2018?
Respuesta. La situación ha cambiado. En algunos aspectos, estamos peor. Las empresas que sustentan el discurso y debate político en línea son hoy más poderosas que en 2018. Además, han comenzado a incorporar inteligencia artificial en sus algoritmos, facilitando la creación de contenidos manipulativos. Al mismo tiempo, estas empresas han disminuido sus esfuerzos en garantizar la seguridad y verificación de contenido, como lo admitió Zuckerberg tras las últimas elecciones presidenciales en EE. UU., anunciando el fin de la verificación de datos.
La Influencia de Diversos Actores
P. ¿Quiénes están utilizando estas herramientas? En 2016, el foco estaba en Rusia…
R. La situación es más compleja. Existen múltiples actores, incluyendo estados como Irán, China o Rusia que difunden propaganda, pero también individuos buscando monetizar su contenido. Estos han descubierto que los algoritmos premian el contenido emocional, a menudo lleno de desinformación y extremismo. El diseño de estas plataformas incentiva un uso extremo de las mismas.
Desafíos de la Manipulación Digital
P. ¿Qué implicaciones tienen los deepfakes en la democracia?
R. Los usuarios no pueden ser los únicos responsables de identificar contenido manipulado. Hasta yo he caído en la trampa de vídeos generados por IA. Es fundamental que las empresas implementen límites claros, como el etiquetado de contenido generado por IA, para ayudar a los usuarios a navegar esta complejidad. Sin embargo, el diseño atrayente y accesible de estos productos a menudo distrae de sus consecuencias negativas.
La Necesidad de Responsabilidad Corporativa
P. ¿Es realista esperar que las grandes tecnológicas rindan cuentas?
R. Es mi esperanza. La industria tecnológica es una de las más poderosas de la historia. A medida que más personas se concienticen sobre su manipulación, demandarán un cambio. No pido destruir estas empresas, sino regularlas y establecer incentivos, al igual que se hizo con otras industrias como la del tabaco.
Movilización Social y Cambio
P. ¿Es necesario que ocurra un escándalo a gran escala como otro Cambridge Analytica para provocar cambios reales?
R. Depende de cómo definas “algo malo”. En EE. UU., hemos notado un cambio en la percepción de la seguridad infantil en redes. Los padres comienzan a darse cuenta de cómo los algoritmos afectan a sus hijos y están exigiendo cambios. Recientemente, dos sentencias determinaron que Meta es responsable de engañar a los consumidores respecto a la seguridad de sus plataformas, lo cual es un gran paso en este sentido.
Abordando el Discurso del Odio
P. ¿Cómo se puede erradicar el discurso del odio incentivado por los algoritmos?
R. Hay que abordar el diseño en sí. En EE. UU., el discurso del odio, aunque es problemático, no es ilegal. Lo que me preocupa es el modelo de negocio que permite estas prácticas. Es crucial que las empresas dejen de utilizar los datos personales de los usuarios para mantenerlos enganchados al sistema.
Redefiniendo el Modelo de Negocio
P. ¿Deberíamos cambiar el modelo de negocio de las redes sociales?
R. Sí. El modelo actual es insostenible y necesita ser revisado. La acumulación de poder en manos de una sola persona sobre cómo se percibe la información es peligrosa. Este tipo de concentración de poder no debería existir.