mayo 22, 2024

Elecciones europeas: ¿Qué partidos intentan influir en el voto a través de Facebook o Instagram? | Tecnología

Las elecciones europeas del 9 de junio, a las que están convocados más de 370 millones de ciudadanos, pueden convertirse en terreno abonado para la desinformación y la manipulación política. Así lo advirtió ya en octubre la Agencia de la UE para la Ciberseguridad (Enisa), donde preocupa y mucho el efecto que pueda tener en el proceso la inteligencia artificial (IA) generativa. Esta tecnología es capaz de producir textos convincentes o vídeos hiperrealistas, lo que se puede usar para propagar ideas interesadas e influir en el voto de los ciudadanos.

Pero la difusión de bulos y de mensajes interesados no es el único problema al que se enfrentan los ciudadanos. Hay partidos políticos que utilizan las herramientas de publicidad digital que facilitan las redes sociales para personalizar y segmentar su mensaje con el objetivo de influir en el voto. Es lo que hizo Cambridge Analytica en las presidenciales estadounidenses de 2016, en ese caso sirviéndose de datos de 80 millones de usuarios captados fraudulentamente a través de Facebook.

La segmentación de audiencias, es decir, dividirlas en grupos que compartan una serie de características, es una práctica legal muy usada en el marketing político. La microsegmentación política, en cambio, que analiza los intereses de individuos, y no de grupos de estos, no está permitida en la UE. El Reglamento General de Protección de Datos (artículo 9.1) prohíbe el tratamiento de datos personales que revelen las opiniones políticas de los ciudadanos. Y eso es exactamente lo que hacen los perfiles ideológicos que elabora la microsegmentación (o microtargeting, en inglés): una especie de ficha política de cada individuo confeccionada a partir de información disponible en el historial de navegación o en sus reacciones en las redes sociales.

Aspecto de una ficha resumen de Who Targets Me, la herramienta que se usará en la campaña De quién soy el blanco, que se usó en la que se expresa la cantidad de veces que el usuario ha sido expuesto a publicidad política personalizada.

Pese a estar prohibida, la publicidad política microsegmentada es una práctica todavía frecuente en Europa. El colectivo especializado en protección de la privacidad Noyb (acrónimo de None of Your Business, No es asunto tuyo en inglés), dirigido por el activista austriaco Max Schrems, presentó el año pasado una serie de denuncias contra varios partidos políticos alemanes por haber recurrido a esta técnica en las elecciones federales de 2021.

En España, todas las formaciones trataron de reformar la Ley Orgánica del Régimen Electoral (LOREG) a través de la Ley Orgánica de Protección de Datos (LOPD, 2018) para permitir que los partidos pudieran recoger de la web y las redes sociales “datos personales relativos a las opiniones de los ciudadanos” de cara a las elecciones de 2019. Un grupo de juristas y de asociaciones presionó al Defensor del Pueblo para que recurriera ante el Tribunal Constitucional este cambio. Y el Constitucional lo tumbó.

“Esa fue la mayor victoria de mi carrera”, recuerda Borja Adsuara, uno de los abogados que impulsaron el recurso. “Conseguimos frenar a unos partidos que se autorizaron a sí mismos a recopilar, de páginas webs y redes sociales, las opiniones políticas de los ciudadanos vinculadas a sus datos personales, es decir, atribuyéndolas a personas físicas con nombres y apellidos”, apunta.

Con todo, hay partidos que siguen apostando por esta técnica, aunque esté proscrita. La red de activistas por los derechos digitales Xnet ha puesto en marcha, junto con una coalición de colectivos y organizaciones europeas con las mismas sensibilidades, la campaña “¿De quién soy el blanco?”. Su objetivo es analizar cómo Facebook e Instagram, las dos redes sociales estrella de Meta, explotan los datos de los usuarios para hacer fichas individualizadas con fines políticos.

La campaña pivota en torno a la herramienta Who Targets Me, una extensión del navegador que permite recopilar, catalogar y visualizar la publicidad electoral personalizada servida a los usuarios de Facebook mientras navegan por esa plataforma. La herramienta rastrea y procesa los datos anonimizados que reciben de campañas y publicaciones en redes sociales, los almacena y posteriormente los procesa.

Cuantos más usuarios se descarguen la extensión, mayor validez tendrán los datos que extraigan los analistas de estos. El objetivo es detectar qué partidos recurren a la microsegmentación y en qué momentos de la campaña. Xnet elaborará un informe con esos datos que publicará una vez pase la cita electoral.

Un hombre sostiene en el aire su móvil con la app de Instagram abierta.Unplash

Expertos y legisladores coinciden en que el microtargeting es una práctica que amenaza al buen funcionamiento de la democracia. Estas técnicas, que usan el análisis de datos digitales para entregar a los usuarios información especialmente adaptada a su perfil, tienen el peligro de poder influenciar seriamente al votante. “Los partidos políticos son el segundo cliente de la industria de la manipulación informativa después de los influencers: compran bots, perfiles de usuarios, etcétera”, explica Simona Levi, fundadora y coordinadora de Xnet. “Las estrategias de microtargeting de los partidos buscan manipularnos psicológicamente, se basan en hacernos llegar la información que queremos ver. Eso crea burbujas informativas. Decirnos lo que queremos oír, y no lo que piensan, no es convencer: es manipular”.

“Cualquier dato sobre las opiniones políticas de una persona está protegido de forma particularmente estricta por el GDPR”, sostiene por su parte Felix Mikolasch, abogado especializado en privacidad de Noyb. “Esos datos no solo son extremadamente sensibles, sino que también permiten la manipulación a gran escala de los votantes, como ha demostrado Cambridge Analytica”, señala.

Desinformación y manipulación en la era de la IA

La Comisión Europea pidió hace dos semanas a X, TikTok, Facebook y otras grandes plataformas que tomen medidas para ponerle coto a la circulación de contenidos sospechosos que busquen condicionar a los votantes. Bruselas, que teme un aluvión de interferencias y desinformación, ha publicado una serie de directrices para plataformas con más de 45 millones de usuarios activos en la UE dirigidas a combatir los contenidos nocivos impulsados por IA y la publicidad política engañosa. Google, Meta y TikTok, por ejemplo, han puesto en marcha equipos especialmente dedicados a combatir la desinformación en torno a las elecciones.

En Europa hay 24 lenguas oficiales que monitorizar, y el dominio de tantos idiomas no es una característica habitual entre los moderadores de contenidos. De ahí que la Comisión tenga especial interés en que se refuerce esta área. Según un informe de X recogido por Euronews, la red social solo tiene a un moderador de contenidos que domine el búlgaro, el croata, el neerlandés, el portugués, el letón o el polaco en su equipo global de 2.294 personas. No hay nadie que cubra 17 de las lenguas oficiales de la UE, entre ellas el griego, el húngaro, el rumano y el sueco: todo se fía ahí a la IA.

La amenaza de la desinformación y de la difusión de bulos es ya habitual en todas las elecciones, como mínimo desde las presidenciales de 2016 que llevaron a Donald Trump a la Casa Blanca. El peligro aumenta considerablemente de la mano de la IA generativa. Ahora se teme en particular que los deepfakes, los vídeos hiperrealistas hechos por IA, puedan tener una influencia directa en el voto de millones de ciudadanos. Esta tecnología permite generar vídeos en los que cualquier político aparezca en cualquier situación diciendo cualquier cosa.

Un reciente informe de Microsoft alerta de que China intentará influir en las presidenciales estadounidenses de noviembre, así como en las elecciones surcoreanas e indias, con contenidos generados con IA. La tecnológica espera que varios cibergrupos asociados a Pekín y Pyongyang estén trabajando ya en ello, como lo hicieron en las de Taiwán. “Aunque el impacto de estos contenidos sigue siendo escaso, la creciente experimentación china con memes, vídeos y audio continuará, y puede resultar eficaz en el futuro”, concluye el estudio.

“La confianza en el proceso electoral de la UE dependerá críticamente de nuestra capacidad para apoyarnos en infraestructuras ciberseguras, así como en la integridad y disponibilidad de la información. Depende de nosotros asegurarnos de que tomamos las medidas necesarias para alcanzar este objetivo sensible, pero esencial para nuestras democracias”, dijo el director ejecutivo de Enisa, Juhan Lepassaar.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_