Cómo la IA ya erosiona a la democracia en el mundo
Cómo la IA ya erosiona a la democracia en el mundo E n los últimos dos años, desde la explosión de la inteligencia artificial generativa (IAg), esa tecnología fue utilizada por la política para degradar o difamar a los adversarios, y según los expertos y funcionarios ahora ha empezado a tener impacto directo en los resultados de las elecciones.
Las herramientas de la IA, fáciles y simples de usar, permitieron generar una catarata de fotos y videos falsos de candidatos o militantes diciendo cosas que nunca dijeron o mostrándose en lugares donde nunca habían estado, todo difundido con la relativa impunidad del anonimato en línea. La tecnología aumentó las divisiones sociales y la polarización partidaria y fortaleció un sentimiento antigubernamental, sobre todo en la extrema derecha, que creció mucho en las últimas elecciones en Alemania, Polonia y Portugal. Según expertos y funcionarios, los avances en esa tecnología socavan la confianza en la integridad del proceso electoral y degrada el consenso político necesario para que las sociedades democráticas funcionen.
Para Madalina Botan, profesora en la Universidad Nacional de Estudios Políticos y Administración Pública de Bucarest, la capital rumana, es indudable que la IA generativa "ya se utiliza con objetivos claramente malintencionados" para manipular a los votantes. "La mecánica es tan sofisticada que lograron crear contenidos que se viralizan casi instantáneamente", dice Botan. "No hay manera de combatirla. " En la inusual seguidilla de elecciones que se concentraron a lo largo de 2024, la IA fue utilizada en más del 80% de las votaciones, según el Panel Internacional sobre el Entorno de la Información, una organización independiente de científicos con sede en Suiza. A partir de declaraciones oficiales y boletines informativos, el Panel documentó 215 casos de IA usada en elecciones durante 2024. Y este año la IA ya operó en otras por lo menos nueve grandes elecciones, desde Canadá hasta Australia. No todos los usos de la IA son maliciosos.
En el 25% de los casos sondeados por el panel, los candidatos utilizaron la IA para sí mismos, por ejemplo, para traducir discursos y plataformas a dialectos locales o para identificar y contactar a bloques de votantes. Al mismo tiempo, sin embargo, decenas de deepfakes --fotografías o videos que recrean de manera casi indistinguible a personas reales-utilizaron la IA para clonar la voz de candidatos o de los canales de noticias.
Según el sondeo del Panel Internacional sobre el Entorno de la Información, en el 69% de los casos la IA cumplió un rol calificado como "nocivo". Y en las elecciones presidenciales del año pasado en Estados Unidos hubo tantos ejemplos malintencionados que hubo advertencias públicas de funcionarios del FBI, de la Agencia de Ciberseguridad y Seguridad de las Infraestructuras, y de la Oficina del Director de Inteligencia Nacional.
Desde el regreso de Trump al poder, las agencias desmantelaron los equipos a cargo de esas tareas. "En 2024, el potencial beneficioso de esas tecnologías fue ampliamente eclipsado por su uso dañino y malintencionado", apunta Kristina Trauthig, profesora en la Universidad Internacional de Florida, quien dirigió el sondeo del panel internacional. Los usos más engañosos de la IA se dieron en países autocráticos que intentan interferir en elecciones extrajeras, como Rusia, China e Irán. La tecnología les permitió aumentar el apoyo a candidatos afines a su cosmovisión o simplemente desacreditar al sistema democrático en sí, mostrándolo como un sistema político fallido o ineficiente.
Antes de las elecciones presidenciales del mes pasado en Polonia, donde hay muchos refugiados ucranianos, Rusia lanzó una campaña destinada a fogonear sentimiento anti-Ucrania, con videos falsos que sugerían que los ucranianos estaban planificando atentados para generar caos durante la votación.
Otra forma de interferir Hasta hace poco, la injerencia de una potencia extranjera en las elecciones de otro país era una operación costosa y difícil, que dependía de granjas de trolls que generaban cuentas y contenidos en las redes sociales, y que con frecuencia utilizaban un lenguaje poco natural, con usos incorrectos de las palabras y confusión en las referencias culturales. Ahora, con la IA se puede interferir en el extranjero a una escala y con una velocidad que eran inimaginables cuando la principal fuente de noticias políticas eran los diarios y los medios de comunicación.
Saman Nazari, investigador de Alliance 4 Europe, una organización que estudia las amenazas digitales a la democracia, apunta que las elecciones de este año en Alemania y Polonia demostraron por primera vez la eficacia de la tecnología para las campañas políticas internacionales y nacionales. "En el futuro la IA tendrá un impacto significativo en la democracia", asegura Nazari.
Con los avances tecnológicos de las herramientas comerciales disponibles --como el creador de imágenes Midjourney y el nuevo generador de audio y video de Google, Veo--, es cada vez más difícil distinguir entre lo inventado y lo real, sobre todo de un solo vistazo. Grok, el bot conversacional y generador de imágenes desarrollado por Elon Musk, reproduce de inmediato imágenes de figuras populares, incluidos políticos. Esas herramientas cada vez más sofisticadas complicaron los esfuerzos de gobiernos, empresas e investigadores para identificar y rastrear las falsas campañas.
Antes de la IA, "había que elegir entre escala o calidad --la calidad se lograba con granjas de trolls humanos, y la escala con bots que pudieran generar eso, pero eran intervenciones de menor calidad", dice Isabelle Frances-Wright, directora de tecnología y sociedad del Instituto para el Diálogo Estratégico. "Ahora tienen las dos cosas a la vez, y ese es un territorio desconocido y aterrador". RR.SS. toman medidas Las principales redes sociales --incluidas X, Facebook, YouTube y TikTok--, tienen políticas que rigen el uso malicioso de la IA, y tomaron medidas en muchos casos relacionados con elecciones.
Sin embargo, al mismo tiempo esas plataformas son operadas por empresas con un interés particular en cualquier contenido que mantenga conectados a los usuarios, dicen los investigadores, y agregan que las plataformas deberían ser más activas para restringir contenidos dañinos o engañosos.
Lucas Hansen, fundador de CivAI, una organización sin fines de lucro que estudia las capacidades y los peligros de la IA, dice que lo preocupa algo que va más allá de los deepfakes que puedan engañar a los votantes: Hansen advierte que el debate de la opinión pública está tan contaminado por la IA que la gente se está desilusionando. "La contaminación del ecosistema informativo será uno de los problemas más difíciles de superar", señala Hansen. "Y es posible que sea un camino sin retorno". Cómo la IA ya erosiona a la democracia en el mundo Steven Lee Myers y Stuart A. Thompson/The New York Times Contenido engañoso El contenido generado se convirtió en un factor clave en las elecciones de todo el mundo. La mayor parte es inapropiado, engaña a los votantes y desacredita el proceso democrático..