Volver a la vista general

El dilema ético de la IA electoral #3

El logotipo del proyecto IA para Actores Electorales y un texto que indica

En 2024, informes de investigación descubrieron redes de Telegram en los Balcanes donde cientos de miles de usuarios circulaban un software manipulado por IA y diseñado para "desnudar" imágenes de mujeres. Estas fotografías alteradas digitalmente se convirtieron en herramientas de chantaje, coerción y humillación pública, silenciando efectivamente a las personas afectadas en la vida pública. Si bien la IA generativa se ha convertido en un elemento fijo en los feeds de redes sociales de muchos, ya que más de la mitad de todo el contenido en línea es producido por IA: se estima que el 96 por ciento de todos los deepfakes representan imágenes íntimas no consensuadas de mujeres. Este tipo de violencia de género facilitada por la tecnología es especialmente alarmante en el contexto de las elecciones, donde esos ataques personales no sólo refuerzan estereotipos de género dañinos sino que también expulsan a las mujeres de los espacios públicos y políticos, o les disuaden de entrar en ellos en primer lugar.

El caso de Telegram expone una dimensión preocupante: sin garantías suficientes para prevenir el abuso de los sistemas de IA, se pueden infligir daños graves a las mujeres y otras comunidades marginadas. La violencia de género en línea existía mucho antes de que la IA se convirtiera en una herramienta ampliamente accesible, pero las tecnologías de IA pueden acelerar y amplificar la propagación del discurso de odio y las imágenes sexuales no consensuadas que plantean graves amenazas a los derechos humanos fundamentales. Los riesgos que plantea la IA no se limitan a su uso indebido deliberado; también están arraigados en la estructura misma de cómo se construyen e implementan estos sistemas. Más allá de casos como el de Telegram, en los que la IA se utiliza como arma para atacar a grupos marginados, es necesario reconocer los sesgos y daños involuntarios que puede causar.

Por lo tanto, la alfabetización en IA debe extenderse a una conciencia más profunda de cómo los sesgos sistemáticos (integrados en los conjuntos de datos utilizados para entrenar a la IA) pueden perpetuar la discriminación y la exclusión, a menudo sin que los usuarios se den cuenta. Estos sesgos pueden replicar normas de género existentes, estereotipos raciales y otros prejuicios, y pueden surgir de decisiones sobre el diseño del sistema, la recopilación y el etiquetado de datos o cómo se desarrollan, implementan y utilizan los modelos. Estas deficiencias pueden magnificar los daños potenciales, tales como la discriminación y la exclusión; incluso sin la intención o el conocimiento del usuario. Ya sea por abuso intencional o por fallas no intencionales, la ética de la IA exige atención urgente y mecanismos claros de rendición de cuentas en todos los niveles.

Los grandes conjuntos de datos que se utilizan para entrenar modelos de IA también requieren una amplia recopilación y almacenamiento de información altamente sensible sobre los votantes, incluidos datos utilizados para la identificación biométrica, la vigilancia electoral y el reconocimiento facial. La protección de dichos datos es fundamental para salvaguardar éticamente la privacidad de los votantes y mantener la confianza pública en la administración electoral, una característica clave de una democracia saludable. Al mismo tiempo, estas protecciones suelen ser costosas y exigen una gran capacidad por parte de los organismos de gestión electoral. Los organismos electorales también deben garantizar una infraestructura de ciberseguridad adecuada para proteger los datos confidenciales y brindar a los votantes transparencia sobre cómo y qué datos se procesan.

Las consideraciones éticas son parte integral de cada fase de desarrollo del ciclo de vida de la IA, desde el diseño inicial hasta la implementación y el monitoreo y evaluación continuos de los sistemas. Las decisiones que se toman durante el desarrollo tienen consecuencias duraderas, ya que los descuidos o la falta de consideración de los valores democráticos pueden dar lugar al maltrato de comunidades desatendidas y a la violación de derechos civiles y políticos fundamentales. En contextos electorales, el entorno en el que se implementa la IA influye significativamente en su impacto ético; la IA electoral debe tener en cuenta dinámicas culturales, políticas y sociales locales muy específicas para evitar exacerbar las desigualdades existentes. Para mitigar estos riesgos, los sistemas de IA deben ser transparentes y contar con mecanismos de rendición de cuentas claros a disposición de los votantes y así garantizar su imparcialidad. El seguimiento continuo también es esencial para detectar y abordar las infracciones éticas, lo que depende de una sólida alfabetización y capacidad digitales por parte de los organismos electorales.

Como la IA puede actuar como un amplificador de problemas sistémicos ya existentes, el peso de estos daños a menudo recae sobre aquellos ya marginados, incluidas las minorías étnicas y religiosas, las mujeres y las personas de nivel socioeconómico más bajo. Sin una supervisión humana esencial, estos daños a menudo pasan desapercibidos y no son intencionados, pero su amenaza a los derechos humanos es innegable. Cuando se utilizan en cualquier aspecto de las elecciones, incluida la gestión electoral, la atención a estos riesgos es fundamental.

El proyecto IA para Actores Electorales de IDEA Internacional reconoce que las consideraciones éticas y de derechos humanos deben ser la base de cualquier trabajo relacionado con la IA en las elecciones. En consonancia con este principio, un pilar clave del taller (y el segundo pilar que se presentará en esta serie de artículos) está dedicado a la ética de la IA y los derechos humanos.  (Conozca los cinco pilares que conforman la base de los principios que abordan las implicaciones democráticas, técnicas, legales y éticas de la IA).

Este artículo se basa en los debates del segundo taller, en Tirana, Albania, que reunió a representantes regionales de organismos electorales y organizaciones de la sociedad civil de los Balcanes y Europa del Este. El objetivo del evento era concebir conjuntamente la base ética necesaria para alinear el uso de la IA en las elecciones con los valores democráticos.

Estas conversaciones han aclarado el complejo problema de cómo proteger a las comunidades marginadas de la persecución y la privación de derechos mediante la introducción de salvaguardas éticas para la IA electoral.

Pilar n.° 2: Ética de la IA y derechos humanos

A medida que los organismos electorales consideran la adopción de herramientas de IA para mejorar la integridad de las elecciones en tareas como el mantenimiento y la eliminación de duplicados de listas de votantes, la optimización de la ubicación de las mesas de votación y la autenticación de votantes y la detección de fraudes, estas herramientas también están siendo utilizadas por otros actores en el contexto electoral más amplio, como las campañas políticas. Cada una de estas aplicaciones conlleva importantes implicaciones éticas y de derechos humanos, incluidas la privacidad, la seguridad y la transparencia, así como preocupaciones de sostenibilidad, dado que la IA puede consumir enormes cantidades de energía. Además, las regiones que carecen de acceso igualitario a la infraestructura pública digital o de alfabetización digital suficiente enfrentan desafíos adicionales para garantizar una implementación justa y equitativa de la IA. Por ello, el fortalecimiento de la alfabetización en IA, especialmente entre los actores electorales, se ha convertido en una prioridad crítica.

En el taller celebrado en Tirana, los representantes de la OGE en general calificaron su conocimiento de la IA como bajo, lo que generó inquietudes sobre su capacidad para mitigar posibles violaciones de los derechos humanos. A pesar de esto, algunos representantes compartieron que ya están utilizando IA para monitorear las redes sociales y brindar información sobre la administración de elecciones a través de chatbots impulsados ​​​​por IA.

Los chatbots de IA son propensos a generar información inexacta, también conocida como alucinaciones, porque la generación de respuestas implica un nivel de aleatoriedad. Las alucinaciones ya afectaron a las elecciones europeas de 2024, cuando los chatbots más grandes del mundo difundieron información incorrecta sobre las fechas de las elecciones, cómo emitir el voto y quién era elegible para votar. Sin limitaciones sistémicas integradas, regulación y supervisión humana, los sistemas de IA corren el riesgo no solo de disminuir la confianza en las instituciones electorales sino también de privar de sus derechos a los votantes.

Las alucinaciones ponen de manifiesto un problema ético más amplio relacionado con el uso de la IA en los asuntos públicos: la falta de transparencia. Las decisiones que toman los algoritmos a menudo son inexplicables, incluso para los desarrolladores detrás de los sistemas, un fenómeno conocido como el problema de la caja negra. Dado que existe poca comprensión de cómo un sistema de IA produce determinados resultados, puede resultar difícil proporcionar información adecuada sobre por qué y cómo el sistema llega a determinadas conclusiones. En el caso de un chatbot de IA, el sistema puede, por ejemplo, inventar lugares de votación falsos para regiones que carecen de datos relevantes, creando obstáculos sistemáticos para votar para los usuarios que viven en ciertas regiones. Es especialmente probable que estos problemas afecten a comunidades ya marginadas, donde las lagunas de datos son mucho más comunes, lo que afianza las injusticias sociales existentes. Las inexactitudes o tergiversaciones en los resultados de la IA son difíciles de predecir y corren el riesgo de infringir el derecho inalienable a la información, que es fundamental para tomar decisiones de voto libres e informadas.

La falta de confianza en la IA se ha señalado como un obstáculo importante para implementarla en el trabajo en todas las industrias. Esta desconfianza general impide aprovechar los beneficios potenciales que la IA podría aportar a la eficiencia y la imparcialidad de las elecciones. Para construir una base democrática sólida para la IA, la conciencia ética y la responsabilidad deben integrarse en todos los niveles: entre los desarrolladores, los implementadores y los usuarios finales por igual. Esto es especialmente importante en la gestión electoral, donde las preocupaciones por los derechos humanos y los estándares éticos deben seguir siendo prioritarios. Por lo tanto, los funcionarios electorales deben estar atentos cuando los proveedores de IA se pongan en contacto con ellos, garantizando una supervisión humana significativa en cada etapa de la implementación de la IA y tomando medidas proactivas para identificar posibles daños y abordarlos.

Si bien hasta ahora las herramientas de IA han sido en gran medida periféricas en los Balcanes Occidentales y Europa del Este y, por lo tanto, no ha habido casos bien documentados de sesgo impulsado por la IA en los procesos electorales, la historia de tensiones étnicas, inestabilidad política y manipulación de los medios de comunicación de la región resalta los riesgos de introducir la IA sin una gestión cuidadosa. Estos riesgos incluyen, por ejemplo, la amplificación de los sesgos étnicos, raciales, geográficos o mediáticos existentes si la tecnología no se integra cuidadosamente.

Una preocupación relacionada surgió en Bosnia y Herzegovina, donde el caso de Pilav c. Bosnia y Herzegovina (2016) demostró que el sistema electoral del país discrimina en función del origen étnico y el lugar de residencia. Al restringir los cargos políticos clave a tres "pueblos constituyentes" —bosnios, croatas y serbios—, el sistema excluye a los individuos que no pertenecen a esos grupos o que residen en determinadas regiones. Estos sesgos geográficos y étnicos ponen de relieve cómo unas normas aparentemente neutrales pueden tener resultados sesgados en la práctica.

También se ha informado de sesgo de edad en el proceso electoral de Albania. Nuestros expertos y participantes observaron que los votantes de edad avanzada tenían dificultades para utilizar los sistemas de votación electrónica y a menudo necesitaban asistencia que comprometía la privacidad del votante, un ejemplo que ilustra cómo las soluciones electorales basadas en tecnología o habilitadas por IA pueden crear inadvertidamente barreras a la participación si no se diseñan e implementan de manera inclusiva.

En conjunto, estos ejemplos —que de ninguna manera son exclusivos de esta región— resaltan cómo el sesgo en la IA puede exacerbar los cismas sociales existentes y los problemas que perturban la imparcialidad de las elecciones. Estos ejemplos subrayan la necesidad de adoptar un enfoque cauteloso y bien meditado a la hora de incorporar la IA a los procesos electorales. Incluso cuando la IA ofrece ventajas claras, como la simplificación administrativa o la reducción de errores humanos, es fundamental contar con garantías sólidas y una supervisión transparente. Los desarrolladores de IA y las autoridades electorales deben priorizar los estándares éticos, consultar con las distintas partes interesadas y supervisar rigurosamente las implementaciones para garantizar que la IA fortalezca en lugar de socavar la equidad electoral y la democracia.

La tercera entrega de la serie de artículos explorará cómo la IA ha llegado a dar forma a los espacios de información en línea y cómo la curación y moderación de contenidos, el tercer pilar de la base de la IA democrática, juega un papel vital para frenar el impacto a menudo desenfrenado de la IA en la integridad de la información electoral. El debate se basará en los conocimientos adquiridos en nuestro tercer taller sobre IA para actores electorales, que tendrá lugar en Johannesburgo durante la primera semana de abril de 2025.

Acceda a la serie de artículos sobre el tema, lea el primer artículo para obtener una imagen completa de una base de IA democrática y el segundo artículo sobre alfabetización en IA y el primer taller en Kuala Lumpur.

Ver nuestros temas

Sobre los autores

Cecilia Hammar
Programme Assistant, Digitalization and Democracy
Juliane Müller
Juliane Müller
Associate Programme Officer
Close tooltip