Deepfakes de audio y engaños con IA amenazan las elecciones en el mundo

Imagen creada con Dalle-3 por OpenArt.

Hoy en día, mediante un sencillo software de inteligencia artificial (IA) de fácil acceso, casi todos pueden crear grabaciones de audio o de vídeo de famosos o personas comunes que actúan y hablan de formas que nunca lo habrían hecho. Se debe proteger en profundidad los derechos de las personas cuyas voces e imágenes son objeto de apropiación. Las grandes empresas tecnológicas se han unido en un intento histórico de detener el uso inadecuado de la IA en las próximas elecciones en todo el mundo.

Los deepfakes se avanzando, y cada vez tienen mejor calidad, son más convincentes y se acercan más a la realidad. Con la gran cantidad de elecciones en el mundo en 2024, crece la preocupación por la inclusión de la inteligencia artificial en los procesos electorales, lo que puede comprometer la integridad de las elecciones. La manipulación de votos por medio de deepfakes es uno de los debates más importantes en muchos países que se preparan para las elecciones. Cerca de 4000 millones de personas acudirán a las urnas en más de 50 países. Académicos, periodistas y políticos han expresado su preocupación respecto al uso del contenido generado con IA en operaciones de influencia política.

No obstante, el contenido generado con IA también tendrá gran impacto en nuestra vida social. Recientemente, se han relacionado casos virales con celebridades, pero, dada a la rapidez con la que están evolucionando los deepfakes, habrá videos deepfakes de personas comunes y corrientes que no son celebridades o políticos y que no despiertan el interés del público por sus trabajos o actividades. Esto será una amenaza grave para la sociedad, por tanto, es importante contar con iniciativas colectivas contra los engaños generados con la IA.

Estudios de caso de deepfakes recientes

Los deepfakes, o las manipulaciones no hechas con IA denominadas «cheapfakes«, no son nuevos y existen desde hace tiempo. Sin embargo, con el impacto que tiene ChatGPT para acercar la IA a un público más amplio, en el último año, se han invertido miles de millones de dólares en empresas de IA. El avance de programas que faciliten su producción, especialmente los deepfakes, ha multiplicado el uso de la inteligencia artificial para crear deepfakes que se dirigen al público. Hoy en día, además de la manipulación de video, ha habido casos en que se han creado audios deepfakes, lo que es incluso más sencillo de hacer.

El caso del audio deepfake del presidente de Estados Unidos, Joe Biden, que se difundió en Nuevo Hampshire y que incitó a las personas a no votar en las primarias del estado, llegó a más 20 000 personas. Steve Kramer, que estuvo detrás de esta manipulación y que pagó 150 dólares para crearlo, declaró que lo hizo como un acto de desobediencia civil para llamar la atención a los riesgos relacionados con la inteligencia artificial en la política y a la necesidad de una regulación de la IA.

Otro gran ejemplo que demostró cuán peligrosos son los deepfakes para la democracia es el audio deepfake del político eslovaco Michal Simecka. Un audio de voz se publicó en Facebook 48 horas antes de las elecciones de Eslovaquia, en el que aparentemente Simecka hablaba de fraude electoral con la periodista Monika Todova. Asimismo, el caso que pudo tener consecuencias políticas y sociales graves es el del audio deepfake del alcalde de Londres, Sadiq Khan. A principios de noviembre de 2023, el audio de Khan se hizo viral cuando parecía estar insultando el Día del Armisticio (celebración para conmemorar el final de la Primera Guerra Mundial) y exigiendo que se debía dar más importancia a las marchas a favor de Palestina.

Además de los audios deepfakes que tienen a políticos como protagonistas, los videos deepfakes de celebridades continúan circulando por internet. Por ejemplo, hay videos deepfakes del famoso actor de Hollywood Tom Hanks, en el que una versión del actor hecha con IA promociona un plan dental, y también del famoso youtubero estadounidense MrBeast, que parecía estar organizando “el sorteo de un iPhone 15 más grande del mundo”.

También, se hicieron virales las imágenes deepfakes de la cantante Taylor Swift, que se publicaron a principio de este año en diversas plataformas de redes sociales como X (antes Twitter), Instagram, Facebook y Reddit. Antes de que lo retiraran de X, una de las imágenes falsificadas de Swift se vio más de 45 millones de veces en las casi 17 horas que estuvo en la plataforma.

Iniciativa colectiva contra los engaños generados con la IA

El “Acuerdo tecnológico para combatir el uso engañoso de la IA en las elecciones de 2024”, que se anunció en la Conferencia de Seguridad de Múnich, cuenta con 20 grandes compañías, como Adobe, Google, Microsoft, OpenAI, Snap Inc. y Meta, que se comprometen a usar tecnología innovadora para detectar y contrarrestar contenido perjudicial generado con IA que busca engañar a los votantes, y también para apoyar los esfuerzos para fomentar el conocimiento público, la educación mediática y la resiliencia de toda la sociedad. Es la primera vez que 20 compañías se unen contra los engaños generados con IA.

Las compañías participantes acordaron ocho compromisos específicos para mitigar los riesgos relacionados con el contenido electoral engañoso de IA. Esta iniciativa entre el sector tecnológico y la IA tiene como objetivo abordar las imágenes, los videos y los audios generados con IA que puedan influenciar a los votantes respecto a los candidatos, los funcionarios electorales y el proceso de votación. No obstante, no exige que se prohíba por completo este contenido.

Inicia la conversación

Autores, por favor Conectarse »

Guías

  • Por favor, trata a los demás con respeto. No se aprobarán los comentarios que contengan ofensas, groserías y ataque personales.