Deepfakes y riesgos del creciente uso de fraude por video

Imagen creada usando Canva.

Hace unos seis años escribí sobre un nuevo «virus» en el periodismo y, a pesar de que ha pasado el tiempo, todavía no existe un «antivirus» para los deepfakes (o ultrafalsos), cuya elaboración ha avanzado y ha sido perfeccionada, y cuyo último paso es simplificar el proceso de producción de estos videos engañosos. Hasta ahora, para utilizar programas específicos para producir deepfakes todavía se necesitaba tener habilidades, pero las nuevas aplicaciones que usan inteligencia artificial, más fáciles de manejar, está propiciando la producción en masa de deepfakes. En las últimas elecciones presidenciales en Estados Unidos de América hubo más «cheapfakes» que deepfakes. La razón principal fue que los cheapfakes eran fáciles de producir y cualquiera podía hacerlos. Ahora que esto se está volviendo posible para los deepfakes, no hacen falta muchos cálculos ni persuasión para afirmar que los deepfakes representarán el mayor riesgo en procesos sociales importantes, como las elecciones. En el mundo de la información, la manipulación en sentido tecnológico es cada vez más sencilla.

Los deepfakes es contenido visual falso a partir de inteligencia artificial en los que se presenta a una persona real como si dijera o hiciera algo que nunca hizo. En este tiempo que existe, se han producido deepfakes con fines de entretenimiento y otros con fines de dar a conocer, pero también hay casos en los que la manipulación de la sociedad a través de deepfakes responde a motivos políticos o económicos.

Cada vez es más fácil producir deepfakes, por lo que es urgente que la sociedad los conozca. Un ejemplo reciente en la región de los Balcanes es el video erótico en el que se suplanta la identidad de la conocida presentadora de televisión albanesa Luana Vjollca, y se pone su rostro en un cuerpo diferente con inteligencia artificial. Por su parte, el periodista albanés Blendi Fevziu publicó un deepfake suyo en el que aparece hablando chino, árabe, ruso y portugués. Además, en 2022 se publicaron otros deepfakes en la región, como aquel en el que Elon Musk habla en albanés o serbio.

Estos son los ejemplos que demuestran que producir un deepfake es mucho más fácil ahora que hace unos años. Si se analiza más allá de la región, un deepfake viral fue el de la famosa modelo estadounidense Bella Hadid, en el que parecía apoyar las acciones de Israel en la guerra contra Hamás, algo que ella nunca había hecho. El deepfake de Hadid tuvo más de 28 millones de visitas en X (antes Twitter). El avance de la tecnología y de programas fáciles de usar a parir de inteligencia artificial está creando otra amenaza para la verdad.

Por así decirlo, la verdad está al borde de la muerte, porque con el aumento de los deepfakes en circulación será cada vez más difícil saber cuál es la verdad. Dada la crisis de credibilidad de los medios, el periodismo lo tendrá aún más difícil en el futuro cercano; sin embargo, la mejor arma contra esto es un periodismo profesional, que se atenga a las normas profesionales y que anteponga el interés público. De lo contrario, el periodismo sensacionalista y de clics solo alimentará más desconfianza hacia los medios. Esto lleva a que los ciudadanos se sientan inseguros sobre la información que reciben, lo que crea espacio para otros actores en el entorno informativo. Así, siempre se benefician quienes, con mentalidad maquiavélica, les gusta operar en la sombra y sin pensar en el daño causado a la sociedad.

La popularización de los deepfakes a raíz de la evolución de la programación que usa inteligencia artificial abre un nuevo capítulo en la circulación de la información y las comunicaciones, para el emisor y para el receptor de la información. Por este rápido y muy importante avance deben hacerse esfuerzos para hacer del método de verificación un proceso más sencillo y rápido de lo que es ahora.

Actualmente existen algunos programas que ayudan a detectar esta circunstancia que te hace vivir inconscientemente en una realidad falsa, como FakeCatcher y Sentinel, pero todavía no hay herramientas abiertas disponibles para que todos puedan utilizarlas de forma gratuita. Además, es importante que los métodos de detección sean avanzados para seguir el ritmo del avance de los deepfakes, ya que la tecnología que permite producir deepfakes se está desarrollando a un ritmo vertiginoso. Por ejemplo, en la actualidad estas plataformas no detectan manipulaciones de audio, elemento importante en las manipulaciones audiovisuales, pues ya existen algunos casos en los que la imagen es real mientras que el sonido lo genera una inteligencia artificial.

Conocer y ser conscientes de los deepfakes ayuda a la sociedad a ser más crítica con cada video que tiene delante. Las herramientas para detectar deepfakes son importantes, pero contrarrestar la desinformación también requiere gran compromiso de personas y organizaciones de la sociedad civil para dar a conocer a la sociedad sobre la existencia y las consecuencias de los deepfakes en la vida cotidiana.

Por otro lado, no es necesario un nuevo marco legal para deepfakes porque ya existen leyes que regulan contenido destinado a engañar, desacreditar o perjudicar a personas, empresas o a la sociedad en su conjunto. A pesar de lo anterior, por la velocidad de su distribución, viralización y daño potencial, es importante priorizar los deepfakes.

Inicia la conversación

Autores, por favor Conectarse »

Guías

  • Por favor, trata a los demás con respeto. No se aprobarán los comentarios que contengan ofensas, groserías y ataque personales.