La periodista de Costa Rica, Johanna Villalobos, alertó sobre un uso violento de la Inteligencia Artificial (IA) del que fue víctima este mes. Tomaron una foto que había subido en maya a su Instagram y usaron la IA para borrar su bikini y crear un desnudo falso de ella.
Villalobos había percibido que ese posteo de su Instagram tenía más alcance aún después de mucho tiempo de publicado y le parecía extraño. Después se enteró de que habían editado esa foto con IA para desnudarla y la estaban pasando por grupos de WhatsApp.
“Alguien agarró una foto mía en la playa, que yo había subido a Instagram, le metieron Inteligencia Artificial y me quitaron la ropa”, explico Villalobos en un video publicado en su cuenta de Twitter y agregó: “Es mi cara, pero no es mi cuerpo”.
Es cierto que el tema no es nuevo: las famosas están más expuestas a ser víctimas de este tipo de violencia digital desde que existe Photoshop. Sin embargo, las herramientas se van sofisticando y las potenciales víctimas aumentan.
Es difícil encontrar a mujeres o adolescentes que no hayan compartido alguna foto en ropa interior o en la playa en sus redes sociales. Sin embargo, publicarlas no es una manifestación del deseo de esa mujer de que sean utilizadas para cumplir fantasías de "fans" violentos. No hay nada que autorice que hayan desnudado a Johanna Villalobos con IA. A ella, ni a ninguna otra mujer.
Como siempre, la tecnología es solo una herramienta hasta que empieza a ser usada para violentar personas. Una cosa es una foto del Papa Francisco con una campera blanca que nunca existió y otra es tomar fragmentos de mujeres desnudas para fusionar con partes del cuerpo de otras mujeres. Casi como si se tratara de crear un cyborg sexual a demanda.
Hace poco más de dos meses, la comunidad "Cosas que dan placer" compartió un video alertando acerca de los videos pornográficos realizados con DeepFake. Este término hace referencia a la suma de algoritmos de "aprendizaje profundo" (deep) y al carácter "falso" (fake) del video que resulta de la creación que permite esta tecnología.
Según esta comunidad, se trata de una amenaza para todas las mujeres que usen Internet. En 2020 un bot había creado más de 680 mil videos porno con fotos de mujeres que nunca se enteraron de que eso estaba sucediendo. Según Sensity, una empresa especializada en este tipo de videos, el 96% de todos los DeepFakes que hay en Internet son pornografía.