Emma Watson y Scarlett Johansson son las dos celebridades que más aparecen en los videos de una muy reconocida página web de pornografía manipulada digitalmente. Pero estos contenidos ya no se están limitando a celebridades. Gracias a la democratización de la Inteligencia Artificial (IA), va a ser cada vez más probable ver rostros familiares en estos videos falsos y no autorizados.
Se les llama deepfakes: contenidos ‘ultra falsos’ de cualquier tipo. Fotos, videos y audios, hechos con IA. ¿Qué pasa cuando se vuelven una nueva violencia de género?
De Emma Watson a QTCinderella, una gamer estadounidense famosa en Twitch, quien hace unas semanas lloró en un video en vivo al descubrir que otro gamer pagó por este material con su rostro y el de varias livestreamers de la misma plataforma. De QTCinderella a Rosalía, víctima de deepfakes por parte del cantante español JC Reyes, quien en mayo publicó en sus historias de Instagram una foto de la artista “mostrando” sus senos. De Rosalía a la periodista costarricense Johanna Villalobos, que luego de publicar en sus redes una foto en bikini tuvo que ver cómo la ‘desnudaron’ en Internet y la velocidad con la que se compartió la imagen falsa en grupos de WhatsApp. Y así, día tras día, se sigue engrosando la lista de mujeres víctimas de esta forma de violencia de género digital.
Denuncias recientes y expertes dan cuenta de que los deepfakes han salido del espectro de Hollywood y se están acercando a lo que se conoce como ‘personal girl’: una mujer con cuentas públicas y menos de dos millones de seguidores en redes sociales. O, según Henry Farid, profesor de la Universidad de California entrevistado por NBC News, cualquiera con una huella digital mínima.
El uso de IA diferencia a los deepfakes de los cheap o shallowfakes que se crean con Photoshop y tecnologías menos avanzadas. Según la compañía de seguridad digital Deeptrace Labs, del total de estos contenidos en Internet, el 96 por ciento corresponde a material sexual explícito de mujeres. Así crece esta práctica que es negocio, violencia y que es muy difícil de regular. En MANIFIESTA conversamos con Fundación Karisma, una organización de la sociedad civil experta en estos temas, que trabaja en la promoción de los derechos humanos en el mundo digital, para comprender cómo surge y cuál es la posible regulación de esta práctica que se está convirtiendo en tendencia.
Detrás de la creación de los deepfakes
“Los deepfakes pueden ser videos, imágenes, voces de personas a las que pones a decir cualquier cosa” explica Juan de Brigard, coordinador de proyectos de Karisma. ¿Cómo se crean? Con los videos hay dos maneras que involucran tecnologías distintas. La primera consiste en superponer un rostro a un video base. “Puede ser pornográfico o de un político dando un discurso. A ese video le haces un mapeo de donde está el rostro real y dónde están los rasgos faciales. Sobre estos, vas a superponer los rasgos de otra persona”. El mapeo es el primer paso, luego la superposición. Lo último es ‘poner a competir’ ese video resultante contra otra red neuronal. “Una red adversarial generativa o GAN, por sus siglas en inglés. Un segundo algoritmo que está revisando el video le dice al primer algoritmo: ‘esto se ve falso’.
Es decir, el tercer paso corrige el video para que las cosas que tienen una apariencia menos natural se vuelvan más reales: suaviza bordes, hace que el pelo tenga una caída más natural, cambia la inclinación del rostro, dice Juan. Esto hasta que el segundo algoritmo no pueda distinguir nada falso. Según él, los deepfakes que más se difunden son de este tipo. De ahí que afecten más a las celebridades. ¿Cómo así?
“Resulta que para crear la máscara que sobrepones al video original, necesitas mucha información del rostro de la persona. No solo una toma o un video. Con las personas famosas pasa que hay un acervo de información gigantesco. Muchas fotos, muchos ángulos distintos, condiciones lumínicas diferentes. Así se puede crear un modelo más complejo, alimentándolo con mucha información”, afirma Juan. Algo parecido a este episodio de Black Mirror en el cual, dentro de la trama, se usa la imagen de Salma Hayek en una serie para una plataforma de streaming, sin que la actriz participe del rodaje.
La segunda tecnología se conoce como generativa o de síntesis de imagen o video a partir de texto. “Esta se parece mucho más a la de ChatGPT. Consiste en crear contenidos con base en una biblioteca gigantesca, no en un video previo”. La imagen de Donald Trump siendo arrestado se hizo con este método, explica Juan. “Imagina la colección gigantesca de imágenes que tiene el Internet abierto. (…) Se debe entrenar una IA para leer esas imágenes. Que sepa qué es un gato y qué es un perro. Una vez esa IA es capaz de distinguir lo que ve, puedes pedirle que sintetice una cosa que se parezca a un gato o un perro”. Juan afirma que es tecnología muy sofisticada. “Produce algo fotorrealista”.
Ambas tecnologías dan vida a los deepfakes que rondan en páginas de internet y otras plataformas.
NBC News revela que los creadores de ‘fake porn’ están usando servicios de mensajería instantánea, como Discord, para ofrecer videos de cinco minutos, con rostros de chicas que no tienen que ser famosas, por los que cobran unos 65 dólares. Asimismo, la página de pornografía deepfake mencionada al inicio, recibe 17 millones de usuarios al mes y en las búsquedas de este tipo de contenido en Google, es el primer sitio web que aparece. Y según un estudio de la investigadora digital Genevieve Oh, desde 2018 el número de deepfakes sexuales en la web se viene duplicando cada año.
Ante este panorama, en algunos estados de Estados Unidos, la regulación ha avanzado para proteger a políticos en tiempos electorales y a niñes. Sin embargo, la zona gris persiste para las víctimas mujeres, sin importar si son celebridades.
¿Cómo que cualquiera puede usar mi rostro?
Según la encuesta de 2021 ‘La infodemia y su impacto en la vida digital’ de la compañía de seguridad informática Kaspersky, 70 por ciento de les internautas latinoamericanos participantes no sabía qué significa ‘deepfake’. Del público colombiano encuestado, el 72 por ciento no logró identificar los videos editados con esta técnica.
Esto nos pone en un escenario de riesgo ante la desinformación, el fraude y, especialmente a las mujeres, la violencia de género digital.
De acuerdo con Catalina Moreno, también directora de proyectos en Karisma, en esta organización no tienen registro de casos de deepfakes en Colombia. Pero las alarmas están encendidas. Afirma que el hecho de que la IA sea cada vez más accesible nos pone “ante un arma nueva de violencia, lo que no implica que la tecnología en sí misma esté mal”.
Según ella, la pornografía deepfake, así como la difusión no consentida de imágenes, busca afectar la autonomía para decidir sobre nuestros cuerpos. “El deepfake te quita la autonomía porque te están poniendo en un escenario de sexualización por el que tú no optaste. La difusión de imágenes implica lo mismo, te quita la libertad sexual, porque compartiste unas fotos en el marco del consentimiento y creías que solo a quien se las compartiste las iba a ver. El bien que se afecta es la libertad sexual y la autonomía”, asegura Catalina.
De acuerdo con Danielle Citron, autora de ‘Hate Crimes in Cyberspace’ citada en el estudio de Deeptrace Labs, los deepfakes están siendo instrumentalizados para aterrorizar, avergonzar, disminuir y silenciar a las mujeres. “Le dicen a las individuas que sus cuerpos no son suyos y hacen que sea difícil mantenerse en línea, conseguir un trabajo o sentirse seguras. En este sentido, hay varios derechos vulnerados: a la intimidad, al buen nombre y a la honra, por ejemplo.
Por otro lado, Catalina asegura que además del lucro, la pornografía deepfake busca eliminar la presencia digital de las mujeres públicas, pues son ellas las que más desafían los roles de género. “Lo que busca esta violencia es que callen, que dejen de opinar”. A pesar de ello, explica que todavía no existe regulación en esta materia en el país. “Actualmente se está tramitando una iniciativa sobre violencia de género digital en el Congreso. La definición de esta es tan amplia que podrían caber los deepfakes”.
Este proyecto de ley fue radicado el pasado 29 de noviembre. Su autora es la senadora Clara López. La iniciativa busca penalizar “la difusión de material íntimo y/o sexual sin consentimiento”. Se castigará a quien cree, difunda, distribuya o haga intercambio digital, con penas de hasta 100 meses de prisión.
Catalina aclara que el camino no puede ser prohibir la tecnología para crear deepfakes, pues esto sería incurrir en una violación a la libertad de expresión. Juan comparte que la regulación no debe atacar la tecnología misma, sino su uso y anota que lo que se debe buscar es combatir el ‘producto’, una discusión que se ha dado en países como Inglaterra.
Mientras avanza la legislación, pensemos el autocuidado
“El problema de la violencia digital es que una vez está afuera, ya no hay nada que hacer. Eso es lo primero que tratamos de hacerle saber a las personas que nos buscan para orientación. Eso es lo demoledor de esta forma de violencia. Además, siempre retorna. Es una vulneración que no termina porque ocurre cada vez que vuelven a aparecer las fotos y videos”, concluye Catalina. Para ella es una agresión que, además, se sale del espectro víctima-victimario: a veces ni siquiera sabes quiénes están difundiendo tus imágenes.
“La reparación, sin duda alguna, nunca va a ser la eliminación del material, porque técnicamente no es posible. Ni siquiera con el rastreo más avanzado que se hace en casos de material sexual de menores de edad. En esos casos sigue siendo imposible decir que revisaste toda la web y lo eliminaste. Eso al hablar de internet, ahora imagínate hablar de aparatos donde se almacena”, reflexiona la directora de proyectos.
Por ello, desde Karisma y otras organizaciones hacen las siguientes recomendaciones de autocuidado que, más allá de endilgar responsabilidades a las víctimas, o recomendarles que eliminen su presencia en el espacio digital, buscan prevenir este daño que se proyecta como irreparable:
- Trata de no usar tecnologías ‘para saber cómo te verás con 40 años más’ o ‘¿cómo te hubieras visto en el medioevo’?, pues te piden gran cantidad de información.
- Independientemente de si tienes una cuenta pública o privada, evita publicar fotografías de niñes en tus redes, pues podrían ser usadas con estos fines sexuales y lucrativos.
- Aprende a contrarrestar y verificar el ‘fake porn’ usando la misma tecnología. Esto es lo que recomienda ChatGPT.
- Visita los sitios web de estas colectivas dedicadas a la ciberseguridad feminista: Ciberseguras, La Clika, Cibermujeres.
***