Imagina que tu rostro hubiera sido añadido de manera digital a un video porno sin tu consentimiento y compartido en internet. Así le ocurrió a Kate Isaacs.
Una noche, mientras revisaba Twitter, Kate Isaacs se
encontró un inquietante video entre sus notificaciones.
"Me invadió el pánico", cuenta la británica,
quien habla por primera vez de forma pública sobre lo que le pasó.
"Alguien agarró mi cara, se la puso a un video
pornográfico, e hicieron que pareciera que era yo".
Kate estaba siendo víctima de un deepfake. Alguien
había utilizado inteligencia artificial para manipular un video y colocar su
rostro de forma digital sobre el de otra persona; en este caso, una actriz
porno.
Para el video falso habían utilizado imágenes de una
entrevista televisiva de Kate, quien hace campaña contra la pornografía no
consentida, y la habían etiquetado al compartirlo en Twitter. Parecía mostrarla
teniendo relaciones sexuales.
"Se me cayó el alma a los pies. No podía pensar
con claridad", dice. "Recuerdo haber pensado que el video llegaría a
todas partes. Fue horroroso".
Durante un tiempo fueron los famosos y políticos de alto
perfil las víctimas más comunes de estos deepfake. Los videos no siempre
eran pornográficos, algunos fueron creados con el objetivo de hacer reír.
Pero eso ha cambiado con los años: de acuerdo a la
empresa de ciberseguridad Deeptrace, el 96% de todos estos videos son
pornografía no consentida.
Al igual que la "pornovenganza", la
pornografía deepfake se considera abuso sexual basado en
imágenes, un término paraguas que abarca la toma, la creación y/o el
intercambio de imágenes íntimas sin consentimiento.
Kate, quien tiene 30 años, fundó la campaña #NotYourPorn en
2019.
Su activismo contribuyó a que al año siguiente Pornhub
eliminase de su página web todos los videos subidos por usuarios no
verificados: la mayor parte de su contenido.
Así que Kate asumió que quien fuera que
estuviera detrás de su video falso era alguien molesto con su campaña. Al fin y
al cabo, ella les había "quitado su porno".
Pero no tenía ni idea de quién había sido, ni quién había
podido ver el video.
Y si bien ella podía ver que le habían puesto su rostro a
una actriz porno, el video era tan convincente que no tenía claro que
otros pudieran darse cuenta del engaño.
"Era una violación. Habían usado mi identidad de una
manera que yo no había consentido", dice.
Bajo el video, la gente comenzó a dejar comentarios
abusivos, diciendo que la iban a seguir hasta casa, que la violarían, que
grabarían el ataque y que lo publicarían en internet.
"Empiezas a pensar en tu familia", relata,
conteniendo el llanto. "¿Cómo se sentirían si vieran el contenido?".
La amenaza se intensificó cuando alguien publicó su
dirección de casa y la de su trabajo bajo el video, una práctica conocida
como doxing.
"Me volví totalmente paranoica. ¿Quién conoce mi
dirección? El que hizo esto, ¿es alguien a quien conozco?", cuenta.
"Recuerdo haber pensado: 'Estoy realmente en
problemas. No es solo gente hablando en internet, hay un peligro real".
Por su experiencia apoyando a otras personas que habían
pasado por lo mismo, sabía perfectamente qué debe hacer una víctima de esta
práctica. Pero en aquel momento se quedó paralizada.
"No seguí ninguno de los consejos que yo misma suelo
dar", reconoce. "Por una parte estaba Kate, la activista, que era muy
fuerte y no se mostraba vulnerable, y por otra yo, Kate, quien estaba realmente
asustada".
Una colega denunció el video, los comentarios
malintencionados y el doxing a Twitter, y fueron eliminados de la
plataforma.
Pero una vez que se ha compartido un deepfake en
internet, es difícil sacarlo completamente de circulación.
"Solo quería que el video desapareciera de
internet", dice Kate. "Pero no había nada que pudiera hacer al
respecto".
Existe un mercado para los deepfakes en ciertos
foros online. Es gente que pide que se hagan estos videos de sus esposas,
vecinas, compañeras de trabajo e incluso, y por muy increíble que
parezca, de sus madres, hijas y primas.
Los creadores de contenido responden con instrucciones
paso a paso, desde qué material original necesitarán hasta consejos sobre qué
ángulos de grabación funcionan mejor, e informan de lo que costará su trabajo.
Gorkem, un creador de contenido deepfake con
sede en el sureste de Inglaterra, habló con la BBC bajo la condición de
anonimato.
Empezó a crear este tipo de videos de celebridades para
sí mismo. Dice que permiten a cualquiera "hacer realidad sus
fantasías en formas que antes no eran posibles".
Después siguió creando deepfakes de mujeres que
le atraían, incluso de compañeras de trabajo a las que apenas conocía.
"Una estaba casada, otra tenía una relación",
cuenta.
"Me sentí raro al ir a trabajar tras haber creado
videos falsos de estas mujeres, pero logré controlar mis nervios. Podía actuar
como si nada hubiera pasado. Nadie sospechaba nada".
Al darse cuenta de que podía ganar dinero con lo que él
llama su "pasatiempo", Gorkem empezó a aceptar encargos de clientes.
Una buena parte del material original la recopila de las
cuentas de redes sociales de las mujeres en cuestión. Dice que hace poco hizo
un deepfake usando una conversación de Zoom grabada.
"Una buena cantidad de video, mirando directamente a
cámara, es un buen material. El algoritmo puede extrapolar los datos y
hacer una buena reconstrucción del rostro sobre el video destino".
Reconoce que las falsificaciones pueden afectar
psicológicamente a "algunas mujeres", pero se muestra indiferente
ante el potencial impacto de haberlas cosificado.
"Pueden simplemente decir: 'No soy yo, es falso'.
Deberían poder reconocerlo y seguir con su día", explica.
"Desde el punto de vista moral, no creo que haya
nada que me detenga", sigue. "Si voy a ganar dinero con un encargo,
lo haré, es obvio".
El estándar de estos videos puede variar enormemente, y
depende tanto de la experiencia de quien los hace como de la sofisticación de
la tecnología utilizada.
Pero el hombre detrás del mayor sitio web de
pornografía deepfake admite que ya no es fácil estar seguro de si lo
que estás viendo son imágenes manipuladas o no.
Su página web atrae hasta 13 millones de usuarios al
mes y puede llegar a tener hasta 20.000 videos. Tiene su sede en Estados Unidos
y raramente habla con los medios, pero accedió a conversar con la BBC de forma
anónima.
Colgar deepfakes de mujeres "comunes"
es una línea roja que no está dispuesto a cruzar, dice, pero tener en su
plataforma videos de famosas, influencers de las redes sociales y
políticas es, en su opinión, justificable.
"Están acostumbradas a la negatividad en los medios,
su contenido está disponible para la gran audiencia. Son distintas a las
ciudadanas normales", dice.
"Tal como yo lo veo, pueden lidiar con ello de una
manera diferente: pueden simplemente ignorarlo. Realmente no siento que el
consentimiento sea necesario. Es una fantasía, no es real".
¿Cree que lo que hace está mal? Parte de él está en
"negación sobre el impacto que puede tener en las mujeres", reconoce,
y revela que su mujer no sabe a qué se dedica.
"No se lo he dicho a mi esposa. Tengo miedo de cómo
le pueda afectar"
Hasta hace relativamente poco tiempo, el software para
crear deepfakes no era de fácil acceso y la gente promedio no tenía
las habilidades para utilizarlo.
Pero ahora, cualquier persona mayor de 12 años puede
descargar legalmente docenas de aplicaciones y hacer deepfakes convincentes
con apenas unos clics.
Para Kate es preocupante y "realmente
aterrador".
"Ya no es algo de la internet oscura, están en las
tiendas de apps, en nuestra cara".
También teme que el esperado proyecto de ley sobre
seguridad en internet no pueda mantenerse al día con el avance de la
tecnología.
Hace tres años, cuando se redactó el primer borrador, la
creación de deepfakes era una habilidad profesional para la que se
necesitaba capacitación, no se trataba solo de descargar una aplicación.
"Llevamos años en esto y el contenido del proyecto
de ley está desactualizado. Le faltan muchas cosas", dice.
Pero Gorkem cree que si se criminaliza la creación de
este material falso, las cosas van a cambiar.
"Si me pudieran seguir el rastro en internet,
probablemente lo dejaría y me buscaría otro pasatiempo", reconoce.
Haber sido víctima de un deepfake y de doxing ha
afectado la salud de Kate y su capacidad de confiar en la gente.
Cree que aquellos que están detrás de los ataques no solo
querían intimidarla y humillarla, sino también silenciarla.
De hecho, durante un tiempo dejó de hacer campaña y se
cuestionó si podía seguir denunciando la misoginia.
Pero ahora está aún más entusiasmada. Se dio cuenta de
que es un tema que le importa demasiado como para hacerse a un lado. "No
les voy a dejar ganar".
Los deepfakes pueden ser usados para controlar
a las mujeres, y se debería alentar a las empresas tecnológicas, incluidas
aquellas que crean las apps que posibilitan el intercambio digital de rostros,
a implementar medidas de seguridad, añade.
"Cualquier aplicación debería ser capaz de detectar
contenido sexual", prosigue.
"Si las empresas no han invertido dinero, recursos y
tiempo en asegurarse de que su aplicación no está siendo usada para crear
contenido sexualmente abusivo, entonces están siendo deliberadamente
irresponsables. Son culpables".
Se cree que ni Gorkem ni el hombre detrás de la página
web más grande de videos deepfake estuvieron detrás del deepfake de Kate
Isaacs.
Sacado de la BBC