PlayGround utiliza cookies para que tengas la mejor experiencia de navegación. Si sigues navegando entendemos que aceptas nuestra política de cookies.

C
left
left
Artículo Esta polémica tecnología permite crear vídeos porno falsos con caras de famosas Culture

Culture

Esta polémica tecnología permite crear vídeos porno falsos con caras de famosas

H

 

Y ello pone muchos problemas encima de la mesa...

Elena Rue Morgue

14 Diciembre 2017 13:07

Hace tiempo que los escépticos ni tan siquiera pueden sentirse a salvo refugiados en la máxima de “si no lo veo, no lo creo”.

Los últimos progresos en inteligencia artificial hacen posible que, utilizando un software, alguien desde su casa pueda generar a través de ordenador imágenes en movimiento perfectamente verosímiles de personas haciendo y diciendo cosas que nunca han hecho o dicho.

Es decir: a día de hoy, cualquiera con los conocimientos necesarios podría montar un vídeo con tu cara poniéndote en la posición que le venga en gana, y que el resultado sea lo suficientemente real como para que tu propia familia se lo tragase.

Sabiendo esto, y más después de llevar años viendo Internet plagado de fotos de sexo y desnudos que han sido editadas para colocarles el de rostro de personas famosas, solo era cuestión de tiempo de que los vídeos porno fake de celebrities aparecieran.

Y como 2017 está teniendo esa capacidad de sorprendernos para mal una, y otra, y otra vez, y va a hacerlo hasta sus coletazos finales del mes de diciembre, ese momento ha llegado: los vídeos porno de famosas generados por inteligencia artificial ya están aquí, y el responsable de ello es — como no podía ser de otra forma — un usuario de Reddit.

"He hecho algunos de los fakes porno de famosas más avanzados".

Deepfakes, nick por el que el creador del software (que ni tan siquiera tiene un nombre) y no para de alardear en cualquier post de Reddit que puede de su supuesta hazaña, ya ha creado vídeos porno falsos de Scarlett Johansson, Maisie Williams, Taylor Swift, Aubrey Plaza y más, pero ha sido el último de Gal Gadot (la actriz de Wonder Woman) el que le ha reportado más fama.

El pasado martes concedió una entrevista a Motherboard en la que explicó que había desarrollado el programa basándose en "en múltiples librerías de código abierto, como Keras y Tensorflow", herramientas utilizadas para guardar y compartir código en la red.

El nuevo ídolo de todos los pajeros de Reddit dice no ser “científico profesional”, solo un programador interesado en el machine learning”. Utilizando un algoritmo de identificación facial que se ha nutrido de imágenes de archivo, del buscar de fotos de Google y de vídeos de YouTube, Deepfakes ha conseguido orquestar él solito y en su casa una tecnología que le pisa los talones a la utilizada para “resucitar” el pasado año al actor Peter Cushing para el spin-off de Star Wars.



"Simplemente, he encontrado una forma inteligente de cambiar caras", explicó Deepfakes. "Con cientos de caras puedo generar fácilmente millones de imágenes distorsionadas para entrenar a la red".

Deepfakes tampoco quiso “colgarse medallas” que no le corresponden, y reconoció que su software es muy similar a uno previamente existente utilizado por la empresa de gráficos Nvidia y que puede cambiar un paisaje primaveral por uno nevado en un pestañeo.

Lo más siniestro de todo esto es que, según dijo un experto en inteligencia artificial a Motherboard, “No hay que ser ningún genio para hacer esto”. Al porno de venganza se le ha abierto una nueva puerta en la que a los machistas ni les hace falta tirar de las imágenes que su ex pareja compartió y grabó con ellos confiando ciegamente en que su intimidad fuese respetada.

Ahora cualquier cabrón mediocre con el suficiente tiempo libre puede crear ese contenido por sí mismo, y eso da miedo. Mucho miedo.


La actriz porno Grace Evangeline compartió con Motherboard su preocupación por el uso que se le estaba dando a este tipo de tecnología. “Una cosa importante que siempre tiene que pasar es el consentimiento. El consentimiento tanto en la vida privada como en el cine”, dijo. “Crear escenas falsas de sexo con celebrities es quitarles su consentimiento, y está mal”.

(Deepfakes está disfrutando de sus instantes de fama y está comentando su entrevista en Reddit)

"Bueno, ya sabía que en el artículo iban a ir a pillarme con mis comentarios. Esas preocupaciones son reales y la inteligencia artificial va a cambiarlo todo en un futuro cercano. Creo que es importante educar a la gente para que entiendan el tema. Por otro lado, no sabes cuántos comentarios y mensajes en mi correo: he visto pura felicidad. Los hombres cachondos son criaturas sencillas".

Como explicó la porn star retirada Alia Janine a la misma publicación, esto no es solo una falta de respeto a las famosas y los actores porno que realizaron la pieza original, sino a todas las mujeres. “Es realmente perturbador. Muestra cómo algunos hombres básicamente ven a las mujeres como objetos que pueden manipular y forzarlas a hacer cualquier cosa que quieran… Demuestra una falta total de respeto a los actores de la película porno y a las actrices femeninas afectadas”.

Además existe el agravante de que aquellas mujeres cuya imagen sea usada, abusada y violada no puedan amparase en ninguna ley porque, al tratarse de un fenómeno tan novedoso, ni siquiera existe.

Y tenemos que tener clara una cosa: con la cantidad de imágenes que la mayoría subimos a las redes sociales, cualquiera de nosotras podría ser el blanco perfecto para que alguien trate de humillarnos públicamente con uno de estos falsos vídeos sexuales.

share