CollageRobo

Deepfakes, porno y robos de identidad

por Prodavinci

03/05/2018

La actriz y modelo Gal Gadot mira a la cámara con sonrisa pícara. Está recostada sobre una cama de sábanas blancas, junto a una caja que guarda juguetes sexuales. Viste un short ajustado y una camiseta rosa con escote pronunciado. ¿Qué estamos viendo? ¿Una grabación pornográfica de la estrella de La Mujer Maravilla? ¿Se filtró en Internet? No. Se trata de un video falso de la nueva tendencia que se conoce como deepfakes, popular en redes sociales y páginas web triple X.

Los deepfakes son videos pornográficos modificados utilizando tecnología asistida por inteligencia artificial. Las aplicaciones creadas para manipular las grabaciones permiten intercambiar el rostro de la actriz o actor porno por el de cualquier persona. Normalmente, usan estas identidades sin consentimiento de los involucrados. La mayoría son de celebridades, pero hoy en día pueden descargarse en pocos minutos todas las fotos de una cuenta de Instagram, Twitter u otra red social, para luego ser usadas en la producción de un deepfake. En algunos casos el resultado es tan convincente que llega a ser perturbador. Solo un ligero descuadre en la superposición de las caras sugiere que es un montaje.

El término deepfakes proviene del nombre de un usuario de Reddit que se dedicaba a crear y publicar videos alterados. El año pasado, un artículo de Motherboard expuso al editor anónimo, responsable del video falso de Gal Gadot y de otras figuras famosas. Maisie Williams, conocida por el papel de Aria en Juego de Tronos; la cantante Taylor Swift y Scarlett Johansson también aparecían en sus creaciones.

El usuario usaba un algoritmo de aprendizaje automático de código abierto que había perfeccionado: la biblioteca de código abierto TensorFlow, de Google. Este tipo de tecnología está disponible en Internet y no es difícil acceder a ella. Son modelos de desarrollo de software basados en la colaboración abierta, es decir, que la fuente del programa se puede modificar sin restricciones de licencia. Otro usuario de Reddit llamado deepfaceapp lanzó una aplicación de escritorio para aquellos que no tienen conocimientos de informática. Incluso escribió una guía de uso y abrió una sección de preguntas. Cualquiera puede crear su propio clip falso de forma automática. El proceso tarda entre 8 y 12 horas.

Pero el dilema no es la tecnología, sino su uso para videos pornográficos que perjudican la reputación de quienes aparecen en ellos sin su autorización. La mayoría de los afectados son celebridades, pero esto puede ocurrirle a cualquier mortal. BBC Mundo cita a la abogada Ann Olivarius, quien ha trabajado con víctimas del “porno de la venganza” y asegura que ha recibido llamadas de clientes perjudicados por el deepfaking. “Es realmente devastador para esas mujeres porque con nueva tecnología puede parecer algo real. Lo que hay detrás es siempre un intento de herir y degradar”.

En enero se reportó el caso de un hombre australiano que fue sentenciado a 12 meses de cárcel por usar Photoshop para colocar una imagen de la cara de su hijastra, una adolescente de 13 años, sobre fotografías de mujeres realizando actos sexuales. Fue arrestado en septiembre de 2015, al ser atrapado con casi 100 imágenes guardadas en varios discos duros.

La superposición de rostros sobre otros cuerpos no es algo nuevo. Sin embargo, con la ayuda de algoritmos de aprendizaje automático y de inteligencia artificial el proceso puede automatizarse. Hay programas de edición de video que ofrecen esa posibilidad, y existen versiones básicas disponibles para cualquiera. La empresa de software Adobe Systems Incorporated (conocida simplemente como Adobe) tiene diferentes herramientas para la edición de fotos y grabaciones, e incluso para crear una copia digital de una persona. Adobe VoCo también permite recrear una voz solo 20 minutos después de escucharla. El intercambio de rostros en fotos, videos y GIF en tiempo real es algo que hacemos prácticamente todos los días con aplicaciones como Snapchat, usada por 187 millones de personas en todo el mundo.

Desde la aparición del usuario deepfake en Reddit el uso de la inteligencia artificial para producir pornografía de famosos se ha popularizado. Se publicaron videos que incluyen a otras celebridades, como Daisy Ridley, protagonista de Star Wars: El Despertar de la Fuerza; Sophie Turner, de Juego de Tronos; y Emma Watson, a quien vimos crecer en la gran pantalla como Hermione Granger en la saga de Harry Potter. Al buscar en Google “deepfake porn” aparecen más de un millón de resultados.

Reddit se vio obligado a tomar cartas en el asunto. Prohibió en su comunidad los deepfakes de casi 100.000 personas, y cerró los grupos de los usuarios deepfaceapp y deepfakes. El 7 de febrero actualizó la política del sitio sobre la pornografía involuntaria. Ahora le dedica un apartado diferente, en el que se prohíbe explícitamente «las representaciones que han sido falsificadas», y la publicación de imágenes y videos no explícitos con el propósito de «fingir contenido explícito o solicitar pornografía similar».

Twitter también prometió suspender las cuentas que publicaran ese tipo de contenidos, al igual que la aplicación Discord, diseñada para chats entre videojugadores; y el generador de GIF’s Gfycat. El sitio de pornografía Pornhub también vetó los deepfakes en su página web, argumentado que estos corresponden a contenido no consensual o venganza pornográfica.


ARTÍCULOS MÁS RECIENTES DEL AUTOR

Suscríbete al boletín

No te pierdas la información más importante de PRODAVINCI en tu buzón de correo