Forbes Uruguay
Deepfake, IA, Youtube
Innovacion

Google retira más de 100 videos de YouTube que enseñan a generar pornografía deepfake con IA tras el descubrimiento de Forbes

Thomas Brewster

Share

La empresa retiró más de 100 videos de YouTube después de que Forbes descubriera que la plataforma promocionaba nudificadores de IA utilizados por acosadores escolares y un pedófilo convicto.

24 Abril de 2024 20.45

Para las personas interesadas en utilizar la IA para generar desnudos artificiales, YouTube fue un buen punto de partida. Aunque no aloja herramientas "desnudadoras", la plataforma para compartir videos utilizada por 2.500 millones de personas albergaba más de 100 videos con millones de visitas que anunciaban la rapidez con la que estas aplicaciones y sitios web de IA pueden eliminar la ropa de las imágenes de mujeres, según descubrió un análisis de Forbes.

Algunos de los videos de YouTube ofrecían tutoriales de una aplicación que, al parecer, habían utilizado estudiantes de secundaria de España y Nueva Jersey para generar desnudos de sus compañeras de clase. Los estudiantes que supuestamente fueron víctimas se enfrentaron a acoso escolar, vergüenza pública y ataques de pánico.

Otro sitio web exhibido en varios videos de YouTube fue citado en los documentos judiciales de un caso de 2023 en el que un psiquiatra infantil fue condenado a 40 años por utilizar inteligencia artificial para crear imágenes de abuso sexual infantil y por explotación sexual de un menor. Se lo acusó de utilizar la herramienta para alterar imágenes de su novia del instituto cuando era menor de edad, quitándole la ropa. "En esta era digital, es horroroso darse cuenta de que fotos mías, fotos inocentes, pueden ser tomadas y tergiversadas sin mi consentimiento para fines que son ilegales y repugnantes", declaró su ex novia ante el tribunal.

"Cuando veo o escucho hablar de AI, ahí está en la parte de atrás de mi cabeza".
 

Víctima de una aplicación nudificadora de IA, hablando de ser el objetivo de un psiquiatra infantil.

Es "impensable" que Google esté facilitando el uso de estas apps, declaró a Forbes Signy Arnason, directora ejecutiva asociada del Centro Canadiense para la Protección de la Infancia. "En YouTube e incluso en los resultados de búsqueda de Google, se encuentran fácilmente videos instructivos o servicios con títulos que promueven descaradamente este tipo de aplicaciones", sumó. Dijo que su organización estaba escuchando cada vez más de escuelas cuyos estudiantes fueron víctimas de los desnudos generados por la IA.

Deepfake, IA, Youtube
Para las personas interesadas en utilizar la IA para generar desnudos artificiales, YouTube fue un buen punto de partida.

Los problemas de Google con los desnudadores de IA no se limitan a YouTube. Forbes identificó tres aplicaciones para Android que ofrecen eliminar la ropa de las fotos, incluido un "filtro para fotos con escáner de desnudos" con más de 10 millones de descargas; una aplicación en español que permite al usuario "pasar un dedo por encima de lo que desea borrar, por ejemplo, un traje de baño", que cuenta con más de 500.000 instalaciones; y Scanner Body Filter, que ofrece sumar una "imagen corporal sexy" a las fotos, también con medio millón de descargas.

Forbes también encontró 27 anuncios en el Centro de Transparencia de Anuncios de Google que promocionaban servicios de "desnudos profundos". Uno anunciaba un sitio con la palabra "bebé" en la URL. El Centro Nacional sobre Explotación Sexual (NCOSE) proporcionó información sobre otros cuatro, entre ellos un sitio web de desnudistas que ofrecía abiertamente crear fotos de Taylor Swift con IA.

Después de que Forbes preguntara si los vídeos, anuncios y aplicaciones incumplían las políticas de Google, retiró los 27 anuncios, y YouTube eliminó 11 canales y más de 120 videos. Uno de esos canales, alojado por una IA deepfake masculina, era responsable de más de 90 de esos videos, la mayoría de los cuales apuntaban a bots de Telegram que desnudaban a mujeres. La aplicación Scanner Body Filter también dejó de estar disponible para su descarga, aunque otras aplicaciones para Android permanecieron online.

Tori Rousay, directora del programa de defensa corporativa y analista de NCOSE, dijo que Google creó "un ciclo de beneficios continuo" a partir de la nudificación de aplicaciones aceptando dinero de la publicidad de los desarrolladores y tomando recortes de los ingresos por publicidad y pagos únicos cuando la aplicación se aloja en la tienda Google Play. Rousay dijo que, en comparación, Apple se había apresurado a eliminar las aplicaciones nudificadoras cuando NCOSE resaltó varias alojadas en la App Store.

Deepfake, IA, Youtube
Un deepfake de IA alojaba un canal de YouTube con casi 900.000 visitas por sus videos que promocionaban bots de Telegram que eliminaban la ropa del cuerpo de las personas en cualquier imagen.

"Apple escuchó... Google debe hacer lo mismo", sumó Rousay. "Google necesita crear prácticas y políticas responsables en torno a la difusión del abuso sexual basado en imágenes".

La pornografía deepfake generada por inteligencia artificial va en aumento, incluso de niños. El Centro Nacional para Menores Desaparecidos y Explotados declaró a Forbes esta semana que había recibido 5.000 denuncias de material de abuso sexual infantil (CSAM) generado por IA en el último año. A principios de este año, un hombre de Wisconsin fue acusado de utilizar presuntamente el generador de imágenes impulsado por IA Stable Diffusion 1.5 para producir CSAM.

En el caso del psiquiatra infantil condenado, otras víctimas, además de su novia de la infancia, testificaron ante el tribunal sobre el trauma continuo causado por su uso de la IA para desnudarlas en sus fotos de la infancia.

"Temo que cuando creó pornografía infantil utilizando mi imagen online, otras personas también tengan acceso a esa imagen. Temo que compañeros de trabajo, familiares, miembros de la comunidad u otros pedófilos tengan acceso a esa imagen", dijo una de sus víctimas. Otra sumó: "Temo a la inteligencia artificial por su culpa y cuando veo o escucho hablar de IA, ahí está él en la parte de atrás de mi cabeza".

*Con información de Forbes US

loading next article
10