Cómo la gente real se ve atrapada en la explosión pornográfica de la Inteligencia Artificial
A medida que los generadores de texto a imagen se vuelven fáciles de construir, usar y personalizar, las comunidades de pornografía generadas por IA están floreciendo en Reddit. Pero estas fotos sexuales sintéticas se basan en imágenes no consentidas de personas reales, dicen los expertos.

Reddit ha sido durante mucho tiempo un almacén de pornografía. Ahora, a medida que las herramientas de IA de texto a imagen se ponen de moda, una avalancha de imágenes pornográficas generadas por IA ha desembarcado sobre la plataforma, a la que pueden acceder sus 57 millones de usuarios activos

Si bien estas imágenes pueden ser falsas, los modelos utilizados para crearlas están entrenados con fotos de personas reales y pueden reproducir facsímiles de ellas, en su mayoría sin su consentimiento, dijeron los expertos a Forbes .

“El problema fundamental de la pornografía generativa con IA es que se basa en el robo a gran escala de imágenes y semejanzas de personas, y de manera desproporcionada de mujeres”, dijo Noelle Martin, sobreviviente de falsificaciones sexuales profundas e investigadora legal en la Universidad de Australia Occidental. laboratorio de políticas

Reddit.

Forbes encontró 14 subreddits dedicados a la pornografía generada por IA, 10 de los cuales se crearon en los últimos dos meses. Cada subreddit tiene miles de miembros y miles de visitas cada semana. Uno de los subreddits de pornografía de IA más populares es r/unstable_diffusion, que ha estado activo desde septiembre de 2022 y tiene 54,000 miembros. 

Otro tiene más de 60.000 miembros. Reddit tiene un conmutador para "búsqueda segura" para ocultar contenido para adultos durante la búsqueda normal, pero sin este conmutador, la búsqueda de "pornografía de IA" en Reddit arroja más de dos docenas de foros que alojan y comparten material para adultos generado por IA. Dentro de estos subreddits, algunos usuarios solicitan o venden deepfakes sexuales generados por IA de personas reales.

A medida que las herramientas de IA de texto a imagen se vuelven más sofisticadas y sus resultados más realistas, se vuelve más difícil para los usuarios diferenciar no solo entre lo que es real y lo que no, sino también lo que es consensuado y lo que no.

A principios de abril, se engañó a algunos usuarios de Reddit para que pagaran US$100 por las fotos de una mujer de 19 años llamada Claudia, que se hicieron con la herramienta de inteligencia artificial Stable Diffusion, según Rolling Stone.

Una víctima de un caso de tráfico sexual en el que ella y otras mujeres fueron obligadas a tener relaciones sexuales frente a la cámara, le dijo a Forbes que cree que el uso de sus imágenes o videos para entrenar sistemas de IA sería una violación de su privacidad. La víctima, que habló de forma anónima con Forbes porque le preocupaba que volvieran a aparecer videos de ella, dice que los videos sexualmente explícitos de ella se subieron a Reddit y otros sitios sin su consentimiento y luego se eliminaron.

 

“Que la gente todavía tenga copias de esto ya es una gran infracción de mis derechos legales”, dice ella. “Que compartan estas copias públicamente y luego creen contenido nuevo con mi imagen para distribuir y entrenar los sistemas de inteligencia artificial, básicamente significa que yo, como persona, no tengo control ni capacidad para detenerlo”.

La pornografía generada por IA también ha aparecido en otras plataformas como Twitter e Instagram. Pero ha florecido predominantemente en Reddit, en parte porque la plataforma permite a los usuarios permanecer en el anonimato y no les prohíbe compartir contenido sexualmente explícito. 

Alexis Ohanian, cofundador de Reddit

La plataforma también se ha utilizado para entrenar modelos de lenguaje grandes y ahora exige un pago: el CEO de Reddit, Steve Huffman, dijo en una entrevista reciente con el New York Times que quiere que Google, Microsoft y OpenAI paguen por usar los datos y las conversaciones de Reddit. para entrenar sus algoritmos. “El corpus de datos de Reddit es realmente valioso. Pero no necesitamos dar todo ese valor a algunas de las empresas más grandes del mundo de forma gratuita”, dijo Huffman al New York Times. Reddit anunció recientemente que cerrará su API de datos, que había estado abierta desde 2008, y planea cobrarle a terceros más grandes por el "acceso premium".

Con el respaldo de pesos pesados como Andreessen Horowitz y Sequoia Capital, Reddit se valoró por última vez en $ 10 mil millones después de recaudar US$ 700 millones en una ronda de la Serie F en agosto de 2021. Con $ 1,9 mil millones en financiamiento total, también planea cotizar en bolsa en 2023 . Reddit registró US$ 470 millones en ingresos en 2021 principalmente a través de ventas de anuncios y suscripciones premium, según estimaciones de Statista.

Si bien Reddit afirma no mostrar anuncios ni monetizar contenido para adultos en su sitio, los expertos dicen que permitir contenido para adultos en el sitio, artificial o real, atrae a más usuarios a la plataforma e impulsa la participación. “Aunque no se anuncian en los subreddits, aún se benefician del hecho de que estos hilos atraen a mucha gente”, dice Sophie Maddocks, investigadora sobre violencia sexual cibernética.

Las "AI GIRLS"

 

Si bien Reddit es la plataforma de redes sociales más grande que alberga pornografía de IA para sus decenas de millones de usuarios, una serie de sitios específicos de pornografía de IA se han establecido para monetizarla.

La mayoría de los generadores de pornografía de IA como PornJourney, PornPen, PornJoy y SoulGen cobran suscripciones premium y están conectados a cuentas ocultas de Discord o Patreon administradas por usuarios anónimos. 

Sophie Maddocks, investigadora sobre violencia sexual cibernética.

Sus sitios web muestran una variedad de pornografía generada por IA con diferentes opciones para etnias y tipos de cuerpo e instrucciones sobre cómo crearlos, todo con poca o ninguna divulgación de cómo se entrenaron los sistemas y en qué imágenes. Con ese fin, los sitios también incluyen descargos de responsabilidad sobre el contenido generado a través de sus herramientas: “Cualquier generación de contenido en este sitio web que se parezca a personas reales es pura coincidencia. Esta IA refleja sesgos y conceptos erróneos que están presentes en sus datos de entrenamiento”.

Uno de esos generadores de imágenes de IA, PornJourney, se creó y lanzó en marzo de 2023; cobra a los usuarios US$ 15 por mes para crear "chicas AI" que se ven "reales y como humanos", según su sitio web.

 

“Proporcionar fotos auténticas y detalladas de niñas con IA es costoso, lo que nos obliga a invertir continuamente en nuestros servidores”, explica la sección de preguntas frecuentes del sitio.

PornPen, que tiene 2 millones de usuarios mensuales y 12 000 usuarios que pagan US$ 15 por mes por su herramienta de generación de pornografía con IA, se basa en el modelo de IA de Stable Diffusion y obtiene imágenes de un conjunto de datos llamado "LAION", que contiene aproximadamente 6 000 millones de imágenes obtenidas de sitios disponibles públicamente . contenido en la web. 

El conjunto de datos masivo incluye imágenes de celebridades, modelos, políticos y creadores de contenido. El sitio web de la organización sin fines de lucro dice: "Nuestra recomendación es utilizar el conjunto de datos con fines de investigación".

Tori Rousay, gerente de defensa del Centro Nacional sobre Explotación Sexual (NCOSE, por sus siglas en inglés), dice que la mayoría de los generadores de texto a imagen pornográficos de IA como Unstable Diffusion y Porn Pen usan modelos de código abierto de GitHub o Hugging Face para extraer imágenes de sitios web pornográficos y perfiles de redes sociales y construir una base de datos de imágenes sexualmente explícitas. Forbes encontró al menos cinco repositorios de GitHub para rastreadores web que se pueden usar para extraer imágenes y videos de sitios web como PornHub y Xvideos, así como sitios de redes sociales como Twitter, Instagram y TikTok para construir sistemas de IA. PornHub y Xvideos no respondieron a una solicitud de comentarios.

“Unstable Diffusion es como el primo de Stable Diffusion. Entonces, lo que hicieron fue tomar su código, lo replicaron y crearon su propio repositorio basado solo en imágenes pornográficas y de desnudos”, dice Rousay, quien investigó cómo se usa la IA para hacer pornografía. Las celebridades femeninas, las políticas y las periodistas tienen más probabilidades de ser víctimas de la pornografía artificial porque una gran cantidad de su contenido visual está disponible en línea, dice Rousay. Estos individuos también son los más buscados en la creación de deepfakes.

La zona gris de Reddit

 

Reddit ha tratado de aclarar su postura y ha prohibido el contenido sexualmente explícito no consensuado, incluidas las "representaciones que han sido falsificadas", en referencia a las falsificaciones profundas de IA, cuando un algoritmo genera imágenes falsas de una persona real. El sitio también prohíbe el “material generado por IA si se presenta en un contexto engañoso”. Reddit dice que utiliza una combinación de herramientas automatizadas y su equipo de seguridad interno para detectar y eliminar contenido explícito no consentido del sitio. Pero no capta todo.

“Reddit también es conocido por tener esas líneas borrosas entre lo que es moralmente cuestionable y lo que está prohibido en Reddit. Entonces, la pornografía generada por IA cae dentro de la zona gris de Reddit”, dice Rousay.

Deepfakes, contenido sexual explícito no consensuado y pornografía generativa de IA existen en el mismo grupo de imágenes pornográficas que se reciclan en nuevas imágenes de IA. Pero es importante tener en cuenta la diferencia entre la pornografía generativa de IA, que representa a una persona no identificable completamente nueva, y las falsificaciones sexuales profundas, donde las caras de las personas se cosen digitalmente en los cuerpos de otras personas. 

 

Nota publicada en Forbes US.