Una nueva demanda colectiva, presentado el lunes por tres adolescentes y sus tutores, alega que xAI de Elon Musk creó y distribuyó material de abuso sexual infantil con sus rostros y semejanzas con su tecnología Grok AI.
«Sus vidas han quedado destrozadas por la devastadora pérdida de privacidad, dignidad y seguridad personal que ha causado la producción y difusión de este CSAM», dice el documento. «La ganancia financiera de xAI a través del mayor uso de su producto de creación de imágenes y videos se produjo a expensas y bienestar de ellos».
Desde diciembre hasta principios de enero, Grok permitió a muchos usuarios de redes sociales AI y X crear imágenes íntimas no consensuadas generadas por AI, a veces conocidas como pornografía deepfake. Estimación de informes que los usuarios de Grok realizaron 4,4 millones de imágenes «desnudas» o «desnudas», el 41% del número total de imágenes creadas, durante un período de nueve días.
X, xAI y sus divisiones de seguridad y protección infantil no respondieron de inmediato a una solicitud de comentarios.
La ola de imágenes «desnudas» provocó indignación en todo el mundo. La Comisión Europea inició rápidamente una investigación, mientras que Malasia e Indonesia prohibieron X dentro de sus fronteras. Algunos representantes del gobierno de EE. UU. pidieron a Apple y Google que eliminaran la aplicación de sus tiendas de aplicaciones por violar sus políticas, pero no se ha abierto ninguna investigación federal sobre X o xAI. Se presentó una demanda colectiva separada similar archivado (PDF) por una mujer de Carolina del Sur a finales de enero.
La tendencia deshumanizadora destacó cuán capaces son las herramientas modernas de imágenes de IA para crear contenido que parezca realista. La nueva denuncia compara la autoproclamada generación de «IA picante» de Grok con las «artes oscuras» con su facilidad para someter a los niños a «cualquier pose, por enfermiza, fetichizada o ilegal que sea».
«Para el espectador, el vídeo resultante parece totalmente real. Para la niña, sus rasgos identificativos ahora estarán adjuntos para siempre a un vídeo que muestra su propio abuso sexual infantil», se lee en la denuncia.
La denuncia dice que xAI tiene la culpa porque no empleó barreras de seguridad estándar de la industria que impidieran que los abusadores crearan este contenido. Dice que xAI autorizó el uso de su tecnología a empresas de terceros en el extranjero, que vendieron suscripciones que llevaron a los abusadores a crear imágenes de abuso sexual infantil con los rostros y retratos de las víctimas. Las solicitudes pasaron por los servidores de xAI, lo que hace responsable a la empresa, argumenta la denuncia.
La demanda fue presentada por tres Jane Does, seudónimos dados a los adolescentes para proteger sus identidades. Jane Doe 1 fue alertada por primera vez sobre el hecho de que material sexual abusivo de ella, generado por IA, circulaba en la web mediante un mensaje anónimo de Instagram a principios de diciembre. El documento dice que un usuario anónimo de Instagram le informó sobre un servidor de Discord, donde se compartió el material. Eso llevó a Jane Doe 1 y su familia, y finalmente a las autoridades, a encontrar y arrestar a un perpetrador.
Las investigaciones en curso llevaron a las familias de Jane Does 2 y 3 a descubrir que las imágenes de sus hijos habían sido transformadas con tecnología xAI en material abusivo.

