El Observatorio de Internet de la Universidad de Stanford descubrió miles de fotos de abusos sexuales a menores en una popular base de datos de imágenes que se utiliza para entrenar sistemas de inteligencia artificial.
Las más de 3200 fotografías explícitas se encontraron en los sistemas de IA LAION que usaba la herramienta de generación de imágenes Stable Diffusion, entre otras.
La investigación de Stanford va en contra de la creencia convencional de que las herramientas de IA crean imágenes de abusos sexuales a menores únicamente fusionando pornografía adulta con fotos de niños. El reporte reveló que es incluso más fácil para algunos sistemas de IA, que fueron entrenados utilizando la base de datos LAION, producir este tipo de contenido ilegal.
“Encontramos que el acceso a la base de datos LAION-5B, poblada incluso hasta finales de 2023, implica la posesión de miles de imágenes ilegales, fotos íntimas y recopiladas de forma no consensuada”, afirmaron David Thiel y Jeffrey Hancock, autores del estudio.
En respuesta al estudio de Stanford, LAION anunció que retiró temporalmente sus bases de datos, y Stability AI -el desarrollador de Stable Diffusion– afirmó que tomó todas las medidas proactivas para mitigar el riesgo de uso indebido y aplicó filtros más estrictos en su herramienta de IA.
Sin embargo, según el informe de Stanford, una versión anterior de Stable Diffusion, la 1.5, sigue siendo el modelo más popular para generar imágenes explícitas.
Por último, el estudio sugiere que los usuarios que hayan creado una herramienta utilizando la base de datos LAION borren o eliminen su trabajo, y anima a mejorar la transparencia en torno a los conjuntos de datos de formación de imágenes: “Los modelos basados en Stable Diffusion 1.5 a los que no se hayan aplicado medidas de seguridad deberían ser obsoletos y su distribución debería cesar siempre que sea posible”