Encuentran imágenes de abuso infantil en base de datos de Inteligencia Artificial
Un estudio, desarrollado por el Observatorio de Internet de Standford, reveló que la Inteligencia Artificial (IA) tendría un lado oscuro.
La investigación, publicada el miércoles 20 de diciembre, detalla que se encontraron material explícito de abuso infantil en las bases de datos de LAION-5B, de origen alemán.
Ésta es una herramienta usada para entrenar a generadores de imágenes con IA, como Stable Difussion, desarrollado en la Universidad de Múnich.
El Observatorio encontró 3.226 imágenes de presuntos abusos sexuales infantiles en la base de datos. Las fotografías fueron confirmadas como material real por organizaciones benéficas contra este delito.
Esto derriba la teoría que señalaba que la IA generaba imágenes de abuso infantil mezclando porno explícito con rostros y anatomía de niños.
La posición de LAION
Luego de la publicación del informe, LAION emitió un comunicado en el que señaló que retiró sus bases de datos para evaluarlas.
Tras la evaluación, que tiene por objetivo verificar que el material sea seguro, la herramienta volverá a publicar el conjunto de datos.
¿Y Stable Difussion?
Según los usuarios, la versión 2.0 de la herramienta hace más complicado la creación de contenido nocivo, pero la 1.5 no tenía la traba y es “el modelo más popular para generar contenido explícito", según el estudio.
"La solución más obvia es que la mayoría de los que poseen conjuntos de entrenamiento derivados de LAION-5B los borren o trabajen con intermediarios para limpiar el material", señalan los investigadores.