Advirtieron sobre el uso de IA por parte de pedófilos para generar material de abuso sexual infantil
La Organización Internet Watch Foundation (IWF), con sede en el Reino Unido, alertó que los pedófilos están explotando software de inteligencia artificial (IA) de código abierto para fabricar material de abuso sexual infantil (CSAM), a través de la alteración de fotografías de niños conocidos o famosos con las que producen el contenido ilegal inédito.
La principal diferencia entre la IA de código abierto y las herramientas de modelo cerrado, como Dall-E de OpenAI o Imagen de Google, radica en que los usuarios pueden descargar, modificar y ajustar el software de la primera, mientras que los modelos subyacentes de la segunda no están disponibles al público, indicó la organización.
Dan Sexton, director de tecnología de la IWF, dijo que “existe una comunidad técnica dentro del espacio de los delincuentes, particularmente en los foros de la web oscura, donde se discute esta tecnología. Comparten imágenes, modelos de IA y guías”
En declaraciones al diario The Guardian, Sexton destacó la dificultad de abordar el problema debido a que el contenido generado con software de código abierto “se descarga y ejecuta localmente en las computadoras de las personas”.
El alerta destaca que los delincuentes comienzan con un modelo básico de generación de imágenes, que luego se ajusta con imágenes de abuso sexual infantil, lo que permite generar contenido más realista y perturbador con menos requerimientos de computación.
“El abuso sexual infantil en línea ya es una epidemia de salud pública. Potencialmente esto sólo empeorará las cosas”, dijo Sexton ante el posible incremento de contenido de abuso infantil generado por IA.
A los expertos también les preocupa que esos contenidos ilícitos generado por IA dificulten la identificación y asistencia a las víctimas reales. Además, la creación masiva de imágenes realistas podría ampliar su consumo.
Mientras tanto, el Reino Unido planea abordar el tema del abuso sexual infantil generado por IA en el próximo proyecto de ley de seguridad en línea, obligando a las plataformas de redes sociales a prevenir su difusión.
Ian Hogarth, presidente del grupo de trabajo de IA del Gobierno británico, se mostró preocupado por los desafíos de los modelos de código abierto, que una vez liberados, son difíciles de controlar.
Fuente:Elonce
DEJÁ TU COMENTARIO: Los comentarios publicados son exclusiva responsabilidad legal de sus autores.