En la Dark Web se está compartiendo un gran número de imágenes de abuso sexual infantil creadas por inteligencia artificial

Reportes recientes señalan un incremento alarmante de este material ilegal que está siendo creado con inteligencia artificial. Apple y otras empresas tecnológicas enfrentan serios desafíos para detectar y eliminar este contenido ilegal, mientras que las víctimas menores de edad, especialmente mujeres, son las principales afectadas.

Alarma están generando una serie de reportes que apuntan a un aumento de materiales de abuso sexual infantil (CSAM) generados por inteligencia artificial (IA) en la dark web, una parte de internet que no es accesible a través de motores de búsqueda comunes y que requiere de software especial para acceder, como es el caso del programa Tor (The Onion Router).

Aunque el fenómeno plantea serios desafíos para la detección y eliminación de contenido ilegal para las grandes empresas tecnológicas que están impulsando este tipo de tecnologías, un reporte de la Internet Watch Foundation (IWF) del Reino Unido - a través del portal Mashable - indica que existe un aumento significativo de imágenes alteradas digitalmente, o completamente sintéticas que muestran a niños en escenarios explícitos.

Para ejemplificarlo, indicaron que un foro de la dark web compartió más de 3.500 imágenes y vídeos durante un período de 30 días con este tipo de material ilegal.

En ese escenario, la mayor parte de las víctimas de estos deepfake son mujeres menores de edad y los abusos que sufrieron en el pasado habrían sido utilizados como base para la creación de nuevo material ilícito.

El reporte también indica que los delincuentes se aconsejaban e incluso entregaban pistas sobre qué modelos de inteligencia artificial podían ser alimentados con imágenes reales.

“Sin los controles adecuados, las herramientas de IA generativa proporcionan un campo de juego para que los depredadores en línea realicen sus fantasías más perversas y repugnantes”, escribió la directora ejecutiva de la IWF, Susie Hargreaves. “Incluso ahora, la IWF está empezando a ver que se comparte y vende más material de este tipo en sitios web comerciales de abuso sexual infantil en Internet”, agregó.

El empujón de las grandes tecnológicas a la IA genera preocupación

Por otro lado, un reporte de la Sociedad Nacional para la Prevención de la Crueldad contra los Niños (NSPCC, por sus siglas en inglés) del Reino Unido apunta a que Apple subestima enormemente la cantidad de materiales de abuso sexual infantil compartidos a través de sus productos.

Según consta en The Guardian, la NSPCC llegó a la conclusión tras comparas las cifras oficiales publicadas por Apple con las cifras recopiladas a través de datos policiales.

En ese escenario, remarcaron que Apple solo realizó 267 informes a nivel mundial para el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) en 2023, pero la compañía habría estado implicada en 337 delitos solo en Inglaterra y Galas entre abril de 2022 y marzo de 2023.

Y ante ello, cuestionan a los esfuerzos de Apple con su nuevo sistema de inteligencia artificial anunciado en junio pasado, el cual fue creado en asociación con OpenAI.

Aunque este busca personalizar las experiencias de los usuarios, automatizar tareas y aumentar la privacidad de los usuarios, los expertos también indican que su propuesta implica riesgos para la creación de contenido ilegal de abuso infantil.

“La carrera para implementar la IA de Apple es preocupante cuando el material de abuso infantil generado por la IA pone a los niños en riesgo y afecta la capacidad de la policía para salvaguardar a las víctimas jóvenes, especialmente porque Apple rechazó la incorporación de tecnología para proteger a los niños”, dijo Richard Collard, jefe de seguridad infantil de la NSPCC.

El NCMEC recibió más de 4700 reportes de materiales de abuso sexual infantil durante el año 2023, pero esperan que eso aumente significativamente con las nuevas herramientas de creación de imágenes por IA que pueden ser alimentadas por imágenes reales de abuso infantil.

COMPARTIR NOTA