Los menores crean y comparten sus propias imágenes sexuales explícitas y usan las herramientas de inteligencia artificial (IA) generativa para crear sin consentimiento fotografías realistas de personas de su edad desnudas, algo que incrementa los riesgos de abuso sexual a niños y adolescentes en el entorno digital, y que reclama una comprensión amplia para poder protegerlos de manera efectiva.
La tecnología de IA generativa es reciente, pero hay comportamientos como el acoso, el hostigamiento y el abuso que no solo son, y si se combinan pueden causar un daño que trasciende el plano digital, con consecuencias que no pueden minimizarse, especialmente cuando se trata de menores.
Esta conclusión se recoge en el informe "Perspectivas de los jóvenes sobre la seguridad en línea, 2023", realizado por la organización estadounidense Thorn, enfocada a la creación de tecnología que evite el abuso sexual infantil, en colaboración con la consultora BSG.
Su investigación se centra en los menores de entre 9 y 17 años de Estados Unidos y sus comportamientos en relación con la tecnología, pero sus conclusiones reflejan una realidad que puede extrapolarse a otras sociedades con servicios digitales y comportamientos similares.
Parten del hecho de que los menores usan redes sociales, independientemente de las restricciones que estos servicios digitales establezcan. YouTube (98%), TikTok (84%), Roblox (80%), Minecraft (78%) y Fortnite (73%) son las más usadas por menores, quienes también acuden a otros servicios enfocados a los adultos, como las aplicaciones de citas, en busca de experiencias románticas o sexuales.
Según los datos de esta investigación, recogidos en entre el 3 de noviembre y el 1 de diciembre de 2023, el 17% de los menores aseguró haber usado una 'app' de citas, como Tinder, Grindr o Hinge, y casi el mismo porcentaje (16%), una web de pornografía. Este tipo de actividad es probable (hasta tres veces más) en los adolescentes que en los niños menores de 12 años.
El acceso a internet no está exento de riesgos: el 59% informó de haber tenido experiencias dañinas 'online' y el 35% que había tenido interacciones de tipo sexual, con otros menores de 18 años (28%) o con quienes creían que eran adultos (28%).
Este tipo de interacciones fueron más probables en aplicaciones como Omegle (36%), Kik (23%), Snapchat (23%), Telegram (22%), Instagram (20%) y Marco Polo (20%).
Uno de los riesgos a los que se enfrentan los menores es el de la sextorsión, es decir, la amenaza de publicar una imagen explícita del menor si no hace lo que el agresor pide (tener una relación, realizar un acto sexual, facilitar fotografías de explícitas de amigos o hermanos, etc.). Según el informe, uno de cada 17 menores ha sido víctima de sextorsión.
Sin que medie amenaza, los menores también comparten sus propios vídeos y fotografías explícitos, en los que aparecen desnudos e incluso con alguien más. Para uno de cada cuatro esta práctica se ve como normal. De entre quienes han compartido este tipo de imágenes, la mayoría (83%) lo ha hecho con alguien que conoce 'offline', pero el 46% las ha enviado a conocidos exclusivamente digitales.
Este envío de imágenes explícitas también se hace sin el consentimiento de quien aparece en ellas. El 7% reconoce haber reenviado las imágenes de otras personas, mientras que el 19% ha visto imágenes reenviadas de otros sin consentimiento. El 38% ha culpado a la víctima de la circulación de las imágenes.
Las imágenes creadas por los menores también se extienden a las generadas por herramientas de IA con un resultado realista, lo que se conoce como 'deepfake'. Si bien la mayoría de los menores no cree que sus compañeros haya usando estas herramientas para crear imágenes explícitas de otros niños, el informe recoge que el 11% conoce casos en los que sí.
"Si bien es más probable que la motivación detrás de estos eventos esté impulsada por el mal comportamiento de los adolescentes que por la intención de abusar sexualmente, los daños resultantes para las víctimas son reales y no deben minimizarse en los intentos de eludir la responsabilidad", expresan los responsables del estudio.
También se dirigen a la IA generativa, y señalan que "es fundamental que hablemos de manera proactiva y directa sobre los daños causados por los 'deepfakes' y reforzar una comprensión clara de qué conducta es inaceptable en nuestras comunidades y escuelas, independientemente de la tecnología que se utilice".
El objetivo de este estudio es el de obtener datos que refuercen las estrategias de prevención y de "inspirar" más investigaciones. "Es esencial que comprendamos la totalidad y los matices de los riesgos que enfrentan los niños en línea para poder desarrollar sistemas que puedan protegerlos de manera efectiva", concluyen.