Desde Grooming Argentina, organización a cargo de la línea de reporte de CSAM en Argentina (material de abuso sexual contra niñas, niños y adolescentes, comúnmente y erróneamente denominado “pornografía infantil”) compartieron la campaña “Unir voces en todo el mundo: No a las herramientas de desnudez artificial”.
Tienen como objetivo alertar y generar conciencia sobre los graves riesgos que representan las herramientas de desnudez artificial, tecnologías basadas en Inteligencia Artificial que permiten generar imágenes desnudas a partir de fotografías de personas vestidas y que son utilizadas para facilitar la violencia sexual, la explotación y el abuso, especialmente contra niñas, niños y adolescentes.
En comunicado, explicaron que “las herramientas de desnudez artificial no tienen cabida en ninguna sociedad que aspire a proteger a sus niños y niñas. Nuestro mensaje es claro: esta funcionalidad no cumple ningún propósito legítimo y debe ser explícita y universalmente ilegal”.
El mensaje del Papa León XIV y el pedido de prohibición de las herramientas online:
En pasado encuentro de líderes mundiales en protección infantil en línea celebrado en Roma, el Papa León XIV ofreció un poderoso recordatorio: la inteligencia artificial debe ser una aliada, no una amenaza, para nuestros niños.
Al respecto, desde la ONG indicaron: “Para cumplir esta misión, necesitamos una prohibición inmediata y global de las herramientas de desnudez artificial. Estas herramientas utilizan IA para generar imágenes desnudas a partir de fotografías de personas vestidas. Aunque se comercializan como productos para adultos y se dirigen principalmente a la desnudez artificial de mujeres y niñas, cada vez se usan más para crear imágenes indecentes de menores”.
“Las empresas, desarrolladores e individuos que las crean o distribuyen deben rendir cuentas y enfrentarse a consecuencias legales y penales. La tecnología que permite la creación de imágenes desnudas y abusivas está teniendo un impacto insidioso en la vida de los niños en todo el mundo. Imágenes de menores, incluidos sobrevivientes de abuso sexual infantil, están siendo manipuladas y transformadas en formas cada vez más extremas y abusivas”, agregaron.
Y continuaron en la comunicación: “Los delincuentes, incluidos jóvenes, ya están monetizando estas imágenes, dando lugar a nuevas economías de abuso. Esta tecnología no es solo una herramienta: es un nuevo vector de explotación que expone a mujeres y niños —especialmente a las niñas— a riesgos sin precedentes. No tiene cabida en ninguna sociedad que valore la seguridad y la inviolabilidad de la infancia”.
Ejes a tener en cuenta según Grooming Argentina y un llamado a las autoridades locales, nacionales y mundiales:
● Reconocer que las herramientas de desnudez artificial causan un daño irreparable a las personas, facilitando el abuso y la explotación indefendibles, en particular de mujeres y niños.
● Reconocer el profundo daño social que esta funcionalidad provoca, incluida la normalización de imágenes explícitas y la violencia de género, así como la erosión de la confianza y la seguridad.
● Exigir responsabilidad e innovación, reclamando a las empresas tecnológicas que incorporen la seguridad desde el diseño, aceleren el desarrollo y despliegue de protecciones eficaces y ofrezcan una transparencia clara.
● Durante estos dos años, todas las jurisdicciones deben: Prohibir totalmente las herramientas de desnudez artificial. Declarar ilegales el desarrollo, la distribución, la posesión y el uso comercial de aplicaciones de desnudez artificial y de funcionalidades de desnudez en sistemas de IA. Establecer responsabilidad penal y civil. Exigir responsabilidades a las empresas, sus propietarios, desarrolladores, plataformas e individuos que faciliten o se beneficien de la creación o circulación de imágenes desnudas artificialmente. Imponer bloqueos universales de acceso.
Un llamado a las empresas tecnológicas:
Garantizar programas de alfabetización mediática (digital) en escuelas u otros formatos para personas de todas las edades, que incluyan orientación sobre los riesgos de las aplicaciones y herramientas de desnudez artificial. Con efecto inmediato, las empresas deben:
● Aplicar la seguridad desde el diseño. Garantizar que ningún producto, modelo o funcionalidad capaz de generar deepfakes desnudos se lance sin protecciones demostradas.
● Detectar y bloquear contenido desnudo de menores. Implementar sistemas sólidos de detección, incluidos mecanismos de hashing entre plataformas, salvaguardas a nivel de modelo y escaneos proactivos.
● Prohibir las herramientas de desnudez artificial en todo su ecosistema. Vetarlas en tiendas de aplicaciones, servicios de alojamiento, plugins, APIs e integraciones de terceros.
● Desarticular la economía del abuso. Eliminar vías de monetización, denunciar a los infractores y colaborar con socios del sector para cortar los flujos de pago.
● Ofrecer transparencia y reconocer el daño.
● Comprender el coste social.
● Negarse a tolerar su uso.
● Y, especialmente, proteger a los niños de estas herramientas en cualquier ámbito profesional o personal. Para criar a un niño de forma segura, hace falta toda una comunidad.
Cómo denunciar:
Si alguien ha generado una imagen desnuda artificial tuya y eres menor de 18 años, podés denunciarlo en la línea directa de tu país para que sea retirada. Se encuentra en https://INHOPE.org.
Solo necesitas proporcionar la URL donde viste la imagen (no nombres ni datos de contacto).