¿Quieres recibir notificaciones de alertas?

El lado “b” de la Inteligencia Artificial: el peligro de las nuevas tecnologías sobre los menores

Lo ocurrido el último tiempo con “Grok”, la Inteligencia Artificial de X, no fue un fallo ni un desliz tecnológico. Como lo indica un análisis de la ONG Internacional “Grooming Argentina”, “fue una decisión deliberada, impulsada por la visión y lineamientos de Elon Musk”.
 

Por Redacción

Martes, 10 de febrero de 2026 a las 12:42


Desde Grooming Argentina, organización a cargo de la línea de reporte de CSAM en Argentina (material de abuso sexual contra niñas, niños y adolescentes, comúnmente y erróneamente denominado “pornografía infantil”) compartieron la campaña “Unir voces en todo el mundo: No a las herramientas de desnudez artificial”.

Tienen como objetivo alertar y generar conciencia sobre los graves riesgos que representan las herramientas de desnudez artificial, tecnologías basadas en Inteligencia Artificial que permiten generar imágenes desnudas a partir de fotografías de personas vestidas y que son utilizadas para facilitar la violencia sexual, la explotación y el abuso, especialmente contra niñas, niños y adolescentes. 

En comunicado, explicaron que “las herramientas de desnudez artificial no tienen cabida en ninguna sociedad que aspire a proteger a sus niños y niñas. Nuestro mensaje es claro: esta funcionalidad no cumple ningún propósito legítimo y debe ser explícita y universalmente ilegal”.

El mensaje del Papa León XIV y el pedido de prohibición de las herramientas online:

En pasado encuentro de líderes mundiales en protección infantil en línea celebrado en Roma, el Papa León XIV ofreció un poderoso recordatorio: la inteligencia artificial debe ser una aliada, no una amenaza, para nuestros niños. 

Al respecto, desde la ONG indicaron: “Para cumplir esta misión, necesitamos una prohibición inmediata y global de las herramientas de desnudez artificial. Estas herramientas utilizan IA para generar imágenes desnudas a partir de fotografías de personas vestidas. Aunque se comercializan como productos para adultos y se dirigen principalmente a la desnudez artificial de mujeres y niñas, cada vez se usan más para crear imágenes indecentes de menores”. 

“Las empresas, desarrolladores e individuos que las crean o distribuyen deben rendir cuentas y enfrentarse a consecuencias legales y penales. La tecnología que permite la creación de imágenes desnudas y abusivas está teniendo un impacto insidioso en la vida de los niños en todo el mundo. Imágenes de menores, incluidos sobrevivientes de abuso sexual infantil, están siendo manipuladas y transformadas en formas cada vez más extremas y abusivas”, agregaron.

Y continuaron en la comunicación: “Los delincuentes, incluidos jóvenes, ya están monetizando estas imágenes, dando lugar a nuevas economías de abuso. Esta tecnología no es solo una herramienta: es un nuevo vector de explotación que expone a mujeres y niños —especialmente a las niñas— a riesgos sin precedentes. No tiene cabida en ninguna sociedad que valore la seguridad y la inviolabilidad de la infancia”.

Ejes a tener en cuenta según Grooming Argentina y un llamado a las autoridades locales, nacionales y mundiales:

● Reconocer que las herramientas de desnudez artificial causan un daño irreparable a las personas, facilitando el abuso y la explotación indefendibles, en particular de mujeres y niños. 
● Reconocer el profundo daño social que esta funcionalidad provoca, incluida la normalización de imágenes explícitas y la violencia de género, así como la erosión de la confianza y la seguridad. 
● Exigir responsabilidad e innovación, reclamando a las empresas tecnológicas que incorporen la seguridad desde el diseño, aceleren el desarrollo y despliegue de protecciones eficaces y ofrezcan una transparencia clara. 
● Durante estos dos años, todas las jurisdicciones deben: Prohibir totalmente las herramientas de desnudez artificial. Declarar ilegales el desarrollo, la distribución, la posesión y el uso comercial de aplicaciones de desnudez artificial y de funcionalidades de desnudez en sistemas de IA. Establecer responsabilidad penal y civil. Exigir responsabilidades a las empresas, sus propietarios, desarrolladores, plataformas e individuos que faciliten o se beneficien de la creación o circulación de imágenes desnudas artificialmente. Imponer bloqueos universales de acceso. 

Un llamado a las empresas tecnológicas:

Garantizar programas de alfabetización mediática (digital) en escuelas u otros formatos para personas de todas las edades, que incluyan orientación sobre los riesgos de las aplicaciones y herramientas de desnudez artificial. Con efecto inmediato, las empresas deben: 

● Aplicar la seguridad desde el diseño. Garantizar que ningún producto, modelo o funcionalidad capaz de generar deepfakes desnudos se lance sin protecciones demostradas. 
● Detectar y bloquear contenido desnudo de menores. Implementar sistemas sólidos de detección, incluidos mecanismos de hashing entre plataformas, salvaguardas a nivel de modelo y escaneos proactivos.
● Prohibir las herramientas de desnudez artificial en todo su ecosistema. Vetarlas en tiendas de aplicaciones, servicios de alojamiento, plugins, APIs e integraciones de terceros. 
● Desarticular la economía del abuso. Eliminar vías de monetización, denunciar a los infractores y colaborar con socios del sector para cortar los flujos de pago. 
● Ofrecer transparencia y reconocer el daño. 
● Comprender el coste social.
● Negarse a tolerar su uso. 
● Y, especialmente, proteger a los niños de estas herramientas en cualquier ámbito profesional o personal. Para criar a un niño de forma segura, hace falta toda una comunidad.

Cómo denunciar:

Si alguien ha generado una imagen desnuda artificial tuya y eres menor de 18 años, podés denunciarlo en la línea directa de tu país para que sea retirada. Se encuentra en https://INHOPE.org

Solo necesitas proporcionar la URL donde viste la imagen (no nombres ni datos de contacto).

PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD