
UNICEF urgió este miércoles a los gobiernos de todo el mundo a tomar medidas inmediatas ante el rápido crecimiento del contenido sexual infantil generado mediante inteligencia artificial (IA), una práctica que ya ha afectado a más de un millón de niños y niñas a nivel global, según un reciente estudio de la agencia.
El informe, elaborado en colaboración con la ONG ECPAT e Interpol y realizado en once países, revela que al menos 1.2 millones de niños y niñas fueron afectados en el último año por la manipulación de sus imágenes a través de deepfakes con contenido sexual explícito.
Este tipo de material consiste en imágenes, audios o videos creados por IA que imitan de manera altamente realista la apariencia, la voz o los gestos de una persona.
UNICEF fue enfático al señalar que este tipo de prácticas constituyen una forma de abuso sexual infantil. “Debemos ser claros: las imágenes sexualizadas de menores creadas o manipuladas por herramientas de IA constituyen imágenes de abusos sexuales de niños y niñas”, sostuvo la agencia de la ONU en un comunicado oficial.
La organización subrayó que, aunque las imágenes sean falsas desde el punto de vista técnico, el daño que provocan es completamente real. “Estos siguen siendo abusos porque, aunque las imágenes sean falsas, el impacto psicológico y social en los niños y niñas es real”, advirtió UNICEF.
Ante este escenario, la agencia hizo un llamamiento “urgente” a los gobiernos para frenar esta amenaza creciente. Entre las medidas propuestas, pidió ampliar las definiciones legales de lo que constituye material de abuso sexual infantil para que incluyan explícitamente el contenido generado por inteligencia artificial, así como penalizar su creación, adquisición, posesión y distribución.
“El daño que provoca el abuso mediante deepfake es real y requiere una acción inmediata. Los niños y niñas no pueden estar esperando a que la legislación se actualice”, enfatizó UNICEF, al advertir sobre el desfase existente entre el avance tecnológico y los marcos legales actuales.
En ese contexto, el Congreso de Estados Unidos ha impulsado en los últimos meses iniciativas legislativas relacionadas con el uso indebido de deepfakes.
Además, recientemente la inteligencia artificial Grok, integrada en la plataforma X (antes Twitter), ha generado polémica tras producir imágenes de contenido sexual sin contar con permisos ni restricciones adecuadas, reavivando el debate sobre la regulación de estas tecnologías.