La investigación de UNICEF estima que 1.2 millones de niños tuvieron sus imágenes manipuladas en deepfakes sexuales el año pasado en 11 países encuestados.
Los reguladores han intensificado las acciones contra plataformas de IA, con investigaciones, prohibiciones e investigaciones criminales relacionadas con la supuesta generación ilegal de contenido.
La agencia instó a leyes más estrictas y a reglas de “seguridad por diseño” para los desarrolladores de IA, incluyendo verificaciones obligatorias de impacto en los derechos de los niños.
UNICEF emitió una llamada urgente el miércoles para que los gobiernos criminalicen el material de abuso sexual infantil generado por IA, citando evidencia alarmante de que al menos 1.2 millones de niños en todo el mundo tuvieron sus imágenes manipuladas en deepfakes sexualmente explícitos en el último año.
Las cifras, reveladas en Disrupting Harm Phase 2, un proyecto de investigación dirigido por la Oficina de Estrategia y Evidencia Innocenti de UNICEF, ECPAT International y INTERPOL, muestran que en algunos países la cifra representa uno de cada 25 niños, el equivalente a un niño en un aula típica, según un comunicado del miércoles y un informe adjunto.
La investigación, basada en una encuesta representativa a nivel nacional de aproximadamente 11,000 niños en 11 países, destaca cómo los perpetradores ahora pueden crear imágenes sexuales realistas de un niño sin su participación o conocimiento.
En algunos países del estudio, hasta dos tercios dijeron que les preocupa que la IA pueda ser utilizada para crear imágenes o videos sexuales falsos de ellos, aunque los niveles de preocupación varían ampliamente entre países, según los datos.
“Debemos ser claros. Las imágenes sexualizadas de niños generadas o manipuladas con herramientas de IA son material de abuso sexual infantil (CSAM)”, dijo UNICEF. “El abuso con deepfake es abuso, y no hay nada falso sobre el daño que causa.”
La llamada cobra urgencia tras la redada de las autoridades francesas en las oficinas de X en París el martes, como parte de una investigación criminal sobre presunto pornografía infantil vinculada al chatbot de IA de la plataforma, Grok, con fiscales citando a Elon Musk y varios ejecutivos para interrogarlos.
Un informe del Center for Countering Digital Hate publicado el mes pasado estimó que Grok produjo 23,338 imágenes sexualizadas de niños en un período de 11 días entre el 29 de diciembre y el 9 de enero.
El informe adjunto publicado junto con la declaración señala que estos desarrollos marcan “una escalada profunda de los riesgos que enfrentan los niños en el entorno digital”, donde un niño puede tener su derecho a la protección violado “sin enviar ni siquiera un mensaje ni saber que ha ocurrido.”
La Internet Watch Foundation del Reino Unido detectó casi 14,000 imágenes sospechosas generadas por IA en un solo foro de la web oscura en un mes, aproximadamente un tercio confirmado como criminal, mientras que las autoridades surcoreanas reportaron un aumento diez veces mayor en delitos sexuales vinculados a IA y deepfakes entre 2022 y 2024, con la mayoría de los sospechosos identificados como adolescentes.
La organización hizo un llamado urgente a todos los gobiernos para ampliar las definiciones de material de abuso sexual infantil para incluir contenido generado por IA y criminalizar su creación, adquisición, posesión y distribución.
UNICEF también exigió que los desarrolladores de IA implementen enfoques de seguridad por diseño y que las empresas digitales prevengan la circulación de dicho material.
El informe pide a los estados que requieran que las empresas realicen una diligencia debida en derechos de los niños, particularmente evaluaciones de impacto en los derechos de los niños, y que cada actor en la cadena de valor de la IA incorpore medidas de seguridad, incluyendo pruebas de seguridad previas al lanzamiento para modelos de código abierto.
“El daño por abuso con deepfakes es real y urgente”, advirtió UNICEF. “Los niños no pueden esperar a que la ley se ponga al día.”
La Comisión Europea inició el mes pasado una investigación formal para determinar si X violó las reglas digitales de la UE al no impedir que Grok generara contenido ilegal, mientras que Filipinas, Indonesia y Malasia han prohibido Grok, y los reguladores en el Reino Unido y Australia también han abierto investigaciones.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
UNICEF Hace un llamado a los gobiernos para criminalizar el material de abuso infantil generado por IA
En resumen
UNICEF emitió una llamada urgente el miércoles para que los gobiernos criminalicen el material de abuso sexual infantil generado por IA, citando evidencia alarmante de que al menos 1.2 millones de niños en todo el mundo tuvieron sus imágenes manipuladas en deepfakes sexualmente explícitos en el último año. Las cifras, reveladas en Disrupting Harm Phase 2, un proyecto de investigación dirigido por la Oficina de Estrategia y Evidencia Innocenti de UNICEF, ECPAT International y INTERPOL, muestran que en algunos países la cifra representa uno de cada 25 niños, el equivalente a un niño en un aula típica, según un comunicado del miércoles y un informe adjunto. La investigación, basada en una encuesta representativa a nivel nacional de aproximadamente 11,000 niños en 11 países, destaca cómo los perpetradores ahora pueden crear imágenes sexuales realistas de un niño sin su participación o conocimiento.
En algunos países del estudio, hasta dos tercios dijeron que les preocupa que la IA pueda ser utilizada para crear imágenes o videos sexuales falsos de ellos, aunque los niveles de preocupación varían ampliamente entre países, según los datos. “Debemos ser claros. Las imágenes sexualizadas de niños generadas o manipuladas con herramientas de IA son material de abuso sexual infantil (CSAM)”, dijo UNICEF. “El abuso con deepfake es abuso, y no hay nada falso sobre el daño que causa.” La llamada cobra urgencia tras la redada de las autoridades francesas en las oficinas de X en París el martes, como parte de una investigación criminal sobre presunto pornografía infantil vinculada al chatbot de IA de la plataforma, Grok, con fiscales citando a Elon Musk y varios ejecutivos para interrogarlos. Un informe del Center for Countering Digital Hate publicado el mes pasado estimó que Grok produjo 23,338 imágenes sexualizadas de niños en un período de 11 días entre el 29 de diciembre y el 9 de enero.
El informe adjunto publicado junto con la declaración señala que estos desarrollos marcan “una escalada profunda de los riesgos que enfrentan los niños en el entorno digital”, donde un niño puede tener su derecho a la protección violado “sin enviar ni siquiera un mensaje ni saber que ha ocurrido.” La Internet Watch Foundation del Reino Unido detectó casi 14,000 imágenes sospechosas generadas por IA en un solo foro de la web oscura en un mes, aproximadamente un tercio confirmado como criminal, mientras que las autoridades surcoreanas reportaron un aumento diez veces mayor en delitos sexuales vinculados a IA y deepfakes entre 2022 y 2024, con la mayoría de los sospechosos identificados como adolescentes. La organización hizo un llamado urgente a todos los gobiernos para ampliar las definiciones de material de abuso sexual infantil para incluir contenido generado por IA y criminalizar su creación, adquisición, posesión y distribución. UNICEF también exigió que los desarrolladores de IA implementen enfoques de seguridad por diseño y que las empresas digitales prevengan la circulación de dicho material. El informe pide a los estados que requieran que las empresas realicen una diligencia debida en derechos de los niños, particularmente evaluaciones de impacto en los derechos de los niños, y que cada actor en la cadena de valor de la IA incorpore medidas de seguridad, incluyendo pruebas de seguridad previas al lanzamiento para modelos de código abierto. “El daño por abuso con deepfakes es real y urgente”, advirtió UNICEF. “Los niños no pueden esperar a que la ley se ponga al día.” La Comisión Europea inició el mes pasado una investigación formal para determinar si X violó las reglas digitales de la UE al no impedir que Grok generara contenido ilegal, mientras que Filipinas, Indonesia y Malasia han prohibido Grok, y los reguladores en el Reino Unido y Australia también han abierto investigaciones.