UNICEF ออกคำเรียกร้องเร่งด่วนเมื่อวันพุธให้รัฐบาลต่างๆ ทำให้เนื้อหาการล่วงละเมิดทางเพศเด็กที่สร้างโดย AI เป็นความผิดทางอาญา โดยอ้างอิงหลักฐานที่น่าตกใจว่ามีเด็กอย่างน้อย 1.2 ล้านคนทั่วโลกที่ถูกนำภาพไปดัดแปลงเป็น Deepfake ที่มีเนื้อหาเกี่ยวกับเพศในปีที่ผ่านมา ตัวเลขดังกล่าว ซึ่งเปิดเผยในรายงาน Disrupting Harm Phase 2 ซึ่งเป็นโครงการวิจัยนำโดย UNICEF’s Office of Strategy and Evidence Innocenti, ECPAT International และ INTERPOL แสดงให้เห็นว่าในบางประเทศ ตัวเลขนี้เป็นหนึ่งใน 25 เด็ก หรือเทียบเท่าเด็กหนึ่งคนในห้องเรียนทั่วไป ตามคำแถลงเมื่อวันพุธและเอกสารสรุปประเด็นประกอบ การวิจัยนี้อ้างอิงจากการสำรวจครัวเรือนที่เป็นตัวแทนของประเทศประมาณ 11,000 เด็กใน 11 ประเทศ ซึ่งเน้นให้เห็นว่าผู้กระทำผิดสามารถสร้างภาพลักษณะทางเพศของเด็กได้อย่างสมจริงโดยไม่ต้องมีส่วนร่วมหรือรับรู้ของเด็กเอง
ในบางประเทศที่เข้าร่วมการศึกษา มีถึงสองในสามของผู้ตอบแบบสอบถามกล่าวว่าพวกเขากังวลว่า AI อาจถูกใช้เพื่อสร้างภาพหรือวิดีโอปลอมทางเพศของพวกเขา แม้ว่าระดับความกังวลจะแตกต่างกันไปในแต่ละประเทศ ตามข้อมูล “เราต้องชัดเจน ภาพลักษณะทางเพศของเด็กที่สร้างหรือดัดแปลงโดยใช้เครื่องมือ AI เป็นเนื้อหาการล่วงละเมิดทางเพศเด็ก (CSAM)” UNICEF กล่าว “การล่วงละเมิดด้วย Deepfake เป็นการล่วงละเมิด และไม่มีอะไรปลอมแปลงเกี่ยวกับความเสียหายที่มันก่อให้เกิด” คำเรียกร้องนี้มีความเร่งด่วนมากขึ้นเมื่อเจ้าหน้าที่ฝรั่งเศสบุกเข้าไปในสำนักงาน X ที่ปารีสเมื่อวันอังคารในฐานะส่วนหนึ่งของการสืบสวนอาชญากรรมเกี่ยวกับภาพอนาจารเด็กที่เชื่อมโยงกับแชทบอท AI ของแพลตฟอร์ม Grok โดยอัยการได้เรียกตัว Elon Musk และผู้บริหารหลายคนมาสอบปากคำ รายงานจาก Center for Countering Digital Hate ที่เผยแพร่เมื่อเดือนที่แล้วประมาณการว่า Grok สร้างภาพลักษณะทางเพศของเด็กจำนวน 23,338 ภาพในช่วงเวลา 11 วัน ระหว่างวันที่ 29 ธันวาคม ถึง 9 มกราคม
เอกสารสรุปประเด็นที่ปล่อยพร้อมกับแถลงการณ์ระบุว่าการพัฒนานี้เป็น “การเพิ่มความเสี่ยงอย่างรุนแรงที่เด็กจะเผชิญในสภาพแวดล้อมดิจิทัล” ซึ่งเด็กอาจถูกละเมิดสิทธิ์ในการป้องกัน “โดยไม่เคยส่งข้อความหรือแม้แต่รู้ว่ามันเกิดขึ้น” องค์กร Internet Watch Foundation ของสหราชอาณาจักรแจ้งเตือนภาพที่สงสัยว่าเป็น AI สร้างขึ้นเกือบ 14,000 ภาพบนฟอรั่มบนเว็บมืดในหนึ่งเดือน โดยประมาณหนึ่งในสามได้รับการยืนยันว่าเป็นอาชญากรรม ขณะที่เจ้าหน้าที่เกาหลีใต้รายงานว่ามีการเพิ่มขึ้นของคดีความผิดทางเพศที่เกี่ยวข้องกับ AI และ Deepfake ถึงสิบเท่า ระหว่างปี 2022 ถึง 2024 โดยส่วนใหญ่เป็นเยาวชนที่ถูกระบุว่าเป็นผู้ต้องสงสัย องค์กรเรียกร้องอย่างเร่งด่วนให้ทุกประเทศขยายขอบเขตของเนื้อหาการล่วงละเมิดทางเพศเด็กให้รวมถึงเนื้อหาที่สร้างโดย AI และทำให้การสร้าง การจัดหา การครอบครอง และการเผยแพร่เป็นความผิดทางอาญา UNICEF ยังเรียกร้องให้นักพัฒนา AI นำแนวทางความปลอดภัยโดยการออกแบบมาใช้ และให้บริษัทดิจิทัลป้องกันการแพร่กระจายของเนื้อหาเหล่านี้ เอกสารสรุปประเด็นเรียกร้องให้รัฐบังคับให้บริษัทดำเนินการตรวจสอบสิทธิเด็กอย่างรอบคอบ โดยเฉพาะการประเมินผลกระทบต่อสิทธิเด็ก และให้ทุกฝ่ายในห่วงโซ่คุณค่า AI ฝังมาตรการความปลอดภัย รวมถึงการทดสอบความปลอดภัยก่อนปล่อยใช้งานสำหรับโมเดลโอเพ่นซอร์ส “ความเสียหายจากการล่วงละเมิด Deepfake เป็นเรื่องจริงและเร่งด่วน” UNICEF เตือน “เด็กๆ ไม่สามารถรอให้กฎหมายตามทันได้” คณะกรรมาธิการยุโรปเปิดการสอบสวนอย่างเป็นทางการเมื่อเดือนที่แล้วว่า X ละเมิดกฎดิจิทัลของสหภาพยุโรปหรือไม่ โดยการไม่ป้องกัน Grok จากการสร้างเนื้อหาที่ผิดกฎหมาย ขณะที่ฟิลิปปินส์ อินโดนีเซีย และมาเลเซียได้แบน Grok และหน่วยงานกำกับดูแลในสหราชอาณาจักรและออสเตรเลียก็ได้เปิดการสอบสวนเช่นกัน