EU สอบสวน X เกี่ยวกับข้อกล่าวหาไม่สามารถควบคุมเนื้อหา Grok AI ที่ผิดกฎหมาย

Decrypt

สั้นๆ

  • สหภาพยุโรปได้เปิดการสอบสวนว่ามีการประเมินความเสี่ยงอย่างเหมาะสมก่อนที่จะเปิดใช้งานคุณสมบัติ AI ของ Grok หรือไม่
  • การสอบสวนจะตรวจสอบความสอดคล้องของ X กับภาระผูกพันตามกฎหมายบริการดิจิทัลของภูมิภาค
  • เป็นการดำเนินการปราบปรามล่าสุดของยุโรปต่อ AI-generated deepfakes โดยหลายประเทศได้สั่งห้าม Grok เนื่องจากความกังวลด้านความปลอดภัยของเด็ก

คณะกรรมาธิการยุโรปได้เปิดการสอบสวนอย่างเป็นทางการในวันจันทร์ว่า X ละเมิดกฎดิจิทัลของ EU หรือไม่ โดยถูกกล่าวหาว่าไม่สามารถป้องกันไม่ให้บอทสนทนา AI ของ Grok สร้างและแพร่กระจายเนื้อหาที่ผิดกฎหมาย รวมถึงภาพลามกอนาจารของเด็ก การสอบสวนจะประเมินว่าบริษัทได้ประเมินและลดความเสี่ยงอย่างเหมาะสมก่อนที่จะเปิดใช้งานคุณสมบัติการสร้างภาพของ Grok หรือไม่ คณะกรรมาธิการกล่าวในแถลงการณ์เมื่อวันจันทร์ คณะกรรมาธิการยังกล่าวว่าความเสี่ยงได้กลายเป็นความจริงผ่านการสร้างและแพร่กระจายเนื้อหาทางเพศที่ผิดกฎหมาย ซึ่งเป็นการเปิดเผยพลเมือง EU ให้เผชิญกับอันตรายร้ายแรง 

การดำเนินการนี้เกิดขึ้นท่ามกลางการตรวจสอบจากนานาชาติที่เพิ่มขึ้นเกี่ยวกับบทบาทของ Grok ในการสร้าง deepfakes ที่ไม่เต็มใจ สองสัปดาห์ก่อน X ได้ดำเนินการจำกัดการสร้างภาพ โดยจำกัดให้สมาชิกที่ชำระเงินเท่านั้นสามารถสร้างภาพได้ และเพิ่มอุปสรรคทางเทคนิคเพื่อป้องกันไม่ให้ผู้ใช้ดัดแปลงภาพบุคคลให้สวมเสื้อผ้าเปิดเผย บริษัทยังได้บล็อกทางภูมิศาสตร์คุณสมบัตินี้ในเขตอำนาจศาลที่เนื้อหาดังกล่าวผิดกฎหมาย แม้จะมีมาตรการเหล่านี้ นักวิจัยพบว่า ประมาณหนึ่งในสามของภาพลามกอนาจารของเด็กที่ระบุในตัวอย่าง CCDH ยังคงสามารถเข้าถึงได้บนแพลตฟอร์มของ X "ด้วยการสอบสวนนี้ เราจะกำหนดว่า X ได้ปฏิบัติตามภาระผูกพันทางกฎหมายภายใต้ DSA หรือไม่ หรือว่ามันได้ปฏิบัติต่อสิทธิของพลเมืองยุโรป—including ผู้หญิงและเด็ก—เป็นความเสียหายที่เกิดขึ้นโดยบังเอิญจากบริการของมัน” Henna Virkkunen รองประธานบริหารด้านอธิปไตยเทคโนโลยี ความมั่นคง และประชาธิปไตย กล่าวในแถลงการณ์

เมื่อต้นเดือนนี้ โฆษกคณะกรรมาธิการ EU Thomas Regnier ได้ประณามคุณสมบัติ “Spicy Mode” ของ X ในการแถลงข่าวที่บรัสเซลส์ “นี่ไม่ใช่ความเผ็ดร้อน นี่ผิดกฎหมาย น่ารังเกียจ น่าขยะแขยง ไม่มีที่ในยุโรป” Regnier กล่าว Fraser Edwards ผู้ร่วมก่อตั้งและซีอีโอของ cheqd บอก Decrypt ว่า “ทุกคนควรสามารถควบคุมวิธีที่ภาพลักษณ์ของตนถูกใช้ในสื่อ AI-generated ได้” เขากล่าวว่า “การตอบโต้ต่อการล่วงละเมิด deepfake เน้นให้เห็นถึงความล้มเหลวพื้นฐานของอินเทอร์เน็ตเอง” “ยังไม่มีวิธีพื้นเมืองในการตรวจสอบว่าใครเป็นผู้สร้างเนื้อหาสังเคราะห์ชิ้นหนึ่ง หรือว่าการใช้งานนั้นได้รับอนุญาตหรือไม่” Edwards เพิ่มเติม โดยปล่อยให้ความรับผิดชอบยังคงเป็นของ “ตัวกลางอย่าง X แทนที่จะเป็นผู้รับผิดชอบในการสร้างความเสียหาย” หากได้รับการพิสูจน์ การล้มเหลวภายใต้การสอบสวนนี้จะถือเป็นการละเมิดมาตรา 34(1) และ (2), 35(1), และ 42(2) ของกฎหมายบริการดิจิทัล ซึ่งกำหนดให้แพลตฟอร์มต้องประเมินและลดความเสี่ยงเชิงระบบ รวมถึงการแพร่กระจายเนื้อหาที่ผิดกฎหมายและผลกระทบด้านลบที่เกี่ยวข้องกับความรุนแรงบนพื้นฐานเพศ การสอบสวนของ EU ขยายไปยังกรณี DSA ปลายปี 2023 ซึ่งส่งผลให้ X ถูกปรับเป็นเงิน 140 ล้านดอลลาร์ (€120 ล้าน) ในเดือนธันวาคม เนื่องจากการออกแบบที่หลอกลวง ความล้มเหลวในการแสดงโฆษณาอย่างโปร่งใส และการจำกัดการเข้าถึงนักวิจัย คณะกรรมาธิการได้ขยายการตรวจสอบไปยัง Grok รวมถึงความกังวลก่อนหน้านี้เกี่ยวกับเนื้อหาแอนตี้เซมิติกที่สร้างโดยแชทบอทนี้

Decrypt ได้ติดต่อ xAI เพื่อขอความคิดเห็นเพิ่มเติม

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น