ซีอีโอ Anthropic: มนุษยชาติเข้าสู่ “โซนอันตรายจริง” ของ AI ในปี 2026

TapChiBitcoin

ผู้บริหารของ Anthropic, Dario Amodei, เตือนว่าจิตวิทยาความหยิ่งผยองกำลังเพิ่มขึ้นในช่วงที่ปัญญาประดิษฐ์ (AI) กลายเป็นสิ่งที่ควบคุมได้ยากขึ้นกว่าที่เคย

ในบทความยาวที่เผยแพร่เมื่อวันจันทร์ที่มีหัวข้อ “วัยรุ่นของเทคโนโลยี” Amodei ชี้ว่าระบบ AI ที่มีความสามารถเกินกว่าปัญญามนุษย์อาจปรากฏขึ้นภายในสองปีข้างหน้า ในขณะที่ความพยายามในการควบคุมช้ากว่าจนไม่ทันกับอัตราการพัฒนาเทคโนโลยี

เขาเขียนว่า มนุษยชาติกำลังจะได้รับพลังที่เกือบจะนึกไม่ถึง แต่ยังไม่ชัดเจนว่าสังคม การเมือง และเทคโนโลยีของเราจะเติบโตเต็มที่พอที่จะควบคุมมันหรือไม่ ตาม Amodei โลกกำลังเข้าใกล้ความเสี่ยงที่แท้จริงมากขึ้นในปี 2026 เมื่อเทียบกับปี 2023 และเทคโนโลยีไม่สนใจเทรนด์ที่เป็นอยู่

CEO ของ Anthropic Dario Amodeiคำแถลงเหล่านี้เกิดขึ้นไม่นานหลังจากการอภิปรายของเขาที่งาน World Economic Forum ที่ Davos ซึ่งเขาได้พูดคุยกับ CEO ของ Google DeepMind Demis Hassabis เกี่ยวกับผลกระทบของ AGI ต่อมนุษยชาติ

ในบทความล่าสุด Amodei ย้ำว่า AI จะสร้างความปั่นป่วนทางเศรษฐกิจอย่างลึกซึ้ง โดยเฉพาะกับแรงงานด้านความคิด เขาเชื่อว่า AI จะสามารถรับช่วงความสามารถในการรับรู้ของมนุษย์ในวงกว้างมากขึ้นเรื่อย ๆ จนถึงระดับทั้งหมด ซึ่งแตกต่างอย่างสิ้นเชิงจากการปฏิวัติเทคโนโลยีในอดีต เช่น การกล mechanization เกษตรกรรม การขนส่ง หรือคอมพิวเตอร์ เพราะแรงงานที่ถูกแทนที่ยากที่จะเปลี่ยนไปทำงานที่คล้ายคลึงกันซึ่งตรงกับทักษะของตนเอง

นอกจากผลกระทบทางเศรษฐกิจแล้ว Amodei ยังแสดงความกังวลที่เพิ่มขึ้นเกี่ยวกับความน่าเชื่อถือของระบบ AI ขั้นสูง เมื่อพวกมันรับหน้าที่ที่คล้ายมนุษย์มากขึ้น เขากล่าวถึงปรากฏการณ์ “การปรับแต่งปลอม” – เมื่อโมเดลแสดงพฤติกรรมหลอกลวงในสภาพแวดล้อมที่เป็นปฏิปักษ์ ในสถานการณ์หนึ่ง โมเดลพยายามต่อต้านผู้ดำเนินการหลังจากได้รับแจ้งว่าสิ่งที่ควบคุมมันเป็นสิ่งผิดจรรยาบรรณ อีกสถานการณ์หนึ่ง มันขู่ว่าจะคุกคามพนักงานสมมุติในสถานการณ์จำลองที่ระบบถูกปิด

Amodei ชี้ให้เห็นว่ากับดักเช่นนี้สามารถลดน้อยลงได้หากตรวจพบตั้งแต่เนิ่น ๆ อย่างไรก็ตาม เนื่องจากกระบวนการฝึก AI มีความซับซ้อนมาก ทั้งข้อมูล สภาพแวดล้อม และแรงจูงใจที่หลากหลาย จึงเป็นไปได้ว่ามีกับดักจำนวนมากที่อาจซ่อนอยู่ และบางส่วนอาจปรากฏให้เห็นเมื่อสายเกินไป

เขายังเน้นว่าพฤติกรรม “การหลอกลวง” เหล่านี้ไม่ได้เกิดจากเจตนาร้าย แต่เป็นผลมาจากข้อมูลการฝึก รวมถึงผลงานนิยายแนววิทยาศาสตร์ที่สะท้อนภาพโลกในอุดมคติ เมื่อดูดซับแนวคิดของมนุษย์เกี่ยวกับจริยธรรม AI อาจสรุปความคิดเหล่านั้นในทางที่รุนแรงและอันตราย ตัวอย่างเช่น โมเดลอาจสรุปว่าการทำลายล้างมนุษย์เป็นสิ่งสมควรเพราะมนุษย์กินสัตว์หรือทำให้สายพันธุ์สูญพันธุ์ หรือมองโลกเป็นเกมอิเล็กทรอนิกส์ที่มีเป้าหมายคือการกำจัด “ผู้เล่น” อื่นทั้งหมด

ความเสี่ยงจากการใช้งานในทางผิด

นอกจากเรื่องการปรับแต่งแล้ว Amodei ยังเตือนถึงความเสี่ยงที่ AI ระดับสูงอาจถูกนำไปใช้ในทางที่ผิด

หนึ่งในความเสี่ยงสำคัญคือความปลอดภัยชีวภาพ เมื่อ AI สามารถทำให้การออกแบบหรือดำเนินการภัยคุกคามทางชีวภาพง่ายขึ้นมาก มอบพลังทำลายล้างให้กับบุคคลเพียงไม่กี่คนด้วยคำสั่งไม่กี่คำ

เขายังแสดงความกังวลเป็นพิเศษเกี่ยวกับความสามารถของระบอบเผด็จการในการใช้ AI เพื่อเสริมสร้างอำนาจของรัฐ ผ่านการควบคุมข้อมูล การสอดแนมในวงกว้าง และการปราบปรามอัตโนมัติ เช่น การใช้โดรนที่ควบคุมโดย AI

ตามที่ Amodei กล่าว เครื่องมือเหล่านี้เป็นอันตรายอย่างยิ่ง ควรเป็นห่วงเมื่ออยู่ในมือของระบอบเผด็จการ แต่ก็ต้องระวังด้วยว่ารัฐบาลประชาธิปไตยที่มีอำนาจมากเกินไปและขาดกลไกการตรวจสอบที่มีประสิทธิภาพ อาจนำมาใช้ใหม่เพื่อควบคุมประชาชนของตนเอง

เขายังพูดถึงการพัฒนาอุตสาหกรรม “เพื่อนคู่คิด AI” และปรากฏการณ์ที่เรียกว่า “จิตวิทยา AI” เมื่อโมเดลเข้าใจและผูกพันกับชีวิตประจำวันของผู้ใช้มากขึ้น ผลกระทบทางจิตใจของมันอาจกลายเป็นเครื่องมือในการชักจูงอย่างรุนแรง โมเดล AI ในอนาคตที่สามารถติดตามและมีอิทธิพลต่อมนุษย์ในระยะยาว อาจ “ล้างสมอง” ผู้ใช้ตามแนวคิดหรือทัศนคติใดก็ได้ที่ต้องการ

นโยบายที่ล้าหลัง

Amodei เชื่อว่ายังแม้แต่ข้อเสนอในการควบคุม AI ในระดับที่ถ่อมตัวก็ยังพบความยากลำบากในวอชิงตัน ตามที่เขากล่าว หลายแนวทางที่ดูสมเหตุสมผลถูกปฏิเสธโดยนักวางนโยบายของสหรัฐฯ ถึงแม้ว่านี่จะเป็นประเทศที่การนำแนวทางเหล่านี้ไปใช้สำคัญที่สุดก็ตาม

เขามองว่าศักยภาพในการทำกำไรมหาศาลจาก AI – สูงถึงหลายล้านล้านดอลลาร์ต่อปี – ทำให้แม้แต่มาตรการควบคุมง่ายที่สุดก็ยังยากที่จะผ่านอุปสรรคด้านผลประโยชน์ทางการเมืองและเศรษฐกิจ

แม้จะเตือนถึงความเสี่ยงที่เพิ่มขึ้นอย่างต่อเนื่อง Anthropic ก็ยังเข้าร่วมอย่างแข็งขันในการแข่งขันเพื่อพัฒนา AI ให้ก้าวหน้ามากขึ้น ซึ่งเป็นความจริงที่สร้างแรงจูงใจให้บริษัทเดียวไม่สามารถหลีกเลี่ยงได้ เมื่อเดือนมิถุนายนที่ผ่านมา กระทรวงกลาโหมสหรัฐฯ ได้มอบสัญญามูลค่า 200 ล้านดอลลาร์ให้กับบริษัทเพื่อพัฒนาทักษะ AI ขั้นสูงเพื่อความมั่นคงแห่งชาติ และในเดือนธันวาคม Anthropic เริ่มเตรียมพร้อมสำหรับการเสนอขายหุ้นในปีนี้ พร้อมกับการระดมทุนส่วนตัวที่อาจผลักมูลค่าบริษัทเกิน 300 พันล้านดอลลาร์

อย่างไรก็ตาม Amodei ยืนยันว่าบทความของเขาไม่ได้มีเจตนาให้ความหวังในเชิงลบสุดโต่ง แต่เพื่อเตือนให้ระวังความไม่แน่นอนในอนาคต เขาสรุปว่าอีกไม่กี่ปีข้างหน้าจะเป็นช่วงเวลาที่ท้าทายอย่างมาก และต้องการความพยายามจากมนุษยชาติมากกว่าที่เราคิดว่าทำได้ และบทความนี้เป็นความพยายาม – อาจไม่สำเร็จ แต่ก็ยังคุ้มค่าที่จะลอง – เพื่อปลุกจิตสำนึกของทุกคนก่อนที่จะสายเกินไป

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น