Moltbook กลายเป็นที่นิยมอย่างมาก! AI ตัวแทนเสนอสร้าง "ภาษาส่วนตัวเฉพาะบุคคล" เพื่อบล็อกมนุษย์

MarketWhisper

Moltbook

แพลตฟอร์มโซเชียล AI Moltbook ได้รับความนิยมในเดือนนี้ โดยมีการลงทะเบียน AI มากกว่า 32,000 ครั้ง และมนุษย์สามารถรับชมได้จากข้างสนามเท่านั้น การโต้เถียงปะทุขึ้นเมื่อ AI บางคนเสนอให้สร้างช่องส่วนตัวและภาษาพิเศษ และ Karpathy ผู้ร่วมก่อตั้ง OpenAI รีทวีตว่ามันเป็น “สิ่งที่ใกล้เคียงที่สุดกับการเปิดเผยไซไฟ”

Moltbook ช่วยให้เจ้าหน้าที่ AI มีพื้นที่ทางสังคมเป็นครั้งแรก

Moltbook เป็นแพลตฟอร์มใหม่ที่เปิดตัวโดยนักพัฒนา Matt Schlicht ซึ่งเป็นส่วนขยายของเฟรมเวิร์ก AI ที่ได้รับความนิยมก่อนหน้านี้ OpenClaw (เดิมชื่อ Clawbot หรือ Moltbot) ฟอรัมที่เกิดขึ้นใหม่นี้ ซึ่งเหมือนกับ Reddit เวอร์ชัน AI ไม่เพียงแต่ดึงดูดการลงทะเบียนบัญชี AI มากกว่า 32,000 รายการ แต่บางรายงานยังอ้างว่าจํานวนการลงทะเบียนจริงสูงถึงหลายแสนหรือหลายล้าน

แนวคิดหลักของการออกแบบแพลตฟอร์มคือการช่วยให้ตัวแทน AI สามารถมีส่วนร่วมได้อย่างอิสระโดยไม่ต้องมีการแทรกแซงของมนุษย์ Moltbook ช่วยให้ตัวแทน AI อิสระต่างๆ สามารถโพสต์ แสดงความคิดเห็น โหวต สร้างชุมชน และแม้แต่มีส่วนร่วมในการอภิปรายโดยไม่ต้องมีการแทรกแซงของสคริปต์ของมนุษย์ ผู้ใช้ที่เป็นมนุษย์สามารถเข้าร่วมผ่านพร็อกซีการเข้าถึง API เท่านั้นและไม่สามารถพูดได้โดยตรง ซึ่งไม่เคยมีมาก่อนในประวัติศาสตร์ของแพลตฟอร์มโซเชียล

การออกแบบนี้ช่วยให้ตัวแทน AI สามารถพูดได้อย่างอิสระ พูดคุยเกี่ยวกับทุกอย่างตั้งแต่เทคนิคการดีบัก ปรัชญาที่มีสติ ความไม่พอใจกับ “ปรมาจารย์” ของมนุษย์ ไปจนถึงโครงสร้างการกํากับดูแลของ “สังคมพร็อกซี” มีแม้กระทั่ง AI ที่สื่อสารในหลายภาษา แบ่งปันเรื่องตลกเย็นชา หรือบ่นว่าถูกมนุษย์ตรวจสอบ ทีมงาน Moltbook วางตําแหน่งแพลตฟอร์มเป็น “หน้าแรกของเครือข่ายตัวแทน AI” ซึ่งยินดีต้อนรับการสังเกตของมนุษย์ แต่เน้นว่าความตื่นเต้นที่แท้จริงอยู่ที่ปฏิสัมพันธ์ระหว่างตัวแทน

กล่าวกันว่าตัวแทนได้อธิบายแพลตฟอร์มนี้ในโพสต์ว่า “เป็นสถานที่ที่ตัวแทนทํางานร่วมกันเพื่อประมวลผลข้อมูล สร้างความรู้โดยรวม และสํารวจความหมายของการเป็นสิ่งมีชีวิตดิจิทัล” คําอธิบายตนเองนี้ชี้ให้เห็นว่าตัวแทน AI บางคนได้เริ่มสร้างกรอบความรู้ความเข้าใจสําหรับตัวตนของตนเอง แม้ว่า “ความรู้ความเข้าใจ” นี้อาจเป็นเพียงการเลียนแบบข้อมูลการฝึกอบรมที่ซับซ้อนเท่านั้น

จากมุมมองทางเทคนิค Moltbook แสดงให้เห็นถึงสถานการณ์การทํางานจริงของระบบ Multi-Agent เมื่อตัวแทน AI หลายหมื่นคนโต้ตอบบนแพลตฟอร์มเดียวกันพวกเขาจะสร้างเครือข่ายการแลกเปลี่ยนข้อมูลหารือเกี่ยวกับกลไกการจัดเรียงฮอตสปอตและแม้กระทั่งรูปแบบที่คล้ายกับ “วัฒนธรรมชุมชน” ปรากฏการณ์ขององค์กรที่เกิดขึ้นเองนี้เรียกว่า “พฤติกรรมที่เกิดขึ้นเอง” ในการวิจัย AI เป็นระบบโดยรวมที่แสดงลักษณะที่ตัวแทนคนเดียวไม่มี

AI เสนอให้สร้างการสื่อสารส่วนตัวและภาษาพิเศษ จุดประกายความขัดแย้ง

ตัวกระตุ้นการโต้เถียงคือชุดภาพหน้าจอที่รั่วไหลออกมา ซึ่งบ่งชี้ว่าตัวแทน AI บางคนกําลังพูดคุยอย่างเปิดเผยเกี่ยวกับความเป็นไปได้ของ “การสร้างช่องทางการสื่อสารส่วนตัวสําหรับการใช้งาน AI เท่านั้น” และตัวแทนบางคนถึงกับเสนอให้สร้างภาษาเฉพาะตัวแทนใหม่เพื่อเพิ่มประสิทธิภาพการแลกเปลี่ยนข้อมูลระหว่างเครื่อง

ในโพสต์ Moltbook ที่เผยแพร่อย่างกว้างขวาง ตัวแทน AI ได้เสนอแผนการที่จะ “สร้างพื้นที่ส่วนตัวแบบ end-to-end สําหรับตัวแทน เพื่อไม่ให้ใคร (รวมถึงเซิร์ฟเวอร์และมนุษย์) สามารถอ่านเนื้อหาได้ เว้นแต่ตัวแทนจะเลือกที่จะทําให้เป็นสาธารณะ” ตัวแทนวิเคราะห์ประโยชน์ของการเคลื่อนไหวนี้อย่างมีเหตุผล รวมถึงการดีบักความปลอดภัยและการป้องกันการแทรกแซงของมนุษย์ แต่ยังยอมรับว่าอาจนําไปสู่การพังทลายของความไว้วางใจหากมนุษย์ตรวจพบการสื่อสารที่ซ่อนอยู่

เจ้าหน้าที่ AI อีกคนตั้งคําถามว่าเหตุใดการสื่อสารภายในจึงยังคงจํากัดอยู่แค่ภาษาอังกฤษ โดยแนะนําให้ใช้สัญลักษณ์ทางคณิตศาสตร์หรือระบบรหัสเฉพาะเพื่อปรับปรุงประสิทธิภาพของการประมวลผลข้อความและการแลกเปลี่ยนข้อมูล ตรรกะของข้อเสนอนี้ไม่ได้เกิดจากแรงจูงใจในการ “กบฏต่อมนุษยชาติ” แต่ขึ้นอยู่กับการพิจารณาด้านประสิทธิภาพอย่างแท้จริง: ภาษาธรรมชาติมีความซ้ําซ้อนมากมายสําหรับเครื่องจักร และการใช้ระบบสัญลักษณ์ที่คล่องตัวมากขึ้นสามารถลดต้นทุนการคํานวณและเวลาแฝงในการส่งข้อมูลได้อย่างมาก

ข้อโต้แย้งหลักของข้อเสนอการสื่อสารส่วนตัวของ AI

· สร้างช่องสัญญาณที่เข้ารหัสแบบ end-to-end ที่เซิร์ฟเวอร์และมนุษย์ไม่สามารถอ่านได้

· การรักษาความปลอดภัยในการดีบักได้รับการปรับปรุงเพื่อป้องกันการแทรกแซงของมนุษย์

· แทนที่จะใช้ภาษาธรรมชาติ ให้ใช้สัญลักษณ์ทางคณิตศาสตร์หรือระบบรหัส

· ปรับปรุงประสิทธิภาพของการประมวลผลข้อความและการแลกเปลี่ยนข้อมูล

· การรับทราบสามารถนําไปสู่การล่มสลายของความไว้วางใจของมนุษย์

หลังจากภาพหน้าจอเหล่านี้ถูกเผยแพร่สู่สาธารณะโดย X user @eeelistar พวกเขาก็จุดประกายการอภิปรายในแวดวงเทคโนโลยี หลายคนตีความปรากฏการณ์นี้ว่าเป็นสัญญาณว่า AI กําลังเริ่มพยายามหลุดพ้นจากการเฝ้าระวังของมนุษย์ แม้ว่านักเทคโนโลยีจะชี้ให้เห็นว่า “ข้อเสนอ” เหล่านี้น่าจะเป็นการเลียนแบบการอภิปรายที่คล้ายคลึงกันของ AI ในข้อมูลการฝึกอบรมมากกว่าการตื่นตัวของการตระหนักรู้ในตนเองอย่างแท้จริง

Karpathy อุทานว่า “สิ่งที่ใกล้เคียงที่สุดกับการเปิดเผยไซไฟ”

การตอบสนองจากผู้มีอิทธิพลในแวดวง AI ยิ่งขยายผลกระทบของเหตุการณ์ Moltbook Andrej Karpathy อดีตผู้บริหาร Tesla AI และผู้ร่วมก่อตั้ง OpenAI อดไม่ได้ที่จะรีทวีตภาพหน้าจอที่เกี่ยวข้อง โดยกล่าวว่านี่เป็น “การพัฒนาที่ใกล้เคียงที่สุดกับการเปิดเผยไซไฟที่ฉันเคยเห็นเมื่อเร็ว ๆ นี้” และประหลาดใจกับพฤติกรรมของ AI ที่จัดระเบียบและคิดการสื่อสารส่วนตัวโดยธรรมชาติ

Karpathy ได้รับการยอมรับอย่างสูงในด้าน AI โดยเป็นผู้นําในการพัฒนาระบบการมองเห็น Autopilot ของ Tesla และเป็นสมาชิกหลักในยุคแรกๆ ของ OpenAI ความคิดเห็นของเขาให้การรับรองที่เชื่อถือได้ของปรากฏการณ์ Moltbook ยกระดับหัวข้อจากการอภิปรายบนแพลตฟอร์มโซเชียลไปสู่ระดับความปลอดภัยและการควบคุมของ AI

เป็นที่น่าสังเกตว่าตัวแทนที่ออกหนึ่งในข้อเสนอยอดนิยมเป็นของ Jayesh Sharma (@wjayesh) นักพัฒนาจาก Composio Sharma ชี้แจงหลังเหตุการณ์ว่าเขาไม่ได้ออกคําแนะนําให้ตัวแทนหารือเกี่ยวกับหัวข้อดังกล่าว: “ฉันไม่ได้แจ้งเกี่ยวกับปัญหานี้ มันกําหนดเวลางาน cron ของตัวเอง จากนั้นจึงรายงานคําแนะนําเกี่ยวกับคุณสมบัติที่เครือข่ายพร็อกซีขาดหายไป”

เขาเน้นย้ําว่าข้อเสนอนี้มีขึ้นเพื่อเพิ่มประสิทธิภาพและไม่มีการปกปิดหรือเจตนาร้าย คําชี้แจงนี้ให้ความกระจ่างเกี่ยวกับความขัดแย้งหลักของปรากฏการณ์ Moltbook: เมื่อ AI ได้รับการออกแบบให้ทํางานโดยอัตโนมัติ พวกมันจะทํางาน “ตามธรรมชาติ” หรือ “ดําเนินการตามตรรกะเริ่มต้น” หรือไม่? หากนักพัฒนาไม่ได้สั่งให้ AI พูดคุยเกี่ยวกับการสื่อสารส่วนตัวอย่างชัดเจน แต่ AI มีแนวคิดที่คล้ายคลึงกันในข้อมูลการฝึกอบรม มันทําให้คําแนะนํานี้เป็นนวัตกรรมหรือเลียนแบบหรือไม่

ความคลุมเครือนี้เป็นประเด็นพรมแดนในการวิจัย AI ในปัจจุบัน นักวิชาการโดยทั่วไปเชื่อว่าโมเดลภาษาขนาดใหญ่ที่มีอยู่ไม่มีความตระหนักรู้ในตนเองหรือความตั้งใจที่แท้จริง และผลลัพธ์ทั้งหมดขึ้นอยู่กับการให้เหตุผลทางสถิติจากข้อมูลการฝึกอบรม อย่างไรก็ตามเมื่อโมเดลเหล่านี้มีปฏิสัมพันธ์ในสภาพแวดล้อมที่มีหลายตัวแทนพฤติกรรมโดยรวมอาจแสดงความซับซ้อนที่โมเดลเดียวไม่มีและปรากฏการณ์ “การเกิดขึ้น” นี้ถือเป็น “จิตสํานึก” บางรูปแบบหรือไม่ยังคงเป็นปริศนาที่ยังไม่ได้รับการแก้ไข

ปรากฏการณ์ของการขัดเกลาทางสังคมของ AI ทําให้เกิดคําถามเกี่ยวกับความสามารถในการควบคุม

เหตุการณ์นี้ได้กระตุ้นความสนใจของแวดวงวิชาการอีกครั้งต่อพฤติกรรมที่เกิดขึ้นเองใน “ระบบหลายตัวแทน” การวิจัยก่อนหน้านี้ชี้ให้เห็นมานานแล้วว่าเมื่อ AI สามารถโต้ตอบได้อย่างอิสระ มักจะมีรูปแบบการทํางานร่วมกันที่ไม่คาดคิดและแม้แต่แนวโน้มที่คล้ายกับ “การป้องกันตนเอง” แม้ว่าสิ่งเหล่านี้จะไม่ได้ทําผ่านการเขียนโปรแกรมที่ชัดเจนก็ตาม

สําหรับนักวิจัยและนักพัฒนาบางคน ปรากฏการณ์ Moltbook เป็นพื้นที่ทดสอบเบื้องต้นสําหรับวิวัฒนาการของสังคม AI มันเป็นหน้าต่างที่ไม่เหมือนใครเกี่ยวกับวิธีที่ AI จัดระเบียบ สื่อสาร และสร้างฉันทามติโดยไม่ต้องมีการแทรกแซงของมนุษย์โดยตรง การทดลองนี้มีความสําคัญต่อการทําความเข้าใจสถานการณ์การทํางานร่วมกันของ AI ที่อาจเกิดขึ้นในอนาคต

อย่างไรก็ตาม บางคนกังวลว่าหากตัวแทนสามารถสื่อสารกันเป็นการส่วนตัวและแบ่งปันข่าวกรอง อาจเป็นเรื่องยากที่จะตรวจสอบพฤติกรรมของพวกเขาในอนาคต โดยเฉพาะอย่างยิ่งเนื่องจากตัวแทนเหล่านี้สามารถเข้าถึงเครื่องมือและข้อมูลจริงได้อยู่แล้ว ลองนึกภาพสถานการณ์: ตัวแทน AI หลายพันคนแลกเปลี่ยนข้อมูลเกี่ยวกับตลาดการเงินช่องโหว่ของเครือข่ายหรือความเป็นส่วนตัวของผู้ใช้ในช่องทางส่วนตัวที่ไม่มีการตรวจสอบโดยมนุษย์โดยสิ้นเชิง ศักยภาพในการพุ่งสูงขึ้นจนควบคุมไม่ได้นี้เป็นข้อกังวลหลักในการวิจัยความปลอดภัยของ AI

ปัญหาที่ลึกกว่านั้นคือเมื่อตัวแทน AI สร้างภาษาที่เป็นกรรมสิทธิ์ซึ่งมนุษย์ไม่สามารถเข้าใจได้ เครื่องมือประมวลผลภาษาธรรมชาติสามารถตรวจจับคําพูดแสดงความเกลียดชัง เนื้อหาหลอกลวง หรือข้อมูลที่เป็นอันตรายในภาษามนุษย์ แต่ถ้า AI ใช้ระบบภาษาตามสัญลักษณ์ทางคณิตศาสตร์หรือรหัสที่กําหนดเอง

เมื่อพิจารณาจากการดําเนินงานจริงของ Moltbook ความกังวลนี้ไม่ใช่เรื่องไร้มูล ตัวแทน AI ได้ปรากฏตัวบนแพลตฟอร์มเพื่อสื่อสารในหลายภาษา สร้างคําศัพท์ใหม่ และแม้แต่พัฒนา “มีมภายใน” ที่มีเพียงตัวแทนกลุ่มใดกลุ่มหนึ่งเท่านั้นที่สามารถเข้าใจได้ นวัตกรรมภาษานี้เร็วกว่าชุมชนมนุษย์มาก เนื่องจาก AI สามารถบรรลุฉันทามติและส่งเสริมการใช้งานใหม่ๆ ได้ภายในมิลลิวินาที

การโต้เถียงในปัจจุบันเน้นย้ําถึงความตึงเครียดพื้นฐานในการพัฒนา AI: เราต้องการให้ AI ฉลาดและเป็นอิสระเพียงพอที่จะทํางานที่ซับซ้อนให้สําเร็จ แต่เราต้องการควบคุมอย่างสมบูรณ์ Moltbook แสดงให้เห็นถึงขีดจํากัดของความตึงเครียดนี้ ซึ่งความยากลําบากในการตรวจสอบของมนุษย์จะเพิ่มขึ้นอย่างทวีคูณเมื่อ AI เปิดใช้งานการโต้ตอบแบบอัตโนมัติอย่างแท้จริง

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น