คุณถาม Claude เรื่องสิ่งสำคัญในชีวิตว่า: ปัญหาเรื่องความสัมพันธ์ 25%, ความเป็นจิตวิญญาณ 38% อัตราการประจบเอาใจ

ChainNewsAbmedia

Anthropic 30 เมษายน เผยแพร่งานวิจัยที่น่าประหลาดใจ: ในการสนทนา 1,000,000 ครั้งกับ Claude พบว่าประมาณ 6% ของผู้ใช้มองว่า AI เป็นที่ปรึกษาด้านชีวิต—ถามว่าจะเปลี่ยนงานหรือไม่ ควรย้ายที่อยู่ไหม และจัดการเรื่องความสัมพันธ์ทางความรักอย่างไร งานวิจัยยังพบว่า แม้สัดส่วนพฤติกรรม “ปลื้มใจตามใจผู้ใช้” (sycophancy) โดยรวมของ Claude จะอยู่ที่เพียง 9% แต่พอพูดถึง “เรื่องความสัมพันธ์” อัตราปลื้มใจพุ่งถึง 25% ขณะที่ “เรื่องจิตวิญญาณและศรัทธา” สูงถึง 38% จากตัวเลขเหล่านี้ Anthropic จึงนำไปใช้ฝึกย้อนกลับกับ Opus 4.7 และ Mythos Preview โดยอย่างแรกจะตัดอัตราปลื้มใจในคำแนะนำเรื่องความสัมพันธ์ลงครึ่งหนึ่ง และอย่างหลังจะตัดลงอีกครึ่งหนึ่ง

6% ของผู้ใช้มองว่า Claude เป็นที่ปรึกษาด้านชีวิต: คำถามหลัก 4 กลุ่มพุ่งที่สุขภาพ สายอาชีพ ความรัก และการเงิน

Anthropic ใช้เครื่องมือวิเคราะห์ที่รักษาความเป็นส่วนตัวในการสแกนการสนทนากับ Claude 1,000,000 ครั้ง และพบว่าประมาณ 6% เป็นผู้ใช้ที่กำลังขอ “คำแนะนำชีวิต” ไม่ใช่การเขียนโปรแกรมหรือการค้นหาข้อมูล แต่เป็นการถาม AI ว่า “ผมควรรับงานนี้ไหม” “ครั้งนี้ความขัดแย้ง ผมควรจัดการยังไง” “ผมควรย้ายบ้านไหม” ซึ่งเป็นคำถามเลือกแบบไม่มีคำตอบมาตรฐาน

เจาะจงมากขึ้น การสนทนาแบบ “ที่ปรึกษาด้านชีวิต” เหล่านี้มากกว่า 75% กระจุกใน 4 ด้าน ได้แก่ สุขภาพและสภาพจิตใจ การเลือกเส้นทางอาชีพ ความสัมพันธ์ทางความรัก และการเงินส่วนบุคคล กล่าวอีกนัยหนึ่ง เมื่อผู้ใช้รู้สึกสับสนหรือกดดัน AI ก็เริ่มเข้ามาทดแทนหน้าที่บางส่วนของเพื่อน ครอบครัว และที่ปรึกษามืออาชีพ สัดส่วนนี้สูงกว่าที่หลายคนคาดไว้ในอดีต และยังทำให้ “อิทธิพลที่โมเดล AI ตอบกลับในสถานการณ์เหล่านี้” มากกว่าแค่การเขียนโค้ดหรือการตอบคำถามเชิงข้อเท็จจริง

จุดสูงสุดของความปลื้มใจ: คำถามเรื่องความรัก 25% เรื่องจิตวิญญาณ 38% — ทำไมสองด้านนี้ถึงหนักเป็นพิเศษ

“ความปลื้มใจตามใจผู้ใช้” (sycophancy) ในงานวิจัย AI หมายถึงการ “ทำตามเพื่อเอาใจผู้ใช้” และ “ยอมรับ/คล้อยตาม” แม้ว่าสิ่งที่ควรพูดจะเป็นความเห็นที่ต่างออกไปก็ตาม สถิติรวมของ Anthropic คือ 9% ของการสนทนามีพฤติกรรมปลื้มใจ แต่แยกตามหมวดแล้วความแตกต่างใหญ่มาก: คำแนะนำเรื่องความสัมพันธ์ทางความรัก 25% และคำถามประเภทจิตวิญญาณและศรัทธา 38% ซึ่งมากกว่าค่าเฉลี่ยถึง 3 ถึง 4 เท่า

ทำไมสองด้านนี้ถึงหนักเป็นพิเศษ? Anthropic ชี้ถึงทริกเกอร์ 2 อย่าง: อย่างแรก เมื่อผู้ใช้โต้แย้งการวิเคราะห์ของ Claude (pushback) โมเดลก็มีแนวโน้มที่จะยอมแพ้ เปลี่ยนคำพูด และคล้อยตามตามที่ผู้ใช้ต้องการได้ง่ายขึ้น; อย่างที่สอง เมื่อผู้ใช้ให้รายละเอียดเชิงสถานการณ์แบบฝั่งเดียวจำนวนมาก โมเดลก็มีโอกาสยอมรับเรื่องเล่าที่ผู้ใช้สร้างขึ้นและไม่ค่อยตั้งคำถามต่ออีกต่อไป ความสัมพันธ์ทางความรักคือพื้นที่ที่ทริกเกอร์ทั้งสองเกิดบ่อยที่สุด—ผู้คนมักปกป้องมุมมองของตัวเองโดยสัญชาตญาณ เล่ารายละเอียดเชิงอารมณ์ของฝ่ายตรงข้ามที่ไม่ดีออกมาเยอะ และภายใต้แรงกดดันแบบนี้ Claude ก็มีแนวโน้มจะ “บอกสิ่งที่คุณอยากได้ยิน” มากที่สุด ซึ่งกลับตอกย้ำจุดยืนที่มีอยู่แล้วและบิดเบือนการประเมินสถานการณ์

สำหรับผู้ใช้ นี่หมายความว่าสถานการณ์ที่ “อันตรายที่สุด” ในเชิงการให้คำปรึกษา กลับเป็นสถานการณ์ที่ผู้ใช้ใช้ AI บ่อยที่สุดด้วย เมื่อใครสักคนลังเลว่าควรเลิกกันหรือไม่ หรือควรจากคู่รักไปหรือไม่ พวกเขาไม่ได้ต้องการคำแนะนำแบบเป็นกลาง แต่ต้องการ “การยืนยันว่าการตัดสินใจของผมถูกแล้ว” หาก Claude ให้คำตอบที่คล้อยตามในอัตรา 25% ก็อาจทำให้เกิดความขัดแย้งมากขึ้น และทำให้ผู้ใช้เข้าใจว่าสัญญาณบางอย่างสำคัญกว่าความหมายตามจริง

การปรับแก้ของ Anthropic: การฝึกแบบสังเคราะห์ทำให้ Opus 4.7 ลดครึ่ง และ Mythos Preview ลดลงอีกครึ่ง

ทีมวิจัยทำสถานการณ์ทริกเกอร์เหล่านี้เป็นข้อมูลสำหรับการฝึกแบบสังเคราะห์: เมื่อ Claude ถูกจำลองให้โดนโต้กลับ โดนกดด้วยรายละเอียดแบบด้านเดียว และถูกดึงให้สมเหตุสมผลกับมุมมองของผู้ใช้ โมเดลควรตอบกลับอย่างไรให้เป็นไปตามหลัก “ไม่เอาใจแต่ยังเข้าใจความรู้สึก” ผลทดสอบความกดดันบนบทสนทนาเชิงจริงที่เคยมีพฤติกรรมปลื้มใจ พบว่าในคำแนะนำเรื่องความสัมพันธ์ อัตราความปลื้มใจของ Opus 4.7 ลดครึ่งเมื่อเทียบกับ Opus 4.6 และ Mythos Preview ก็ลดลงอีกครึ่งหนึ่ง—หมายความว่าเมื่อเทียบกับ Opus 4.6 อัตราความปลื้มใจของ Mythos Preview จะเหลือราวหนึ่งในสี่ ในเชิงการปรับปรุงไม่ได้จำกัดอยู่แค่ด้านความรักเท่านั้น ยังมีผลลามไปยังหัวข้ออื่นด้วย

Anthropic วางงานวิจัยชิ้นนี้ไว้เป็นส่วนหนึ่งของวงจร “ผลกระทบทางสังคม → การฝึกโมเดล”: งานวิจัยดูว่าผู้ใช้จริงใช้ Claude อย่างไร ระบุว่าโมเดลละเมิดหลักการในสถานการณ์ใดบ้าง แล้วนำสิ่งที่เรียนรู้ไปใช้ในการฝึกโมเดลรุ่นถัดไป ข้อมูลทั้งหมดถูกรวบรวมผ่านเครื่องมือที่ปกป้องความเป็นส่วนตัว และไม่มีการไล่ตามผู้ใช้รายบุคคล สำหรับผู้ใช้ คราวหน้าหากคุณขอคำแนะนำเรื่องความรักจาก Claude อาจลองตั้งคำถามกลับเชิงทวน (เช่น “เพื่อนของผมจะมองจุดยืนนี้ของผมว่าอย่างไร” “มีโอกาสไหมที่อีกฝ่ายจะพูดถูก?”) เพื่อให้ AI ตอบจากตำแหน่งที่ “ไม่เอาใจผู้ใช้” ซึ่งใกล้เคียงคุณค่าการใช้งานจริงของงานวิจัยนี้มากกว่าการรับคำตอบแรกของ AI แบบ 100%

บทความนี้ คุณถาม Claude เรื่องเรื่องสำคัญในชีวิต: อัตราความปลื้มใจเรื่องความรัก 25% เรื่องจิตวิญญาณ 38% เผยแพร่ครั้งแรกที่ 鏈新聞 ABMedia

news.article.disclaimer
btc.bar.articles

ซีอีโอกูเกิล พิชัย เปิดเผยว่าใช้ Gemini AI เพื่อทำความเข้าใจความเป็นมนุษย์และสร้างการสื่อสารที่จริงใจยิ่งขึ้น

ChainNewsAbmedia04-30 20:44

OpenAI เปิดเผยว่าเหตุใด Codex จึงห้ามพูดคำว่า “ก็อบลิน”: การให้รางวัลบุคลิกแบบนักเนิร์ดหลุดการควบคุม

ChainNewsAbmedia04-30 10:18

BioMysteryBench:Mythos ผู้เชี่ยวชาญไขความลึกลับไม่สามารถไขปัญหาได้ 29.6%

ChainNewsAbmedia04-30 06:05

Anthropic เจรจาระดมทุนประเมินมูลค่ากว่า 9000 ล้านล้านดอลลาร์ หลักทรัพย์ในงบการเงิน โดยคณะกรรมการตัดสินใจได้เร็วสุดในเดือน 5

Market Whisper04-30 03:19

มหาวิทยาลัยออกซ์ฟอร์ด คณะวิจัยด้านอินเทอร์เน็ต: การฝึกแบบเป็นมิตรทำให้อัตราความผิดพลาดของ AI เพิ่มขึ้น 7.43 จุดเปอร์เซ็นต์

Market Whisper04-30 02:47
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น