ข้อความข่าว Gate วันที่ 27 เมษายน — ทีม MiMo ของ Xiaomi ได้ทำการเปิดซอร์สชุดโมเดลภาษา MiMo-V2.5 ภายใต้ใบอนุญาต MIT รองรับการนำไปใช้ในเชิงพาณิชย์ การฝึกต่อเนื่อง และการปรับแต่งด้วยการเรียนรู้แบบเฉพาะทาง ทั้งสองโมเดลมีหน้าต่างบริบท 1 million(หนึ่งล้าน)token MiMo-V2.5-Pro เป็นโมเดล pure-text mixture-of-experts (MoE) ที่มีพารามิเตอร์ทั้งหมด 1.02 trillion(1.02 ล้านล้าน)และพารามิเตอร์ที่ใช้งานอยู่ 42 billion(42 พันล้าน)ส่วน MiMo-V2.5 เป็นโมเดลมัลติโหมดดั้งเดิมที่มีพารามิเตอร์ทั้งหมด 310 billion(310 พันล้าน)และพารามิเตอร์ที่ใช้งานอยู่ 15 billion(15 พันล้าน)รองรับความเข้าใจด้านข้อความ รูปภาพ วิดีโอ และเสียง
MiMo-V2.5-Pro มุ่งเป้าสำหรับงานของเอเจนต์ที่ซับซ้อนและงานด้านการเขียนโปรแกรม ในเกณฑ์มาตรฐาน ClawEval ทำได้ 64% Pass@3 ขณะใช้ประมาณ 70,000 tokens ต่อหนึ่งไทม์ไลน์ของงาน—ลดลง 40% ถึง 60% ของจำนวน token เมื่อเทียบกับ Claude Opus, Gemini 3.1 Pro และ GPT-5.4 โมเดลได้คะแนน 78.9 บน SWE-bench Verified ในเดโมหนึ่ง V2.5-Pro สามารถใช้งานคอมไพเลอร์แบบสมบูรณ์จาก SysY ไปยัง RISC-V สำหรับโปรเจกต์คอร์สของ Peking University ด้วยตัวเองภายใน 4.3 ชั่วโมง ด้วยการเรียกใช้เครื่องมือ 672 ครั้ง ทำคะแนนเต็ม 233/233 บนชุดทดสอบที่ซ่อนอยู่
MiMo-V2.5 ออกแบบมาสำหรับสถานการณ์เอเจนต์มัลติโหมด โดยติดตั้งวิชันเอนโค้ดแบบเฉพาะ (729 million parameters) และเอาดิโอเอนโค้ด (261 million parameters) โดยได้คะแนน 62.3 ในส่วนย่อยทั่วไปของ Claw-Eval ทั้งสองโมเดลใช้สถาปัตยกรรมแบบผสมผสานที่รวม sliding window attention (SWA) และ global attention (GA) โดยจับคู่กับโมดูล 3 ชั้นสำหรับการทำนายหลายโทเคน (MTP) เพื่อเร่งการอนุมาน น้ำหนักโมเดลมีให้ที่ Hugging Face
นอกเหนือจากการเปิดซอร์สแล้ว ทีม MiMo ยังได้เปิดตัว “Orbit Quadrillion Token Creator Incentive Program” โดยมอบ 100 quadrillion tokens ฟรีภายใน 30 วันให้กับผู้ใช้งานทั่วโลก นักพัฒนารายบุคคล ทีม และองค์กรสามารถสมัครผ่านหน้าโปรแกรม โดยมีรอบการประเมินประมาณ 3 วันทำการ ผลประโยชน์ที่ได้รับการอนุมัติจะถูกจัดสรรเป็น Token Plans หรือเครดิตโดยตรง เข้ากันได้กับเครื่องมืออย่าง Claude Code และ Cursor
btc.bar.articles
Google ทดลองการสอบคัดเลือกที่เปิดโอกาสให้วิศวกรใช้เครื่องมือ AI
ตามรายงานของ The Chosun Daily กูเกิลกำลังทดลองใช้การสอบคัดเลือกงานที่อนุญาตให้ผู้สมัครวิศวกรซอฟต์แวร์ชาวสหรัฐใช้เครื่องมือ AI ได้ในตำแหน่งงานระดับเริ่มต้นและระดับกลางที่คัดเลือกมา แบบทดสอบนี้รวมถึงงานด้านความเข้าใจโค้ด โดยให้ผู้สมัครตรวจสอบโค้ดที่มีอยู่ แก้ไขบั๊ก และปรับปรุงประสิทธิภาพ ผู้สัมภาษณ์จะประเมินว่าผู้สมัคร “พรอมป์” ให้ AI อย่างไร ตรวจสอบผลลัพธ์ที่ได้ แก้ไขผลลัพธ์ และดีบักโค้ด โดยไม่ใช่ประเมินเพียงความสามารถในการเขียนโค้ดตั้งแต่เริ่มต้นเท่านั้น
GateNews1 ชั่วโมง ที่แล้ว
OpenAI ยุติ API การปรับแต่งโมเดล (Fine-tuning) ตั้งแต่มีผลทันที ผู้ใช้งานเดิมยังเข้าถึงได้จนถึงวันที่ 6 มกราคม 2027
ตามประกาศอย่างเป็นทางการของ OpenAI ที่ Beating เฝ้าติดตาม บริษัทจะยุติการให้บริการ Fine-tuning API แบบให้ผู้พัฒนาดำเนินการเอง (self-serve) ตั้งแต่ทันที ผู้ใช้รายใหม่ไม่สามารถสร้างงาน Fine-tuning ได้อีก ขณะที่ผู้ใช้งานที่ใช้งานอยู่แล้วสามารถเข้าถึงบริการได้จนถึงวันที่ 6 มกราคม 2027 โมเดลที่ถูก Fine-tuning แล้วจะมีบริการการอินเฟอเรนซ์ผูกกับวงจรชีวิตของโมเดลพื้นฐาน และจะยุติเมื่อโมเดลพื้นฐานถูกปลดออก OpenAI ระบุว่าโมเดลพื้นฐานรุ่นใหม่ เช่น GPT-5.5 ตอนนี้มีพลังเพียงพอในการปฏิบัติตามคำสั่งและรูปแบบ (
GateNews2 ชั่วโมง ที่แล้ว
Sakana AI และ Nvidia ทำได้เร็วกว่าการอินเฟอเรนซ์ H100 ถึง 30% ด้วยการข้ามการคำนวณที่ไม่ถูกต้อง 80%
Sakana AI และ Nvidia ได้เปิดซอร์ส TwELL ซึ่งเป็นรูปแบบข้อมูลแบบเบาบางที่ช่วยให้ GPU H100 ข้ามการคำนวณที่ไม่ถูกต้องไปถึง 80% ในโมเดลภาษาขนาดใหญ่โดยไม่ลดทอนความแม่นยำ โซลูชันนี้ช่วยให้การอนุมานเร็วขึ้นได้ถึง 30% และการฝึกเร็วขึ้น 24% บน H100 พร้อมทั้งลดการใช้หน่วยความจำสูงสุด ระหว่างการทดสอบกับโมเดลพารามิเตอร์ 1.5 พันล้าน วิธีดังกล่าวทำให้จำนวนประสาทที่ทำงานอยู่ลดลงต่ำกว่า 2% ด้วยการทำให้สม่ำเสมอแบบเบา (lightweight regularization) ระหว่างการฝึก โดยไม่พบการเสื่อมของประสิทธิภาพในงานปลายน้ำ 7 งาน
GateNews3 ชั่วโมง ที่แล้ว
Microsoft เปิดซอร์สโมเดล Phi-Ground 4B เฟรมเวิร์ก เพิ่มประสิทธิภาพเหนือ OpenAI Operator และ Claude ในความแม่นยำการคลิกหน้าจอ
ตาม Beating ไมโครซอฟต์ได้เปิดซอร์สตระกูลโมเดล Phi-Ground เมื่อไม่นานมานี้ ซึ่งออกแบบมาเพื่อแก้ปัญหาว่า AI ควร “คลิก” ตรงไหนบนหน้าจอคอมพิวเตอร์ รุ่นที่มีพารามิเตอร์ 4 พันล้าน พ่วงกับโมเดลภาษาขนาดใหญ่สำหรับการวางแผนตามคำสั่ง ทำสถิติความแม่นยำในการคลิกได้เกิน OpenAI Operator และ Claude Computer Use ในเกณฑ์ Showdown และติดอันดับ 1 ในบรรดาโมเดลทั้งหมดที่มีพารามิเตอร์ต่ำกว่า 100 พันล้าน ใน 5 การประเมิน รวมถึง ScreenSpot-Pro ทีมงานฝึกด้วยข้อมูลตัวอย่างมากกว่า 40 ล้านรายการ และพบว่าเทคนิคการฝึก 3 แบบที่
GateNews3 ชั่วโมง ที่แล้ว
Tilde Research พบว่า Muon Optimizer ทำให้เซลล์ประสาทตาย 25%; Aurora Alternative ให้ประสิทธิภาพการใช้ข้อมูลเพิ่มขึ้น 100 เท่า
ตามรายงานของ Tilde Research ตัวเพิ่มประสิทธิภาพ (optimizer) Muon ที่นำมาใช้โดยโมเดล AI ชั้นนำ รวมถึง DeepSeek V4 และ Kimi K2.5 มีข้อบกพร่องแอบแฝง: ทำให้เซลล์ประสาท (neurons) ในเลเยอร์ MLP มากกว่า 25% ตายถาวรในช่วงการฝึกระยะเริ่มต้น ทีมได้ออกแบบ Aurora ซึ่งเป็น optimizer ทางเลือก และเผยแพร่เป็นโอเพนซอร์ส โมเดลพารามิเตอร์ 1.1B ที่ฝึกด้วยเพียง 100B tokens ให้ผลเทียบเท่ากับ Qwen3-1.7B ที่ฝึกบน 36T tokens ในเกณฑ์ทดสอบความเข้าใจภาษาอย่าง HellaSwag และ Winogrande แสดงให้เห็นการปรับปรุงประสิทธิภาพด้านข้
GateNews4 ชั่วโมง ที่แล้ว
Nvidia ทุ่มเงินลงทุนด้าน AI มากกว่า 40 พันล้านดอลลาร์ในช่วงต้นปี 2026 รวมถึง 30 พันล้านดอลลาร์ให้กับ OpenAI
ตามรายงานของ TechCrunch ระบุว่า Nvidia ทุ่มมากกว่า 40 พันล้านดอลลาร์สหรัฐให้กับการลงทุนในตราสารทุนของบริษัท AI ในช่วงไม่กี่เดือนแรกของปี 2026 โดยการลงทุน 30 พันล้านดอลลาร์สหรัฐใน OpenAI ถือเป็นคำมั่นครั้งเดียวที่ใหญ่ที่สุด ผู้ผลิตชิปดังกล่าวยังให้คำมั่นว่าจะลงทุนได้สูงสุด 3.2 พันล้านดอลลาร์สหรัฐใน Corning ผู้ผลิตกระจก และมากถึง 2.1 พันล้านดอลลาร์สหรัฐให้กับ IREN ผู้ให้บริการศูนย์ข้อมูล ซึ่งรวมถึงใบสำคัญแสดงสิทธิ 5 ปี และสัญญาแยกต่างหากมูลค่า 3.4 พันล้านดอลลาร์สหรัฐสำหรับบริการคลาวด์ GPU แบบบริหา
GateNews7 ชั่วโมง ที่แล้ว