OpenAI จับมือกับ MediaTek และ Qualcomm เพื่อพัฒนาโปรเซสเซอร์สมาร์ทโฟนสำหรับ AI โดย Foxconn Connector จะเริ่มการผลิตในปี 2028

ข่าวประตูระบายน้ำ วันที่ 27 เมษายน — OpenAI กำลังร่วมมือกับ MediaTek และ Qualcomm เพื่อพัฒนาโปรเซสเซอร์สำหรับสมาร์ทโฟน ตามการวิเคราะห์ห่วงโซ่อุปทานโดยนักวิเคราะห์ของ Tianfeng International Securities อย่าง Ming-Chi Kuo Foxconn Connector (Luxshare Precision) จะทำหน้าที่เป็นพาร์ทเนอร์ด้านการออกแบบระบบแต่เพียงผู้เดียวและการผลิต โดยคาดว่าการผลิตจำนวนมากจะเริ่มต้นในปี 2028 จะมีการกำหนดสเปกและรายชื่อผู้จัดหาให้แล้วเสร็จภายในปลายปี 2026 หรือในไตรมาสแรกของปี 2027

Kuo อธิบายว่าเหตุผลหลักที่ OpenAI เข้าสู่ตลาดสมาร์ทโฟนคือ การควบคุมทั้งระบบปฏิบัติการและฮาร์ดแวร์พร้อมกันเป็นสิ่งจำเป็นเพื่อมอบบริการ AI agent แบบครบวงจร สมาร์ทโฟนเป็นอุปกรณ์เพียงประเภทเดียวที่สามารถเข้าถึงข้อมูลบริบททั้งหมดของผู้ใช้แบบเรียลไทม์ ซึ่งมีความสำคัญต่อการให้เหตุผลของ AI agent แทนที่จะใช้หลายแอป ผู้ใช้จะทำงานให้สำเร็จและตอบสนองความต้องการผ่านโทรศัพท์ของตน—การเปลี่ยนแปลงพื้นฐานต่อวิธีที่สมาร์ทโฟนถูกนิยาม

ในเชิงพาณิชย์ OpenAI อาจรวมบริการสมัครสมาชิกเข้ากับฮาร์ดแวร์ และร่วมมือกับนักพัฒนาเพื่อสร้างระบบนิเวศของแอปพลิเคชัน AI agent การออกแบบโปรเซสเซอร์จะให้ความสำคัญกับประสิทธิภาพการใช้พลังงาน การจัดการลำดับชั้นหน่วยความจำ และการประมวลผลโมเดลขนาดเล็กแบบภายในเครื่อง โดยงานที่ซับซ้อนจะมอบหมายให้กับ AI บนคลาวด์ Kuo ยกชิป TPU Zebrafish ของ MediaTek ที่พัฒนาสำหรับ Google เป็นตัวอย่าง โดยระบุว่าชิป Zebrafish เพียงตัวเดียวสร้างรายได้ใกล้เคียงกับโปรเซสเซอร์สมาร์ทโฟนของ AI agent จำนวน 30 ถึง 40 เครื่อง ด้วยการจัดส่งสมาร์ทโฟนระดับพรีเมียมทั่วโลกอยู่ที่ประมาณ 300 ถึง 400 ล้านเครื่องต่อปี รอบการเปลี่ยนอุปกรณ์อาจกลายเป็นแรงขับเคลื่อนการเติบโตครั้งใหม่สำหรับทั้ง MediaTek และ Qualcomm สำหรับ Luxshare Precision โปรเจกต์นี้มอบโอกาสในการช่วงชิงความได้เปรียบจากการเป็นผู้บุกเบิกในการผลิตสมาร์ทโฟนเจเนอเรชันถัดไป ซึ่งเป็นด้านที่บริษัทประสบความยากลำบากในการแซงตำแหน่งของ Foxconn ในห่วงโซ่อุปทานของ Apple

ความคิดริเริ่มนี้สะท้อนการเปลี่ยนแปลงอย่างมีนัยสำคัญต่อวิธีที่ความสามารถของ AI ถูกบูรณาการเข้ากับฮาร์ดแวร์สำหรับผู้บริโภค โดยมีผลต่ออุตสาหกรรมสมาร์ทโฟนโดยรวมและระบบนิเวศ AI agent ที่กำลังเกิดขึ้น

news.article.disclaimer

btc.bar.articles

OpenAI ยุติ API การปรับแต่งโมเดล (Fine-tuning) ตั้งแต่มีผลทันที ผู้ใช้งานเดิมยังเข้าถึงได้จนถึงวันที่ 6 มกราคม 2027

ตามประกาศอย่างเป็นทางการของ OpenAI ที่ Beating เฝ้าติดตาม บริษัทจะยุติการให้บริการ Fine-tuning API แบบให้ผู้พัฒนาดำเนินการเอง (self-serve) ตั้งแต่ทันที ผู้ใช้รายใหม่ไม่สามารถสร้างงาน Fine-tuning ได้อีก ขณะที่ผู้ใช้งานที่ใช้งานอยู่แล้วสามารถเข้าถึงบริการได้จนถึงวันที่ 6 มกราคม 2027 โมเดลที่ถูก Fine-tuning แล้วจะมีบริการการอินเฟอเรนซ์ผูกกับวงจรชีวิตของโมเดลพื้นฐาน และจะยุติเมื่อโมเดลพื้นฐานถูกปลดออก OpenAI ระบุว่าโมเดลพื้นฐานรุ่นใหม่ เช่น GPT-5.5 ตอนนี้มีพลังเพียงพอในการปฏิบัติตามคำสั่งและรูปแบบ (

GateNews4 นาที ที่แล้ว

Sakana AI และ Nvidia ทำได้เร็วกว่าการอินเฟอเรนซ์ H100 ถึง 30% ด้วยการข้ามการคำนวณที่ไม่ถูกต้อง 80%

Sakana AI และ Nvidia ได้เปิดซอร์ส TwELL ซึ่งเป็นรูปแบบข้อมูลแบบเบาบางที่ช่วยให้ GPU H100 ข้ามการคำนวณที่ไม่ถูกต้องไปถึง 80% ในโมเดลภาษาขนาดใหญ่โดยไม่ลดทอนความแม่นยำ โซลูชันนี้ช่วยให้การอนุมานเร็วขึ้นได้ถึง 30% และการฝึกเร็วขึ้น 24% บน H100 พร้อมทั้งลดการใช้หน่วยความจำสูงสุด ระหว่างการทดสอบกับโมเดลพารามิเตอร์ 1.5 พันล้าน วิธีดังกล่าวทำให้จำนวนประสาทที่ทำงานอยู่ลดลงต่ำกว่า 2% ด้วยการทำให้สม่ำเสมอแบบเบา (lightweight regularization) ระหว่างการฝึก โดยไม่พบการเสื่อมของประสิทธิภาพในงานปลายน้ำ 7 งาน

GateNews1 ชั่วโมง ที่แล้ว

Microsoft เปิดซอร์สโมเดล Phi-Ground 4B เฟรมเวิร์ก เพิ่มประสิทธิภาพเหนือ OpenAI Operator และ Claude ในความแม่นยำการคลิกหน้าจอ

ตาม Beating ไมโครซอฟต์ได้เปิดซอร์สตระกูลโมเดล Phi-Ground เมื่อไม่นานมานี้ ซึ่งออกแบบมาเพื่อแก้ปัญหาว่า AI ควร “คลิก” ตรงไหนบนหน้าจอคอมพิวเตอร์ รุ่นที่มีพารามิเตอร์ 4 พันล้าน พ่วงกับโมเดลภาษาขนาดใหญ่สำหรับการวางแผนตามคำสั่ง ทำสถิติความแม่นยำในการคลิกได้เกิน OpenAI Operator และ Claude Computer Use ในเกณฑ์ Showdown และติดอันดับ 1 ในบรรดาโมเดลทั้งหมดที่มีพารามิเตอร์ต่ำกว่า 100 พันล้าน ใน 5 การประเมิน รวมถึง ScreenSpot-Pro ทีมงานฝึกด้วยข้อมูลตัวอย่างมากกว่า 40 ล้านรายการ และพบว่าเทคนิคการฝึก 3 แบบที่

GateNews1 ชั่วโมง ที่แล้ว

Tilde Research พบว่า Muon Optimizer ทำให้เซลล์ประสาทตาย 25%; Aurora Alternative ให้ประสิทธิภาพการใช้ข้อมูลเพิ่มขึ้น 100 เท่า

ตามรายงานของ Tilde Research ตัวเพิ่มประสิทธิภาพ (optimizer) Muon ที่นำมาใช้โดยโมเดล AI ชั้นนำ รวมถึง DeepSeek V4 และ Kimi K2.5 มีข้อบกพร่องแอบแฝง: ทำให้เซลล์ประสาท (neurons) ในเลเยอร์ MLP มากกว่า 25% ตายถาวรในช่วงการฝึกระยะเริ่มต้น ทีมได้ออกแบบ Aurora ซึ่งเป็น optimizer ทางเลือก และเผยแพร่เป็นโอเพนซอร์ส โมเดลพารามิเตอร์ 1.1B ที่ฝึกด้วยเพียง 100B tokens ให้ผลเทียบเท่ากับ Qwen3-1.7B ที่ฝึกบน 36T tokens ในเกณฑ์ทดสอบความเข้าใจภาษาอย่าง HellaSwag และ Winogrande แสดงให้เห็นการปรับปรุงประสิทธิภาพด้านข้

GateNews1 ชั่วโมง ที่แล้ว

Nvidia ทุ่มเงินลงทุนด้าน AI มากกว่า 40 พันล้านดอลลาร์ในช่วงต้นปี 2026 รวมถึง 30 พันล้านดอลลาร์ให้กับ OpenAI

ตามรายงานของ TechCrunch ระบุว่า Nvidia ทุ่มมากกว่า 40 พันล้านดอลลาร์สหรัฐให้กับการลงทุนในตราสารทุนของบริษัท AI ในช่วงไม่กี่เดือนแรกของปี 2026 โดยการลงทุน 30 พันล้านดอลลาร์สหรัฐใน OpenAI ถือเป็นคำมั่นครั้งเดียวที่ใหญ่ที่สุด ผู้ผลิตชิปดังกล่าวยังให้คำมั่นว่าจะลงทุนได้สูงสุด 3.2 พันล้านดอลลาร์สหรัฐใน Corning ผู้ผลิตกระจก และมากถึง 2.1 พันล้านดอลลาร์สหรัฐให้กับ IREN ผู้ให้บริการศูนย์ข้อมูล ซึ่งรวมถึงใบสำคัญแสดงสิทธิ 5 ปี และสัญญาแยกต่างหากมูลค่า 3.4 พันล้านดอลลาร์สหรัฐสำหรับบริการคลาวด์ GPU แบบบริหา

GateNews5 ชั่วโมง ที่แล้ว

NVIDIA เปิดพื้นที่ให้เป็นพันธมิตรระยะยาวด้าน AI ของ Deepinfra ระดมทุนรอบ B จำนวน 1.07 พันล้านดอลลาร์สหรัฐ เพื่อสร้าง “โรงงานโทเค็น”

สตาร์ทอัพด้านปัญญาประดิษฐ์ DeepInfra ประกาศปิดการระดมทุนรอบ B มูลค่า 1.07 พันล้านดอลลาร์สหรัฐ โดย 500 Global และ Georges Harik วิศวกรรุ่นแรกของ Google เป็นผู้นำการลงทุน ขณะที่นักลงทุนเชิงยุทธศาสตร์อย่าง NVIDIA (NVIDIA), Samsung Next และ Supermicro เข้าร่วมลงทุนด้วย จากข่าวอย่างเป็นทางการเผยว่าเงินที่ได้รับครั้งนี้จะนำไปขยายความจุศูนย์ข้อมูลทั่วโลก เพื่อรับมือกับต้นทุนการคำนวณและคอขวดด้านประสิทธิภาพที่เกิดขึ้นเมื่อการใช้งาน AI ในปัจจุบันเปลี่ยนจาก “การฝึกโมเดล” ไปสู่ “การอนุมานขนาดใหญ่” ความต้องก

ChainNewsAbmedia5 ชั่วโมง ที่แล้ว
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น