อ้างอิงจากรายงานเชิงลึกของ Bloomberg และประกาศอย่างเป็นทางการของ Google เมื่อวันที่ 22 เมษายน Google ได้ขยายไลน์อัปชิป AI ที่พัฒนาเองอย่างเป็นทางการ: ชิป Ironwood (TPU รุ่นที่ 7) สำหรับงานอินเฟอเรนซ์พร้อมให้บริการเต็มรูปแบบบน Google Cloud และยังเริ่มต้นความร่วมมือออกแบบเจนเนอเรชันถัดไปกับพาร์ทเนอร์ 4 ราย ได้แก่ Broadcom, MediaTek, Marvell และ Intel โดยมีเป้าหมายเพื่อท้าทายตำแหน่งนำของ Nvidia ในตลาดกำลังการประมวลผลของ AI ด้วยซัพพลายเชนชิปแบบสั่งทำ (customized)
Ironwood: TPU รุ่นที่ 7 ออกแบบมาเพื่ออินเฟอเรนซ์เป็นครั้งแรก
Ironwood คือผลิตภัณฑ์เจนเนอเรชันที่ 7 ของตระกูล Google TPU และเป็นชิปเฉพาะสำหรับอินเฟอเรนซ์เครื่องแรก ภายใต้กลยุทธ์ “แยกการฝึกและการอินเฟอเรนซ์ (training inference split)” ที่ Google เปิดเผย สเปกที่ Google เผยให้เห็น: ประสิทธิภาพพุ่งสูงสุดต่อชิปของ TPU v5p มากถึง 10 เท่า ติดตั้งหน่วยความจำ 192GB HBM3E มีแบนด์วิดท์หน่วยความจำ 7.2 TB/s โดย superpod เดียวสามารถขยายได้ถึง 9,216 ตัวของ Ironwood แบบระบายความร้อนด้วยของเหลว รวมปริมาณการคำนวณ FP8 อยู่ที่ 42.5 exaflops
Google ระบุอย่างเป็นทางการว่า Ironwood เปิดให้ “ลูกค้า Google Cloud ใช้งานได้แบบเต็มรูปแบบ” แล้ว และคาดว่ายอดจัดส่งในปีนี้จะอยู่ในระดับ “หนึ่งล้านชิป” Anthropic ได้ให้คำมั่นว่าจะใช้ Ironwood TPU ได้มากถึง 1 ล้านชิป ขณะที่ Meta ลงนามใน “สัญญาหลายปีมูลค่าหลายพันล้านดอลลาร์” เพื่อใช้ TPU ผ่าน Google Cloud
การแบ่งงานของพาร์ทเนอร์ทั้ง 4 ฝั่งฝึกเป็นของ Broadcom, ฝั่งอินเฟอเรนซ์เป็นของ MediaTek
ซัพพลายเชนชิปเจนเนอเรชันถัดไปของ Google แบ่งบทบาทอย่างชัดเจนดังนี้:
พาร์ทเนอร์ รหัสรุ่น บทบาท จุดเด่น Broadcom Sunfish สำหรับการฝึก (training) ต่อเนื่องความร่วมมือเดิมกับ TPU เป็นหลัก นำโดยโหนดการฝึกขนาดใหญ่ MediaTek (聯發科) Zebrafish สำหรับอินเฟอเรนซ์ ระบุว่าต้นทุนต่ำกว่าโซลูชันของ Broadcom 20–30% Marvell กำลังอยู่ระหว่างการเจรจา หน่วยประมวลผลหน่วยความจำ (MPU) + TPU สำหรับอินเฟอเรนซ์เพิ่มเติม เพื่อปรับแต่งสำหรับ HBM และ inference Intel ยังไม่เปิดเผย มีส่วนร่วมในการออกแบบ เสริมความหลากหลายของซัพพลายเชน
นี่เป็นรูปแบบแรกในอุตสาหกรรม AI ที่มี “พาร์ทเนอร์ทั้ง 4 ทำงานควบคู่กัน และการฝึก-อินเฟอเรนซ์ถูกแบ่งบทบาทอย่างชัดเจน” Google หลีกเลี่ยงโครงสร้างพึ่งพาซัพพลายเออร์รายเดียวแบบ Nvidia ด้วยการกระจายความเสี่ยงของ IP และแรงกดดันต่อราคาที่แข่งขันได้ เส้นทาง (roadmap) ไปจนถึงสิ้นปี 2027 คือ TPU v8 จะผลิตที่กระบวนการ 2nm ของ TSMC
นัยเชิงกลยุทธ์: สิ่งที่ท้าทาย Nvidia ไม่ใช่แค่ชิปตัวเดียว แต่คือซัพพลายเชน
ในช่วงสามปีที่ผ่านมา ตลาดชิป AI ถูก Nvidia ครอบงำเกือบทั้งหมด โดยระบบนิเวศซอฟต์แวร์ CUDA และชิป H100/GB200 สร้างกำแพงป้องกันสองชั้น Google Ironwood และกลยุทธ์ของพาร์ทเนอร์ 4 รายไม่ได้มุ่งหวัง “เอาชนะสเปกแบบจุดเดียว” แต่ตั้งใจทำซ้ำตรรกะที่ Nvidia ใช้ในอุตสาหกรรม นั่นคือ “แพลตฟอร์มที่ทำให้เป็นมาตรฐาน + การจัดซื้อจากหลายลูกค้า” ทำให้ TPU ไม่ได้เป็นแค่กำลังการประมวลผลที่ Google ใช้เอง แต่เป็นตัวเลือกกำลังการประมวลผลเชิงพาณิชย์ที่บริษัท AI รายใหญ่ เช่น Anthropic, Meta สามารถนำไปใช้ร่วมได้
ความหมายของคำมั่นว่าจะใช้ TPU 1 ล้านชิปของ Anthropic นั้นสำคัญยิ่ง: นี่คือคำมั่นสัญญาด้านกำลังการประมวลผลที่ใหญ่ที่สุดของบริษัท AI รายหนึ่งนอกเหนือจาก Nvidia และเมื่อเทียบกับคำมั่นของ Anthropic 4/20 กับ Amazon ที่เป็นสัญญา 5GW/100 พันล้าน AWS จะเป็นส่วนเสริมกัน—ฝั่งหนึ่งผูกกับ AWS Trainium อีกฝั่งผูกกับ Google TPU Anthropic ลดการพึ่งพา Nvidia ด้วยกลยุทธ์ “ชิปสั่งทำสองฝั่ง (dual customized chips)” Meta เองคือครั้งแรกที่มีการเปิดเผยว่าจะนำ TPU เข้าไปใช้ในงานฝึก/อินเฟอเรนซ์ด้าน AI ของตน ทำให้เกิดสัญญาณอีกด้านหนึ่ง
การตอบสนองของตลาดและการเชื่อมโยงกับอุตสาหกรรม
ก่อนการเปิดเผยครั้งนี้ MediaTek ถูกมองว่าเป็น “ผู้ได้รับประโยชน์จากชิปที่ Google สั่งทำ” อยู่แล้ว การที่รหัส Zebrafish ถูกเปิดเผยคือครั้งแรกที่ทำให้ MediaTek ถูกระบุโดยตรงให้เป็นพาร์ทเนอร์ด้านการออกแบบชิปสำหรับอินเฟอเรนซ์ของ Google การต่อยอดไปยังช่วงไม่นานนี้มีเส้นเรื่อง “กลุ่มพันธมิตรที่ไม่ใช่ Nvidia” เช่น การร่วมมือ AMD × GlobalFoundries ด้านโฟโตนิกซิลิคอน และ Marvell × Google MPU
แม้ Nvidia ในช่วงเวลาเดียวกันยังมี GB200 และแพลตฟอร์ม Rubin เจนเนอเรชันถัดไปสนับสนุน แต่ชุดประกอบกำลังการประมวลผลของฝั่งลูกค้ากำลังเปลี่ยนจาก “ใช้งานแต่ Nvidia ทั้งหมด” ไปสู่ “Nvidia + TPU + AWS Trainium” แบบสามเส้นคู่ขนาน ซึ่งสำหรับกำลังการผลิต 2nm ของ TSMC ก็หมายความว่า ลูกค้าหลักทั้งสี่ราย ได้แก่ Google, Nvidia, Apple และ Amazon กำลังเข้าคิวแย่งจอง และอำนาจต่อรองด้านการผลิตชิปของโรงหล่อวงจรเพิ่มขึ้นอย่างต่อเนื่อง
บทความ Google Ironwood TPU: 10 เท่าประสิทธิภาพ + พาร์ทเนอร์ 4 รายสู้ Nvidia ที่ปรากฏเป็นที่แรกสุดใน 鏈新聞 ABMedia
news.related.news
Google เปิดตัว Deep Research Max: รองรับ MCP และสามารถเข้าถึงข้อมูลส่วนตัวขององค์กรได้
Tencent QClaw เวอร์ชันต่างประเทศเปิดการทดสอบภายใน รับโทเค็น 700 ดอลลาร์สหรัฐฯ จากญี่ปุ่น เพื่อเข้าร่วมก่อนใคร
ตลาดลือกันว่า AMD จับมือกับ GlobalFoundries เพื่อเข้าสู่โฟโตนิกส์ซิลิกอน โดยนักเทรดได้ระบุรายชื่อหลักทรัพย์ 4 ตัวนี้
Google มองหาการขยายระบบนิเวศชิป AI ด้วย Marvell ในขณะที่การแข่งขันกับ Nvidia ทวีความรุนแรงขึ้น
Amazon เสริมดีล Anthropic 25 พันล้านดอลลาร์: พลังประมวลผล 5GW, ผูกมัดกับ AWS มูลค่าหนึ่งพันล้าน