การแข่งขันชิป AI ในช่วง 2 ปีที่ผ่านมาเกือบทั้งหมดโฟกัสอยู่ที่ HBM แต่เมื่อการใช้งาน AI จากการฝึกโมเดล (model training) ก้าวไปสู่การรันแบบขนาดใหญ่ (large-scale inference) คอขวดด้านอุปทานครั้งถัดไปอาจไม่ใช่แค่ HBM แล้ว แต่อาจเป็น HBF (High Bandwidth Flash หน่วยความจำแฟลชแบนด์วิดท์สูง) ซึ่งเป็นเทคโนโลยีหน่วยความจำที่มีแบนด์วิดท์สูงและเข้าถึงได้รวดเร็ว ศาสตราจารย์ David Patterson เจ้าของรางวัลทัวริง (Turing Award) และผู้สอนที่ UC Berkeley ระบุเมื่อวันที่ 30 เมษายน ณ ซานฟรานซิสโก สหรัฐอเมริกา ว่า เขาเชื่อว่า HBF มีแนวโน้มจะกลายเป็นเทคโนโลยีหน่วยความจำ “ตัวสำคัญ” ของดีมานด์ที่พุ่งขึ้นอย่างรวดเร็วในรอบถัดไป และอาจสร้างคอขวดใหม่ได้ด้วย
(Nvidia Vera Rubin มีอะไรเปลี่ยนแปลง? เจาะยุคสงครามหน่วยความจำ: SK Hynix, Samsung, Micron, SanDisk)
ทำไม David Patterson เจ้าของรางวัลทัวริงถึงมองดีต่อ HBF
การพูดคุยเรื่องหน่วยความจำสำหรับ AI แทบทั้งหมดมักวนอยู่กับ HBM (High Bandwidth Memory หน่วยความจำแบนด์วิดท์สูง) แต่เมื่อการใช้งาน AI จากการฝึกโมเดลเปลี่ยนไปสู่การรันแบบขนาดใหญ่ คอขวดด้านอุปทานถัดไปอาจไม่ใช่แค่ HBM แล้ว แต่อาจเป็น HBF (High Bandwidth Flash หน่วยความจำแฟลชแบนด์วิดท์สูง)
Patterson เป็นบุคคลสำคัญระดับหัวแถวในวงการวิทยาการคอมพิวเตอร์ และถูกมองว่าเป็นหนึ่งในผู้ออกแบบที่สำคัญของสถาปัตยกรรม RISC เขากล่าวถึงขั้นตอนถัดจาก HBM ว่า แม้ HBF ยังมีความท้าทายทางเทคนิคอีกมากที่ต้องแก้ แต่ HBF ที่บริษัทอย่าง SK Hynix และ SanDisk กำลังผลักดัน มีจุดเด่นด้าน “การให้ความจุสูงด้วยการใช้พลังงานที่ต่ำกว่า” ซึ่งในอนาคต ตัวแปรหลักของระบบ AI ไม่ใช่แค่ “พลังประมวลผล” แต่คือ “ข้อมูลจะถูกเก็บ บริหารจัดการ และส่งมอบได้อย่างมีประสิทธิภาพหรือไม่”
HBF คืออะไร? เอา NAND Flash ไปซ้อนกัน ไม่ได้มาแทน HBM แต่เป็นการแบ่งงาน
ความแตกต่างครั้งใหญ่ที่สุดระหว่าง HBF และ HBM อยู่ที่วัสดุหน่วยความจำระดับฐาน HBM คือการซ้อน DRAM ในแนวตั้ง เพื่อให้ได้ความสามารถในการเข้าถึงข้อมูลแบนด์วิดท์สูงที่ GPU และตัวเร่งความเร็ว AI ต้องใช้ โดยหลักๆ รับหน้าที่ “ป้อนข้อมูลอย่างรวดเร็วให้หน่วยคำนวณ” ส่วน HBF คือการนำหน่วยความจำแบบไม่ลบเลือน (non-volatile memory) อย่าง NAND Flash มาซ้อนกัน จุดแข็งหลักไม่ใช่ความเร็วขั้นสุด แต่คือการให้ “ความจุที่มากกว่า” ในต้นทุนที่ต่ำกว่าและใช้พลังงานต่ำกว่า
พูดให้เข้าใจง่ายคือ HBM แก้ปัญหา “ด้านความเร็ว” ในกระบวนการประมวลผลของ AI ขณะที่ HBF แก้ปัญหา “ด้านความจุ” ที่ AI มีขนาดใหญ่ขึ้นเรื่อยๆ นี่จึงเป็นเหตุผลที่ HBF ไม่ได้มาแทนที่ HBM แบบตรงๆ แต่จะสร้าง “การแบ่งบทบาทใหม่” ระหว่างหน่วยความจำทั้งสอง HBM ทำหน้าที่แลกเปลี่ยนข้อมูลแบบทันทีและรวดเร็ว ส่วน HBF รับความต้องการในการเก็บข้อมูลขนาดใหญ่ระดับกลาง ข้อมูลบริบท และข้อมูลที่ถูกเรียกใช้ซ้ำๆ ในกระบวนการอนุมาน (inference)
ดีมานด์ของ HBF ถูกดันขึ้นมาให้เป็นประเด็น หลังตลาด AI ขยายตัว
เหตุผลที่ HBF ได้รับความสนใจมากขึ้นในปี 2026 คือศูนย์กลางของตลาด AI กำลังเคลื่อนจากการฝึกไปสู่การอนุมาน AI training คือการป้อนข้อมูลจำนวนมากให้กับโมเดลเพื่อให้โมเดลได้เรียนรู้พารามิเตอร์และรูปแบบ ส่วน AI inference คือเมื่อโมเดลผ่านการฝึกแล้ว ระบบจะทำงานจริงตามอินพุตของผู้ใช้งาน เพื่อสร้างคำตอบ ดำเนินภารกิจ จดจำบริบทก่อนหน้า และตัดสินอย่างต่อเนื่อง
ในสถานการณ์การอนุมาน AI ไม่ได้แค่ตอบคำถามครั้งเดียว แต่ต้องรักษาการสนทนาก่อนหน้า โฟลว์งาน (work context) ผลการตัดสิน การบันทึกการเรียกใช้เครื่องมือ (tool invocation) และแม้แต่ข้อมูลระดับกลางข้ามงาน ปริมาณข้อมูลเหล่านี้มาก และต้องถูกอ่านซ้ำและอัปเดตอยู่เรื่อยๆ
ปัญหาคือ หากเก็บข้อมูลทั้งหมดไว้ใน HBM จะมีต้นทุนสูงเกินไป และความจุก็ไม่สมจริง HBM เหมาะกับการจัดการข้อมูลความเร็วสูงที่ต้องใช้ “ทันที” แต่ไม่เหมาะจะรับภาระข้อมูลบริบทและสถานะข้อมูลระดับกลางทั้งหมดที่เกิดขึ้นระหว่างการอนุมาน เมื่อ AI Agent โมเดลที่มีบริบทยาว (long context) การอนุมานแบบมัลติโหมด (multimodal) และเวิร์กโฟลว์ AI ระดับองค์กรกลายเป็นเรื่องปกติ ระบบจึงต้องการไม่ใช่แค่หน่วยความจำที่เร็วขึ้น แต่ต้องการ “แหล่งรวมข้อมูลความเร็วสูง” ที่ใหญ่ขึ้นด้วย นี่คือเหตุผลที่ทำให้ HBF ถูกจับตามอง
SK Hynix และ SNDK ขับเคลื่อนการกำหนดมาตรฐาน คาดว่าในปี 2038 ดีมานด์ HBF อาจแซง HBM
เพื่อไล่ล่าแบนด์วิดท์ SK Hynix ร่วมมือกับ SanDisk ในการพัฒนา HBF นี่เป็นเทคโนโลยีการซ้อนแบบ 3D ที่คล้ายกับ HBM แต่ใช้เวเฟอร์ NAND โดยมีเป้าหมายเพื่อให้ได้อัตราการส่งข้อมูล (throughput) เร็วกว่ SSD แบบเดิมหลายเท่า และออกแบบมาสำหรับการอนุมานของ AI โดยเฉพาะ
ศาสตราจารย์ Kim Jong-ho ผู้สอนประจำภาควิศวกรรมไฟฟ้าและคอมพิวเตอร์ที่ KAIST เกาหลี เคยกล่าวไว้ในงานอธิบายเทคโนโลยี HBF เมื่อเดือน 2 ว่า แก่นหลักของยุค PC คือ CPU ยุคสมาร์ตโฟนคือการใช้พลังงานต่ำ และยุค AI คือ “หน่วยความจำ” เขาแบ่งบทบาทของ HBM และ HBF ชัดเจนว่า ตัวที่กำหนดความเร็วคือ HBM ขณะที่ตัวที่กำหนดความจังคือ HBF Kim ยังคาดการณ์ว่า ตั้งแต่ปี 2038 ดีมานด์ของ HBF อาจแซง HBM
ตรรกะเบื้องหลังมาจากการที่ตลาดการอนุมานของ AI ยิ่งขยาย โมเดลก็ยิ่งต้องจัดการบริบทแบบเรียลไทม์ ข้อมูลในอดีต และสถานะงานที่มีขนาดใหญ่ขึ้นเรื่อยๆ หากพึ่ง HBM เพียงอย่างเดียวเพื่อเพิ่มขนาด จะมีต้นทุนสูงมาก และยังทำให้การใช้พลังงานทั้งระบบรวมถึงแรงกดด้านการประกอบ (packaging stress) เพิ่มขึ้นอย่างต่อเนื่อง หาก HBF ทำได้สำเร็จในการพัฒนาทั้งด้านแบนด์วิดท์ การประกอบ ความทนทาน และการกำหนดมาตรฐาน ก็อาจกลายเป็นชั้นหน่วยความจำสำคัญรุ่นใหม่ของดาต้าเซ็นเตอร์ AI
จาก HBM สู่ HBF การแข่งขัน AI จาก “คำนวณเร็ว” ไปสู่ “เก็บได้ จัดการได้”
ในช่วงที่ผ่านมา เมื่อพูดถึงเซมิคอนดักเตอร์สำหรับ AI มักโฟกัสที่ GPU กระบวนการผลิตขั้นสูง และซัพพลายของ HBM โดยเฉพาะหลังดีมานด์เซิร์ฟเวอร์ AI ของ Nvidia พุ่งสูง HBM เคยถูกมองเป็นตัวชี้วัดหลักในการประเมินความสามารถในการแข่งขันของผู้ผลิตหน่วยความจำอย่าง SK Hynix, Samsung และ Micron แต่คำพูดของ Patterson ทำให้ตลาดต้องตระหนักว่า คอขวดของโครงสร้างพื้นฐาน AI กำลังซับซ้อนขึ้น
เมื่อ AI ยังอยู่ในช่วงแข่งขันการฝึกโมเดลขนาดใหญ่ (large model training) ประเด็นคือการป้อน GPU ด้วยหน่วยความจำที่มีแบนด์วิดท์สูงกว่า แต่เมื่อ AI เข้าสู่ยุคการอนุมานขนาดใหญ่และการใช้งานแบบ Agent ปัญหาจะเปลี่ยนเป็นว่า โมเดลจะรักษาบริบทไว้ได้นานอย่างไร จะบันทึกสถานะงานด้วยต้นทุนต่ำได้อย่างไร และจะทำให้ข้อมูลไหลได้อย่างมีประสิทธิภาพระหว่าง GPU, HBM, SSD, Flash และการจัดเก็บผ่านเครือข่ายได้อย่างไร
ดังนั้น การแข่งขันหน่วยความจำของ AI ในรอบถัดไปอาจไม่ใช่แค่ศึกด้านกำลังการผลิต HBM แต่เป็นการ “จัดระเบียบใหม่” ของชั้นหน่วยความจำทั้งหมด HBM ยังสำคัญ เพราะมันเป็นตัวกำหนดว่า AI ชิปจะคำนวณได้เร็วแค่ไหน แต่การเกิดขึ้นของ HBF สื่อว่า ระบบ AI เริ่มต้องการ “ชั้นข้อมูลใหม่” ที่อยู่กึ่งกลางระหว่างการจัดเก็บแบบดั้งเดิมกับหน่วยความจำแบนด์วิดท์สูง มันอาจไม่ใช่ที่เร็วที่สุด แต่มีโอกาสสร้างสมดุลใหม่ระหว่างความจุ การใช้พลังงาน และต้นทุน
นั่นยังหมายความว่า คำสำคัญถัดไปในซัพพลายเชน AI อาจขยายจาก “หน่วยความจำแบนด์วิดท์สูง” ไปสู่ “หน่วยความจำแฟลชแบนด์วิดท์สูง” HBM แก้คอขวดด้านการคำนวณแบบทันทีของ AI ส่วน HBF อาจเป็นตัวแก้คอขวดด้าน “การเก็บความจำของข้อมูล” ที่มีขนาดใหญ่ขึ้นในยุคการอนุมาน
บทความนี้ HBF หลังคอขวดหน่วยความจำ AI ต่อจาก HBM หรือไม่? David Patterson เจ้าของรางวัลทัวริง: การอนุมานจะนิยามสถาปัตยกรรมการจัดเก็บใหม่ ปรากฏครั้งแรกใน 鏈新聞 ABMedia
news.related.news
การวิเคราะห์ของ Berkeley GEPA: ให้ AI เรียนรู้ภารกิจใหม่ได้โดยไม่ต้องอัปเดตน้ำหนัก พร้อมลดต้นทุนการฝึกลง 35 เท่าเมื่อเทียบกับ RL
JPMorgan: ปริมาณการซื้อขายเหรียญเสถียรพุ่งสูงขึ้น แต่กลไก Velocity ทำให้มูลค่าไม่เติบโตแบบสัดส่วนเดียวกัน
a16z แสดงความคิดเห็น: คำว่า “stablecoin” จะล้าสมัย และสิ่งต่อไปคือ “programmable money”
OpenAI เปิดตัว GPT-5.5-Cyber: ปะทะ Anthropic Mythos
รองประธานฝ่ายการเรียนรู้เชิงลึกของ Nvidia เชื่อว่าค่าใช้จ่ายด้านการประมวลผล AI แซงต้นทุนค่าจ้างบุคลากร