การคาดการณ์พื้นฐานของ Goldman Sachs ที่มองว่าเงินลงทุนด้านโครงสร้างพื้นฐานด้านปัญญาประดิษฐ์ (AI) จะอยู่ที่ 7.6 ล้านล้านดอลลาร์ สุดท้ายขึ้นอยู่กับว่า “ชิป” เฉพาะทางสำหรับ AI ยังคงมีประโยชน์ได้นานเพียงใด เครือข่ายแบบกระจายอำนาจให้คำมั่นว่าจะลดต้นทุนได้อย่างมีนัยสำคัญ แต่ยังคงเผชิญปัญหาเรื่องความหน่วง และผู้เชี่ยวชาญโต้แย้งว่า ความยั่งยืนในระยะยาวจะขึ้นกับการให้ความสำคัญกับ “การตรวจสอบได้” มากกว่าประสิทธิภาพดิบ
รายงานล่าสุดของ Goldman Sachs ทำให้การถกเถียงเปลี่ยนจากคำถามว่ามี “ความต้องการ” ด้านปัญญาประดิษฐ์ (AI) หรือไม่ ไปสู่ปัจจัยด้านอุปทานที่จะเป็นตัวกำหนดต้นทุนจริงของการขยายโครงสร้าง ในรายงานระบุว่าจะมีการลงทุนด้านทุนด้าน AI 7.6 ล้านล้านดอลลาร์เป็น “ฐาน” แต่ชี้ว่าตัวเลขดังกล่าวไวต่อ “ตัวแปรแกว่ง” อย่างยิ่ง รวมถึงอายุการใช้งานที่คุ้มค่าของชิปสำหรับ AI
ความยืนยาวนี้ถูกมองว่าเป็นปัจจัยที่สำคัญที่สุด เพราะนวัตกรรมที่รวดเร็วอาจทำให้ชิปมาตรฐานซึ่งโดยทั่วไปมีอายุการใช้งาน 4 ถึง 6 ปี กลายเป็นของล้าสมัยภายใน 3 ปี ส่งผลให้ต้นทุนพุ่งสูงขึ้นอย่างรวดเร็ว ในทางกลับกัน “โมเดลแบบแบ่งชั้น” ที่นำชิปเก่ากลับมาใช้กับงานที่ง่ายกว่า เช่น การทำ inference อาจช่วยทำให้ต้นทุนทรงตัวได้
ความซับซ้อนของศูนย์ข้อมูลและความยืดหยุ่นของอุปสงค์ด้านประมวลผลเป็นอีกตัวแปรที่น่าจะส่งผลต่อจำนวนเงินลงทุนที่ใช้ไปกับโครงสร้างพื้นฐานด้าน AI ในช่วง 5 ปีข้างหน้า นอกจากนี้ การขาดแคลนศักยภาพในโครงข่ายไฟฟ้า แรงงานเฉพาะทาง และอุปกรณ์ไฟฟ้า ยังถูกมองว่าเป็นปัจจัยที่ทำให้การก่อสร้าง/ขยายล่าช้าออกไป
ขณะเดียวกัน รายงานอีกฉบับหนึ่งมองว่าเม็ดเงินลงทุนโครงสร้างพื้นฐานระดับมโหฬารนี้คือ “แกนหลัก” ของ “เศรษฐกิจเครื่องจักร (machine economy)” ที่กำลังเกิดขึ้น ในกระบวนทัศน์นี้ ตัวแทน AI (AI agents) จะกลายเป็นผู้เล่นทางเศรษฐกิจหลัก ทำธุรกรรมความถี่สูงและจัดสรรทรัพยากรได้ด้วยตนเอง ผู้เขียนรายงานโต้แย้งว่า ระบบการเงินแบบดั้งเดิม ซึ่งมีวัฏจักรการชำระบัญชีที่ช้าและกรอบ know your customer (KYC) ที่ค่อนข้างแข็งตัว นั้นแท้จริงแล้วไม่พร้อมสำหรับความเร็วของการค้าที่ขับเคลื่อนด้วยตัวแทน (agentic commerce)
ดังนั้น รายงานจึงวางตำแหน่งให้คริปโตและโปรโตคอลแบบกระจายอำนาจเป็น “รางเศรษฐกิจ (economic rails)” ที่จำเป็นและเปิดให้เข้าถึงได้แบบไม่ต้องขออนุญาต เพื่อรองรับการเปลี่ยนแปลงนี้ อย่างไรก็ตาม ฝ่ายที่ตั้งข้อสงสัยยังคงไม่สบายใจ โดยตั้งคำถามว่าเครือข่ายโครงสร้างพื้นฐานทางกายภาพแบบกระจายอำนาจ (DePINs) สามารถลดความต้องการเงินทุนที่พุ่งสูงของ AI ได้จริงหรือไม่
Vadim Taszycki หัวหน้าฝ่ายการเติบโตของ StealthEX ระบุว่า แม้เครือข่ายแบบกระจายอำนาจจะให้การประหยัดต้นทุนได้อย่างมีนัยสำคัญ แต่ก็มีข้อจำกัดทางกายภาพ แม้ผู้ให้บริการแบบกระจายอำนาจอย่าง Akash อาจเช่าการ์ด GPU H100 ในราคา 1.48 ดอลลาร์สหรัฐต่อชั่วโมง เทียบกับ 12.30 ดอลลาร์สหรัฐบน Amazon Web Services แต่การแลกเปลี่ยนคือ “ความเร็ว”
“ผู้ให้บริการคลาวด์รายใหญ่ทำงานได้ [รวดเร็ว] เพราะ GPU ของพวกเขาอยู่ติดกันในอาคารเดียว และเชื่อมต่อกันด้วยสายเคเบิลพิเศษที่ส่งข้อมูลในระดับไมโครวินาที” Taszycki กล่าว เขาอธิบายว่าเครือข่ายแบบกระจายอำนาจที่เชื่อม GPU ข้ามประเทศต่างๆ ผ่านอินเทอร์เน็ตสาธารณะจะเพิ่มความหน่วงเป็นมิลลิวินาที ความหน่วงนี้ทำให้การประสานงานแบบกระจายอำนาจแข่งขันได้กับงานแบบแบตช์และงานปรับแต่ง (fine-tuning) แต่ไม่เหมาะกับการให้บริการแชตบอทที่ต้องรองรับผู้ใช้ระดับสูงแบบเรียลไทม์ ซึ่งประสบการณ์ผู้ใช้ขึ้นกับการตอบสนองที่เกือบจะทันที
Leo Fan ผู้ก่อตั้ง Cysic เห็นด้วยว่า inference แบบกระจายอำนาจไม่เหมาะกับงานที่ต้องการความหน่วงต่ำ Fan โต้แย้งด้วยว่า “ความหน่วง” เป็นตัวชี้วัดที่ไม่ถูกต้องสำหรับการเทียบแพลตฟอร์มแบบกระจายอำนาจกับ hyperscalers อย่าง AWS
“ปัญหายากไม่ใช่การประมวลผลแบบกระจาย แต่คือการค้นหา (discovery) การจัดตาราง (scheduling) และการยืนยัน (attestation) ช่องว่างไม่ใช่ราคา “ต่อโทเคน” มันคือ “ความตรวจสอบได้” (verifiability)” Fan กล่าว เขาระบุว่า Trusted execution environments (TEEs) และการยืนยันแบบ zero-knowledge (ZK) ช่วยให้เครือข่ายแบบกระจายอำนาจแข่งขันได้ในภาคส่วนที่ความไว้วางใจและการตรวจสอบสำคัญกว่าความหน่วงปลายทางแบบ “tail latency”
นอกเหนือจากการประมวลผล โฟกัสกำลังเปลี่ยนไปที่ว่าโครงการเหล่านี้ ซึ่งกินเงินทุนสูง จะถูกระดมทุนอย่างไร แม้สินเชื่อเอกชนแบบดั้งเดิมจะมีเงินทุนมากพอ แต่ก็มักมองข้ามดีลขนาดเล็กหรือดีลที่ไม่เป็นมาตรฐาน สินเชื่อบนเชนมีข้อได้เปรียบเฉพาะ เช่น การเปิดโอกาสให้นักลงทุนรายย่อยเข้ามามีส่วนร่วมในรายได้จากศูนย์ข้อมูล ซึ่งก่อนหน้านี้ถูกจำกัดไว้สำหรับพาร์ทเนอร์สถาบันระดับ limited partner เท่านั้น นอกจากนี้ แพลตฟอร์มอย่าง Maple และ Centrifuge สามารถจัดกลุ่ม (syndicate) สินเชื่อในช่วง 5 ล้านดอลลาร์สหรัฐถึง 50 ล้านดอลลาร์สหรัฐ ซึ่งเป็นช่วงที่มักถูกมองข้ามโดยบริษัทอย่าง Apollo เนื่องจากต้นทุนการรับประกัน (underwriting) สูงเมื่อเทียบกับค่าธรรมเนียม
สุดท้าย สินเชื่อบนเชนยังช่วยให้เกิดโมเดลใหม่แบบ “จ่ายต่อการ inference” ซึ่งรายได้แกว่งตามการใช้งาน GPU โมเดลลักษณะนี้สอดคล้องกับโครงสร้างการแบ่งปันรายได้ที่ถูกทำให้เป็นโทเคนได้เป็นธรรมชาติมากกว่า สัญญาเช่าระยะยาวแบบดั้งเดิมที่ล็อกไว้เป็นเวลา 20 ปี
ถึงอย่างนั้น ผู้เชี่ยวชาญมองว่ามี “ด่าน (gates)” 4 อย่างที่ยังปิดอยู่ต่อการนำไปใช้โดยสถาบันการเงิน ได้แก่ ความสามารถในการบังคับใช้ทางกฎหมายในศาลล้มละลาย การขาดโครงสร้างพื้นฐาน oracle ที่ตรวจจับการแก้ไขได้ (tamper-evident) สำหรับการดูแลข้อตกลงตามเงื่อนไข (covenants) ความไม่แน่นอนด้านกฎระเบียบสำหรับเงินงวด (tranches) มูลค่าหลายพันล้านดอลลาร์ และผลิตภัณฑ์ด้านภาษีและการบัญชีที่ยังไม่เป็นมาตรฐาน
ภาพรวมเห็นพ้องกันว่า เวลาที่เป็นไปได้จริงคือ 12 ถึง 24 เดือนสำหรับดีลแบบจัดกลุ่ม (syndicated) ขนาดกลางให้เริ่มมีแรงส่งบนเชน โดยหนี้ mezzanine บนเชนส่วนใหญ่ (majority-onchain) น่าจะมาในอีก 3 ถึง 5 ปี ความสำเร็จระยะแรกมีแนวโน้มจะมาจากผู้ให้บริการระดับ Tier 2 มากกว่าผู้นำอุตสาหกรรมอย่าง Coreweave
news.related.news
Cisco มองรายได้เพิ่มขึ้นมากกว่าคาดการณ์ พร้อมปูทางความสำเร็จในการเปลี่ยนผ่านสู่สายงาน AI ส่งผลให้หุ้น CSCO ทำจุดสูงสุดใหม่
ชุมชน DAO ทดลองใช้โซลูชันการกำกับดูแลแบบกระจายอำนาจ
ซีอีโอ Alibaba: การ์ด GPU แทบไม่มีใบที่ยังไม่ได้ใช้งานในเซิร์ฟเวอร์
คลื่นลูกต่อไปของวงการโครงสร้างพื้นฐาน AI จะอยู่ที่ไหน? รายงานของ Citrini เผยว่า “SiC, GaN และโครงสร้างพื้นฐานด้านพลังงาน” กำลังเป็นทิศทางการลงทุนใหม่