DeepSeek V4-Flash ขึ้นบน Ollama Cloud, โฮสต์ในสหรัฐอเมริกา: Claude Code, OpenClaw เชื่อมต่อด้วยปุ่มเดียว

เครื่องมือสำหรับรันโมเดล AI ในเครื่อง Ollama ซึ่งประกาศสาธารณะบนแพลตฟอร์ม X เมื่อวันที่ 4/24 ว่าจะนำโมเดล V4-Flash ที่สตาร์ทอัปด้าน AI ของจีน DeepSeek ปล่อยออกมาก่อนหน้านั้นเมื่อวันก่อน มารวมไว้ในบริการ Ollama Cloud โฮสต์อยู่ในสหรัฐอเมริกา และให้คำสั่งแบบกดครั้งเดียว 3 ชุดแก่นักพัฒนา เพื่อเชื่อม V4-Flash เข้ากับเวิร์กโฟลว์การพัฒนาโค้ด AI ยอดนิยม เช่น Claude Code, OpenClaw และ Hermes ได้โดยตรง

deepseek-v4-flash is now available on Ollama’s cloud! Hosted in the US. Try it with Claude Code: ollama launch claude –model deepseek-v4-flash:cloud Try it with OpenClaw: ollama launch openclaw –model deepseek-v4-flash:cloud Try it with Hermes: ollama launch hermes…

— ollama (@ollama) April 24, 2026

DeepSeek V4 Preview:สองขนาด 1M context

ตามประกาศของเอกสาร API อย่างเป็นทางการของ DeepSeek ที่เผยแพร่เมื่อวันที่ 4/24 DeepSeek-V4 Preview เปิดซอร์สพร้อมกันใน 2 ขนาด:

รุ่น พารามิเตอร์ทั้งหมด พารามิเตอร์ที่ใช้งานอยู่ ตำแหน่ง DeepSeek-V4-Pro 1.6 ล้านล้าน 49,000 ล้าน มุ่งเทียบแฟล็กชิปรายการเรือธงแบบปิด DeepSeek-V4-Flash 2,840 ล้านล้าน 130,000 ล้าน เร็ว มีประสิทธิภาพ ต้นทุนต่ำ

ทั้งสองแบบใช้สถาปัตยกรรม Mixture-of-Experts(MoE)และรองรับ 1 ล้าน tokens ของ context แบบยาวโดยกำเนิด ในประกาศ DeepSeek ระบุว่า:“1M context ตอนนี้คือค่าเริ่มต้นสำหรับบริการอย่างเป็นทางการทั้งหมดของ DeepSeek。”

นวัตกรรมสถาปัตยกรรม:DSA attention แบบเบาบาง+การบีบอัดแบบ Token-wise

การปรับปรุงสถาปัตยกรรมหลักของซีรีส์ V4 ประกอบด้วย:

การบีบอัดแบบ Token-wise ร่วมกับ DSA(DeepSeek Sparse Attention)— ลดต้นทุนอย่างมากสำหรับการคำนวณการอนุมานและหน่วยความจำแคช KV ในสถานการณ์ context ยาวมาก

เมื่อเทียบกับ V3.2 ในบริบทของ context 1 ล้าน tokens V4-Pro ใช้ FLOPs สำหรับการอนุมานต่อ 1 token เพียง 27% และ KV cache เพียง 10%

รองรับการสลับโหมดแบบ Thinking และ Non-Thinking สองรูปแบบ เพื่อให้ตรงกับความต้องการการอนุมานเชิงลึกของงานที่แตกต่างกัน

ในระดับ API รองรับทั้ง OpenAI ChatCompletions และสเปก Anthropic APIs พร้อมกัน ลดต้นทุนการย้ายจากลูกค้าเดิมของ Claude/GPT

คำสั่งเปิดใช้งานแบบกดครั้งเดียว 3 ชุดของ Ollama Cloud

หน้าโมเดลอย่างเป็นทางการของ Ollama ให้บริการอนุมานบนคลาวด์ด้วยตัวระบุโมเดล deepseek-v4-flash:cloud โดยนักพัฒนาสามารถใช้คำสั่งต่อไปนี้ 3 ชุดเพื่อเชื่อม V4-Flash เข้ากับเวิร์กโฟลว์การพัฒนา AI ที่มีอยู่ได้โดยตรง:

เวิร์กโฟลว์ คำสั่ง Claude Code ollama launch claude --model deepseek-v4-flash:cloud OpenClaw ollama launch openclaw --model deepseek-v4-flash:cloud Hermes ollama launch hermes

สิ่งที่ควรสังเกตคือสัญญาณเรื่อง “โฮสต์ในสหรัฐอเมริกา” สำหรับองค์กรและนักพัฒนาในยุโรป-อเมริกา ความกังวลสูงสุดเมื่อใช้โมเดลโอเพนซอร์สของจีนคือข้อมูลถูกส่งกลับไปจีน เมื่อ Ollama เลือกวางชั้นการอนุมานของ V4-Flash ไว้ในสหรัฐอเมริกา นั่นหมายความว่า prompt และเนื้อหาของโค้ดจะไม่ออกนอกเขตอำนาจทางกฎหมายของสหรัฐฯ ลดแรงเสียดทานในระดับข้อกำกับดูแลและอธิปไตยของข้อมูล

ทำไมเรื่องนี้จึงสำคัญต่ออุตสาหกรรม AI

การเชื่อม DeepSeek V4-Flash, Ollama Cloud และ Claude Code ซึ่งเดิมแยกกันอยู่คนละระบบ เข้าด้วยกัน สร้างความหมายสามชั้น:

เส้นทางต้นทุน:พารามิเตอร์ที่ใช้งานอยู่ 13,000 ล้านของ V4-Flash น้อยกว่าขุมพลังอย่าง GPT-5.5(อินพุต 5 ดอลลาร์, เอาต์พุต 30 ดอลลาร์/ล้าน tokens)และ Claude Opus 4.7 มาก สำหรับงานตัวแทนขนาดเล็ก-กลาง สรุปแบบเป็นชุด การทดสอบอัตโนมัติ ฯลฯ คาดว่าต้นทุนต่อหน่วยจะลดลงอย่างมีนัยสำคัญ

ชั้นตัวกลางด้านความเสี่ยงเชิงภูมิรัฐศาสตร์:ในฐานะชั้นการอนุมานแบบตัวกลางที่จดทะเบียนในสหรัฐฯ Ollama ช่วยให้ผู้ใช้งานองค์กรของโมเดลต้นทางจีน สามารถหลีกเลี่ยงความกังวลเรื่อง “ส่งข้อมูลตรงไปยังเซิร์ฟเวอร์ปักกิ่งของ DeepSeek” ได้ นี่คือแนวทางเชิงปฏิบัติสำหรับการแพร่กระจายโมเดลโอเพนซอร์สในระดับนานาชาติ

การสลับแบบทันทีของนักพัฒนา:ผู้ใช้ของ Claude Code และ OpenClaw สามารถสลับโมเดลด้วยคำสั่งเพียงบรรทัดเดียวที่บรรทัดคำสั่ง โดยไม่ต้องเปลี่ยนโครงสร้าง prompt หรือการตั้งค่าใน IDE ซึ่งสำหรับสถานการณ์อย่าง “การทดสอบ regression ด้วยหลายโมเดล” และ “งานแบตช์ที่ไวต่อความคุ้มค่าต้นทุน” นี่คือการปล่อยประสิทธิภาพการผลิตที่แท้จริง

การเชื่อมโยงกับข่าว DeepSeek ก่อนหน้า

การประกาศเปิดตัว V4 นี้และการอินทิเกรตอย่างรวดเร็วกับ Ollama Cloud เกิดขึ้นภายใต้บริบทที่ DeepSeek กำลังเจรจาการระดมทุนภายนอกชุดแรก และมีมูลค่า 20,000 ล้านดอลลาร์ V4 คือหลักฐานผลิตภัณฑ์สำคัญในกระบวนการทำให้เงินลงทุนของบริษัท DeepSeek กลายเป็นทุน และด้วยกลยุทธ์โอเพนซอร์ส+การทำงานร่วมกับพาร์ตเนอร์โฮสต์ต่างประเทศอย่างรวดเร็ว คือการทำสงครามความเร็วก่อนที่มันจะสร้างการผูกขาดระบบนิเวศของนักพัฒนา สำหรับ OpenAI และ Anthropic การมีโมเดลทดแทนโอเพนซอร์สที่สามารถสลับได้ด้วยบรรทัดเดียวภายใน Claude Code คือปัจจัยแปรใหม่สำหรับการแย่งชิงอำนาจในการเป็นผู้กำหนดเวิร์กโฟลว์ของ agent

บทความนี้ DeepSeek V4-Flash ขึ้น Ollama Cloud、โฮสต์ในสหรัฐฯ:Claude Code、OpenClaw เชื่อมต่อด้วยคำสั่งครั้งเดียว ปรากฏขึ้นครั้งแรกใน 鏈新聞 ABMedia。

news.article.disclaimer
btc.bar.articles

DeepSeek เปิดตัว V4 เวอร์ชันตัวอย่างแบบโอเพนซอร์ส โดยได้คะแนนด้านเทคนิค 3206 ซึ่งเหนือกว่า GPT-5.4

Market Whisper04-24 05:38

Tencent เปิดซอร์ส Hy3 เวอร์ชันพรีวิว โดยการทดสอบเกณฑ์มาตรฐานของโค้ดทำได้ดีขึ้น 40% เมื่อเทียบกับรุ่นก่อนหน้า

Market Whisper04-24 05:14

OpenAI เปิดตัว GPT-5.5: บริบท 12M, ดัชนี AA ขึ้นอันดับหนึ่ง, และ Terminal-Bench 82.7% ปรับปรุงมาตรฐานพร็อกซีใหม่

ChainNewsAbmedia04-23 19:45

Google Jules เปิดรายชื่อผู้สมัครเวอร์ชันใหม่ที่เปิดตัวอีกครั้ง และปรับตำแหน่งใหม่ให้เป็นแพลตฟอร์มสำหรับการพัฒนาผลิตภัณฑ์แบบครบวงจรจากต้นทางถึงปลายทาง

Market Whisper04-23 06:13

เปิด OpenAI สำหรับ ChatGPT Workspace Agents: ขับเคลื่อนด้วย Codex, แชร์ร่วมกันในทีม, บูรณาการกับ Slack

ChainNewsAbmedia04-23 02:55
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น