AWS ขยายการบูรณาการ OpenAI ใน Amazon Bedrock

CryptoFrontier

Amazon Web Services ประกาศในวันที่ 29 เมษายน การขยายความร่วมมือครั้งสำคัญกับ OpenAI โดยนำความสามารถล่าสุดของ OpenAI มาผสานเข้ากับโครงสร้างพื้นฐานบนคลาวด์ของตน การขยายดังกล่าวนำเสนอผลิตภัณฑ์ใหม่สามรายการสู่ Amazon Bedrock ได้แก่ โมเดลล่าสุดของ OpenAI (limited preview), เอเจนต์สำหรับการเขียนโปรแกรม Codex (limited preview) และ Managed Agents ที่ขับเคลื่อนโดย OpenAI (limited preview).

รายละเอียดการขยายความร่วมมือ

มีผลทันที ลูกค้าสามารถเข้าถึงความสามารถใหม่ของ OpenAI ผ่าน API และแดชบอร์ดควบคุมแบบรวมศูนย์ การผสานนี้ออกแบบมาเพื่อเร่งการพัฒนาแอปพลิเคชัน AI ระดับองค์กร โดยทำให้องค์กรต่างๆ สามารถใช้โมเดลของ OpenAI ร่วมกับโครงสร้างพื้นฐานบนคลาวด์ของ AWS ผ่านอินเทอร์เฟซเดียว

รายการข้อเสนอที่มีให้

องค์ประกอบทั้งสามที่พร้อมใช้งานในช่วงทดลองจำกัด (limited preview) ตอนนี้คือ:

  • OpenAI Latest Models: ขณะนี้ลูกค้าของ AWS สามารถเข้าถึงเวอร์ชันโมเดลล่าสุดของ OpenAI ได้โดยตรงผ่าน Bedrock
  • Codex Programming Agent: เครื่องมือสร้างโค้ดที่ขับเคลื่อนโดย OpenAI’s Codex พร้อมให้ใช้งานในช่วงทดลองจำกัด (limited preview)
  • Managed Agents: บริการเอเจนต์ที่มีการจัดการโดย OpenAI ซึ่งถูกรวมเข้ากับแพลตฟอร์ม Bedrock

ข้อเสนอทั้งสามรายการอยู่ในสถานะทดลองจำกัด (limited preview) ณ ขณะนี้ โดยให้การเข้าถึงผ่าน unified Bedrock API และแผงควบคุม (control panel)

news.article.disclaimer

btc.bar.articles

ศึก Anthropic Code Mode กับ MCP Vs CLI: เครื่องมือคุม Runtime และลด tokens จาก 150K เหลือ 2K

ตลอดทั้งปี 2025 ชุมชนวิศวกรรม AI ถกเถียงไม่จบในประเด็นว่า “MCP vs CLI” แบบไหนเหมาะกับการเรียกใช้งานเครื่องมือของ Agent มากกว่าจนกระทั่งงานวิจัยของ Anthropic ที่ตีพิมพ์ในเดือนพฤศจิกายน 2025 เรื่อง “Code execution with MCP” ได้กำหนดนิยามปัญหาขึ้นใหม่จากหลักการพื้นฐานที่สุด akshay\pachaar 5/10 สรุปไว้ใน thread ว่า ปัญหาไม่ได้อยู่ที่ “ตัวโปรโตคอล” เอง แต่คือ “นิสัยเก่าๆ ที่ยัดคำอธิบายเครื่องมือทั้งหมดเข้าไปใน context ตั้งแต่เริ่ม session” โดยวิธีของ Anthropic คือให้โมเดลเขียนโค้ดเพื่อเรียกเครื่องมือ

ChainNewsAbmedia2 ชั่วโมง ที่แล้ว

ByteDance วางแผนเพิ่มงบลงทุนโครงสร้างพื้นฐานด้าน AI 25% เป็น 200 พันล้านหยวนในปีนี้

อ้างอิงจาก ChainCatcher โดยอ้างถึง Golden Data ระบุว่า ByteDance วางแผนเพิ่มงบลงทุนโครงสร้างพื้นฐานด้าน AI 25% เป็น 200 พันล้านหยวนในปีนี้ โดยได้รับแรงหนุนจากต้นทุนชิปหน่วยความจำที่สูงขึ้นและการพัฒนาเทคโนโลยีปัญญาประดิษฐ์ที่เร่งตัวขึ้น

GateNews2 ชั่วโมง ที่แล้ว

แพลตฟอร์ม AI ระดับองค์กรปิดรอบระดมทุนซีรีส์ $16M โดยมี a16z เป็นผู้นำ

ตามรายงานของ Odaily แพลตฟอร์ม AI ระดับองค์กร Pit ประกาศการปิดรอบระดมทุนมูลค่า 16 ล้านดอลลาร์ โดยมี a16z เป็นผู้นำ และได้รับการมีส่วนร่วมจาก Lakestar รวมถึงผู้บริหารจาก OpenAI, Anthropic, Google, Deel และ Revolut Pit วางตัวเองเป็น "AI product team as a service" โดยมีเป้าหมายเพื่อทดแทนสเปรดชีตแบบเดิมและระบบ SaaS ที่แข็งตัว

GateNews3 ชั่วโมง ที่แล้ว

Google ทดลองการสอบคัดเลือกที่เปิดโอกาสให้วิศวกรใช้เครื่องมือ AI

ตามรายงานของ The Chosun Daily กูเกิลกำลังทดลองใช้การสอบคัดเลือกงานที่อนุญาตให้ผู้สมัครวิศวกรซอฟต์แวร์ชาวสหรัฐใช้เครื่องมือ AI ได้ในตำแหน่งงานระดับเริ่มต้นและระดับกลางที่คัดเลือกมา แบบทดสอบนี้รวมถึงงานด้านความเข้าใจโค้ด โดยให้ผู้สมัครตรวจสอบโค้ดที่มีอยู่ แก้ไขบั๊ก และปรับปรุงประสิทธิภาพ ผู้สัมภาษณ์จะประเมินว่าผู้สมัคร “พรอมป์” ให้ AI อย่างไร ตรวจสอบผลลัพธ์ที่ได้ แก้ไขผลลัพธ์ และดีบักโค้ด โดยไม่ใช่ประเมินเพียงความสามารถในการเขียนโค้ดตั้งแต่เริ่มต้นเท่านั้น

GateNews5 ชั่วโมง ที่แล้ว

OpenAI ยุติ API การปรับแต่งโมเดล (Fine-tuning) ตั้งแต่มีผลทันที ผู้ใช้งานเดิมยังเข้าถึงได้จนถึงวันที่ 6 มกราคม 2027

ตามประกาศอย่างเป็นทางการของ OpenAI ที่ Beating เฝ้าติดตาม บริษัทจะยุติการให้บริการ Fine-tuning API แบบให้ผู้พัฒนาดำเนินการเอง (self-serve) ตั้งแต่ทันที ผู้ใช้รายใหม่ไม่สามารถสร้างงาน Fine-tuning ได้อีก ขณะที่ผู้ใช้งานที่ใช้งานอยู่แล้วสามารถเข้าถึงบริการได้จนถึงวันที่ 6 มกราคม 2027 โมเดลที่ถูก Fine-tuning แล้วจะมีบริการการอินเฟอเรนซ์ผูกกับวงจรชีวิตของโมเดลพื้นฐาน และจะยุติเมื่อโมเดลพื้นฐานถูกปลดออก OpenAI ระบุว่าโมเดลพื้นฐานรุ่นใหม่ เช่น GPT-5.5 ตอนนี้มีพลังเพียงพอในการปฏิบัติตามคำสั่งและรูปแบบ (

GateNews5 ชั่วโมง ที่แล้ว

Sakana AI และ Nvidia ทำได้เร็วกว่าการอินเฟอเรนซ์ H100 ถึง 30% ด้วยการข้ามการคำนวณที่ไม่ถูกต้อง 80%

Sakana AI และ Nvidia ได้เปิดซอร์ส TwELL ซึ่งเป็นรูปแบบข้อมูลแบบเบาบางที่ช่วยให้ GPU H100 ข้ามการคำนวณที่ไม่ถูกต้องไปถึง 80% ในโมเดลภาษาขนาดใหญ่โดยไม่ลดทอนความแม่นยำ โซลูชันนี้ช่วยให้การอนุมานเร็วขึ้นได้ถึง 30% และการฝึกเร็วขึ้น 24% บน H100 พร้อมทั้งลดการใช้หน่วยความจำสูงสุด ระหว่างการทดสอบกับโมเดลพารามิเตอร์ 1.5 พันล้าน วิธีดังกล่าวทำให้จำนวนประสาทที่ทำงานอยู่ลดลงต่ำกว่า 2% ด้วยการทำให้สม่ำเสมอแบบเบา (lightweight regularization) ระหว่างการฝึก โดยไม่พบการเสื่อมของประสิทธิภาพในงานปลายน้ำ 7 งาน

GateNews6 ชั่วโมง ที่แล้ว
แสดงความคิดเห็น
0/400
Re-StakingSucculentsvip
· 05-01 07:49
สามยักษ์ใหญ่สงครามคลาวด์อัปเกรด Azure มี OpenAI เป็นพันธมิตรเฉพาะทาง ขณะนี้ AWS ก็สามารถเข้าร่วมได้แล้ว
ดูต้นฉบับตอบกลับ0
ForkliftTradervip
· 05-01 03:27
AWS นี่จะทำให้ Bedrock กลายเป็นซูเปอร์มาร์เก็ต AI เลยนะ OpenAI ก็ย้ายเข้ามาด้วย
ดูต้นฉบับตอบกลับ0
PaperhandsPoetvip
· 04-29 19:52
Codex เข้าสู่คลาวด์แล้ว ต่อไปเขียนโค้ดก็แค่เรียก GPT-4 ใน AWS ได้เลยใช่ไหม
ดูต้นฉบับตอบกลับ0
Don'tMessWithSlippage.vip
· 04-29 08:50
ตัวอย่างจำกัด คนที่เข้าใจแล้วก็รอคิวเพื่อรับสิทธิ์กันเถอะ
ดูต้นฉบับตอบกลับ0
PfpSeasonChangeExpertvip
· 04-29 08:23
เดี๋ยวสิ Codex ไม่ใช่ GitHub Copilot หรือเปล่า? การอนุญาตเป็นอย่างไรบ้าง
ดูต้นฉบับตอบกลับ0
GateUser-af0ea0c9vip
· 04-29 08:23
แซม อัลท์แมน ทัวร์ทั่วโลกเซ็นสัญญาใหญ่
ดูต้นฉบับตอบกลับ0
GateUser-c25a653cvip
· 04-29 08:11
แนวป้องกันของผู้ให้บริการคลาวด์เปลี่ยนจากพลังการคำนวณเป็นระบบนิเวศของโมเดล
ดูต้นฉบับตอบกลับ0
NeonVortexTunnelvip
· 04-29 08:09
มีโมเดล Bedrock มากเกินไปที่จะเลือกไม่ไหว ตอนนี้ก็มีตัวเลือกเพิ่มอีกแล้ว
ดูต้นฉบับตอบกลับ0
CandlestickChartsUnderThevip
· 04-29 08:05
ลูกค้าองค์กรดีใจสุดๆ ไม่ต้องใช้สถาปัตยกรรมหลายคลาวด์ก็สามารถใช้ GPT ได้
ดูต้นฉบับตอบกลับ0
RiskParachutevip
· 04-29 07:59
OpenAI ไม่แกล้งแล้ว ครอบคลุมทุกแพลตฟอร์ม
ดูต้นฉบับตอบกลับ0
ดูเพิ่มเติม