Gate 廣場「創作者認證激勵計劃」開啓:入駐廣場,瓜分每月 $10,000 創作獎勵!
無論你是廣場內容達人,還是來自其他平台的優質創作者,只要積極創作,就有機會贏取豪華代幣獎池、Gate 精美週邊、流量曝光等超 $10,000+ 豐厚獎勵!
參與資格:
滿足以下任一條件即可報名👇
1️⃣ 其他平台已認證創作者
2️⃣ 單一平台粉絲 ≥ 1000(不可多平台疊加)
3️⃣ Gate 廣場內符合粉絲與互動條件的認證創作者
立即填寫表單報名 👉 https://www.gate.com/questionnaire/7159
✍️ 豐厚創作獎勵等你拿:
🎁 獎勵一:新入駐創作者專屬 $5,000 獎池
成功入駐即可獲認證徽章。
首月發首帖(≥ 50 字或圖文帖)即可得 $50 倉位體驗券(限前100名)。
🎁 獎勵二:專屬創作者月度獎池 $1,500 USDT
每月發 ≥ 30 篇原創優質內容,根據發帖量、活躍天數、互動量、內容質量綜合評分瓜分獎勵。
🎁 獎勵三:連續活躍創作福利
連續 3 個月活躍(每月 ≥ 30 篇內容)可獲 Gate 精美週邊禮包!
🎁 獎勵四:專屬推廣名額
認證創作者每月可優先獲得 1 次官方項目合作推廣機會。
🎁 獎勵五:Gate 廣場四千萬級流量曝光
【推薦關注】資源位、“優質認證創作者榜”展示、每週精選內容推薦及額外精選帖激勵,多重曝光助你輕
美麗國的開源AI策略:兩個實驗室,一個問題——美麗國能否競爭?
!image
資料來源:CryptoNewsNet 原始標題:美國的開放原始碼人工智能策略:兩個實驗室,一個問題——美國能否競爭? 原連結: 本週,兩家美國人工智能實驗室發布了開源模型,各自採用截然不同的方法來應對同一個問題:如何與中國在公共可訪問人工智能系統中的主導地位競爭。
Deep Cogito 發布了 Cogito v2.1,這是一個龐大的6710億參數模型,其創始人 Drishan Arora 稱其爲 “美國公司中最好的開源權重 LLM”。
別急,艾倫人工智能研究所反擊道,他們剛剛推出了Olmo 3,並稱其爲“最佳完全開放的基礎模型”。Olmo 3 擁有完全的透明度,包括其訓練數據和代碼。
具有諷刺意味的是,Deep Cognito 的旗艦模型建立在一個中國基礎上。Arora 承認,Cogito v2.1 “是基於 2024 年 11 月的開放許可 Deepseek 基礎模型進行的分叉。”
這引發了一些批評和爭論,關於對中國模型進行微調是否算作美國人工智能的進步,或者這是否僅僅證明了美國實驗室落後了多少。
無論如何,Cogito 相較於 DeepSeek 的效率提升是顯而易見的。
Deep Cognito 聲稱 Cogito v2.1 產生的推理鏈比 DeepSeek R1 短 60%,同時保持競爭力的性能。
通過阿羅拉所稱的“迭代蒸餾和放大”—教導模型通過自我改進循環來發展更好的直覺—該初創公司在RunPod和Nebius的基礎設施上,僅用75天就訓練了其模型。
如果基準測試是真實的,這將是目前由美國團隊維護的最強大的開源LLM。
爲什麼重要
到目前爲止,中國在開源人工智能方面一直引領着潮流,而美國公司越來越依賴——無論是默默地還是公開地——中國的基礎模型以保持競爭力。
這種動態是有風險的。如果中國實驗室成爲全球開放AI的默認基礎設施,美國初創企業將失去技術獨立性、議價能力和塑造行業標準的能力。
開放權重的人工智能決定了誰控制着每個下遊產品所依賴的原始模型。
現在,中國的開源模型(DeepSeek、Qwen、Kimi、MiniMax)在全球採用中佔據主導地位,因爲它們便宜、快速、高效,並且不斷更新。
許多美國初創企業已經在這些平台上構建,即使他們公開避免承認這一點。
這意味着美國公司正在建立基於外國知識產權、外國培訓渠道和外國硬件優化的業務。從戰略上講,這使得美國處於與過去在半導體制造方面面臨的相同境地:越來越依賴於其他人的供應鏈。
Deep Cogito的做法—從DeepSeek分叉開始—展示了向上的(快速迭代)和向下的(依賴性)。
艾倫研究所的方法——以完全透明的方式構建 Olmo 3——展示了另一種選擇:如果美國希望在人工智能領域保持領導地位,就必須從數據到訓練配方再到檢查點,重新構建整個技術棧。這是一個勞動密集型且緩慢的過程,但它保留了對基礎技術的主權。
理論上,如果您已經喜歡DeepSeek並在線使用它,Cogito大多數時候會給您更好的答案。如果您通過API使用它,您會更加滿意,因爲感謝它的效率提升,您將花費更少的錢來生成良好的回復。
艾倫研究所採取了相反的策略。整個 Olmo 3 模型系列與 Dolma 3 一起推出,這是一個從零開始構建的 5.9 萬億代幣訓練數據集,此外還有完整的代碼、配方和每個訓練階段的檢查點。
該非營利組織發布了三種模型變體——基礎版、思考版和指導版——具有70億和320億個參數。
“在人工智能領域,真正的開放不僅僅是關於訪問——而是關於信任、問責和共同進步,” 該機構寫道。
Olmo 3-Think 32B 是首個在該規模下完全開放推理的模型,訓練使用的標記大約是與 Qwen 3 等可比模型的六分之一,同時實現了競爭力性能。
Deep Cognito 在8月份獲得了由Benchmark領投的$13 百萬種子融資。該初創公司計劃推出前沿模型,參數數量高達6710億,這些模型將在“顯著更多的計算資源和更好的數據集”上進行訓練。
與此同時,Nvidia 支持 Olmo 3 的開發,副總裁 Kari Briski 稱其對 “開發人員利用開放的、美國制造的模型來擴展 AI” 至關重要。
該機構在Google Cloud的H100 GPU集羣上進行訓練,計算需求比Meta的Llama 3.1 8B減少了2.5倍。
Cogito v2.1 現已上線供免費在線測試。該模型可以下載,但請注意:它需要一張非常強大的顯卡才能運行。
Olmo可以進行測試。模型可以下載。根據您選擇的不同,這些模型更適合消費者。