DeepSeek V4 Pro на Ollama Cloud: Claude Code одним кліком

Згідно з офіційним твітом Ollama від 27 квітня, флагманська модель DeepSeek V4 Pro, випущена китайською AI-компанією DeepSeek 24 квітня, офіційно вийшла в Ollama як хмарний режим. Користувачам достатньо однієї команди, щоб викликати цю модель інструментами основних agent, такими як Claude Code, Hermes Agent, OpenClaw, Codex, OpenCode тощо. Це найшвидша синхронізація з інтеграцією провідних large model в Ollama: від випуску ваг DeepSeek до запуску Ollama Cloud пройшло лише три дні.

DeepSeek V4 Pro:1,6T параметрів, 1M контекст

V4 Pro використовує архітектуру Mixture-of-Experts, загальний масштаб параметрів — 1,6 трлн (4,9 млрд активних параметрів), контекстне вікно — 1M token. Треті сторони в базових тестах Artificial Analysis показали, що V4 Pro у програмах SWE-bench (80,6%), LiveCodeBench (93,5%), Terminal-Bench (67,9%) та інших тестах на програмування зрівнявся з Kimi K2.6 у передовій позиції серед відкритих моделей, а загальний Intelligence Index поступається Kimi K2.6 лише на один крок.

Паралельно DeepSeek також випустила більш легку модель V4 Flash; обидві моделі мають ліцензію MIT для відкритого виходу й їх можна завантажити з Hugging Face.

Ollama Cloud: хмарне виведення, ваги не завантажуються локально

deepseek-v4-pro:cloud — це модель Ollama Cloud: виведення виконується на хмарі Ollama, а ваги не завантажуються на комп’ютер користувача. Це стандартний підхід Ollama до роботи з надвеликими моделями; раніше Kimi K2.6 також було додано за таким самим способом. Для користувачів найбільша перевага — не потрібно мати десятки GPU, щоб викликати флагманський рівень моделі; недолік — все ще потрібне мережеве підключення, і обчислювальні ресурси розподіляються залежно від завантаження на хмарі Ollama.

Щоб повністю виконувати локально, потрібно отримати ваги deepseek-ai/DeepSeek-V4-Pro з Hugging Face, у поєднанні з версією INT4 (наприклад, GGUF, випущеними Unsloth) та конфігурацією з кількома GPU, щоб це було реалізовно. Звичайне споживче обладнання не здатне тягнути повну модель.

Одна команда для зв’язування Claude Code, Hermes Agent, OpenClaw

Ollama синхронно випустила інтеграційні команди launcher для основних agent-інструментів:

直接對話 ollama run deepseek-v4-pro:cloud # зв’язування Claude Code ollama launch claude --model deepseek-v4-pro:cloud # 串接 Hermes Agent ollama launch hermes --model deepseek-v4-pro:cloud # зв’язування OpenClaw / OpenCode / Codex ollama launch openclaw --model deepseek-v4-pro:cloud ollama launch opencode --model deepseek-v4-pro:cloud ollama launch codex --model deepseek-v4-pro:cloud

Сенс у тому, що: у минулому, якщо розробники хотіли замінити DeepSeek у Claude Code, їм потрібно було через OpenAI-сумісний API самим виконувати зв’язування, обробляти endpoint і автентифікацію; тепер це можна зробити за допомогою однієї команди через Ollama. Для користувачів, які активно використовують Claude Code, це дає швидкий шлях для заміни антропічної моделі на DeepSeek (або за аналогією — Kimi), щоб знизити витрати.

Відповіді ранніх тестувальників: швидкість від 30 tok/s до піку 1,1 tok/s

Обговорення внизу твіта показують, що швидкість хмарного виведення залежить від завантаження хмари Ollama. Кілька ранніх тестувальників повідомили, що швидкість у пікові години була повільною: з типових 30 tokens/s до рівня 1,1 tokens/s. Користувач @benvargas прямо опублікував скріншот із претензією «Need More Compute». В іншій відповіді Ollama визнала, що офіційна команда «теж грається з цією моделлю», маючи на увазі, що потік ще перебуває на стадії дослідження, і повного планування потужностей ще не зроблено.

Для розробників, які прагнуть стабільної швидкості на виробничій лінії, нинішня рекомендація така: використовувати хмарний режим як прототип для тестування та оцінки витрат, тоді як для офіційного продукту все одно потрібно або власноруч розбудувати інфраструктуру GPU для виведення, або обрати комерційний API. Повний навчальний матеріал Ollama також уже доповнено розділами про V4 Pro і поясненням компромісів між хмарним і локальним варіантами.

Ця стаття DeepSeek V4 Pro на Ollama Cloud: Claude Code з’єднує в один клік; найраніше з’явилася на 鏈新聞 ABMedia.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

AI-фінансова платформа Rogo залучила $160M у Серії D під керівництвом Kleiner Perkins менш ніж за 3 місяці

За даними Beating, AI-платформа Rogo, розроблена для високочастотних фінансових сценаріїв, у квітні 2026 року завершила раунд фінансування Серії D на $160 мільйонів, який очолила Kleiner Perkins за участі Sequoia, Thrive Capital, Khosla Ventures та J.P. Morgan. Залучення коштів відбулося менш ніж через три місяці

GateNews5год тому

Певні CEX запустили Протокол платежів Agent Payments Protocol, що підтримує 4 режими оплати та 9 партнерів, зокрема Ethereum Foundation

Згідно з офіційними джерелами, великий криптовалютний біржовий майданчик запустив Протокол платежів Agent Payments Protocol (APP) — відкритий платіжний стандарт для комерційних транзакцій AI-агентів, 29 квітня. Протокол дає змогу AI-агентам обробляти одиничні платежі, пакетні платежі, платежі за використанням і ескроу-платежі

GateNews5год тому

29 квітня Китай блокує придбання Manus AI, яке підтримує Meta, посилаючись на занепокоєння щодо технологічної та даних безпеки

Згідно з PANews, 29 квітня Управління з огляду інвестиційної безпеки Комісії з національного розвитку та реформ Китаю заборонило іноземне придбання проєкту Manus і вимагало припинити угоду. Manus, якому приписували статус першого в світі агента загального штучного інтелекту, заявив про плани бути придбаним американським технічним гігантом Meta. Угоду заблокували через занепокоєння, пов’язані з міжнародним середовищем, критичними технологіями та безпекою даних. Рішення свідчить, що Китай, як і раніше, відкритий до іноземних інвестицій, але зберігає обережність щодо придбань, що стосуються чутливих секторів, підкреслюючи дотримання регуляторних стандартів.

GateNews5год тому

Основна мережа KITE AI запущена на Avalanche 29 квітня як блокчейн для агентів ШІ, створений за призначенням

Згідно з Altcoin Buzz, основна мережа KITE AI запущена на Avalanche 29 квітня, представляючи спеціалізований блокчейн Layer 1, створений для автономних агентів ШІ. Платформа інтегрує можливості ідентифікації та нативних платежів, щоб агенти ШІ могли працювати, здійснювати транзакції та масштабуватися без тертя. Avalanch

GateNews8год тому

B.AI та deBridge співпрацюють для створення кросчейн-інфраструктури для AI-агентів

Згідно з ChainCatcher, B.AI та deBridge оголосили про стратегічне партнерство 29 квітня для розробки інструментальної кросчейн-інфраструктури, орієнтованої на наміри. Співпраця має на меті забезпечити безперебійну кросчейн-екзекуцію для масштабованої економіки AI Agent. Модель deBridge 0-TVL і технологія кросчейн без комісій за газ

GateNews10год тому

Parallel Парага Агравала залучила $100M Series B для інфраструктури пошуку для AI-агентів

За даними Beating, Parallel Web Systems, заснована колишнім генеральним директором Twitter Парагом Агравалом, завершила раунд Series B на $100 мільйонів доларів під керівництвом Sequoia Capital, оцінивши компанію в $2 мільярдів. Участь також взяли Kleiner Perkins, Index Ventures і Khosla Ventures. Фінансування надійшло через шість місяців після того, як компанія залучила мільйонів у раунді Series A за оцінкою мільйонів, майже утричі збільшивши свою вартість.

GateNews10год тому
Прокоментувати
0/400
Немає коментарів