Згідно з офіційним твітом Ollama від 27 квітня, флагманська модель DeepSeek V4 Pro, випущена китайською AI-компанією DeepSeek 24 квітня, офіційно вийшла в Ollama як хмарний режим. Користувачам достатньо однієї команди, щоб викликати цю модель інструментами основних agent, такими як Claude Code, Hermes Agent, OpenClaw, Codex, OpenCode тощо. Це найшвидша синхронізація з інтеграцією провідних large model в Ollama: від випуску ваг DeepSeek до запуску Ollama Cloud пройшло лише три дні.
DeepSeek V4 Pro:1,6T параметрів, 1M контекст
V4 Pro використовує архітектуру Mixture-of-Experts, загальний масштаб параметрів — 1,6 трлн (4,9 млрд активних параметрів), контекстне вікно — 1M token. Треті сторони в базових тестах Artificial Analysis показали, що V4 Pro у програмах SWE-bench (80,6%), LiveCodeBench (93,5%), Terminal-Bench (67,9%) та інших тестах на програмування зрівнявся з Kimi K2.6 у передовій позиції серед відкритих моделей, а загальний Intelligence Index поступається Kimi K2.6 лише на один крок.
Паралельно DeepSeek також випустила більш легку модель V4 Flash; обидві моделі мають ліцензію MIT для відкритого виходу й їх можна завантажити з Hugging Face.
Ollama Cloud: хмарне виведення, ваги не завантажуються локально
deepseek-v4-pro:cloud — це модель Ollama Cloud: виведення виконується на хмарі Ollama, а ваги не завантажуються на комп’ютер користувача. Це стандартний підхід Ollama до роботи з надвеликими моделями; раніше Kimi K2.6 також було додано за таким самим способом. Для користувачів найбільша перевага — не потрібно мати десятки GPU, щоб викликати флагманський рівень моделі; недолік — все ще потрібне мережеве підключення, і обчислювальні ресурси розподіляються залежно від завантаження на хмарі Ollama.
Щоб повністю виконувати локально, потрібно отримати ваги deepseek-ai/DeepSeek-V4-Pro з Hugging Face, у поєднанні з версією INT4 (наприклад, GGUF, випущеними Unsloth) та конфігурацією з кількома GPU, щоб це було реалізовно. Звичайне споживче обладнання не здатне тягнути повну модель.
Одна команда для зв’язування Claude Code, Hermes Agent, OpenClaw
Ollama синхронно випустила інтеграційні команди launcher для основних agent-інструментів:
Сенс у тому, що: у минулому, якщо розробники хотіли замінити DeepSeek у Claude Code, їм потрібно було через OpenAI-сумісний API самим виконувати зв’язування, обробляти endpoint і автентифікацію; тепер це можна зробити за допомогою однієї команди через Ollama. Для користувачів, які активно використовують Claude Code, це дає швидкий шлях для заміни антропічної моделі на DeepSeek (або за аналогією — Kimi), щоб знизити витрати.
Відповіді ранніх тестувальників: швидкість від 30 tok/s до піку 1,1 tok/s
Обговорення внизу твіта показують, що швидкість хмарного виведення залежить від завантаження хмари Ollama. Кілька ранніх тестувальників повідомили, що швидкість у пікові години була повільною: з типових 30 tokens/s до рівня 1,1 tokens/s. Користувач @benvargas прямо опублікував скріншот із претензією «Need More Compute». В іншій відповіді Ollama визнала, що офіційна команда «теж грається з цією моделлю», маючи на увазі, що потік ще перебуває на стадії дослідження, і повного планування потужностей ще не зроблено.
Для розробників, які прагнуть стабільної швидкості на виробничій лінії, нинішня рекомендація така: використовувати хмарний режим як прототип для тестування та оцінки витрат, тоді як для офіційного продукту все одно потрібно або власноруч розбудувати інфраструктуру GPU для виведення, або обрати комерційний API. Повний навчальний матеріал Ollama також уже доповнено розділами про V4 Pro і поясненням компромісів між хмарним і локальним варіантами.
Ця стаття DeepSeek V4 Pro на Ollama Cloud: Claude Code з’єднує в один клік; найраніше з’явилася на 鏈新聞 ABMedia.
Пов'язані статті
AI-фінансова платформа Rogo залучила $160M у Серії D під керівництвом Kleiner Perkins менш ніж за 3 місяці
Певні CEX запустили Протокол платежів Agent Payments Protocol, що підтримує 4 режими оплати та 9 партнерів, зокрема Ethereum Foundation
29 квітня Китай блокує придбання Manus AI, яке підтримує Meta, посилаючись на занепокоєння щодо технологічної та даних безпеки
Основна мережа KITE AI запущена на Avalanche 29 квітня як блокчейн для агентів ШІ, створений за призначенням
B.AI та deBridge співпрацюють для створення кросчейн-інфраструктури для AI-агентів
Parallel Парага Агравала залучила $100M Series B для інфраструктури пошуку для AI-агентів