Сообщение Gate News, 24 апреля — DeepSeek V4-Pro и DeepSeek V4-Flash были официально выпущены и с открытым исходным кодом 24 апреля; при этом длина контекстной обработки была существенно расширена с 128K до 1M, что соответствует почти 10-кратному увеличению пропускной способности. Huawei Computing объявила, что ее продукты Ascend supernode полностью поддерживают модели серии DeepSeek V4 благодаря тесному сотрудничеству между технологиями чипа и модели.
Ascend 950 обеспечивает развертывание инференса моделей DeepSeek V4 с высокой пропускной способностью и низкой задержкой за счет методов склеивания ядер и параллелизма в несколько потоков, чтобы снизить накладные расходы на вычисления Attention и обращения к памяти. Для DeepSeek V4-Pro с входом 8K Ascend 950 достигает примерно 20ms TPOT при 4,700 TPS на одно устройство в режиме Decode; для DeepSeek V4-Flash при входе до 8K он достигает примерно 10ms TPOT при пропускной способности 1,600 TPS. Серия Ascend A3 supernode также обеспечивает полную совместимость: предоставлены эталонные реализации для быстрого дообучения. На основе supernode Ascend A3 из 64 карт с большим режимом EP DeepSeek V4-Flash достигает более 2,000 TPS на одну карту в режиме Decode в сценариях вход-выход 8K/1K, используя движок инференса vLLM. Полные линейки продуктов Huawei Ascend A2, A3 и 950 поддерживают как DeepSeek V4-Flash, так и V4-Pro.
Huawei Cloud объявила о совместимости с DeepSeek V4 для самых первых, предоставив разработчикам сервисы API token в один клик через свою платформу MaaS. Huawei Cloud оптимизировала возможности системного уровня, уровня операторов и уровня кластера, чтобы обеспечить быструю адаптацию моделей и высокопроизводительное развертывание. Компании, включая Kingsoft WPS и 360, уже интегрировали новую модель DeepSeek через Huawei Cloud.
Cambricon также объявила о совместимости Day 0 с DeepSeek V4-Flash и V4-Pro на основе фреймворка инференса vLLM, а код адаптации был с открытым исходным кодом опубликован для сообщества GitHub. Ранее Cambricon уже достигла совместимости для самых первых при выпуске DeepSeek V3.2 в прошлом году: она провела глубокую оптимизацию совместной производительности ПО и оборудования на моделях серии DeepSeek.
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
xAI запускает Grok с пользовательскими голосами, позволяя клонировать собственный голос ИИ за одну минуту
По данным Beating, xAI запустила Grok Custom Voices и Voice Library, позволяя пользователям записать одну минуту аудио в консоли xAI, чтобы сгенерировать custom voice_id для использования с API Grok TTS и Voice Agent APIs. Функция поддерживает приложения, включая агентов для обслуживания клиентов, создание контента,
GateNews10м назад
После HBM узкое место в памяти для ИИ — это HBF? Лауреат премии Тьюринга Дэвид Паттерсон: вывод (инференс) снова переопределит архитектуру хранения
Лауреат премии Тьюринга Дэвид Паттерсон указал, что по мере того как ИИ переходит от обучения к масштабному выводу, следующая волна узких мест по памяти, возможно, будет не HBM, а HBF (память высокой пропускной способности и быстрой флэш-памяти). HBF использует стеки NAND Flash для обеспечения большого объёма и низкого энергопотребления; она отвечает за доступ к контексту и промежуточным данным при выводе, в то время как HBM, ориентированная на скорость, разделяет роли иначе. SK hynix и SanDisk продвигают стандартизацию: ожидается, что к 2038 году спрос на HBF может превысить спрос на HBM.
ChainNewsAbmedia47м назад
Разработческая конференция Anthropic Code With Claude 5/6: открытие в Сан-Франциско — бесплатная регистрация на стрим
Anthropic 1 мая объявила, что первая конференция разработчиков «Code with Claude» откроется 6 мая в Сан-Франциско, а впервые расширится до двух дополнительных городов: Лондона (19.05) и Токио (10.06) — тур по трём площадкам. Местные квоты на очные основные сессии во всех трёх городах разыгрывались лотереей, и уже были отобраны, но регистрация на трансляцию по-прежнему открыта для всех. Чтобы справиться с перегрузкой спроса на местах, для Сан-Франциско дополнительно добавили сессию 7.05 «Extended», предназначенную для независимых разработчиков и основателей на ранней стадии.
Тур по трём городам: 6.05 Сан-Франциско, 19.05 Лондон, 10.06 Токио
Code with Claude — конференция разработчиков, организованная Anthropic; в Сан-Франциско это уже второе проведение. Содержание всех 3 мероприятий одинаковое: целый день очных воркшопов, демо новых функций и встречи с Claude по всем направлениям
ChainNewsAbmedia1ч назад
OpenAI опубликовала данные за неделю после запуска GPT-5.5: рост выручки от API достиг нового рекорда, Codex удвоился
OpenAI 1 мая на официальном аккаунте опубликовала 3 показателя после запуска GPT-5.5: самооценка как «самой сильной публикации всех времён», темпы роста API-выручки более чем в 2 раза по сравнению с любым предыдущим релизом модели, а Codex в течение менее чем 7 дней удвоил выручку. OpenAI объяснила это тем, что спрос со стороны бизнеса на agentic coding (агентное программирование) инструменты продолжает расти, синхронно с тем, как 30 апреля GPT-5.5-Cyber в той же волне продуктового ритма вступил в состязание с Anthropic Mythos.
3 показателя из опубликованных данных: API-выручка с удвоенной скоростью, Codex удвоение за 7 дней, самый сильный релиз
Эти 3 ключевых цифры, опубликованные OpenAI, взяты из официальных твитов и не сопровождаются подробной финансовой отчётностью: во-первых, GPT-5.5 — это «самый сильный рост выручки за всю историю», мод
ChainNewsAbmedia1ч назад
Комитет по иностранным делам Палаты представителей США встречается с техногигантами по экспортным ограничениям ИИ после принятия законопроекта MATCH Act со счётом 36–8
По данным Beating, члены Комитета по иностранным делам Палаты представителей США на следующей неделе отправятся в Кремниевую долину, чтобы встретиться с представителями Google, Anthropic, Meta, Tesla, Intel, Applied Materials и Nvidia и обсудить искусственный интеллект и экспортный контроль. Отраслевое круглый стол — s
GateNews1ч назад
OpenAI запускает Codex Pets — AI-ориентированного виртуального компаньона с пользовательской генерацией
Согласно Beating, OpenAI добавила новую функцию «Codex Pets» в настольное приложение Codex, позволяющую пользователям создавать и взаимодействовать с анимированным виртуальным питомцем. Пользователи могут активировать питомца, введя /pet в редакторе. Функция работает как индикатор состояния агента, отображая a
GateNews1ч назад