Escaneie para baixar o app da Gate
qrCode
Mais opções de download
Não me lembre de novo hoje

Akash Network Lança AkashML, Primeiro Serviço de Inferência de IA Totalmente Gerido em GPUs Descentralizadas

Em Resumo

A Akash Network lançou a AkashML, oferecendo APIs compatíveis com OpenAI, acesso global de baixa latência e até 85% de poupança nos custos de implementação de LLMs.

Akash Network Lança AkashML, Primeiro Serviço de Inferência de IA Totalmente Gerido em GPUs Descentralizadas

A Akash Network, um marketplace de cloud computing, apresentou o primeiro serviço totalmente gerido de inferência de IA a operar inteiramente em GPUs descentralizadas. Este novo serviço elimina os desafios operacionais anteriormente enfrentados pelos developers na gestão de inferências em produção na Akash, proporcionando as vantagens do cloud computing descentralizado sem necessidade de gestão direta da infraestrutura.

No lançamento, a AkashML oferece inferência gerida para modelos como Llama 3.3-70B, DeepSeek V3 e Qwen3-30B-A3B, disponíveis para implementação imediata e escaláveis em mais de 65 datacenters globalmente. Esta configuração permite inferência global instantânea, preços previsíveis por token e aumenta a produtividade dos developers.

A Akash tem apoiado early adopters e startups de IA desde o surgimento das aplicações de IA após os avanços iniciais da OpenAI. Nos últimos anos, a equipa principal da Akash colaborou com clientes como brev.dev (adquirida pela Nvidia), VeniceAI e Prime Intellect para lançar produtos que servem dezenas de milhares de utilizadores. Embora estes primeiros utilizadores fossem tecnicamente proficientes e conseguissem gerir a infraestrutura por si próprios, o feedback indicou uma preferência por acesso via API sem lidar com os sistemas subjacentes. Este input guiou o desenvolvimento de uma versão não pública da AkashML para utilizadores selecionados, bem como a criação da AkashChat e da AkashChat API, abrindo caminho para o lançamento público da AkashML.

AkashML Vai Reduzir Custos de Implementação de LLM em Até 85%

A nova solução responde a vários desafios-chave que developers e empresas enfrentam ao implementar modelos de linguagem de grande dimensão. As soluções tradicionais de cloud envolvem frequentemente custos elevados, com instâncias reservadas para um modelo de 70B a exceder $0,13 por input e $0,40 por output por milhão de tokens, enquanto a AkashML utiliza a concorrência do marketplace para reduzir despesas em 70-85%. A sobrecarga operacional é outra barreira, pois preparar modelos, configurar servidores vLLM ou TGI, gerir shards e lidar com failovers pode levar semanas de engenharia; a AkashML simplifica este processo com APIs compatíveis com OpenAI que permitem a migração em minutos sem alterações ao código.

A latência é também uma preocupação com plataformas centralizadas que obrigam os pedidos a percorrer longas distâncias. A AkashML encaminha o tráfego para o datacenter mais próximo dos mais de 80 globais, proporcionando tempos de resposta inferiores a 200ms, adequados para aplicações em tempo real. O vendor lock-in limita a flexibilidade e o controlo sobre modelos e dados; a AkashML utiliza apenas modelos abertos como Llama, DeepSeek e Qwen, dando aos utilizadores controlo total sobre versões, upgrades e governance. Os desafios de escalabilidade são mitigados por auto-scaling em recursos de GPU descentralizados, mantendo 99% de uptime e eliminando limites de capacidade, evitando picos súbitos de preço.

A AkashML foi desenhada para onboarding rápido e retorno imediato do investimento. Novos utilizadores recebem $100 em créditos de token de IA para experimentar todos os modelos suportados através do Playground ou API. Um único endpoint API suporta todos os modelos e integra-se com frameworks como LangChain, Haystack ou agentes personalizados. Os preços são transparentes e específicos por modelo, prevenindo custos inesperados. Implementações de grande impacto podem ganhar visibilidade através do Akash Star, e próximas atualizações da rede como BME, máquinas virtuais e computação confidencial deverão reduzir ainda mais os custos. Os primeiros utilizadores reportam reduções de custos de três a cinco vezes e latência global consistente inferior a 200ms, criando um ciclo virtuoso de menores custos, maior utilização e mais participação de fornecedores.

Começar é simples: basta criar uma conta gratuita em playground.akashml.com em menos de dois minutos, explorar a biblioteca de modelos incluindo Llama 3.3-70B, DeepSeek V3 e Qwen3-30B-A3B, e ver os preços de imediato. Podem ser solicitados modelos adicionais diretamente na plataforma. Os utilizadores podem testar modelos instantaneamente no Playground ou via API, monitorizar utilização, latência e gastos através do dashboard, e escalar para produção com region pinning e auto-scaling.

A inferência centralizada continua dispendiosa, lenta e restritiva, enquanto a AkashML oferece acesso totalmente gerido, API-first, descentralizado a modelos abertos topo de gama a preços de marketplace. Developers e empresas que procuram reduzir custos de inferência em até 80% podem começar a usar a plataforma de imediato.

AKT3.04%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)