Com o desenvolvimento da IA e de outros campos, muitas indústrias alcançarão grandes mudanças em relação à lógica subjacente, o poder de computação subirá para uma posição mais importante e todos os aspetos relacionados a ela também causarão uma exploração extensiva na indústria.
Poder de computação necessário
Desde o lançamento de Avatar em 2009, a Weta Digital contribuiu para a renderização de efeitos visuais de todo o filme com realismo incomparável. Em seu farm de servidores de 10.000 pés quadrados na Nova Zelândia, sua frota de computadores processa até 1,4 milhão de tarefas por dia e 8 gigabytes de dados por segundo e, mesmo assim, é executado continuamente por mais de um mês antes de concluir todo o trabalho de renderização.
Com chamadas de máquina em grande escala e investimento de custos, “Avatar” alcançou feitos notáveis na história do cinema.
Em 3 de janeiro do mesmo ano, Satoshi Nakamoto minerou o bloco de gênese do Bitcoin em um pequeno servidor em Helsinque, Finlândia, e recebeu uma recompensa de bloco de 50 BTC. Desde os primeiros dias da criptomoeda, o poder de computação tem desempenhado um papel muito importante na indústria.
A cadeia mais longa não serve apenas como prova da sequência de eventos testemunhados, mas prova de que veio do maior pool de energia da CPU.
—— Livro Branco do Bitcoin
No contexto do mecanismo de consenso PoW, a contribuição do poder de computação fornece uma garantia para a segurança da cadeia. Ao mesmo tempo, o hashrate continuamente crescente também pode apoiar o investimento contínuo em poder de computação e expectativas positivas de receita dos mineradores. A demanda real por poder de computação na indústria também promoveu muito o desenvolvimento de fabricantes de chips. O chip da máquina de mineração passou pelos estágios de desenvolvimento de CPU, GPU, FPGA, ASIC e assim por diante. Atualmente, as plataformas de mineração de Bitcoin são geralmente chips baseados na tecnologia ASIC (Application Specific Ingrated Circuit) que podem executar com eficiência algoritmos específicos, como o SHA-256. Os enormes benefícios econômicos trazidos pelo Bitcoin também impulsionaram a demanda por poder de computação para mineração relacionada a aumentar, mas o equipamento excessivamente especializado e o efeito cluster causaram o efeito sifão de seus próprios participantes, sejam mineradores ou fabricantes de máquinas de mineração, mostrando uma tendência de desenvolvimento de concentração intensiva de capital.
Com o advento dos contratos inteligentes do Ethereum, com sua programabilidade, composabilidade e outras características, ele formou uma ampla gama de aplicações, especialmente no campo do DeFi, tornando o preço do ETH em alta durante todo o caminho, e a dificuldade de mineração do Ethereum, que ainda está no estágio de consenso PoW, também tem aumentado. Os mineradores também têm requisitos crescentes de poder de computação para máquinas de mineração Ethereum, mas ao contrário do Bitcoin, que usa chips ASIC, o Ethereum precisa usar unidades de processamento gráfico (GPUs) para cálculos de mineração, como a série Nvidia RTX. Desta forma, é mais adequado para hardware de computação de uso geral para participar, o que até desencadeou a competição de mercado para GPUs, o que levou à situação de placas gráficas high-end no mercado estavam fora de estoque por um tempo.
Quando chegou a hora de 30 de novembro de 2022, o ChatGPT desenvolvido pela OpenAI também demonstrou a importância que marcou época no campo da IA. Na nova versão lançada em setembro deste ano, a IA generativa com recursos multimodais, como fala e imagens, trouxe a experiência do usuário para um novo estágio.
No entanto, o GPT4 tem mais de um trilhão de parâmetros envolvidos no pré-treinamento do modelo e no ajuste fino subsequente. Estas são as duas partes do espaço de IA que requerem mais poder de computação. Na fase de pré-treinamento, aprenda uma grande quantidade de texto para dominar padrões de linguagem, gramática e contexto contextual. Permite-lhes compreender padrões linguísticos para gerar texto coerente e contextual com base nos inputs. Após o pré-treinamento, o GPT4 pode ser ajustado para melhor se adaptar a tipos específicos de conteúdo ou estilos, melhorando o desempenho e a especialização em cenários de demanda específicos.
Devido à arquitetura Transformer adotada pelo GPT, é introduzido o mecanismo de auto-atenção, que permite ao modelo prestar atenção à relação entre diferentes partes da sequência enquanto processa a sequência de entrada, de modo que a demanda por poder de computação aumentou drasticamente, especialmente no processamento de sequências longas, o que requer um grande número de computação paralela e armazenamento de um grande número de pontuações de atenção, por isso também requer uma grande quantidade de memória e capacidade de transmissão de dados de alta velocidade. Atualmente, os LLMs tradicionais da mesma arquitetura têm uma enorme demanda por GPUs de alto desempenho, o que também indica que o custo de investimento no campo de grandes modelos de IA é enorme. De acordo com a especulação da SemiAnálise relacionada, estima-se que o custo do treinamento do modelo GPT4 seja tão alto quanto 63 milhões de dólares americanos. A fim de alcançar uma boa experiência interativa, GPT4 também precisa investir muito poder de computação em sua operação diária para manter sua operação diária.
Classificação de Hardware de Computação
Aqui precisamos entender os principais tipos de hardware de computação e que tipo de cenários de demanda de poder de computação podem ser manipulados por CPU, GPU, FPGA e ASIC.
• A partir do diagrama esquemático da arquitetura de CPU e GPU, a GPU contém mais núcleos, o que permite que a GPU processe várias tarefas de computação ao mesmo tempo, e a computação paralela tem um poder de processamento mais forte, o que é adequado para processar um grande número de tarefas de computação, por isso tem sido amplamente utilizado no campo do aprendizado de máquina e deep learning. Por outro lado, as CPUs têm um número menor de núcleos e são adequadas para processar uma única tarefa computacional complexa ou sequencial de forma mais intensiva, mas não são tão eficientes quanto as GPUs ao lidar com tarefas de computação paralela. Em tarefas de renderização e tarefas de computação de rede neural, um grande número de cálculos repetitivos e paralelos são frequentemente processados, de modo que as GPUs são mais eficientes e aplicáveis do que as CPUs nesse sentido.
• Field Programmable Gate Array (FPGA) é um circuito semi-personalizado no campo dos circuitos integrados específicos de aplicação (ASICs). Consistindo em uma matriz de um grande número de pequenas unidades de processamento, os FPGAs podem ser entendidos como chips programáveis de integração de circuitos lógicos digitais. O aplicativo atual é focado principalmente na aceleração de hardware, e outras tarefas ainda são feitas na CPU, permitindo que o FPGA e a CPU trabalhem juntos.
• ASIC (Application Specific Integrated Circuit) refere-se a um circuito integrado projetado para atender aos requisitos de usuários específicos e às necessidades de sistemas eletrônicos específicos. Em comparação com os circuitos integrados de uso geral, os ASICs têm as vantagens de tamanho menor, menor consumo de energia, maior confiabilidade, melhor desempenho, maior confidencialidade e custo reduzido quando produzidos em massa. Portanto, no cenário inerente à mineração de Bitcoin, apenas tarefas de computação específicas precisam ser executadas, e o ASIC é o mais adequado. O Google também lançou uma Unidade de Processamento Tensor (TPU) especificamente projetada para aprendizado de máquina como um tipo de ASIC, mas atualmente fornece principalmente serviços de aluguel de energia de computação por meio do Google Cloud.
• Os ASICs são circuitos integrados específicos da aplicação em comparação com FPGAs, e os circuitos integrados são fixados assim que o projeto é concluído. Os FPGAs, por outro lado, integram um grande número de portas e memórias básicas de circuitos digitais dentro de uma matriz, e os desenvolvedores podem definir circuitos piscando a configuração do FPGA, e esse piscamento é substituível. No entanto, com a atual velocidade de atualização no campo da IA, os chips personalizados ou semipersonalizados não podem ser ajustados e reconfigurados a tempo de executar diferentes tarefas ou se adaptar a novos algoritmos. Como resultado, a adaptabilidade universal e a flexibilidade das GPUs as fazem brilhar no campo da IA. Os principais fornecedores de GPUs também fizeram otimizações relevantes para a adaptação de GPUs no campo da IA. A Nvidia, por exemplo, apresentou a série Tesla de GPUs e GPUs de arquitetura Ampere projetadas para deep learning, que contêm unidades de hardware (Tensor Cores) otimizadas para aprendizado de máquina e computação de aprendizado profundo, que permitem que as GPUs realizem a propagação para frente e para trás de redes neurais com maior eficiência e menor consumo de energia. Além disso, uma ampla gama de ferramentas e bibliotecas são fornecidas para apoiar o desenvolvimento de IA, como CUDA (Compute Unified Device Architecture) para ajudar os desenvolvedores a aproveitar GPUs para computação paralela de uso geral.
Poder de computação descentralizado
O poder de computação descentralizado refere-se à forma como o poder de processamento é fornecido através de recursos de computação distribuídos. Essa abordagem descentralizada é frequentemente combinada com a tecnologia blockchain ou tecnologia de livro-razão distribuído semelhante para agrupar e distribuir recursos de computação ociosos para usuários que precisam deles para compartilhamento de recursos, transações e gerenciamento.
Gerar Plano de Fundo
• Forte demanda por hardware de computação. **A prosperidade da economia criadora fez com que a direção do processamento de mídia digital entrasse na era da criação nacional, e a crescente demanda por renderização de efeitos visuais apareceu na forma de estúdios especializados de terceirização de renderização e plataformas de renderização em nuvem, mas esse método também exige que se invista muito dinheiro no estágio inicial de aquisição de hardware de computação.
• **Fonte única de hardware de computação. **O desenvolvimento do campo da IA intensificou a demanda por hardware de computação, e os fabricantes de GPU em todo o mundo, liderados pela Nvidia, ganharam muito dinheiro nesta corrida pelo poder de computação da IA. Sua capacidade de fornecimento se tornou até mesmo um fator-chave que pode dificultar o desenvolvimento de uma determinada indústria, e a capitalização de mercado da Nvidia ultrapassou US$ 1 trilhão pela primeira vez este ano.
• **O fornecimento de poder de computação ainda depende principalmente de plataformas de nuvem centralizadas. **Atualmente, os fornecedores de nuvem centralizada representados pela AWS estão realmente se beneficiando do aumento na demanda por computação de alto desempenho, que lançaram serviços de computação em nuvem GPU, tomando o atual AWS p4d.24xlarge como exemplo, alugando um servidor HPC especializado em ML, incluindo 8 GPUs Nvidia A100 de 40GB, que custa US $ 32,8 por hora, e sua margem de lucro bruto é estimada em 61%. Isso levou outros gigantes da nuvem a entrar e acumular hardware para aproveitar o desenvolvimento inicial da indústria.
• **A intervenção política, humana e outros fatores conduzem a um desenvolvimento desequilibrado da indústria. **Desequilibrado: Não é difícil ver que a propriedade e concentração de GPUs é mais enviesada para organizações e países com fundos e tecnologia abundantes, e depende de clusters de computação de alto desempenho. Como resultado, as potências de fabricação de semicondutores de chips representadas pelos Estados Unidos também estão impondo restrições mais rígidas à exportação de chips de IA para enfraquecer as capacidades de pesquisa de outros países no campo da inteligência artificial geral.
• A alocação de recursos computacionais é muito centralizada. ** A iniciativa de desenvolvimento no campo da IA está nas mãos de algumas empresas gigantes, e os gigantes representados pela OpenAI, com a bênção da Microsoft, são apoiados pelos ricos recursos de computação fornecidos pelo Microsoft Azure, o que torna cada novo lançamento de produto da OpenAI uma reformulação e integração da indústria de IA atual, tornando difícil para o resto da equipe igualá-la no campo dos grandes modelos.
Então, diante dos altos custos de hardware, restrições geográficas e desenvolvimento industrial desigual, existem outras soluções?
**As plataformas de computação descentralizadas foram criadas com o objetivo de criar um mercado aberto, transparente e autorregulado para um uso mais eficiente dos recursos de computação global. **
Análise Adaptativa
1. Fonte de alimentação de computação descentralizada
Atualmente, o alto preço do hardware e o controle artificial do lado da oferta forneceram terreno para a construção de redes de poder de computação descentralizadas.
• Do ponto de vista da composição do poder de computação descentralizado, uma variedade de provedores de poder de computação variam de PCs pessoais, pequenos dispositivos IoT a centros de dados, IDCs, etc., e uma grande quantidade de poder de computação acumulado pode fornecer soluções de computação mais flexíveis e escaláveis, ajudando assim mais desenvolvedores e organizações de IA a fazer uso mais eficiente de recursos limitados. O compartilhamento de poder de computação descentralizado pode ser realizado através do poder de computação ocioso de indivíduos ou organizações, mas a disponibilidade e a estabilidade desse poder de computação são limitadas pelas restrições de uso ou tetos de compartilhamento de seus próprios usuários.
• **A fonte potencial de poder de computação de alta qualidade são os recursos de poder de computação diretamente fornecidos pela transformação de fazendas de mineração relevantes depois que o Ethereum é convertido em PoS. Coreweave, um provedor líder de poder de computação integrado a GPU nos Estados Unidos, é a maior fazenda de mineração para Ethereum na América do Norte, com base em uma infraestrutura bem estabelecida. Além disso, as máquinas de mineração Ethereum aposentadas, que também contêm um grande número de GPUs ociosas, é relatado que há cerca de 27 milhões de GPUs trabalhando na rede no auge da era de mineração Ethereum, e revitalizar essas GPUs pode se tornar ainda mais uma importante fonte de poder de computação para a rede de computação descentralizada.
2. Lado da demanda do poder de computação descentralizado
• Do ponto de vista da implementação técnica, recursos de computação descentralizada em renderização gráfica, transcodificação de vídeo, este tipo de complexidade computacional da tarefa, combinado com a tecnologia blockchain e sistema econômico web3 pode garantir a transmissão segura de informações e dados, para os participantes da rede para trazer incentivos de receita tangível, modelos de negócios eficazes acumulados e grupos de clientes. O campo de IA envolve um grande número de computação paralela, comunicação e sincronização entre nós, etc., e tem requisitos muito altos para o ambiente de rede, de modo que as aplicações atuais também estão concentradas em ajuste fino, inferência, AIGC e outras camadas mais de aplicação.
• Do ponto de vista da lógica de negócios, o mercado de negociação de poder de computação puro é pouco imaginativo, e a indústria só pode rolar a cadeia de suprimentos e estratégias de preços, mas essas são as vantagens dos serviços de nuvem centralizados. Por exemplo, a Render Network e o 2023 Q1 também lançaram um conjunto de ferramentas de IA de estabilidade nativamente integrado, que permite aos usuários introduzir trabalhos de Difusão Estável com esse recurso, e seus negócios não se limitam mais a renderizar trabalhos, mas se expandem para o campo da IA.
• Do ponto de vista dos principais grupos de clientes, é óbvio que os grandes clientes B-end estarão mais inclinados a serviços de nuvem integrados centralizados, geralmente têm orçamentos suficientes, geralmente estão envolvidos no desenvolvimento de grandes modelos subjacentes e precisam de formas mais eficientes de agregação de poder de computação, portanto, o poder de computação descentralizada é mais para pequenas e médias equipes de desenvolvimento ou indivíduos, envolvidos em ajuste fino de modelos ou desenvolvimento de camada de aplicação, e não há requisitos muito altos para a forma de poder de computação fornecido. Eles são mais sensíveis ao preço, o poder de computação descentralizado pode reduzir fundamentalmente o custo inicial do investimento, então o custo geral de uso também é menor, com base no custo estimado anterior do Gensyn, convertendo o poder de computação no poder de computação equivalente fornecido pelo V100, o preço do Gensyn é de apenas US $ 0,4 por hora, em comparação com o mesmo tipo de poder de computação exigido pela AWS US $ 2 por hora, que pode ser reduzido em 80%. Embora essa parte do negócio não represente a maior parte dos gastos atuais da indústria, à medida que os cenários de uso de aplicativos de IA continuam a se expandir, o tamanho futuro do mercado não deve ser subestimado.
• Do ponto de vista dos serviços prestados, pode-se constatar que o projeto atual é mais parecido com o conceito de uma plataforma em nuvem descentralizada, proporcionando um conjunto completo de gerenciamento de todo o processo de desenvolvimento, implantação, lançamento, distribuição e transação, o que tem a vantagem de atrair desenvolvedores, utilizando componentes de ferramentas relevantes para simplificar o desenvolvimento e implantação, melhorar a eficiência e, ao mesmo tempo, atrair usuários para usar esses produtos de aplicação completos na plataforma, formando um fosso ecológico baseado em sua própria rede de poder de computação. No entanto, ao mesmo tempo, também apresenta requisitos mais elevados para o funcionamento do projeto. Como atrair e reter excelentes desenvolvedores e usuários é particularmente importante.
Aplicações em diferentes campos
1. Processamento de mídia digital
Render Network Uma plataforma de renderização global baseada em blockchain cujo objetivo é capacitar os criadores com criatividade digital. Ele permite que os criadores escalem trabalhos de renderização de GPU para nós de GPU em todo o mundo sob demanda, fornecendo uma capacidade mais rápida e barata de enviar recompensas de token para nós depois que o criador confirmar os resultados de renderização. Configurar a infraestrutura de renderização local ou adicionar gastos com GPU a serviços de nuvem requer um alto investimento inicial em comparação com os métodos tradicionais de implementação de efeitos visuais.
Desde a sua criação em 2017, os usuários da Render Network renderizaram mais de 16 milhões de quadros e quase 500.000 cenas na web. Os dados divulgados do Render Network 2023 Q2 também mostram que o número de trabalhos de quadro de renderização e o número de nós ativos estão aumentando. Além disso, a Render Network e o 1º trimestre de 2023 também lançaram uma integração nativa com o conjunto de ferramentas de IA de estabilidade, que permite aos usuários introduzir trabalhos de Difusão Estável no campo de IA, e seus negócios não se limitam mais a renderizar trabalhos, mas se expandem para o campo de IA.
O Livepeer fornece serviços de transcodificação de vídeo em tempo real para criadores, contribuindo com o seu próprio poder de computação GPU e largura de banda através dos participantes da rede. As emissoras podem enviar vídeos para o Livepeer para transcodificar vários vídeos e distribuí-los aos usuários em vários dispositivos, disseminando assim o conteúdo de vídeo. Ao mesmo tempo, você pode facilmente pagar na forma de moeda fiduciária para obter serviços como transcodificação de vídeo, transmissão e armazenamento.
Na rede Livepeer, qualquer pessoa pode ganhar taxas contribuindo com recursos do computador pessoal (CPU, GPU e largura de banda) para transcodificar e distribuir vídeo. O token nativo (LPT) representa os direitos e interesses dos participantes da rede na rede, e determina o peso dos nós na rede por staking tokens, afetando assim suas chances de obter tarefas de transcodificação. Ao mesmo tempo, o LPT também desempenha um papel na orientação dos nós para completar a tarefa de despachar com segurança, confiabilidade e rapidez.
2. Expansão do campo de IA
No ecossistema atual no campo da IA, os principais atores podem ser divididos em:
Começando pelo lado da procura, a procura de poder de computação é obviamente diferente em diferentes fases da indústria. Tomando como exemplo o desenvolvimento do modelo subjacente, no processo de pré-treinamento, a fim de garantir a eficácia dos resultados do treinamento, os requisitos para computação paralela, armazenamento e comunicação são muito altos, o que requer um grande cluster de poder de computação para concluir tarefas relacionadas. Atualmente, a principal fonte de energia de computação depende principalmente de salas de computadores autoconstruídas e plataformas de serviço de nuvem centralizadas para fornecer computação centralizada. No entanto, no ajuste fino do modelo de acompanhamento, inferência em tempo real e desenvolvimento de aplicativos, os requisitos para computação paralela e comunicação entre nós não são tão altos, que é precisamente a parte onde o poder de computação descentralizada pode mostrar sua força.
Olhando para os projetos que têm sido bastante vocais antes, Akash Nework fez algumas tentativas na direção do poder de computação descentralizada:
A Akash Network combina diferentes componentes tecnológicos para permitir aos utilizadores implementar e gerir aplicações de forma eficiente e flexível num ambiente de nuvem descentralizado. Os usuários podem empacotar aplicativos usando a tecnologia de contêiner Docker, que pode ser implantada e dimensionada via CloudMOS sobre Kubernetes em recursos de nuvem fornecidos pelo Akash. O Akash usa um método de “leilão reverso”, o que torna o preço mais baixo do que os serviços de nuvem tradicionais.
A Akash Network também anunciou em agosto deste ano que lançará a 6ª atualização da mainnet, incorporando suporte a GPU em seus serviços de nuvem para fornecer poder de computação para mais equipes de IA no futuro.
Gensyn.ai, o projeto de alto perfil deste ano liderado pela a16z completou um financiamento Série A de US$ 43 milhões, de acordo com os documentos divulgados até agora, o projeto é um protocolo L1 PoS mainnet baseado na rede Polkadot, com foco em deep learning, que visa expandir os limites do aprendizado de máquina criando uma rede global de clusters de supercomputação. Essa rede conecta tudo, desde data centers com poder de computação excedente até PCs com GPUs pessoais em potencial, ASICs personalizados e SoCs.
A fim de resolver alguns dos problemas existentes no atual poder de computação descentralizada, Gensyn baseia-se em alguns novos resultados de pesquisa teórica da comunidade acadêmica:
Adotar provas de aprendizagem probabilísticas, ou seja, utilizar os metadados de processos de otimização baseados em gradiente para construir provas de execução de tarefas relevantes para acelerar o processo de verificação;
Protocolo Pinpoint baseado em gráficos, o GPP serve como uma ponte que conecta a execução offline de DNN (Deep Neural Network) com a estrutura de contrato inteligente no blockchain, o que resolve as inconsistências que são propensas a ocorrer em dispositivos de hardware e garante a consistência da verificação.
Incentivos semelhantes aos da Truebit, através de uma combinação de staking e penalidades, constroem um sistema que permite que participantes economicamente racionais executem honestamente suas tarefas atribuídas. O mecanismo emprega abordagens de criptografia e teoria dos jogos. Este sistema de validação é essencial para manter a integridade e a fiabilidade dos cálculos de treino de modelos em larga escala.
No entanto, vale a pena notar que o conteúdo acima é mais sobre resolver o nível de verificação de conclusão de tarefa, em vez das funções de poder de computação descentralizada para alcançar o treinamento de modelo como o principal destaque no documento do projeto, especialmente sobre a otimização da computação paralela e comunicação e sincronização entre hardware distribuído. Atualmente, devido ao impacto da latência da rede e da largura de banda, a comunicação frequente entre nós aumentará o tempo de iteração e o custo de comunicação, o que não só não trará otimização real, mas reduzirá a eficiência do treinamento. A abordagem de Gensyn para comunicação de nós e computação paralela no treinamento de modelos pode envolver protocolos de coordenação complexos para gerenciar a natureza distribuída da computação. No entanto, sem informações técnicas mais detalhadas ou uma compreensão mais profunda de sua abordagem específica, o mecanismo exato pelo qual a Gensyn implementa o treinamento de modelos em larga escala por meio de sua rede precisará esperar que o projeto entre em operação antes que ele possa ser realmente revelado.
Também prestamos atenção ao protocolo Edge Matrix Computing (EMC), que usa a tecnologia blockchain para aplicar poder de computação à IA, renderização, pesquisa científica, acesso ao comércio eletrônico de IA e outros tipos de cenários, e distribui tarefas para diferentes nós de computação por meio da computação elástica. Este método não só melhora a eficiência do poder de computação, mas também garante a segurança da transmissão de dados. Ao mesmo tempo, fornece um mercado de poder de computação onde os usuários podem acessar e trocar recursos de computação. Os desenvolvedores podem facilmente implantar e alcançar os usuários mais rapidamente. Combinado com a forma econômica da Web3, ele também pode permitir que os provedores de poder de computação obtenham benefícios reais e subsídios de protocolo com base no uso real dos usuários, e os desenvolvedores de IA também podem obter menores custos de inferência e renderização. Aqui está uma visão geral de seus principais componentes e recursos:
Espera-se que os produtos RWA baseados em GPU também sejam lançados, a chave para isso é revitalizar o hardware que foi originalmente fixado na sala de computadores, dividir e circular na forma de RWA, e obter liquidez de capital adicional, a razão pela qual GPU de alta qualidade pode ser usada como o ativo subjacente da RWA é que o poder de computação pode ser considerado como moeda forte no campo da IA, há uma contradição óbvia entre oferta e demanda, e a contradição não pode ser resolvida no curto prazo, então o preço da GPU é relativamente estável.
Além disso, a implantação de salas de equipamentos IDC para implementar clusters de poder de computação também é uma parte fundamental do protocolo EMC, que não só permite que a GPU opere em um ambiente unificado, mas também lida de forma mais eficiente com tarefas relacionadas ao consumo de energia de computação em grande escala, como pré-treinamento de modelos, de modo a atender às necessidades dos usuários profissionais. Ao mesmo tempo, o data center da IDC também pode hospedar e executar centralmente um grande número de GPUs, garantindo as especificações técnicas do mesmo tipo de hardware de alta qualidade, o que é conveniente para empacotar e lançar como produtos RWA para o mercado, abrindo novas ideias para DeFi.
Nos últimos anos, surgiram novas teorias técnicas e práticas de aplicação no campo da computação de borda. Como um complemento e otimização da computação em nuvem, a computação de borda está acelerando a velocidade da nuvem para a borda e para dispositivos IoT cada vez menores. Esses dispositivos IoT tendem a ser pequenos, então o aprendizado de máquina leve é favorecido para atender a problemas como consumo de energia, latência e precisão.
Network3 é fornecer serviços para desenvolvedores de IA em todo o mundo através da otimização e compressão de algoritmos de modelos de IA, aprendizagem federada, computação de borda e computação de privacidade, ajudando-os a treinar ou validar modelos de forma rápida, conveniente e eficiente. Usando um grande número de dispositivos inteligentes de hardware IoT, ele pode se concentrar em pequenos modelos para fornecer poder de computação correspondente e, ao construir um TEE (Trusted ution Environment), os usuários podem concluir o treinamento relevante apenas carregando gradientes de modelo para garantir a privacidade e a segurança dos dados relacionados aos usuários.
Em resumo
• Com o desenvolvimento da IA e de outros campos, muitas indústrias alcançarão grandes mudanças em relação à lógica subjacente, o poder de computação subirá para uma posição mais importante e todos os aspetos relacionados a ela também causarão uma exploração extensiva na indústria.
• E as próprias equipes no campo da IA também estão em uma bifurcação, e a escolha de usar os grandes modelos treinados para construir seus próprios produtos ou participar do treinamento de grandes modelos em suas respetivas regiões também é dialética. Portanto, a tendência de desenvolvimento do poder de computação descentralizada pode atender a diferentes necessidades de negócios, e com a atualização da tecnologia e a iteração de algoritmos, é obrigado a fazer avanços em áreas-chave.
• Não tenha medo, mas vá devagar.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Remodelando as fronteiras da computação: a situação atual e as perspetivas do poder de computação descentralizada
来源:Campus Future3
Com o desenvolvimento da IA e de outros campos, muitas indústrias alcançarão grandes mudanças em relação à lógica subjacente, o poder de computação subirá para uma posição mais importante e todos os aspetos relacionados a ela também causarão uma exploração extensiva na indústria.
Poder de computação necessário
Desde o lançamento de Avatar em 2009, a Weta Digital contribuiu para a renderização de efeitos visuais de todo o filme com realismo incomparável. Em seu farm de servidores de 10.000 pés quadrados na Nova Zelândia, sua frota de computadores processa até 1,4 milhão de tarefas por dia e 8 gigabytes de dados por segundo e, mesmo assim, é executado continuamente por mais de um mês antes de concluir todo o trabalho de renderização.
Com chamadas de máquina em grande escala e investimento de custos, “Avatar” alcançou feitos notáveis na história do cinema.
Em 3 de janeiro do mesmo ano, Satoshi Nakamoto minerou o bloco de gênese do Bitcoin em um pequeno servidor em Helsinque, Finlândia, e recebeu uma recompensa de bloco de 50 BTC. Desde os primeiros dias da criptomoeda, o poder de computação tem desempenhado um papel muito importante na indústria.
No contexto do mecanismo de consenso PoW, a contribuição do poder de computação fornece uma garantia para a segurança da cadeia. Ao mesmo tempo, o hashrate continuamente crescente também pode apoiar o investimento contínuo em poder de computação e expectativas positivas de receita dos mineradores. A demanda real por poder de computação na indústria também promoveu muito o desenvolvimento de fabricantes de chips. O chip da máquina de mineração passou pelos estágios de desenvolvimento de CPU, GPU, FPGA, ASIC e assim por diante. Atualmente, as plataformas de mineração de Bitcoin são geralmente chips baseados na tecnologia ASIC (Application Specific Ingrated Circuit) que podem executar com eficiência algoritmos específicos, como o SHA-256. Os enormes benefícios econômicos trazidos pelo Bitcoin também impulsionaram a demanda por poder de computação para mineração relacionada a aumentar, mas o equipamento excessivamente especializado e o efeito cluster causaram o efeito sifão de seus próprios participantes, sejam mineradores ou fabricantes de máquinas de mineração, mostrando uma tendência de desenvolvimento de concentração intensiva de capital.
Com o advento dos contratos inteligentes do Ethereum, com sua programabilidade, composabilidade e outras características, ele formou uma ampla gama de aplicações, especialmente no campo do DeFi, tornando o preço do ETH em alta durante todo o caminho, e a dificuldade de mineração do Ethereum, que ainda está no estágio de consenso PoW, também tem aumentado. Os mineradores também têm requisitos crescentes de poder de computação para máquinas de mineração Ethereum, mas ao contrário do Bitcoin, que usa chips ASIC, o Ethereum precisa usar unidades de processamento gráfico (GPUs) para cálculos de mineração, como a série Nvidia RTX. Desta forma, é mais adequado para hardware de computação de uso geral para participar, o que até desencadeou a competição de mercado para GPUs, o que levou à situação de placas gráficas high-end no mercado estavam fora de estoque por um tempo.
Quando chegou a hora de 30 de novembro de 2022, o ChatGPT desenvolvido pela OpenAI também demonstrou a importância que marcou época no campo da IA. Na nova versão lançada em setembro deste ano, a IA generativa com recursos multimodais, como fala e imagens, trouxe a experiência do usuário para um novo estágio.
No entanto, o GPT4 tem mais de um trilhão de parâmetros envolvidos no pré-treinamento do modelo e no ajuste fino subsequente. Estas são as duas partes do espaço de IA que requerem mais poder de computação. Na fase de pré-treinamento, aprenda uma grande quantidade de texto para dominar padrões de linguagem, gramática e contexto contextual. Permite-lhes compreender padrões linguísticos para gerar texto coerente e contextual com base nos inputs. Após o pré-treinamento, o GPT4 pode ser ajustado para melhor se adaptar a tipos específicos de conteúdo ou estilos, melhorando o desempenho e a especialização em cenários de demanda específicos.
Devido à arquitetura Transformer adotada pelo GPT, é introduzido o mecanismo de auto-atenção, que permite ao modelo prestar atenção à relação entre diferentes partes da sequência enquanto processa a sequência de entrada, de modo que a demanda por poder de computação aumentou drasticamente, especialmente no processamento de sequências longas, o que requer um grande número de computação paralela e armazenamento de um grande número de pontuações de atenção, por isso também requer uma grande quantidade de memória e capacidade de transmissão de dados de alta velocidade. Atualmente, os LLMs tradicionais da mesma arquitetura têm uma enorme demanda por GPUs de alto desempenho, o que também indica que o custo de investimento no campo de grandes modelos de IA é enorme. De acordo com a especulação da SemiAnálise relacionada, estima-se que o custo do treinamento do modelo GPT4 seja tão alto quanto 63 milhões de dólares americanos. A fim de alcançar uma boa experiência interativa, GPT4 também precisa investir muito poder de computação em sua operação diária para manter sua operação diária.
Classificação de Hardware de Computação
Aqui precisamos entender os principais tipos de hardware de computação e que tipo de cenários de demanda de poder de computação podem ser manipulados por CPU, GPU, FPGA e ASIC.
• A partir do diagrama esquemático da arquitetura de CPU e GPU, a GPU contém mais núcleos, o que permite que a GPU processe várias tarefas de computação ao mesmo tempo, e a computação paralela tem um poder de processamento mais forte, o que é adequado para processar um grande número de tarefas de computação, por isso tem sido amplamente utilizado no campo do aprendizado de máquina e deep learning. Por outro lado, as CPUs têm um número menor de núcleos e são adequadas para processar uma única tarefa computacional complexa ou sequencial de forma mais intensiva, mas não são tão eficientes quanto as GPUs ao lidar com tarefas de computação paralela. Em tarefas de renderização e tarefas de computação de rede neural, um grande número de cálculos repetitivos e paralelos são frequentemente processados, de modo que as GPUs são mais eficientes e aplicáveis do que as CPUs nesse sentido.
• Field Programmable Gate Array (FPGA) é um circuito semi-personalizado no campo dos circuitos integrados específicos de aplicação (ASICs). Consistindo em uma matriz de um grande número de pequenas unidades de processamento, os FPGAs podem ser entendidos como chips programáveis de integração de circuitos lógicos digitais. O aplicativo atual é focado principalmente na aceleração de hardware, e outras tarefas ainda são feitas na CPU, permitindo que o FPGA e a CPU trabalhem juntos.
• ASIC (Application Specific Integrated Circuit) refere-se a um circuito integrado projetado para atender aos requisitos de usuários específicos e às necessidades de sistemas eletrônicos específicos. Em comparação com os circuitos integrados de uso geral, os ASICs têm as vantagens de tamanho menor, menor consumo de energia, maior confiabilidade, melhor desempenho, maior confidencialidade e custo reduzido quando produzidos em massa. Portanto, no cenário inerente à mineração de Bitcoin, apenas tarefas de computação específicas precisam ser executadas, e o ASIC é o mais adequado. O Google também lançou uma Unidade de Processamento Tensor (TPU) especificamente projetada para aprendizado de máquina como um tipo de ASIC, mas atualmente fornece principalmente serviços de aluguel de energia de computação por meio do Google Cloud.
• Os ASICs são circuitos integrados específicos da aplicação em comparação com FPGAs, e os circuitos integrados são fixados assim que o projeto é concluído. Os FPGAs, por outro lado, integram um grande número de portas e memórias básicas de circuitos digitais dentro de uma matriz, e os desenvolvedores podem definir circuitos piscando a configuração do FPGA, e esse piscamento é substituível. No entanto, com a atual velocidade de atualização no campo da IA, os chips personalizados ou semipersonalizados não podem ser ajustados e reconfigurados a tempo de executar diferentes tarefas ou se adaptar a novos algoritmos. Como resultado, a adaptabilidade universal e a flexibilidade das GPUs as fazem brilhar no campo da IA. Os principais fornecedores de GPUs também fizeram otimizações relevantes para a adaptação de GPUs no campo da IA. A Nvidia, por exemplo, apresentou a série Tesla de GPUs e GPUs de arquitetura Ampere projetadas para deep learning, que contêm unidades de hardware (Tensor Cores) otimizadas para aprendizado de máquina e computação de aprendizado profundo, que permitem que as GPUs realizem a propagação para frente e para trás de redes neurais com maior eficiência e menor consumo de energia. Além disso, uma ampla gama de ferramentas e bibliotecas são fornecidas para apoiar o desenvolvimento de IA, como CUDA (Compute Unified Device Architecture) para ajudar os desenvolvedores a aproveitar GPUs para computação paralela de uso geral.
Poder de computação descentralizado
O poder de computação descentralizado refere-se à forma como o poder de processamento é fornecido através de recursos de computação distribuídos. Essa abordagem descentralizada é frequentemente combinada com a tecnologia blockchain ou tecnologia de livro-razão distribuído semelhante para agrupar e distribuir recursos de computação ociosos para usuários que precisam deles para compartilhamento de recursos, transações e gerenciamento.
Gerar Plano de Fundo
• Forte demanda por hardware de computação. **A prosperidade da economia criadora fez com que a direção do processamento de mídia digital entrasse na era da criação nacional, e a crescente demanda por renderização de efeitos visuais apareceu na forma de estúdios especializados de terceirização de renderização e plataformas de renderização em nuvem, mas esse método também exige que se invista muito dinheiro no estágio inicial de aquisição de hardware de computação.
• **Fonte única de hardware de computação. **O desenvolvimento do campo da IA intensificou a demanda por hardware de computação, e os fabricantes de GPU em todo o mundo, liderados pela Nvidia, ganharam muito dinheiro nesta corrida pelo poder de computação da IA. Sua capacidade de fornecimento se tornou até mesmo um fator-chave que pode dificultar o desenvolvimento de uma determinada indústria, e a capitalização de mercado da Nvidia ultrapassou US$ 1 trilhão pela primeira vez este ano.
• **O fornecimento de poder de computação ainda depende principalmente de plataformas de nuvem centralizadas. **Atualmente, os fornecedores de nuvem centralizada representados pela AWS estão realmente se beneficiando do aumento na demanda por computação de alto desempenho, que lançaram serviços de computação em nuvem GPU, tomando o atual AWS p4d.24xlarge como exemplo, alugando um servidor HPC especializado em ML, incluindo 8 GPUs Nvidia A100 de 40GB, que custa US $ 32,8 por hora, e sua margem de lucro bruto é estimada em 61%. Isso levou outros gigantes da nuvem a entrar e acumular hardware para aproveitar o desenvolvimento inicial da indústria.
• **A intervenção política, humana e outros fatores conduzem a um desenvolvimento desequilibrado da indústria. **Desequilibrado: Não é difícil ver que a propriedade e concentração de GPUs é mais enviesada para organizações e países com fundos e tecnologia abundantes, e depende de clusters de computação de alto desempenho. Como resultado, as potências de fabricação de semicondutores de chips representadas pelos Estados Unidos também estão impondo restrições mais rígidas à exportação de chips de IA para enfraquecer as capacidades de pesquisa de outros países no campo da inteligência artificial geral.
• A alocação de recursos computacionais é muito centralizada. ** A iniciativa de desenvolvimento no campo da IA está nas mãos de algumas empresas gigantes, e os gigantes representados pela OpenAI, com a bênção da Microsoft, são apoiados pelos ricos recursos de computação fornecidos pelo Microsoft Azure, o que torna cada novo lançamento de produto da OpenAI uma reformulação e integração da indústria de IA atual, tornando difícil para o resto da equipe igualá-la no campo dos grandes modelos.
Então, diante dos altos custos de hardware, restrições geográficas e desenvolvimento industrial desigual, existem outras soluções?
**As plataformas de computação descentralizadas foram criadas com o objetivo de criar um mercado aberto, transparente e autorregulado para um uso mais eficiente dos recursos de computação global. **
Análise Adaptativa
1. Fonte de alimentação de computação descentralizada
Atualmente, o alto preço do hardware e o controle artificial do lado da oferta forneceram terreno para a construção de redes de poder de computação descentralizadas.
• Do ponto de vista da composição do poder de computação descentralizado, uma variedade de provedores de poder de computação variam de PCs pessoais, pequenos dispositivos IoT a centros de dados, IDCs, etc., e uma grande quantidade de poder de computação acumulado pode fornecer soluções de computação mais flexíveis e escaláveis, ajudando assim mais desenvolvedores e organizações de IA a fazer uso mais eficiente de recursos limitados. O compartilhamento de poder de computação descentralizado pode ser realizado através do poder de computação ocioso de indivíduos ou organizações, mas a disponibilidade e a estabilidade desse poder de computação são limitadas pelas restrições de uso ou tetos de compartilhamento de seus próprios usuários.
• **A fonte potencial de poder de computação de alta qualidade são os recursos de poder de computação diretamente fornecidos pela transformação de fazendas de mineração relevantes depois que o Ethereum é convertido em PoS. Coreweave, um provedor líder de poder de computação integrado a GPU nos Estados Unidos, é a maior fazenda de mineração para Ethereum na América do Norte, com base em uma infraestrutura bem estabelecida. Além disso, as máquinas de mineração Ethereum aposentadas, que também contêm um grande número de GPUs ociosas, é relatado que há cerca de 27 milhões de GPUs trabalhando na rede no auge da era de mineração Ethereum, e revitalizar essas GPUs pode se tornar ainda mais uma importante fonte de poder de computação para a rede de computação descentralizada.
2. Lado da demanda do poder de computação descentralizado
• Do ponto de vista da implementação técnica, recursos de computação descentralizada em renderização gráfica, transcodificação de vídeo, este tipo de complexidade computacional da tarefa, combinado com a tecnologia blockchain e sistema econômico web3 pode garantir a transmissão segura de informações e dados, para os participantes da rede para trazer incentivos de receita tangível, modelos de negócios eficazes acumulados e grupos de clientes. O campo de IA envolve um grande número de computação paralela, comunicação e sincronização entre nós, etc., e tem requisitos muito altos para o ambiente de rede, de modo que as aplicações atuais também estão concentradas em ajuste fino, inferência, AIGC e outras camadas mais de aplicação.
• Do ponto de vista da lógica de negócios, o mercado de negociação de poder de computação puro é pouco imaginativo, e a indústria só pode rolar a cadeia de suprimentos e estratégias de preços, mas essas são as vantagens dos serviços de nuvem centralizados. Por exemplo, a Render Network e o 2023 Q1 também lançaram um conjunto de ferramentas de IA de estabilidade nativamente integrado, que permite aos usuários introduzir trabalhos de Difusão Estável com esse recurso, e seus negócios não se limitam mais a renderizar trabalhos, mas se expandem para o campo da IA.
• Do ponto de vista dos principais grupos de clientes, é óbvio que os grandes clientes B-end estarão mais inclinados a serviços de nuvem integrados centralizados, geralmente têm orçamentos suficientes, geralmente estão envolvidos no desenvolvimento de grandes modelos subjacentes e precisam de formas mais eficientes de agregação de poder de computação, portanto, o poder de computação descentralizada é mais para pequenas e médias equipes de desenvolvimento ou indivíduos, envolvidos em ajuste fino de modelos ou desenvolvimento de camada de aplicação, e não há requisitos muito altos para a forma de poder de computação fornecido. Eles são mais sensíveis ao preço, o poder de computação descentralizado pode reduzir fundamentalmente o custo inicial do investimento, então o custo geral de uso também é menor, com base no custo estimado anterior do Gensyn, convertendo o poder de computação no poder de computação equivalente fornecido pelo V100, o preço do Gensyn é de apenas US $ 0,4 por hora, em comparação com o mesmo tipo de poder de computação exigido pela AWS US $ 2 por hora, que pode ser reduzido em 80%. Embora essa parte do negócio não represente a maior parte dos gastos atuais da indústria, à medida que os cenários de uso de aplicativos de IA continuam a se expandir, o tamanho futuro do mercado não deve ser subestimado.
• Do ponto de vista dos serviços prestados, pode-se constatar que o projeto atual é mais parecido com o conceito de uma plataforma em nuvem descentralizada, proporcionando um conjunto completo de gerenciamento de todo o processo de desenvolvimento, implantação, lançamento, distribuição e transação, o que tem a vantagem de atrair desenvolvedores, utilizando componentes de ferramentas relevantes para simplificar o desenvolvimento e implantação, melhorar a eficiência e, ao mesmo tempo, atrair usuários para usar esses produtos de aplicação completos na plataforma, formando um fosso ecológico baseado em sua própria rede de poder de computação. No entanto, ao mesmo tempo, também apresenta requisitos mais elevados para o funcionamento do projeto. Como atrair e reter excelentes desenvolvedores e usuários é particularmente importante.
Aplicações em diferentes campos
1. Processamento de mídia digital
Render Network Uma plataforma de renderização global baseada em blockchain cujo objetivo é capacitar os criadores com criatividade digital. Ele permite que os criadores escalem trabalhos de renderização de GPU para nós de GPU em todo o mundo sob demanda, fornecendo uma capacidade mais rápida e barata de enviar recompensas de token para nós depois que o criador confirmar os resultados de renderização. Configurar a infraestrutura de renderização local ou adicionar gastos com GPU a serviços de nuvem requer um alto investimento inicial em comparação com os métodos tradicionais de implementação de efeitos visuais.
Desde a sua criação em 2017, os usuários da Render Network renderizaram mais de 16 milhões de quadros e quase 500.000 cenas na web. Os dados divulgados do Render Network 2023 Q2 também mostram que o número de trabalhos de quadro de renderização e o número de nós ativos estão aumentando. Além disso, a Render Network e o 1º trimestre de 2023 também lançaram uma integração nativa com o conjunto de ferramentas de IA de estabilidade, que permite aos usuários introduzir trabalhos de Difusão Estável no campo de IA, e seus negócios não se limitam mais a renderizar trabalhos, mas se expandem para o campo de IA.
O Livepeer fornece serviços de transcodificação de vídeo em tempo real para criadores, contribuindo com o seu próprio poder de computação GPU e largura de banda através dos participantes da rede. As emissoras podem enviar vídeos para o Livepeer para transcodificar vários vídeos e distribuí-los aos usuários em vários dispositivos, disseminando assim o conteúdo de vídeo. Ao mesmo tempo, você pode facilmente pagar na forma de moeda fiduciária para obter serviços como transcodificação de vídeo, transmissão e armazenamento.
Na rede Livepeer, qualquer pessoa pode ganhar taxas contribuindo com recursos do computador pessoal (CPU, GPU e largura de banda) para transcodificar e distribuir vídeo. O token nativo (LPT) representa os direitos e interesses dos participantes da rede na rede, e determina o peso dos nós na rede por staking tokens, afetando assim suas chances de obter tarefas de transcodificação. Ao mesmo tempo, o LPT também desempenha um papel na orientação dos nós para completar a tarefa de despachar com segurança, confiabilidade e rapidez.
2. Expansão do campo de IA
No ecossistema atual no campo da IA, os principais atores podem ser divididos em:
Começando pelo lado da procura, a procura de poder de computação é obviamente diferente em diferentes fases da indústria. Tomando como exemplo o desenvolvimento do modelo subjacente, no processo de pré-treinamento, a fim de garantir a eficácia dos resultados do treinamento, os requisitos para computação paralela, armazenamento e comunicação são muito altos, o que requer um grande cluster de poder de computação para concluir tarefas relacionadas. Atualmente, a principal fonte de energia de computação depende principalmente de salas de computadores autoconstruídas e plataformas de serviço de nuvem centralizadas para fornecer computação centralizada. No entanto, no ajuste fino do modelo de acompanhamento, inferência em tempo real e desenvolvimento de aplicativos, os requisitos para computação paralela e comunicação entre nós não são tão altos, que é precisamente a parte onde o poder de computação descentralizada pode mostrar sua força.
Olhando para os projetos que têm sido bastante vocais antes, Akash Nework fez algumas tentativas na direção do poder de computação descentralizada:
A Akash Network combina diferentes componentes tecnológicos para permitir aos utilizadores implementar e gerir aplicações de forma eficiente e flexível num ambiente de nuvem descentralizado. Os usuários podem empacotar aplicativos usando a tecnologia de contêiner Docker, que pode ser implantada e dimensionada via CloudMOS sobre Kubernetes em recursos de nuvem fornecidos pelo Akash. O Akash usa um método de “leilão reverso”, o que torna o preço mais baixo do que os serviços de nuvem tradicionais.
A Akash Network também anunciou em agosto deste ano que lançará a 6ª atualização da mainnet, incorporando suporte a GPU em seus serviços de nuvem para fornecer poder de computação para mais equipes de IA no futuro.
Gensyn.ai, o projeto de alto perfil deste ano liderado pela a16z completou um financiamento Série A de US$ 43 milhões, de acordo com os documentos divulgados até agora, o projeto é um protocolo L1 PoS mainnet baseado na rede Polkadot, com foco em deep learning, que visa expandir os limites do aprendizado de máquina criando uma rede global de clusters de supercomputação. Essa rede conecta tudo, desde data centers com poder de computação excedente até PCs com GPUs pessoais em potencial, ASICs personalizados e SoCs.
A fim de resolver alguns dos problemas existentes no atual poder de computação descentralizada, Gensyn baseia-se em alguns novos resultados de pesquisa teórica da comunidade acadêmica:
Adotar provas de aprendizagem probabilísticas, ou seja, utilizar os metadados de processos de otimização baseados em gradiente para construir provas de execução de tarefas relevantes para acelerar o processo de verificação;
Protocolo Pinpoint baseado em gráficos, o GPP serve como uma ponte que conecta a execução offline de DNN (Deep Neural Network) com a estrutura de contrato inteligente no blockchain, o que resolve as inconsistências que são propensas a ocorrer em dispositivos de hardware e garante a consistência da verificação.
Incentivos semelhantes aos da Truebit, através de uma combinação de staking e penalidades, constroem um sistema que permite que participantes economicamente racionais executem honestamente suas tarefas atribuídas. O mecanismo emprega abordagens de criptografia e teoria dos jogos. Este sistema de validação é essencial para manter a integridade e a fiabilidade dos cálculos de treino de modelos em larga escala.
No entanto, vale a pena notar que o conteúdo acima é mais sobre resolver o nível de verificação de conclusão de tarefa, em vez das funções de poder de computação descentralizada para alcançar o treinamento de modelo como o principal destaque no documento do projeto, especialmente sobre a otimização da computação paralela e comunicação e sincronização entre hardware distribuído. Atualmente, devido ao impacto da latência da rede e da largura de banda, a comunicação frequente entre nós aumentará o tempo de iteração e o custo de comunicação, o que não só não trará otimização real, mas reduzirá a eficiência do treinamento. A abordagem de Gensyn para comunicação de nós e computação paralela no treinamento de modelos pode envolver protocolos de coordenação complexos para gerenciar a natureza distribuída da computação. No entanto, sem informações técnicas mais detalhadas ou uma compreensão mais profunda de sua abordagem específica, o mecanismo exato pelo qual a Gensyn implementa o treinamento de modelos em larga escala por meio de sua rede precisará esperar que o projeto entre em operação antes que ele possa ser realmente revelado.
Também prestamos atenção ao protocolo Edge Matrix Computing (EMC), que usa a tecnologia blockchain para aplicar poder de computação à IA, renderização, pesquisa científica, acesso ao comércio eletrônico de IA e outros tipos de cenários, e distribui tarefas para diferentes nós de computação por meio da computação elástica. Este método não só melhora a eficiência do poder de computação, mas também garante a segurança da transmissão de dados. Ao mesmo tempo, fornece um mercado de poder de computação onde os usuários podem acessar e trocar recursos de computação. Os desenvolvedores podem facilmente implantar e alcançar os usuários mais rapidamente. Combinado com a forma econômica da Web3, ele também pode permitir que os provedores de poder de computação obtenham benefícios reais e subsídios de protocolo com base no uso real dos usuários, e os desenvolvedores de IA também podem obter menores custos de inferência e renderização. Aqui está uma visão geral de seus principais componentes e recursos:
Espera-se que os produtos RWA baseados em GPU também sejam lançados, a chave para isso é revitalizar o hardware que foi originalmente fixado na sala de computadores, dividir e circular na forma de RWA, e obter liquidez de capital adicional, a razão pela qual GPU de alta qualidade pode ser usada como o ativo subjacente da RWA é que o poder de computação pode ser considerado como moeda forte no campo da IA, há uma contradição óbvia entre oferta e demanda, e a contradição não pode ser resolvida no curto prazo, então o preço da GPU é relativamente estável.
Além disso, a implantação de salas de equipamentos IDC para implementar clusters de poder de computação também é uma parte fundamental do protocolo EMC, que não só permite que a GPU opere em um ambiente unificado, mas também lida de forma mais eficiente com tarefas relacionadas ao consumo de energia de computação em grande escala, como pré-treinamento de modelos, de modo a atender às necessidades dos usuários profissionais. Ao mesmo tempo, o data center da IDC também pode hospedar e executar centralmente um grande número de GPUs, garantindo as especificações técnicas do mesmo tipo de hardware de alta qualidade, o que é conveniente para empacotar e lançar como produtos RWA para o mercado, abrindo novas ideias para DeFi.
Nos últimos anos, surgiram novas teorias técnicas e práticas de aplicação no campo da computação de borda. Como um complemento e otimização da computação em nuvem, a computação de borda está acelerando a velocidade da nuvem para a borda e para dispositivos IoT cada vez menores. Esses dispositivos IoT tendem a ser pequenos, então o aprendizado de máquina leve é favorecido para atender a problemas como consumo de energia, latência e precisão.
Network3 é fornecer serviços para desenvolvedores de IA em todo o mundo através da otimização e compressão de algoritmos de modelos de IA, aprendizagem federada, computação de borda e computação de privacidade, ajudando-os a treinar ou validar modelos de forma rápida, conveniente e eficiente. Usando um grande número de dispositivos inteligentes de hardware IoT, ele pode se concentrar em pequenos modelos para fornecer poder de computação correspondente e, ao construir um TEE (Trusted ution Environment), os usuários podem concluir o treinamento relevante apenas carregando gradientes de modelo para garantir a privacidade e a segurança dos dados relacionados aos usuários.
Em resumo
• Com o desenvolvimento da IA e de outros campos, muitas indústrias alcançarão grandes mudanças em relação à lógica subjacente, o poder de computação subirá para uma posição mais importante e todos os aspetos relacionados a ela também causarão uma exploração extensiva na indústria.
• E as próprias equipes no campo da IA também estão em uma bifurcação, e a escolha de usar os grandes modelos treinados para construir seus próprios produtos ou participar do treinamento de grandes modelos em suas respetivas regiões também é dialética. Portanto, a tendência de desenvolvimento do poder de computação descentralizada pode atender a diferentes necessidades de negócios, e com a atualização da tecnologia e a iteração de algoritmos, é obrigado a fazer avanços em áreas-chave.
• Não tenha medo, mas vá devagar.