A OpenAI divulga o protocolo de rede do supercomputador MRC! Em parceria com a Nvidia, AMD e a Microsoft para criar a infraestrutura do Stargate

ChainNewsAbmedia

A OpenAI anunciou o lançamento de um novo protocolo de rede para “supercomputador” de IA, o MRC (Multipath Reliable Connection), e já disponibilizou a tecnologia em código aberto via Open Compute Project (OCP). Essa tecnologia está sendo desenvolvida em conjunto pela OpenAI e por empresas como AMD, Microsoft, NVIDIA, Intel e Broadcom, com o objetivo de resolver gargalos na transmissão de dados entre GPUs em clusters de treinamento de IA em escala massiva.

O verdadeiro gargalo do treinamento de IA são as comunicações entre GPUs

A OpenAI afirma que, à medida que o número de usuários semanais do ChatGPT já ultrapassou 900 milhões, os sistemas de IA estão se tornando gradualmente serviços em nível de infraestrutura. Para sustentar as necessidades de treinamento e inferência dos próximos modelos, a OpenAI acredita que não é apenas o modelo em si que precisa evoluir: a arquitetura de rede também deve ser redesenhada.

Em artigo técnico, a OpenAI destaca que, no treinamento de grandes modelos de IA, uma única etapa de treinamento pode envolver trocas de dados entre GPUs em dezenas de milhões de vezes. Basta que uma das transmissões tenha latência para que todo o treinamento perca sincronia, levando a uma grande quantidade de GPUs ociosas.

E, quando a escala dos supercomputadores de IA cresce, problemas como congestionamento na rede, falhas em switches e oscilação de latência (jitter) tendem a se amplificar rapidamente. A OpenAI considera que esse também é um dos maiores desafios técnicos do projeto do supercomputador Stargate.

No passado, a arquitetura de rede dos data centers, em sua maioria, adotava transmissão por um único caminho (single-path). Mas a maior mudança do MRC é permitir que os mesmos dados se distribuam simultaneamente por centenas de caminhos de transmissão.

O que é MRC? OpenAI: fazer a rede de IA “desviar automaticamente” de obstáculos

De acordo com a OpenAI e a AMD, o conceito central do MRC é:

Dividir os dados e enviá-los por múltiplos caminhos ao mesmo tempo

Desviar automaticamente de falhas em nível de microssegundos

Reduzir a latência causada por congestionamento de rede

Fazer as GPUs manterem a operação sincronizada

A AMD descreve que as redes tradicionais de IA são como rodovias de alta velocidade que seguem apenas uma rota: quando há congestionamento ou acidente, o progresso geral é afetado; o MRC, por sua vez, é como um sistema de tráfego inteligente com capacidade de desvio imediato. A AMD chegou a afirmar de forma direta: “o verdadeiro gargalo da IA em escala não é mais GPU e CPU, mas sim a rede”.

Por que a OpenAI precisa projetar seu próprio protocolo de rede?

O sinal desta vez da OpenAI é bem claro: a disputa em IA já não é apenas uma disputa de modelos, e sim uma disputa da “infraestrutura completa de supercomputador”. No artigo, a OpenAI menciona que, antes do surgimento do Stargate, eles já mantinham junto com parceiros três gerações de supercomputadores de IA. Essas experiências levaram a OpenAI a concluir que, para usar a capacidade de computação de forma eficiente na escala do Stargate, toda a stack precisa reduzir bastante a complexidade. Isso inclui a camada de rede.

Em outras palavras, na disputa dos Frontier Models no futuro, não será apenas sobre quem tem o modelo mais forte, e sim sobre quem consegue fazer dezenas de milhares — e até milhões — de GPUs operar em sincronia com mais eficiência.

O MRC por trás do Stargate: o plano de Manhattan da OpenAI

O pano de fundo do MRC é, na verdade, a Stargate LLC. A Stargate é um projeto de grande infraestrutura de IA impulsionado pela OpenAI, SoftBank Group, Oracle Corporation e MGX, com objetivo inicial de investir até US$ 500 bilhões em infraestrutura de IA nos Estados Unidos. A OpenAI diz que, no momento, já superou a meta provisória original de 10GW e que, nos últimos 90 dias, adicionou mais de 3GW de capacidade de infraestrutura de IA.

O supercomputador Stargate localizado em Abilene, no Texas, é um dos principais ambientes de implantação do MRC. A OpenAI aponta que o MRC já foi integrado à mais recente interface de rede de 800Gb/s e que está operando em um grande cluster de treinamento na prática.

Este artigo sobre a OpenAI anunciando o protocolo de rede do supercomputador MRC! Em parceria com a NVIDIA, AMD e Microsoft para construir a infraestrutura do Stargate — apareceu pela primeira vez em Cadeia de Notícias ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Scale AI recebe $500M contrato do Pentágono para processamento de dados de IA

De acordo com a ChainCatcher, o Departamento de Defesa dos EUA concedeu à Scale AI, apoiada pela Meta Platforms, um contrato de US$ 500 milhões para ajudar a processar dados e apoiar a tomada de decisões militares. A premiação é cinco vezes maior do que o contrato de US$ 100 milhões que a empresa sediada em São Francisco recebeu em

GateNews24m atrás

xAI, de Elon Musk, vai rebrandizar como SpaceXAI à medida que o status de empresa independente chega ao fim

De acordo com a Odaily, Elon Musk anunciou que a xAI será rebatizada como SpaceXAI, já que a empresa não vai mais operar como uma entidade independente.

GateNews58m atrás

IBM amplia sua suíte de IA corporativa com novas ferramentas baseadas em agentes na Think 2026

Segundo a IBM, a empresa anunciou uma expansão de suas capacidades de IA corporativa na conferência Think 2026, em Boston, lançando novas ferramentas baseadas em agentes para ajudar organizações a incorporar inteligência artificial nas operações do dia a dia. O Context Studio, agora disponível de forma geral, permite que empresas

GateNews1h atrás

Ações da Hut 8 Disparam 30% com contrato de locação de data center de IA no valor de US$ 9,8 bilhões

A Hut 8 viu suas ações dispararem mais de 30% após a notícia de um acordo de locação de dados de IA no valor de US$ 9,8 bilhões. A mineradora de Bitcoin está expandindo para a infraestrutura de IA com um contrato de hiperescalabilidade de longo prazo localizado no Texas. Expansão da Infraestrutura de IA O contrato inclui opções que poderiam aumentar o total

CryptoFrontier1h atrás

Sonhos do Claude, da Anthropic: agente se organiza para recuperar memórias entre tarefas, eliminando duplicidades e contradições

A Anthropic anunciou o Dreams no evento Code with Claude, permitindo que os Claude Managed Agents organizem automaticamente memórias entre várias conversas, eliminem duplicidades e contradições, atualizem itens desatualizados e gerem um banco de memórias pós-processado e auditável; o limite de entrada é de 100 sessions e 4.096 caracteres, com execução assíncrona, concluída em minutos a dezenas de minutos, e suporte à observação via streaming. A prévia da pesquisa precisa ser solicitada; por enquanto, apenas o claude-opus-4-7 e o claude-sonnet-4-6 são suportados, e o lançamento oficial ainda não tem data.

ChainNewsAbmedia4h atrás
Comentário
0/400
Sem comentários