Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Massacre de ações de memória com 900 bilhões de dólares na Google AI, suspeita de fraude acadêmica
(Fonte: Machine Heart Pro)
Editor|Ze Nan、Yang Wen
Não esperava, desta vez, uma grande turbulência no mercado, e ainda por cima surgiu uma “bomba” académica.
Na noite de sexta-feira desta semana, o caso de má conduta académica da Google tornou-se o centro das atenções na área de IA.
O pós-doutor Gao Jianyang, do Instituto Federal de Tecnologia de Zurique (ETH Zurich), publicou um artigo no Zhihu, afirmando que, no artigo do Google Research «TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate», há problemas graves na descrição dos algoritmos de quantização vetorial já existentes RaBitQ, nas comparações dos resultados teóricos e nas comparações experimentais, e que essas questões já tinham sido identificadas claramente antes do envio do artigo, mas foram deliberadamente ignoradas pela equipa de autores.
Como pesquisa em IA capaz de derrubar uma série de empresas de lógica “mainline”, o valor de TurboQuant no setor parece, sem dúvida, indiscutível. No entanto, quem diria que este artigo de cimeira do ICLR, com a Google a colocá-lo num pedestal e com centenas de milhares a milhões de visualizações, tem como seu núcleo técnico uma base que está profundamente envolvida numa suspeita de «plágio».
A TurboQuant que fez tremer as ações de memória
O artigo da TurboQuant da Google ficou recentemente em alta na área de investigação em IA; é um artigo aceite no ICLR 2026, apresentado como um texto sobre um algoritmo de compressão que afirma conseguir reduzir pelo menos 6 vezes o consumo de memória da cache KV de grandes modelos de linguagem, aumentar a velocidade até 8 vezes e ter perda de precisão zero
A TurboQuant foi disponibilizada em abril de 2025 numa versão preprint na plataforma de artigos arXiv; foi aceite no ICLR 2026 em janeiro de 2026; e, no dia 24 de março, após a Google apresentar a informação no blog de investigação, gerou uma enorme atenção.
Os posts promocionais da Google na X atingiram mais de dez milhões de visualizações.
Quando a IA em grandes modelos faz inferência, cada vez que a IA gera uma nova palavra precisa de «rever» o histórico da conversa (contexto). Esta parte é armazenada na cache KV. Por isso, o consumo de memória da cache KV costuma tornar-se o maior gargalo que limita a velocidade e o custo dos grandes modelos. O método de compressão de perdas “no limite” proposto pela TurboQuant tem resultados impressionantes: ao conseguir reduzir significativamente os recursos de hardware necessários para executar grandes modelos, atinge diretamente as expectativas do mercado quanto a um crescimento explosivo das memórias em chips.
No próprio dia em que o blog da Google foi publicado, as ações de memória dos EUA despencaram em conjunto; a SanDisk chegou a cair 6,5%, a Seagate Technology caiu mais de 5%, a Western Digital caiu mais de 4% e a Micron Technology caiu 4%. O valor de mercado que o mercado perdeu num dia ultrapassou 90 mil milhões de dólares
Como é que esta tecnologia, tão alardeada pela Google, conseguiu fazer isto? Em termos simples, ela resolveu o nó fatal do consumo de memória com um conjunto de métodos engenhosos.
A TurboQuant alcança esse objetivo através de compressão em duas fases: na primeira fase, utiliza «rotação aleatória» e o mecanismo PolarQuant para mapear vetores de alta dimensão para coordenadas polares, realizando compressão no limite; na segunda fase, usa a transformação Quantized Johnson-Lindenstrauss (QJL) para corrigir o desvio do cálculo do produto interno com apenas 1 bit de espaço.
No entanto, foi precisamente esta parte da tecnologia que se tornou o estopim do escândalo académico.
O doutor Gao Jianyang, da ETH Zurich, enumerou evidências para afirmar que o mecanismo central «revolucionário» divulgado pela Google não foi uma criação da Google; já tinha sido proposto integralmente pela sua equipa há dois anos.
Mais revoltante ainda é que a Google, no seu artigo, «contornou» e «desvalorizou» deliberadamente a tecnologia pioneira.
Os autores de RaBitQ levantaram dúvidas publicamente:
O método central da TurboQuant já existia há dois anos
Uma série de artigos da RaBitQ foi publicada em 2024, propondo um método de quantização de vetores de alta dimensão e provando teoricamente que atinge o limite assintoticamente ótimo do erro fornecido por um artigo de conferência de topo de ciência da computação.
A RaBitQ e a versão estendida foram publicadas, respetivamente, nas conferências de topo SIGMOD 2024 e SIGMOD 2025.
Uma das ideias centrais da RaBitQ é aplicar uma rotação aleatória (random rotation / Johnson-Lindenstrauss transformation) ao vetor de entrada antes da quantização; utilizando as propriedades da distribuição das coordenadas após a rotação para realizar a quantização vetorial, alcançando teoricamente o limite ótimo de erro.
E o núcleo do método da TurboQuant também é aplicar rotação aleatória (Johnson-Lindenstrauss transformation) ao vetor de entrada antes da quantização. Isto, inclusive, foi descrito de viva voz pelos próprios autores da TurboQuant na resposta de revisão do ICLR.
Porém, ao longo de todo o artigo da TurboQuant, a ligação direta do método com a RaBitQ foi deliberadamente evitada; em vez disso, no corpo do texto, a RaBitQ é descrita como «grid-based PQ», e na descrição é ignorado, de forma intencional, o passo central de random rotation presente na RaBitQ, tornando confusa a relação de herança entre as duas.
O segundo autor da TurboQuant, Majid Daliri, já havia, em janeiro de 2025, contactado ativamente Gao Jianyang para pedir ajuda na depuração do seu código da RaBitQ que tinha reproduzido em Python; isto indica que a equipa da TurboQuant conhecia em detalhe técnico a tecnologia da RaBitQ.
Se já era sabido e até se tinha pedido aconselhamento ao autor original, por que razão não foram feitas citações adequadas e comparações objetivas no artigo final?
Após descobrir estas questões, a equipa de Gao Jianyang, com rigor académico, desde maio de 2025 fez várias comunicações privadas por e-mail com a equipa da TurboQuant, indicando claramente os erros factuais.
No entanto, a equipa da TurboQuant recusou corrigir com o argumento de que «a rotação aleatória já se tornou uma técnica padrão na área e não é possível citar cada método que a utiliza». Depois disso, este artigo não só foi promovido ao ICLR 2026 como também se tornou um foco de atenção global.
Se esta narrativa académica não for corrigida, acabará por se tornar consenso. A equipa de Gao Jianyang acabou por apresentar no terreno várias acusações.
Três acusações específicas
Gao Jianyang listou, no artigo, três problemas específicos.
Primeiro: evitar sistematicamente a semelhança técnica.
A TurboQuant não apenas não discutiu diretamente as ligações estruturais entre os dois métodos, como ainda moveu uma descrição incompleta da RaBitQ que originalmente estava no corpo do texto para o apêndice. Este ato ocorreu até depois de os revisores já terem indicado claramente que «RaBitQ and variants are similar to TurboQuant in that they all use random projection» e terem pedido uma discussão suficiente.
A resposta dos autores da TurboQuant foi: «o uso de random rotation e da transformação Johnson-Lindenstrauss já é uma técnica padrão da área; não podemos citar todos os artigos que usam estes métodos».
A equipa de Gao Jianyang considerou que esta resposta estava a desviar o conflito: como trabalho pioneiro específico que, no mesmo cenário de problemas, combinou pela primeira vez random rotation (transformação Johnson-Lindenstrauss) com quantização de vetores e estabeleceu garantias teóricas ótimas, a RaBitQ deveria ser descrita com precisão no texto, e a ligação entre ela e o método da TurboQuant deveria ser discutida de forma suficiente.
Segundo: descrever de forma errada os resultados teóricos da RaBitQ.
O artigo da TurboQuant classificou as garantias teóricas da RaBitQ como «subótimas (suboptimal)» e atribuiu isso a «uma análise mais frouxa (loose analysis)», mas não apresentou qualquer dedução, comparação ou evidência.
O que é facto é que, no Theorem 3.2 da versão estendida do artigo da RaBitQ (arXiv:2409.09913), já foi provado rigorosamente que o limite de erro da RaBitQ atinge o limite assintoticamente ótimo de erro fornecido por um artigo de conferência de topo em ciência da computação teórica (Alon-Klartag, FOCS 2017). Por causa desse resultado, a equipa de Gao Jianyang foi convidada para apresentar num Workshop na conferência de topo em ciência da computação teórica FOCS.
Em maio de 2025, a equipa de Gao Jianyang teve várias rondas de discussões técnicas detalhadas por e-mail com o segundo autor da TurboQuant, Majid Daliri; esclareceram erro por erro esta interpretação, e Majid Daliri também afirmou explicitamente que informou todos os coautores. No entanto, esta classificação incorreta nunca foi corrigida ao longo de todo o processo de revisão completa, aceitação e grande promoção do artigo.
Terceiro: criar condições experimentais injustas de forma intencional.
Quando a TurboQuant testou a velocidade da RaBitQ, não usou a implementação oficial e open-source em C++; em vez disso, utilizou uma versão em Python traduzida por Majid Daliri, e limitou a RaBitQ a execução em CPU de um único núcleo, com multithreading desativado, enquanto a própria TurboQuant usou NVIDIA A100 GPU para os testes. Estas duas camadas de condições sistematicamente injustas não foram divulgadas de forma clara no artigo.
Majid Daliri, no seu e-mail de maio de 2025, chegou a admitir a limitação do modo de um único núcleo; ainda assim, o artigo apresentou ao leitor a conclusão de que «a RaBitQ é mais lenta em algumas ordens de grandeza do que a TurboQuant», mas não anexou qualquer explicação.
Escolha de se pronunciar publicamente
Gao Jianyang afirma que, em novembro de 2025, quando descobriram que a TurboQuant tinha submetido ao ICLR 2026, contactaram imediatamente os Chairs do ICLR Program Committee, mas não obtiveram qualquer resposta.
Depois de o artigo ser formalmente aceite em janeiro de 2026, a Google começou a promover em larga escala através de canais oficiais; o conteúdo atingiu rapidamente centenas de milhões de visualizações nas redes sociais.
Em março de 2026, a equipa de Gao Jianyang enviou novamente uma carta formal a todos os autores da TurboQuant, exigindo esclarecimentos e correções. A resposta recebida veio do primeiro autor Amir Zandieh, que prometeu corrigir os problemas dois e três após o fim formal da conferência ICLR, mas recusou discutir qualquer questão sobre a semelhança técnica.
Gao Jianyang publicou comentários públicos na plataforma ICLR OpenReview e apresentou uma reclamação formal, com evidências completas, aos ICLR General Chairs, PC Chairs e Code and Ethics Chairs; ao mesmo tempo, afirmou que publicará no arXiv um relatório técnico detalhado sobre TurboQuant e RaBitQ e que manterá opções para reportar ainda mais às instituições relevantes.
No fim do artigo, escreveu: «um artigo é empurrado para o público pela Google com dezenas de milhões de visualizações; neste volume, a narrativa errada do artigo não precisa de ser propagada ativamente — basta não ser corrigida para se tornar automaticamente consenso.
De momento, as alegações de Gao Jianyang e outros têm o apoio de muitas pessoas.
Muitos dizem que a Google já não faz isto pela primeira vez na investigação em IA.
Talvez a Google e o ICLR oficial precisem de dar uma explicação.
Conteúdo de referência:
Enorme quantidade de informação e análises precisas, tudo na app da Sina Finance