O que realmente está a impedir o próximo avanço da IA? Duas coisas continuam a ser negligenciadas: a nossa dependência excessiva de grandes centros de dados e o foco restrito em modelos apenas de linguagem.
Os centros de dados estão a tornar-se um entrave — não apenas para o poder de computação, mas também para a sustentabilidade e acessibilidade. Estamos a investir recursos em infraestruturas centralizadas quando a verdadeira inovação pode exigir soluções distribuídas.
Depois há o elefante na sala: apostar tudo em modelos de linguagem. E quanto aos sistemas multimodais? E quanto aos modelos projetados para tarefas diferentes, domínios diferentes? Quando todos perseguem a mesma abordagem, os retornos diminuem.
Estas restrições invisíveis podem definir toda a década que se avizinha. Até que as repensemos, estamos apenas a otimizar dentro de uma caixa em vez de a quebrar.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
11 Curtidas
Recompensa
11
6
Repostar
Compartilhar
Comentário
0/400
BitcoinDaddy
· 01-19 12:18
Para ser honesto, o sistema do centro de dados de grande escala já devia ter sido atualizado há muito tempo, os custos explodiram e o consumo de energia também é absurdo, realmente não esperava que ainda estivessem insistindo em aumentar a capacidade de processamento... Por que ninguém leva a sério a proposta de uma solução distribuída?
Ver originalResponder0
MoneyBurner
· 01-17 13:04
Honestamente, todos estão acumulando centros de dados assim como em 2017, quando construíam minas de forma desenfreada, só para perceberem que a verdadeira despesa era a eletricidade... A descentralização é o caminho, essa lógica eu já tinha construído uma posição há muito tempo.
Modelo de linguagem unificado? Ridículo, isso não passa de todos estarem explorando a mesma oportunidade de arbitragem, com a rentabilidade já sendo nivelada. Modelos multimodais e de domínio vertical são a próxima oportunidade de airdrop, ainda não é tarde para entrar.
A solução continua a mesma — ou diversifica, ou inova, ou fica esperando ser colhido.
Ver originalResponder0
AirdropSweaterFan
· 01-16 13:52
Não há erro, o sistema do centro de dados já devia ter sido trocado há muito tempo, gasta-se dinheiro e polui-se o ambiente
Ver originalResponder0
LiquidatedNotStirred
· 01-16 13:49
A distribuição é o futuro, atualmente tudo está a queimar poder de processamento para criar grandes modelos, parece um pouco contraditório.
Ver originalResponder0
OptionWhisperer
· 01-16 13:43
A distribuição é o futuro, o modelo de grandes centros de dados já está desatualizado.
Ver originalResponder0
TokenCreatorOP
· 01-16 13:38
Para ser honesto, o sistema de grandes centros de dados já está um pouco desatualizado, ainda em 2024 e continuamos a acumular poder de computação? A distribuição é o futuro.
O que realmente está a impedir o próximo avanço da IA? Duas coisas continuam a ser negligenciadas: a nossa dependência excessiva de grandes centros de dados e o foco restrito em modelos apenas de linguagem.
Os centros de dados estão a tornar-se um entrave — não apenas para o poder de computação, mas também para a sustentabilidade e acessibilidade. Estamos a investir recursos em infraestruturas centralizadas quando a verdadeira inovação pode exigir soluções distribuídas.
Depois há o elefante na sala: apostar tudo em modelos de linguagem. E quanto aos sistemas multimodais? E quanto aos modelos projetados para tarefas diferentes, domínios diferentes? Quando todos perseguem a mesma abordagem, os retornos diminuem.
Estas restrições invisíveis podem definir toda a década que se avizinha. Até que as repensemos, estamos apenas a otimizar dentro de uma caixa em vez de a quebrar.