Dados revelam que “Claude perdeu capacidade” não é apenas um boato, e que modelos de IA instáveis representam risco empresarial

ChainNewsAbmedia

Depois que a IA se tornou uma ferramenta padrão nas empresas, um fenômeno que antes era visto como “um problema de percepção corporal” está rapidamente vindo à tona: os LLMs (modelos de linguagem de grande porte) estão ficando “mais burros”. O internauta Wisely Chen apontou que, o que se chama de “LLM perdendo a inteligência” não é apenas uma lenda urbana; já é algo que pode ser acompanhado continuamente por meio de dados e que está causando impactos reais nos fluxos de trabalho corporativos.

Ele usou sua própria experiência como exemplo: em 15 de abril, o serviço da linha Claude, da Anthropic, passou por um rebaixamento geral, incluindo claude.ai, API e Claude Code, que exibiram “Degraded Performance”. Isso não é apenas uma simples lentidão ou um erro ocasional; a qualidade das respostas desabou de forma evidente, chegando a haver situações em que não era possível usar corretamente, o que fez com que seus três projetos de desenvolvimento do dia inteiro fossem adiados.

Esse tipo de cenário talvez seja apenas uma queda de eficiência para desenvolvedores individuais, mas para equipes de TI de empresas o impacto é multiplicado. Quando uma equipe tem vários engenheiros dependendo ao mesmo tempo de ferramentas de IA para coding, escrita de documentos e automação de processos, uma queda do modelo em um único momento significa que a produtividade geral despenca coletivamente no mesmo período, o que então se converte em perdas consideráveis de tempo e custos.

A IA parece ter ficado mais burra? Dados confirmam que “já houve rebaixamento”

Wisely Chen apontou que “o GPT ficou mais burro”, “o Claude não é mais como antes” e outras afirmações que circulam na comunidade existem há muito tempo, mas por muito tempo faltou apoio de dados objetivos. Só até recentemente, com o surgimento de plataformas de monitoramento contínuo da qualidade do modelo, é que esse fenômeno passou a ser quantificado pela primeira vez.

Nesse contexto, o StupidMeter realiza testes automatizados de 24 horas em modelos populares, incluindo OpenAI, Anthropic, Google e outros, acompanhando indicadores como exatidão, capacidade de raciocínio e estabilidade. Diferentemente de um benchmark tradicional feito uma única vez, esse tipo de sistema se aproxima mais da forma como empresas monitoram APIs ou a disponibilidade de serviços, observando as variações de desempenho do modelo em ambientes reais de uso.

Os resultados dos dados são bastante intuitivos: atualmente, a maioria dos modelos populares está em estado de alerta ou rebaixamento, e apenas alguns modelos mantêm o funcionamento normal. Isso significa que a qualidade do modelo é instável; não se trata de um problema de um único produto, mas de um fenômeno comum na indústria como um todo.

LLM faz downgrade de inteligência “por baixo do radar”, afetando a estabilidade das empresas nos fluxos de trabalho de IA

Para as empresas, essa mudança representa que a IA deixou de ser “uma ferramenta para aumentar a eficiência” e passou a ser “um fator que afeta a estabilidade”. Se o fluxo de trabalho diário de uma empresa — da programação ao code review, até a produção de documentos e relatórios de análise — já depende altamente de LLMs, então, quando o modelo apresentar queda de capacidade de raciocínio ou piora na qualidade das respostas em um dia, esses problemas não ocorrerão apenas localmente como um bug de software tradicional; eles vão se infiltrar ao mesmo tempo em todas as etapas em que se usa IA.

O mais importante é que essas oscilações muitas vezes são difíceis de prever e difíceis de perceber em tempo real. A maioria das empresas não possui mecanismos para monitorar continuamente a qualidade dos modelos; normalmente, só percebe-se o problema depois que os resultados ficam anormais ou depois que a eficiência da equipe cai, identificando então que a origem está no próprio modelo. Nesse cenário, “perder a inteligência” deixa de ser apenas uma percepção subjetiva dos usuários e passa a ser um risco sistêmico que afeta diretamente o ritmo da operação da empresa.

Quando a IA vira água e luz, a estabilidade se torna o novo indicador-chave

Wisely Chen compara o papel dos LLMs a “água e luz da empresa moderna”. Quando a IA já está profundamente integrada à operação diária, se tornando uma capacidade básica indispensável, a importância de sua estabilidade também aumenta.

No passado, ao avaliar ferramentas de IA, as empresas se concentravam principalmente na capacidade do modelo, no preço e nas funcionalidades; mas, com o surgimento do fenômeno de “perda de inteligência”, outro indicador ainda mais crucial passou a emergir: a estabilidade. Quando a qualidade do modelo pode variar sem aviso, as empresas deixam de apenas “usar IA” e precisam começar a assumir um tipo novo de risco de infraestrutura. E o mais desesperador é que, se você olhar apenas para os grandes modelos de linguagem mais avançados, basicamente, enquanto o problema de capacidade de computação não for resolvido, isso provavelmente continuará acontecendo.

Este artigo “Dados revelam que o ‘Claude’ perdeu inteligência e não é lenda urbana; modelos de IA instáveis viram risco para empresas” foi publicado pela primeira vez em 鏈新聞 ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

A ação da Meta sobe 1,73% enquanto a empresa planeja demitir 8.000 funcionários a partir de 20 de maio

A Meta Platforms planeja cortar cerca de 8.000 empregos, ou 10% de sua força de trabalho, a partir de 20 de maio, apesar da alta das cotações das ações. A empresa, com mais de $200 bilhões em receita, está focando investimentos em IA diante de uma reestruturação significativa, alinhando-se às tendências do setor de demissões.

GateNews5h atrás

O relatório anual do Google afirma que o Gemini realiza detecção em milissegundos, bloqueando 99% dos anúncios de golpes

O artigo discute como o Google, por meio de seu sistema de inteligência artificial generativa Gemini, fortalece a segurança de anúncios, e o relatório mostra que a velocidade com que ele intercepta anúncios em violação foi reduzida para milissegundos, com taxa de interceptação de 99%. No ano passado, o Google removeu 8,3 bilhões de anúncios e suspendeu 24,9 milhões de contas, indicando que a quantidade de anúncios fraudulentos aumentou significativamente. Especialistas apontam que se trata de um confronto entre inteligência artificial e inteligência artificial, e que, no futuro, ainda será necessário enfrentar os desafios das condutas legais e ilegais trazidas pela IA.

ChainNewsAbmedia6h atrás

Cofundador da Ethereum Lubin: a IA será um ponto de virada crítico para o cripto, mas o monopólio de gigantes de tecnologia traz risco sistêmico

O cofundador da Ethereum, Joseph Lubin, destacou o potencial transformador da IA para o setor de criptomoedas, ao mesmo tempo em que alertou sobre os riscos de centralização entre gigantes da tecnologia. Ele prevê transações autônomas impulsionadas por IA na blockchain e destaca a convergência entre as finanças tradicionais e a DeFi.

GateNews9h atrás

Elon Musk Defende Cheques de “Renda Universal Alta” como Solução Definitiva para o Desemprego na IA

Elon Musk defende uma Renda Universal de Alta Renda para combater o desemprego causado pela IA, vislumbrando um futuro com muitos bens e inflação zero. Em contraste, especialistas como Sam Altman levantam preocupações sobre perda de empregos e propõem medidas de proteção para os trabalhadores.

Coinpedia9h atrás

DeepSeek Supostamente Lança Primeira Rodada de Captação Externa, Mirando Avaliação de US$ 10B+ e US$ 300M+

DeepSeek, uma startup chinesa de IA, está negociando sua primeira rodada de financiamento externo, com o objetivo de levantar pelo menos $300 milhões em uma avaliação de $10 bilhões. Apesar de rejeições anteriores a ofertas de investimento, as discussões de captação agora supostamente estão em andamento.

GateNews9h atrás

Publicidade do ChatGPT avança para Austrália e Nova Zelândia: Free e usuários do Go primeiro, planos pagos mantêm sem anúncios

A OpenAI, em 17 de abril de 2023, expandiu os anúncios do ChatGPT para a Austrália, Nova Zelândia e Canadá, para usuários do Free e do Go, enquanto os usuários pagantes não veem anúncios. Essa iniciativa marca o segundo caminho para a comercialização da IA e, ao considerar riscos comerciais e regulatórios, a exibição de anúncios pode promover conversões pagas.

ChainNewsAbmedia11h atrás
Comentário
0/400
Sem comentários