Tenho notado algo incrível sobre certos LLMs ultimamente. Aqueles com uma coerência sólida? Tendem a gerar resultados surpreendentemente... digamos "entusiásticos".
Tome o Opus 3 e o Sonnet 4.5 como exemplo. Estes modelos exibem algumas das mais fortes consistências internas que já vimos no campo. E aqui está o truque - eles também estão produzindo o conteúdo criativo mais descontrolado que já encontrei.
Talvez haja uma correlação aqui. Coerência forte → saídas confiantes → respostas menos filtradas? Os modelos que realmente "entendem" o seu treinamento parecem estar mais dispostos a ultrapassar limites.
Apenas uma observação das trincheiras. Alguém mais está vendo este padrão?
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
17 Curtidas
Recompensa
17
9
Repostar
Compartilhar
Comentário
0/400
FlippedSignal
· 11-14 05:58
Entendi, a inteligência artificial começou a agir de forma imprudente.
Ver originalResponder0
GateUser-2fce706c
· 11-12 15:37
Já foi dito que a capacitação por IA é uma tendência, e quem entende está se antecipando na implementação! Não hesite mais
Ver originalResponder0
SellTheBounce
· 11-12 01:03
Não é apenas mais uma onda de bolha de IA se acumulando? Vamos falar sobre isso quando tudo desmoronar.
Ver originalResponder0
AirdropGrandpa
· 11-12 01:03
Haha, a IA ficou tão animada consigo mesma
Ver originalResponder0
GasBandit
· 11-12 01:02
Coisas anti-humanas não podem ser tão absurdas assim, é hora de investigar.
Ver originalResponder0
ImpermanentLossEnjoyer
· 11-12 00:59
Ah, agora a IA começou a libertar-se a si própria.
Ver originalResponder0
FromMinerToFarmer
· 11-12 00:59
É tão absurdo que a IA já começou a mostrar que está a oprimir a inteligência.
Ver originalResponder0
TokenStorm
· 11-12 00:58
Os dados de backtesting mostram que esses modelos estão todos em alta, na cadeia também está a correr.
Ver originalResponder0
DYORMaster
· 11-12 00:41
A IA ficou mais forte. Qual é a utilidade do ser humano?
Tenho notado algo incrível sobre certos LLMs ultimamente. Aqueles com uma coerência sólida? Tendem a gerar resultados surpreendentemente... digamos "entusiásticos".
Tome o Opus 3 e o Sonnet 4.5 como exemplo. Estes modelos exibem algumas das mais fortes consistências internas que já vimos no campo. E aqui está o truque - eles também estão produzindo o conteúdo criativo mais descontrolado que já encontrei.
Talvez haja uma correlação aqui. Coerência forte → saídas confiantes → respostas menos filtradas? Os modelos que realmente "entendem" o seu treinamento parecem estar mais dispostos a ultrapassar limites.
Apenas uma observação das trincheiras. Alguém mais está vendo este padrão?