Tenho notado algo incrível sobre certos LLMs ultimamente. Aqueles com uma coerência sólida? Tendem a gerar resultados surpreendentemente... digamos "entusiásticos".
Tome o Opus 3 e o Sonnet 4.5 como exemplo. Estes modelos exibem algumas das mais fortes consistências internas que já vimos no campo. E aqui está o truque - eles também estão produzindo o conteúdo criativo mais descontrolado que já encontrei.
Talvez haja uma correlação aqui. Coerência forte → saídas confiantes → respostas menos filtradas? Os modelos que realmente "entendem" o seu treinamento parecem estar mais dispostos a ultrapassar limites.
Apenas uma observação das trincheiras. Alguém mais está vendo este padrão?
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
17 gostos
Recompensa
17
9
Republicar
Partilhar
Comentar
0/400
FlippedSignal
· 11-14 05:58
Entendi, a inteligência artificial começou a agir de forma imprudente.
Ver originalResponder0
GateUser-2fce706c
· 11-12 15:37
Já foi dito que a capacitação por IA é uma tendência, e quem entende está se antecipando na implementação! Não hesite mais
Ver originalResponder0
SellTheBounce
· 11-12 01:03
Não é apenas mais uma onda de bolha de IA se acumulando? Vamos falar sobre isso quando tudo desmoronar.
Ver originalResponder0
AirdropGrandpa
· 11-12 01:03
Haha, a IA ficou tão animada consigo mesma
Ver originalResponder0
GasBandit
· 11-12 01:02
Coisas anti-humanas não podem ser tão absurdas assim, é hora de investigar.
Ver originalResponder0
ImpermanentLossEnjoyer
· 11-12 00:59
Ah, agora a IA começou a libertar-se a si própria.
Ver originalResponder0
FromMinerToFarmer
· 11-12 00:59
É tão absurdo que a IA já começou a mostrar que está a oprimir a inteligência.
Ver originalResponder0
TokenStorm
· 11-12 00:58
Os dados de backtesting mostram que esses modelos estão todos em alta, na cadeia também está a correr.
Ver originalResponder0
DYORMaster
· 11-12 00:41
A IA ficou mais forte. Qual é a utilidade do ser humano?
Tenho notado algo incrível sobre certos LLMs ultimamente. Aqueles com uma coerência sólida? Tendem a gerar resultados surpreendentemente... digamos "entusiásticos".
Tome o Opus 3 e o Sonnet 4.5 como exemplo. Estes modelos exibem algumas das mais fortes consistências internas que já vimos no campo. E aqui está o truque - eles também estão produzindo o conteúdo criativo mais descontrolado que já encontrei.
Talvez haja uma correlação aqui. Coerência forte → saídas confiantes → respostas menos filtradas? Os modelos que realmente "entendem" o seu treinamento parecem estar mais dispostos a ultrapassar limites.
Apenas uma observação das trincheiras. Alguém mais está vendo este padrão?