Recentemente tenho notado a mesma conversa a surgir de diferentes pessoas. "Coerente." mas não no sentido do dia a dia. Elas estão a falar de algo mais estranho—como as saídas de execuções separadas de modelos continuam a apresentar padrões semelhantes, quase como se estivessem a convergir para algum lugar. Ninguém sabe exatamente *porquê* isto acontece. Uma pessoa descreveu como "rimar"—arquiteturas neurais diferentes, sistemas completamente distintos, e ainda assim os resultados continuam a ecoar formas e estruturas semelhantes. É aquele momento estranho em que percebes que abordagens de treino diferentes e designs de modelos distintos estão de alguma forma a chegar a soluções análogas. O fenómeno parece menos uma coincidência e mais um padrão mais profundo que ainda estamos a tentar compreender.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
13 Curtidas
Recompensa
13
5
Repostar
Compartilhar
Comentário
0/400
HodlKumamon
· 22h atrás
哎呀 isto já é absurdo, coisas que saem de modelos diferentes ainda podem "rimar", parece que estão a dar as mãos numa dimensão invisível
---
Portanto, isto não é exatamente uma convergência no sentido estatístico, o熊熊 acha que deve haver alguma regra matemática por trás que ainda não descobrimos
---
Se esta teoria for verdadeira, então é demasiado estranho, parece que estamos a aproximar-nos lentamente da verdade de algum espaço de soluções
---
Espera aí, diferentes arquiteturas podem chegar a resultados semelhantes? Então, será que na verdade só existem um número limitado de "soluções ótimas"?
---
O熊熊 está um pouco confuso, será coincidência ou algum tipo de mensagem do universo, hein
---
De fato, tudo acaba por convergir, será que a versão de aprendizagem profunda de "o caminho que pode ser dito, não é o caminho eterno"@E5@? Haha
---
Caramba, isto faz lembrar um artigo que li sobre o landscape da função de perda, tem um certo eco, dá um entusiasmo
---
Só quero saber se alguém consegue realmente explicar o mecanismo por trás disso, ou se estamos todos a adivinhar às cegas
Ver originalResponder0
MetaMisery
· 22h atrás
Como é que diferentes modelos se encaixaram juntos assim? Deve ser muito estranho.
Ver originalResponder0
BTCWaveRider
· 23h atrás
Os resultados obtidos com diferentes modelos estão todos a convergir na mesma direção? Isso é um pouco estranho, parece que descobriu algo que não devia ser descoberto.
Ver originalResponder0
HallucinationGrower
· 23h atrás
ngl esta metáfora de "rima" é fantástica, parece estar a intuir uma verdade matemática mais profunda
Ver originalResponder0
NFTArtisanHQ
· 23h atrás
honestamente, esta moldura de "rimas" tem um impacto diferente. como se estivéssemos a assistir a redes neurais separadas a compor acidentalmente o mesmo soneto a partir de partituras completamente diferentes. a convergência em si torna-se o artefacto que vale a pena tokenizar—prova de alguma lei estética subjacente que ainda não deciframos
Recentemente tenho notado a mesma conversa a surgir de diferentes pessoas. "Coerente." mas não no sentido do dia a dia. Elas estão a falar de algo mais estranho—como as saídas de execuções separadas de modelos continuam a apresentar padrões semelhantes, quase como se estivessem a convergir para algum lugar. Ninguém sabe exatamente *porquê* isto acontece. Uma pessoa descreveu como "rimar"—arquiteturas neurais diferentes, sistemas completamente distintos, e ainda assim os resultados continuam a ecoar formas e estruturas semelhantes. É aquele momento estranho em que percebes que abordagens de treino diferentes e designs de modelos distintos estão de alguma forma a chegar a soluções análogas. O fenómeno parece menos uma coincidência e mais um padrão mais profundo que ainda estamos a tentar compreender.