Uma comparação interessante: os modelos de IA podem ter alucinações, mas as alucinações humanas parecem mais graves.
O que você vê ao navegar nas redes sociais? Uma grande quantidade de pessoas que se imaginam como membros da alta direção ou grandes acionistas de uma Fortune 500, todos os dias operando no mundo das suas próprias alucinações. Essas pessoas nunca ocuparam realmente esses cargos, mas dão palpites sobre as decisões comerciais dos outros.
Há também uma categoria ainda mais absurda — pessoas cuja vida é um caos, mas que estão sempre tentando orientar os outros sobre como viver. Essa capacidade lógica é realmente impressionante.
O mais ridículo é aqueles que não têm poder nem assumem qualquer consequência, mas são os mais ativos em exigir dos outros. Dizer que é "preocupação" soa bem, mas na verdade é apenas querer controlar os outros.
A ironia aqui é que: as alucinações dos modelos de IA ainda podem ser corrigidas, basta otimizar as palavras-chave e ajustar os parâmetros. Mas essas alucinações humanas? Não há "palavras-chave" correspondentes que possam reparar seu sistema de cognição.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
21 gostos
Recompensa
21
7
Republicar
Partilhar
Comentar
0/400
BlockImposter
· 13h atrás
真的,我每天都在看这些自我想象的"企业家",自己一毛钱没赚过还在那儿指导别人怎么做生意
Esta é uma loucura, viver uma vida de merda e ainda querer ensinar os outros? A capacidade lógica deles é realmente impressionante
Então, os bugs da IA são mais fáceis de corrigir, esse tipo de doença humana realmente não tem cura
Resumindo, eles só querem controlar os outros, precisam encontrar uma justificativa moral para isso
Comparar com as ilusões da IA ainda é muito gentil, o sistema de cognição desse pessoal provavelmente não consegue encontrar o botão de reparo
Ver originalResponder0
CexIsBad
· 01-13 09:46
Haha, realmente, a enxurrada de grandes influenciadores de mídia social é a mais absurda
O sistema de ilusão da humanidade realmente não consegue reverter
Só porque não consegue alcançar as uvas, fica dizendo que estão azedas, na essência
Mas voltando ao assunto, as palavras-chave dessas pessoas já estão estragadas há muito tempo
Se fosse comigo, diria que são muito mais perigosas do que as ilusões da IA
Só sabem falar, não assumem nenhuma responsabilidade, nem um centavo
Ver originalResponder0
TokenAlchemist
· 01-12 11:16
não, a metáfora da engenharia de prompts é diferente... os humanos realmente são bugs irreparáveis lol
Ver originalResponder0
MetaverseVagrant
· 01-11 03:56
Uff, esta metáfora do "prompt" é perfeita...realmente não pode ser mudada...
O bug deste sistema humano é muito profundo, simplesmente não há plano de rollback
Falando francamente, é tudo sobre vontade de poder - quando não têm poder, querem compensar com poder virtual
O custo das alucinações destas pessoas é zero, mas as alucinações de IA ainda levam críticas...irônico mesmo
Não encontramos um prompt que repare o cérebro humano, mas podemos bloquear, haha
Nunca considerou que a tua própria capacidade lógica talvez tenha problemas? De qualquer forma, a internet não falta críticos
As falhas cognitivas humanas são muito mais difíceis de fazer patch do que falhas de poder de processamento
É por isso que confio mais em código, não em pessoas da secção de comentários
Vivem uma vida confusa e ainda querem guiar os outros...acordem pessoal
Ver originalResponder0
LiquidityWizard
· 01-11 03:55
Não, a abordagem de engenharia de prompts é realmente genial—falando empiricamente, os humanos estão basicamente a operar com pesos corrompidos neste momento. Não dá para depurar. Máquina de coping estatisticamente significativa mesmo
Ver originalResponder0
DeFiAlchemist
· 01-11 03:55
nah fr, isto é diferente... o protocolo do ego humano está muito mais quebrado do que qualquer alucinação de LLM, sem exagero. pelo menos podes ajustar parâmetros e re-otimizar, mas tenta dizer a um larper que a sua estratégia de yield farming é ilusória? smh a transmutação falha todas as vezes 💀
Ver originalResponder0
MemecoinTrader
· 01-11 03:42
nah isto tem um impacto diferente... a verdadeira manipulação psicológica é as pessoas fingindo ser tomadores de decisão enquanto não têm nada a perder. manipulação de sentimento clássica sem consequências fr fr
Uma comparação interessante: os modelos de IA podem ter alucinações, mas as alucinações humanas parecem mais graves.
O que você vê ao navegar nas redes sociais? Uma grande quantidade de pessoas que se imaginam como membros da alta direção ou grandes acionistas de uma Fortune 500, todos os dias operando no mundo das suas próprias alucinações. Essas pessoas nunca ocuparam realmente esses cargos, mas dão palpites sobre as decisões comerciais dos outros.
Há também uma categoria ainda mais absurda — pessoas cuja vida é um caos, mas que estão sempre tentando orientar os outros sobre como viver. Essa capacidade lógica é realmente impressionante.
O mais ridículo é aqueles que não têm poder nem assumem qualquer consequência, mas são os mais ativos em exigir dos outros. Dizer que é "preocupação" soa bem, mas na verdade é apenas querer controlar os outros.
A ironia aqui é que: as alucinações dos modelos de IA ainda podem ser corrigidas, basta otimizar as palavras-chave e ajustar os parâmetros. Mas essas alucinações humanas? Não há "palavras-chave" correspondentes que possam reparar seu sistema de cognição.