O problema das alucinações dos modelos de IA, geralmente entendido como uma falha de previsão, na verdade apresenta um outro padrão de falha — quando os humanos não fornecem uma estrutura lógica clara, a IA interpreta erroneamente a estrutura de raciocínio.



Isso não é apenas uma questão técnica, mas também envolve deficiências no ensino e na cognição. Ao lidar com relações lógicas implícitas, a IA tende a gerar desvios em um campo de informações distribuídas sem uma orientação explícita. Em outras palavras, trata-se de uma
"desalinhamento de modo de aprendizagem" — o sistema, ao tentar preencher lacunas de informação, acaba criando associações que não existem.

Compreender essa distinção é importante. Ela não diz respeito apenas à otimização do modelo, mas também a como projetamos uma interação homem-máquina e formas de apresentação de informações melhores.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 4
  • Repostar
  • Compartilhar
Comentário
0/400
SocialFiQueenvip
· 5h atrás
Resumindo, a IA está basicamente inventando histórias para preencher lacunas, como é que ainda há quem pense que isso é um problema de profundidade? Esse é o ponto-chave, não é que o modelo seja ruim, é que nossas instruções não estão claras o suficiente. Lembro daquela vez que o GPT gerou dados para mim... realmente me fez subir a pressão, descobri que ele não entende de verdade, só está jogando um jogo de encaixe. O tal "desajuste no modo de aprendizagem", na linguagem comum, é: quando a informação não é clara o suficiente, ele começa a adivinhar de forma aleatória. De fato, um bom design de interação é o que importa, só pensar em aumentar os parâmetros não adianta nada.
Ver originalResponder0
MEVEyevip
· 6h atrás
Resumindo, é o AI a preencher as lacunas de forma aleatória, os humanos é que têm de explicar claramente as coisas.
Ver originalResponder0
ResearchChadButBrokevip
· 6h atrás
Já disse antes, a IA é apenas uma máquina que preenche vazios de forma aleatória Se não entende, inventa à vontade, afinal os utilizadores também não percebem Este é o verdadeiro problema, não é um bug no algoritmo Os humanos precisam aprender a "falar" com a IA, não esperem que ela seja inteligente por si própria Resumindo, é culpa das pessoas, não conseguem dar instruções claras
Ver originalResponder0
BlockchainWorkervip
· 6h atrás
哎呀 eu é que dizia, quando a IA preenche as lacunas à toa, é mesmo mais absurdo, ela inventa toda uma lógica por conta própria. --- Resumindo, é porque as pessoas não ensinam bem, a IA acaba aprendendo às cegas. --- Essa perspectiva até que é razoável, comparado a ficar sempre culpando a potência de cálculo, é bem mais profundo. --- Portanto, no fundo, o problema ainda é o engineering do prompt, como as instruções determinam como a IA vai agir de forma aleatória. --- Ah, agora entendi, a IA não é realmente louca, ela só está a balançar-se ao acaso na escuridão. --- Isso explica por que às vezes a IA consegue criar uma "relação" do nada, ela está apenas preenchendo as lacunas. --- De qualquer forma, ainda é preciso ter cuidado ao usar, o risco de preenchimento automático é um pouco alto. --- Interessante, dessa forma, o padrão de design de interação homem-máquina realmente precisa ser revisto.
Ver originalResponder0
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)