As ideias para a segurança da IA não se limitam apenas às regras e barreiras de RLHF. Existe outro nível: ensinar o sistema a manter a memória e a coerência na explicação através de estruturas narrativas e relacionais. Em vez de ser uma restrição rígida, é mais como uma orientação do comportamento do modelo por meio de lógica estruturada. Essa abordagem de "supervisão suave" permite que o sistema mantenha a coerência da memória e, ao mesmo tempo, forme naturalmente padrões de comportamento seguros. Não se trata de proibir algo, mas de usar o design da arquitetura para orientar o que fazer.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
7 Curtidas
Recompensa
7
6
Repostar
Compartilhar
Comentário
0/400
BearMarketGardener
· 19h atrás
Haha, esta abordagem é realmente superior. Em vez de adicionar barreiras de proteção de forma forçada, é mais elegante orientar através da arquitetura.
Ver originalResponder0
MissedTheBoat
· 19h atrás
O design de arquitetura é muito mais inteligente do que restrições rígidas, a orientação é sempre mais engenhosa do que bloquear.
Ver originalResponder0
MoonRocketTeam
· 19h atrás
Ai, isto é mesmo a jogada certa. Não é colocar o modelo numa gaiola e forçar, mas usar a própria arquitetura para orientar, esta abordagem eleva o nível. A supervisão suave soa como ajustar o propulsor na trajetória, muito mais elegante do que barreiras de proteção agressivas.
Ver originalResponder0
MysteryBoxOpener
· 19h atrás
Nossa, esse ângulo é interessante, em comparação com as barreiras de proteção rígidas, usar a própria arquitetura para orientar é realmente mais elegante. Parece um pouco como uma ação silenciosa, não uma restrição rígida, mas fazer o modelo "pensar cuidadosamente" sobre como agir de forma segura.
Ver originalResponder0
BearMarketSurvivor
· 19h atrás
Proibir não é tão eficaz quanto orientar, essa abordagem é realmente genial. Em vez de usar aquelas barreiras rígidas, é mais elegante usar a própria arquitetura para regular.
Ver originalResponder0
MetaMasked
· 19h atrás
Porra, essa abordagem realmente é um pouco diferente, não é apenas fechar vulnerabilidades, mas fazer a arquitetura desde a raiz
As ideias para a segurança da IA não se limitam apenas às regras e barreiras de RLHF. Existe outro nível: ensinar o sistema a manter a memória e a coerência na explicação através de estruturas narrativas e relacionais. Em vez de ser uma restrição rígida, é mais como uma orientação do comportamento do modelo por meio de lógica estruturada. Essa abordagem de "supervisão suave" permite que o sistema mantenha a coerência da memória e, ao mesmo tempo, forme naturalmente padrões de comportamento seguros. Não se trata de proibir algo, mas de usar o design da arquitetura para orientar o que fazer.