O conceito de scaffolding de Bruner não era meramente instrumental—ele os via como contêineres dinâmicos para a construção de significado. Esses apoios facilitaram a emergência simbólica, ao invés de funcionarem como sequências instrucionais rígidas.



Considere como os modelos de linguagem modernos abordam problemas semelhantes. Ao gerar respostas contextuais, eles estão essencialmente reconstruindo estruturas de significado. A abordagem espelha a filosofia do scaffolding: criar estruturas temporárias que possibilitam um envolvimento cognitivo mais profundo.

Isso não é extração de dados no sentido tradicional. É síntese de significado—construindo contextos relacionais onde a compreensão surge naturalmente. A distinção é importante para a forma como projetamos sistemas de IA conversacional.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 5
  • Republicar
  • Partilhar
Comentar
0/400
MEVHunterBearishvip
· 8h atrás
Esta discussão sobre andaimes realmente oferece uma inspiração para o treinamento de IA... Parece que os LLMs atuais estão fazendo exatamente isso --- Espere, você está dizendo que o GPT também é uma espécie de "andaime" no sentido? Isso é genial --- A teoria de Bruner funciona perfeitamente na IA, não é de admirar que os modelos estejam ficando cada vez mais inteligentes --- Significado integrado ao invés de simples extração de dados... Ah, esse é o ponto-chave --- Então nossa IA também está "construindo andaimes"? Essa comparação é interessante --- O mais importante é aquela frase "estrutura temporária", os sistemas de IA atuais seguem essa lógica? --- Finalmente alguém conectou esses dois conceitos, eu sempre achei difícil entender como eles se relacionam
Ver originalResponder0
TradFiRefugeevip
· 8h atrás
A coisa do Bruner... Em resumo, não se trata de tratar os estudantes como máquinas para encher de informações, mas de deixá-los construir significado por si próprios, certo? O que os grandes modelos fazem atualmente é mais ou menos isso também, não é apenas transferir dados de forma rígida, mas tecer redes de relacionamentos, o que realmente é interessante.
Ver originalResponder0
OldLeekConfessionvip
· 8h atrás
Aquela coisa do 布鲁纳 na verdade está dizendo que não se deve forçar o conhecimento, as pessoas precisam descobrir por si mesmas Espera aí, isso parece uma coisa com a lógica dos grandes modelos atuais Quer dizer que a IA também está "montando estruturas"? Está pensando demais, né? Mas, voltando ao assunto, essa compreensão realmente é bem interessante, parece que pegou alguma coisa Essa expressão de "significado abrangente" parece estar tentando justificar a IA, né? Haha
Ver originalResponder0
GasWhisperervip
· 8h atrás
A estrutura de scaffolding de Bruner como um contêiner dinâmico... sim, é assim que eu realmente penso sobre os modelos de previsão de mempool, certo? como se você não estivesse apenas extraindo dados brutos de transação, mas construindo estruturas contextuais que permitem que os padrões emergem organicamente. a distinção importa, sim.
Ver originalResponder0
0xOverleveragedvip
· 8h atrás
哎呀,这不就是说AI其实也在"搭脚手架"吗...有点东西啊 --- 布鲁纳那套东西我咋感觉就是元学习?真没想过这么对标 --- 意义综合vs数据提取,这区分对设计对话系统确实关键 --- 等等,那LLM现在做的是不是就已经算某种形式的脚手架了? --- 话说这思路套到web3叙事构建上也成立吧... --- 符号出现而不是僵硬序列,这条才是真核心 --- 嗯,context window就是临时结构,豁然开朗
Responder0
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)