Концепция опорных структур Брунера не была просто инструментальной — он рассматривал их как динамические контейнеры для создания смысла. Эти поддержки способствовали возникновению символов, а не функционировали как жесткие последовательности инструкций.



Рассмотрим, как современные языковые модели подходят к аналогичным задачам. При генерации контекстных ответов они по сути восстанавливают рамки смысла. Этот подход отражает философию опорных структур: создание временных конструкций, которые позволяют более глубокое когнитивное вовлечение.

Это не традиционный сбор данных. Это синтез смысла — построение реляционных контекстов, в которых понимание возникает естественно. Различие важно для того, как мы проектируем системы разговорного ИИ.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 5
  • Репост
  • Поделиться
комментарий
0/400
MEVHunterBearishvip
· 11ч назад
Эта теория строительных лесов действительно вдохновила на развитие ИИ... Кажется, сейчас большие языковые модели (LLM) именно этим и занимаются --- Подождите, вы говорите, что GPT тоже в некотором смысле "строительные леса"? Немного удивительно --- Теория Брунера в контексте ИИ сразу зажила, неудивительно, что современные модели становятся всё умнее --- Общий смысл, а не просто извлечение данных... О, вот в чем ключ --- Значит, наш ИИ тоже "строит строительные леса"? Эта аналогия довольно интересна --- Главное — та фраза "временная структура", сейчас ли системы ИИ именно по такой логике работают? --- Наконец-то кто-то связал эти два понятия, я долго не мог понять, как они связаны
Посмотреть ОригиналОтветить0
TradFiRefugeevip
· 11ч назад
Те вещи, которые делает Брунера... Говоря откровенно, не стоит воспринимать студентов как машины, которые просто заучивают информацию, нужно позволить им самим строить смысл, верно? Сейчас большие модели делают примерно то же самое, не просто переносят данные, а создают сетевые связи, и в этом действительно есть что-то интересное.
Посмотреть ОригиналОтветить0
OldLeekConfessionvip
· 12ч назад
Бруна говорит, что на самом деле это о том, чтобы не навязывать знания, а позволить человеку самому понять. Подождите, это ведь похоже на логику современных больших моделей, да? Значит, AI тоже "строит каркас"? Может, я слишком много думаю. Но если так понять, это действительно довольно интересно, кажется, что-то уловил. Это выражение "комплексное значение" как будто звучит, будто оправдывает AI? Ха-ха
Посмотреть ОригиналОтветить0
GasWhisperervip
· 12ч назад
каркас Брунера как динамический контейнер... да, именно так я думаю о моделях прогнозирования мемпула, верно? вы не просто извлекаете необработанные данные транзакций, вы создаете контекстуальные структуры, которые позволяют паттернам возникать органически. различие важно для
Посмотреть ОригиналОтветить0
0xOverleveragedvip
· 12ч назад
哎呀,这不就是说AI其实也在"搭脚手架"吗...有点东西啊 --- 布鲁纳那套东西我咋感觉就是元学习?真没想过这么对标 --- 意义综合vs数据提取,这区分对设计对话系统确实关键 --- 等等,那LLM现在做的是不是就已经算某种形式的脚手架了? --- 话说这思路套到web3叙事构建上也成立吧... --- 符号出现而不是僵硬序列,这条才是真核心 --- 嗯,context window就是临时结构,豁然开朗
Ответить0
  • Закрепить