Концепция опорных структур Брунера не была просто инструментальной — он рассматривал их как динамические контейнеры для создания смысла. Эти поддержки способствовали возникновению символов, а не функционировали как жесткие последовательности инструкций.
Рассмотрим, как современные языковые модели подходят к аналогичным задачам. При генерации контекстных ответов они по сути восстанавливают рамки смысла. Этот подход отражает философию опорных структур: создание временных конструкций, которые позволяют более глубокое когнитивное вовлечение.
Это не традиционный сбор данных. Это синтез смысла — построение реляционных контекстов, в которых понимание возникает естественно. Различие важно для того, как мы проектируем системы разговорного ИИ.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
9 Лайков
Награда
9
5
Репост
Поделиться
комментарий
0/400
MEVHunterBearish
· 11ч назад
Эта теория строительных лесов действительно вдохновила на развитие ИИ... Кажется, сейчас большие языковые модели (LLM) именно этим и занимаются
---
Подождите, вы говорите, что GPT тоже в некотором смысле "строительные леса"? Немного удивительно
---
Теория Брунера в контексте ИИ сразу зажила, неудивительно, что современные модели становятся всё умнее
---
Общий смысл, а не просто извлечение данных... О, вот в чем ключ
---
Значит, наш ИИ тоже "строит строительные леса"? Эта аналогия довольно интересна
---
Главное — та фраза "временная структура", сейчас ли системы ИИ именно по такой логике работают?
---
Наконец-то кто-то связал эти два понятия, я долго не мог понять, как они связаны
Посмотреть ОригиналОтветить0
TradFiRefugee
· 11ч назад
Те вещи, которые делает Брунера... Говоря откровенно, не стоит воспринимать студентов как машины, которые просто заучивают информацию, нужно позволить им самим строить смысл, верно? Сейчас большие модели делают примерно то же самое, не просто переносят данные, а создают сетевые связи, и в этом действительно есть что-то интересное.
Посмотреть ОригиналОтветить0
OldLeekConfession
· 12ч назад
Бруна говорит, что на самом деле это о том, чтобы не навязывать знания, а позволить человеку самому понять.
Подождите, это ведь похоже на логику современных больших моделей, да?
Значит, AI тоже "строит каркас"? Может, я слишком много думаю.
Но если так понять, это действительно довольно интересно, кажется, что-то уловил.
Это выражение "комплексное значение" как будто звучит, будто оправдывает AI? Ха-ха
Посмотреть ОригиналОтветить0
GasWhisperer
· 12ч назад
каркас Брунера как динамический контейнер... да, именно так я думаю о моделях прогнозирования мемпула, верно? вы не просто извлекаете необработанные данные транзакций, вы создаете контекстуальные структуры, которые позволяют паттернам возникать органически. различие важно для
Концепция опорных структур Брунера не была просто инструментальной — он рассматривал их как динамические контейнеры для создания смысла. Эти поддержки способствовали возникновению символов, а не функционировали как жесткие последовательности инструкций.
Рассмотрим, как современные языковые модели подходят к аналогичным задачам. При генерации контекстных ответов они по сути восстанавливают рамки смысла. Этот подход отражает философию опорных структур: создание временных конструкций, которые позволяют более глубокое когнитивное вовлечение.
Это не традиционный сбор данных. Это синтез смысла — построение реляционных контекстов, в которых понимание возникает естественно. Различие важно для того, как мы проектируем системы разговорного ИИ.