✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
大语言模型本质是要在现有输入数据的基础上,强行构建一个自洽的价值观。幻觉(hallucination)可以看成是自洽后的自然体现和延伸。很多新的科学发现,恰恰就是因为在自然界遇到了某个无法被现有理论解释的“错误”,无法自洽,因此必须抛弃旧的理论。所以这大致可以解释为什么迄今为止,没有一个(拥有那么多数据的)大语言模型可以自发的做出新的科学发现,因为模型本身没有能力判断是非。