我们从新皮质学习一个丰富而详细的世界模型开始,它会利用这个模型不断预测下一个感觉输入是什么。 ——《千脑智能》

预测下一个感觉输入,是我们大脑工作的第一性原理。

大语言模型无法通向 AGI

李飞飞前阵子发了篇文章,讲为什么大模型到不了 AGI。

她的思路是这样的: AGI 的一个重要特征是感知力。能够感受饥饿、尝到苹果的味道、看到苹果的红色。 感知AI可能会自发地产生希望和愿望。 感知AI会带来灭绝级的危机。

语言模型可以声称自己拥有饥饿的体验。 但是大模型并没有身体,所以生理上不可能感知到饥饿。

人在说「我饿了」的时候,是在报告自己的生理状态。 而语言模型说「我饿了」的时候,只是在生成最有可能性的词语序列。 语言模型从原理上不可能产生感知,再大的模型都不可能。

所以大语言模型无法到达 AGI。

那李飞飞的这种说法有道理吗?

那当然是很有道理的。

大佬的这种思考都是以十年为单位的。

去看她以前的演讲,都在讲感知。

我们回过头去看 Her,里面的AI是明显具备感知能力的。会伤心,会有欲求。

Untitled

但是也会自问,这些感受都是真实的吗?

Untitled

结尾的时候,AI 甚至感知到了更高级的快乐:就是 AI 和 AI 沟通的快乐。