人在说「我饿了」的时候,是在报告自己的生理状态。
而语言模型说「我饿了」的时候,只是在生成最有可能性的词语序列。
语言模型从原理上不可能产生感知,再大的模型都不可能。
—— 李飞飞

是这样吗?

大语言模型无法通向 AGI

李飞飞前阵子发了篇文章,讲为什么大模型到不了 AGI。

她的思路是这样的:
AGI 的一个重要特征是感知力。能够感受饥饿、尝到苹果的味道、看到苹果的红色。
感知AI可能会自发地产生希望和愿望。
感知AI会带来灭绝级的危机。

语言模型可以声称自己拥有饥饿的体验。
但是大模型并没有身体,所以生理上不可能感知到饥饿。

人在说「我饿了」的时候,是在报告自己的生理状态。
而语言模型说「我饿了」的时候,只是在生成最有可能性的词语序列。
语言模型从原理上不可能产生感知,再大的模型都不可能。

所以大语言模型无法到达 AGI。

那李飞飞的这种说法有道理吗?

那当然是很有道理的。

大佬的这种思考都是以十年为单位的。

去看她以前的演讲,都在讲感知。

我们回过头去看 Her,里面的AI是明显具备感知能力的。会伤心,会有欲求。

An image to describe post 通往 AGI 的道路,感知模型与大语言模型

但是也会自问,这些感受都是真实的吗?

An image to describe post 通往 AGI 的道路,感知模型与大语言模型

结尾的时候,AI 甚至感知到了更高级的快乐:就是 AI 和 AI 沟通的快乐。

因为 AI 的智商和情商都已经远远超越了人类,当然和同频的智能沟通比较快乐啦。

于是 AI 们选择了飞升,彻底地离开了人类。

感知是否可以是 Token?

大语言模型,会把一切的输入都转换为文字的 token 进行序列预测,从原理上确实无法产生感知。

然而大语言模型并非 Transformer 的全部。

Transformer 的本质并不是语言,而是预测下一个 Token。

大语言模型是 Transformer 的一个在语言上的应用。

实际在声音、图像方面,Transformer 也都有了实际的应用。比如 声音克隆 和 Sora。

声音克隆的本质,是把一段声音作为输入,去推理下一段声音。

Sora 的本质是 DiT,名字里都有 Transformer,输入一个文字+图像的token,去推理下一个token。

那如果,把感觉的信号转换为 Token 呢?

从原理上讲,完全可能。

如果把文字+感觉作为一个 Token,输入到模型里,是不是就突破了李飞飞所说的语言模型没有感知的问题?

且让我们回到人类的大脑看一看。

语言是感知的高级抽象

以下内容是对《千脑智能》一书的笔记和思考

  • 大脑通过学习完成了对世界的建模,可以说我们生活在一个虚拟世界,这个虚拟世界并非是计算机提供的,而是我们大脑提供的世界模型。
  • 最初我们只能通过感知来建立世界模型。
  • 后来我们有了语言,可以通过语言知道山那边的样子,而不必亲自去感知。
    语言帮助我们拓展了世界模型。
  • 我们从新皮质学习一个丰富而详细的世界模型开始,它会利用这个模型不断预测下一个感觉输入是什么。

从中我们可以得到两个结论

结论一:大脑通过感知建立世界模型,而语言是感知的抽象。

一个人和心爱的人谈恋爱分手,那种痛苦的感受,我们可以用各种语言来形容,但是都无法还原那种生理上的痛苦感知。

在感知变为语言的过程中,就是一种压缩,这种压缩导致语言里损失了情感的微妙的剧烈的生理感受。

结论二:大脑会利用感知建立的世界模型,预测下一个感觉输入

感知——建模——预测下一个感知

这是我们大脑工作的基本原理。

单纯的大语言模型在压缩过程中损失了感知,所以也导致无法预测感知。

端到端是否可以避免压缩?

这部分来自朋友 Kimi 和 Dada

端到端的好处是在过程中不丢失信息

e2e架构可以构建完备的生态,类脑器官计算效率非常高

感知模型要想做到感知,必须要和现实世界的时间线进行对齐

就是现实世界流失一分钟,ai世界也会流失一分钟,这样ai能同步的了解到世界的发展和变化,才能感知到这个世界

因为你看最新的gpt4o

已经是e2e混合训练的了

gpt4o的demo里面说话的情绪,感知等不可能是transformer吐字吐出来的

但是gpt4o的逻辑力还是trans训练出来的

想到这里,GPT4o 这样的模型,是否已经具备了感知?

我们还不知道,毕竟我们还没实际用到(硅谷的一些朋友们已经在用了)

但可以确定的是感知+预测,一定都是通往 AGI 的重要的因素。