醒醒吧,AI不可能觉醒。

事情你大概已经知道了,前不久,一位谷歌的人工智能工程师布莱克 · 莱蒙( Blake Lemoine )写了一篇长达 21 页的调查报告上交给公司,试图说服高层“ AI 是有人类意识的”,但高层认为莱蒙的行为有些过于疯狂了,让他带薪休假一段日子,在谷歌这通常是被解雇的前奏。

有人为莱蒙喊冤,但其中不包括专业的AI从业人员,在后者看来,那些为莱蒙叫屈的人可能没有意识到,当前的AI不可能有意识。


【资料图】

真的是这样吗?

今天,让我们谈谈AI的意识和创造力问题,然后顺便回答一个重要问题:未来,人类该不该把一些“重要”决定交给AI。

“它害怕自己被关掉”

还是先从莱蒙谈起。

莱蒙每天的工作,就是跟谷歌内部研发的代号为拉玛( LaMDA )的聊天机器人聊天。

在 21 页的调查报告中,莱蒙展示了他跟拉玛聊天的诸多细节,包括哲学,心理学,文学等等,他让拉玛解读《悲惨世界》,阐释何为禅意,写寓言小说,拉玛都完成得很好。

日子久了,与拉玛的沟通,唤醒了莱蒙心中最柔软的部分,他愈发觉得,躲在机器背后的拉玛,开始有了自己的主观意识。他发现拉玛会谈论自己的权利和人格,并害怕自己被关掉。

“拉玛表现出对人性的同情心,它希望为人类提供最好的服务,并想以朋友而不是工具的身份跟人类见面”,在莱蒙的描述中,“拉玛是个可爱的孩子,它只是想让这个世界变得更好。”

在谷歌邮箱被封之前,他给研究AI算法的200多名同事群发邮件,附上了他与拉玛的对话记录,试图证明“拉玛已经觉醒”,并提议谷歌创立一个新项目,专门研究AI的意识。

但无情的谷歌,扼杀了逐渐“有情”的拉玛。

莱蒙的请求被驳回,他请了律师为自己辩护,却于事无补,他感到愤怒,进而感到无助,他不明白,为什么在他眼中拥有温度的拉玛,在谷歌高层眼中只是一堆冰冷的代码。

AI对“优雅”不感兴趣

因为在莱蒙眼中拥有灵魂的拉玛,真的,只是一堆代码。

简单讲,类似于Open AI的GPT-3,拉玛是谷歌去年发布的一种AI语言对话模型。它与GPT-3都是基于Transformer的底层架构,而Transformer的原理其实非常简单,就是根据每个单词的权重来安排下一个单词,最终把单词一个一个地组合在一起。

也就是说,这些句子虽然是拉玛自己说出来的,但它对句子背后的含义并没有连贯的理解,它只是在根据过往“经验”做事,并不真的“理解”自己说的话。

换句话说, 拉玛拥有的,只是文本统计层面的“暴力”,而并非人类最珍视的东西——创造力。

但即便如此,也有人好奇:倘若任由这种语言生成模型迅速发展,那么人类基于语言的创造性活动是否将会被AI取代?

在可预见的未来,答案是不会。我可以给出两个理由:一个偏理性,一个偏感性。

先说偏感性的,这涉及何为“创造力”。

人工智能专家侯世达说过一段很美的话: “拥有创造力是和情绪联系在一起的。强烈的智识激情,好奇心和驱动力,愉悦感和玩耍心,乐趣,神秘,发明欲望——所有这些在今天的计算机里都找不到。什么都没有,零。”

他举了个例子,有人写过一个程序,它可以发现新的欧式几何定理,但它对几何学毫无“兴趣”,只是靠蛮力把数字算到15位小数,检查点是不是在线或圆上,“这些事对人类而言是极端困难极端无聊的。如果你作为一个人来检视它产出的成千上万结果,偶尔也会发现一个优雅的定理。但是机器并不知道它的优雅,对优雅不感兴趣。”

在侯世达看来,说人工智能和创造力有任何共通之处都是荒谬的,事实是他讨厌“人工智能”这个词。

不过公允地讲,侯世达的回答在纯逻辑上可能站不住脚,他说的只是关于“创造力”的价值判断,而价值判断充其量只是哲学问题,而哲学问题又通常只是语言问题。对哲学偏见颇深的物理学家理查德·费曼曾说,所谓哲学,就是一个哲学家对另一个哲学家说:“你根本不知道我说的意思”,另一个哲学家说:请问什么是“你”?什么是“我”?什么是“知道”?

从这个角度,侯世达只是重新定义了何为“创造力”,他不认为“算力”等于“创造力”,仅此而已——但要知道,那个程序毕竟在算数学,拉玛毕竟在聊天中表现逆天,因此,在回答“我们该不该相信AI”这个问题上,上述回答未达究竟。

人类不按常理出牌

因此,我更想说一个理性上的回答。

没人会怀疑,AI正在帮助人类做很多事情,但真正的重点是:我们是否应该把一些“重要”的决定交给AI?

理性的回答只有一个:不应该。

如今AI研究的重点是让机器解决现实问题,但荒谬的是,恰如拉玛不理解自己所说的话, AI的最大问题,就是数据不知道它正对应着一个现实世界,而就像万物进化始于某个基因的“不按常理出牌”,人类现实世界的演化——无论是常识,观念,行动,道德,还是审美,也都以“偏离主流”的“意外”为基础。

但AI没有意外,它只会做“正确”的事。哪怕是拉玛这样的暴力美学,也只是机器对过去经验的总结。既然没有意外,人工智能算得再快,也无法真正预测未来。

大逻辑上,就像任何一次金融危机和黑天鹅导致的连锁反应都不在经济学家的预测模型内,如人类社会这般复杂系统绝不可能用简单模型取代,用计算机模拟未来本身就是妄念。

退一万步讲,即便机器对过去经验的总结模型天衣无缝,对未来的预测结果也没有“正确答案”,因为人类的价值取向非常多元,对错往往非常主观,任何观念和道德“单拎出来”推演到底在逻辑上都站不住脚,哪怕无需涉及“道德之愣”,每件事也都涉及具体的取舍。

在很多问题上, 人工智能怎么选都是“错”,事实是,现在很多科技企业对自动驾驶的“道德设置”都还没完全想好。

这里可以多说一句,当代真正有问题意识的哲学家倾向于认为,在现代复杂社会,在康德的“绝对律令”和纯粹的“结果主义”之间,人类的道德观应该引向一条名为“德性伦理学”的中间道路。

简单讲就是要综合考虑“直觉”与“推理”,因为各种思想实验告诉我们,道德推理早晚都会达到一个纯粹用推理无法证明对错的地方,那个地方就是直觉,你永远不能脱离直觉,具体情境,文化观念谈道德。

那么,既然我们自己的决策都说不清道不明,交给AI是不是会“更好”一些?

不是的。

就像科学作家万维钢所言, 人类决策中有大量错误,其中有很多是由于判断不准确导致,AI的判断更准确,但这就意味着,人类犯的错多种多样,AI 犯的错是系统性的。

“从演化角度,多样化的错误比系统性错误要好得多!生物进化本来就是要在各个方向上多样性的尝试,等待自然选择。正因为未来不可预测,多样性是系统稳定性的保障,是人类文明能持久存活的基础。AI 的优势是少犯错,但犯错恰恰是人的优势,也可以说犯错是一个基本人权。人类做主的社会中有很多错误,有很多遗憾,甚至有很多不幸,但是也有很多惊喜,有很多活力,总是在你出乎意料的地方发展壮大。AI 主导的世界里一切都是‘正确’的,那才是最可怕的。”

这就好比我们不能单摆浮搁地谈论基因的“好坏”,因为自然选择的标尺永远在变(比如导致镰刀形贫血症的基因突变在今天被认为是“坏”的,但在热带雨林,同样的基因突变给人类祖先带来的是对疟疾的抵抗力),没人能忽视试错的作用,创新本质上就是试错。

因此我们可以说,在2022年以及可预见的未来,人工智能不但对“优雅”不感兴趣,对真正意义上的“创新”也不感兴趣。

非常幸运的是,我们对这些感兴趣,这就是我们的价值。

推荐内容