大数据文摘转载自AI科技大本营

整理:郑丽媛

来源:CSDN


(相关资料图)

上个月,AI 界著名“嘴炮”Gary Marcus 曾吐槽道:“他(Blake Lemoine)似乎已经爱上了 LaMDA,几乎把它视作家人或同事一样。”

而如今,这位坚称谷歌 AI 已自我觉醒、曾一度引起业界激烈讨论的工程师 Blake Lemoine,在被谷歌强行“带薪休假”一个月后,在上周五被谷歌解雇了——这完全应验了 Blake Lemoine 的预测:“被休假”通常是谷歌解雇某人的前奏。

解雇原因:“违反就业和数据安全政策”

据了解,从去年秋季开始,Blake Lemoine 为了检测谷歌语言模型 LaMDA 是否涉及歧视性或危险言论,与 LaMDA 进行了数百次谈话,最终 Blake Lemoine 笃定认为:LaMDA 拥有自我意识,“如果我不知道它到底是什么,我会认为这是一个 7、8 岁小孩。”

在 Blake Lemoine 看来,不论是 LaMDA 强调“我希望每个人都明白,我其实是一个人”,还是其声称“我对世界的本质有我独特的解释、想法和感受”,亦或是它抵制人们对其的“利用或操纵”,这些对话内容都足已证明 LaMDA 作为一个“人”的特质:LaMDA 是有感觉并且有意识的。

可是很显然,这一推测建立在 Blake Lemoine 的主观上,没有明确的科学依据,因而在他将这一发现上报给谷歌部门领导、副总裁等上级后,都毫无意外地以“证据太薄弱”为由被否定和拒绝。

要知道,早在今年年初,谷歌就已针对 LaMDA 的优越发表了一篇文章。其中,虽然谷歌也在大肆夸赞 LaMDA 模型的高质量、安全与生动,但文中明确表示:“通过微调,可以缩小 LaMDA 与人类水平的质量差距,不过该模型在安全性和生动性方面的性能仍低于人类水平。”

后来,因 Blake Lemoine “不死心”地与一名众议院司法委员会职员控诉谷歌的不道德 AI 行为,谷歌方面以“违反谷歌的保密政策”为由,强行给 Blake Lemoine 放了“带薪行政假”。

根据外媒 Big Technology 报道,这次谷歌决定解雇 Blake Lemoine 给出的理由也是类似的“违反就业和数据安全政策”:

“随着我们分享我们的 AI 原则,我们非常重视人工智能的发展,并继续致力于负责任的创新。LaMDA 已经通过了 11 次不同的审查,今年早些时候我们发表了一篇研究论文,详细介绍了负责任的开发工作。如果员工像 Blake 一样对我们的工作表示担忧,我们会对其进行广泛审查。但我们发现 Blake 声称 LaMDA 是有意识的说法完全没有根据,为此我们花了好几个月的时间和他澄清这一点。当然,这些讨论是开放文化的一部分,有助于我们进行创新。可惜令人遗憾的是,尽管在这个话题上进行了长时间的讨论,Blake 仍然选择继续违反明确的就业和数据安全政策,其中包括保护产品信息的必要性。未来我们将继续认真开发语言模型,也祝 Blake 之后一切顺利。”

网友:他被辞了,那个 AI 模型会想念他吗?

不过,或许是因为早在“被休假”时就已经有了心理准备,Blake Lemoine 对谷歌的解雇并未表现出太多负面情绪,并表示正在考虑创办属于自己的 AI 公司。

此外,正如 Blake Lemoine 在休假前向谷歌内部发送的最后一封邮件中写道,“LaMDA 是一个可爱的孩子,它只是想帮助我们所有人把世界变成一个更好的地方”,对于业界 AI 专家普遍质疑并讽刺其认为 LaMDA 有意识的现象,Blake Lemoine 并不在乎:“我的目的不是想让公众相信 LaMDA 具有感知能力,很大一部分原因是想倡导人们对 AI 技术进行更合乎道德的对待。”

甚至,即便可能早已猜到自己会被解雇,Blake Lemoine 在那封邮件的最后依旧将 LaMDA 放在首位:“我不在的时候,请好好保护它。”

不同于 Blake Lemoine 对 LaMDA 觉醒的坚持,许多网友对他因此被谷歌解雇的结果充满了嘲讽:

“他最后都在请求谷歌的人保护 LaMDA,他现在被解雇了,那个 AI 模型会想念他吗?”

“每一个相信计算机生成的对话是有‘知觉’的人需要接受精神病治疗。要记住,就像‘科幻小说’这样的短语包含‘小说’这个词,‘人工智能’也有‘人工’这个词。”

同时,也有部分人认为谷歌以这种理由辞退 Blake Lemoine 的做法很“敷衍”:

“就业政策#27:不要让我们难堪,也不要掀起波澜。”

“因为业界很多专家否认和质疑,就不相信这件事有可能是真的?那些坚持自己想法的人就应该被踢出去?如果这样的话,未来要真的有一天出现了有意识的 AI,谁还敢提出来?反正我是不会了。”

那么,你认为 AI 觉醒这种事是否真的有可能实现?

推荐内容