丨划重点
(相关资料图)
1、谷歌多位参与人工智能业务的高管最近接受媒体采访,讨论了人工智能技术取得的成就、安全性以及发展前景等。
2、谷歌首席执行官皮查伊称,人工智能技术将影响每一家公司的每一种产品,包括作家、会计师、建筑师以及软件工程师等知识型员工将被取代。
3、皮查伊认为,未来10年人们就将拥有某种形式的、非常强大的人工智能助手,可以做许多令人惊叹的事情。同时,政府应该加强对人工智能的监管,制定相关法律,以确保人工智能不会危及世界安全。
4、谷歌高级副总裁马尼卡称,聊天机器人Bard几乎阅读了互联网上所有的东西,并创建了语言模型。它的答案并非来自搜索,而是这个语言模型。
5、马卡尼认为人工智能可能导致工作性质发生变化,超过三分之二的人会改变他们的工作定义。人们应该学会和机器并肩工作,理解这些技术如何辅助人们完成现有工作。
谷歌首席执行官皮查伊在山景城园区接受采访
我们可以把当前时代看作是文明被火、农业和电力改变的时代。在2023年,我们发现机器学会了如何像同伴那样与人类交谈。也就是说,它了解了创造力、真理、错误和谎言。这项被称为聊天机器人的技术只是人工智能最近的突破之一。
人工智能是一种可以自学超人技能的机器,而谷歌是这个新世界的领导者。该公司的多位人工智能大咖最近接受媒体采访,探讨了人工智能领域的未来前景。谷歌首席执行官桑达尔·皮查伊声称,人工智能的好坏将取决于人类本性,这场革命也来得比人们想象的要快。
以下为谷歌高管接受采访全文:
对皮查伊的采访始于谷歌位于加州山景城的新园区,这里使用40%的太阳能,收集的水比它们用掉的更多。小时候家里没有电话、在印度长大的皮查伊,甚至无法想象这些高科技。
皮查伊回忆称:“我们家申请安装有线电话等了大约五年时间,至今我仍然能生动地回忆起当时的情景。电话改变了我们的生活。对我来说,这是我第一次明白接触科技的力量,这也是我今天做这些事情的原因。”
自2019年以来,皮查伊所做的就是领导谷歌及其市值1.3万亿美元的母公司Alphabet。在全球范围内,90%的互联网搜索和70%的智能手机依靠谷歌的系统运行。但在今年2月,当微软发布了新的聊天机器人时,谷歌的主导地位受到威胁。在争夺人工智能主导地位的竞赛中,谷歌刚刚发布了名为Bard的聊天机器人。
问:你认为社会对即将到来的人工智能爆发做好准备了吗?
皮查伊:对此我有两种想法。一方面,我觉得社会还未做好准备,因为我们作为社会机构思考和适应的速度,很难与技术发展的速度相匹配。另一方面,与任何其他技术相比,我看到更多人在人工智能生命周期的早期更担心它的负面影响。我对此感到很欣慰。因为有很多人已经开始担心人工智能的影响,因此相关对话也变得越来越严肃。
问:谷歌产品副总裁Sissie Hsiao和高级副总裁詹姆斯·马尼卡向笔者介绍了Bard。我们了解到的第一件事是,Bard不像谷歌搜索那样在互联网上寻找答案。
Sissie Hsiao:Bard可以用来帮助你头脑风暴,生成内容,比如演讲稿、博客文章或电子邮件。所以,我想从世界上许多最好的演讲中获得灵感……
马尼卡:在几个月的时间里,Bard阅读了互联网上几乎所有的东西,并创建了一个语言模型。它的答案并非来自搜索,而是这个语言模型。此外,Bard还试着学习预测,比如花生酱之后通常会跟着果冻这个词。它试图根据所学的一切,预测最有可能出现的下一个单词。所以,它不是到网上去搜索,只是尝试预测下一个单词。
问:在我看来,巴德似乎在思考,似乎在做出判断。不是这样吗?这些机器没有感知能力,也没有自我意识。
马尼卡:的确,它们没有感知能力,也没有意识到自己的存在,但它们可以表现出类似这样的行为。因为请记住,它们从我们身上学到了这些东西。人类是有知觉的生物,我们有自己的情感、想法、观点等,书籍、小说中都反映出了这些东西。这样,在学习过程中,它们就会从中建立模式。因此,人工智能表现出来的行为有时看起来像是有人在背后操纵,我对此并不奇怪。背后没有人,它们也不是有知觉的生物。
谷歌高级副总裁马尼卡
出生于津巴布韦,牛津大学毕业的马尼卡在谷歌担任了一个新职位,其工作是思考人工智能与人类如何最好地共存。马尼卡对此解释称,人工智能有潜力改变我们对社会的许多思考方式,关于我们能够做什么,我们可以解决的问题。
问:但人工智能本身也会带来问题。海明威能写出更好的短篇小说吗?也许吧。但Bard可以在海明威写完一本之前写出一百万本。想象一下整个经济的自动化水平。这项技术可以取代很多人的工作。
马尼卡:是的,随着时间的推移,有些职业会开始减少,也有些新的工作类别会出现。但最大的变化将是工作岗位性质的变化,超过三分之二的人会改变他们的工作定义。不是失去工作,而是改变,因为他们现在有人工智能和自动化的辅助。所以,这将是一次深刻的变革,对工作技能会产生重大影响。我们如何帮助人们培养新技能?学会和机器并肩工作,理解这些技术如何辅助人们完成现在的工作。
皮查伊:人工智能技术将影响每一家公司的每一种产品,这也是我认为它是一项变革性技术原因,尽管我们只是处于早期阶段。我举个例子,你可能是一名放射科医生。在五到十年后,你可能会有个人工智能搭档。早上上班后,假设你有100件事要做。人工智能搭档会帮你分类,告诉你“这些是你需要首先看的最严重病例”。或者,当你在看什么东西的时候,它可能会弹出来说“你可能错过了什么重要的东西”。我们为什么不能利用强大的助手来帮助完成这一切呢?你可能是个想学数学或历史的学生,你同样能从中得到帮助。
问:哪些工作有可能被颠覆?
皮查伊:知识型员工,比如作家、会计师、建筑师,讽刺的是,还可能包括软件工程师。人工智能也会编写计算机代码。
问:许多谷歌员工已经辞职,有些人认为谷歌推出人工智能的速度太慢,另一些人则认为太快,并且存在严重的缺陷。 比如马尼卡曾向Bard询问了通货膨胀的问题。它立即写了一篇关于经济学的文章,并推荐了五本书。但几天后,我们发现没有一本书是真实的。显然,Bard捏造了这些东西。 这种非常人性的特质,犯错时依然相信自己是对的,在业内被称为“幻觉”。你经常遇到这类幻觉吗?
皮查伊:是的,你知道,这是意料之中的。在这个领域,还没有人解决过幻觉问题。所有模型都有这个问题。
问:这是一个可以解决的问题吗?
皮查伊:这是一个正被激烈辩论的问题。我想我们会取得进展。
问:为了帮助应对幻觉问题,Bard提供了一个“谷歌搜索”按钮,可以引导人们进行老式搜索。谷歌还在Bard中内置了安全过滤器,以屏蔽仇恨言论和偏见等内容。虚假信息传播的风险有多大?
皮查伊:人工智能将以更深层次的方式挑战这一问题,这个问题的规模将会大得多。更大的问题是假新闻和假图像。有了人工智能,我们就可以轻松地创建视频。在这些视频里,可能是你在说什么,也可能是我在说什么,但实际上我们从来没有说过。在社会层面上,这可能会造成很多伤害。
问:Bard对社会安全吗?
皮查伊:以我们今天推出的方式来看,这是一个有限的实验,我认为它是安全的。但我们都必须对这个过程中的每一步负责。我们将进行更多的测试,也就是Bard的高级版本。届时,它可以进行推理、策划并连接到互联网搜索。
问:你是在慢慢地释放这种技术,这样社会就可以习惯它了?
皮查伊:这是部分原因,其他原因在于我们希望得到用户的反馈。我们可以在构建和部署更强大的模型之前,开发更强大的安全层。
问:在我们谈到的AI问题中,最神秘的是所谓的“涌现属性”,即些人工智能系统正在自学它们原本不应该拥有的技能。这是如何发生的还不是很清楚。 例如,谷歌的一个人工智能程序在被提示使用孟加拉语后自行进行了调整,而它并没有接受过孟加拉语的培训。
马尼卡:我们发现,只需极少的孟加拉语提示,我们的程序就可以翻译所有的孟加拉语。所以现在,突然之间,我们现在有了一个研究努力,我们现在正试图让其掌握1000种语言。
皮查伊:我们这个领域的所有人都把它称为“黑匣子”。你知道,有很多东西我们并不完全明白。你也说不清人工智能为什么会得出那样的结论,也不知道它为什么说错了。我们有些想法,随着时间的推移,我们的理解会越来越多。这就了解最先进技术的方式。
问:你们还没有完全了解人工智能是如何工作的,但却将其公开发布了?
皮查伊:是的。这就像是我们完全理解人类的大脑是如何工作的。
问:我们想知道,Bard的短篇小说是不是从那个黑匣子里出来的,看起来很有人情味。它讲述了人类感受到的痛苦,谈到了救赎。如果它只是试图弄清楚下一个正确的词是什么,它是如何做到这一切的?
皮查伊:我也有过和Bard交谈的经历。对此有两种看法:有些人认为,这些只是算法,它们只是在重复网上看到的东西。然后另一些人认为,这些算法正在显示出新的特性,具有创造性,能够进行推理,制定计划,等等,对吗?而且,就我个人而言,我认为我们需要以谦虚的态度对待这件事。我认为其中某些技术的普及是好事,这样社会就可以应对正在发生的事情。这促使我们开始对话和辩论,我认为这样做很重要。
问:人工智能革命是争论的焦点,有人希望它能拯救人类,也有人预测它将引发世界末日。 谷歌对未来持乐观态度,认为我们可以循序渐进地引入人工智能,让人类文明能够习惯它。我们在谷歌位于伦敦的人工智能实验室DeepMind看到了机器学习的未来。DeepMind负责研发和机器人业务的副总裁拉亚·哈塞尔展示了工程师如何使用运动捕捉技术来教人工智能程序如何像人类那样移动。但在足球场上,机器人只被告知目标是得分。这个自学项目花了大约两周的时间测试不同的动作。它抛弃了那些不起作用的动作,并依照有小动作建立模型,从而创造了全明星机器人球队。这样的机器人足球比赛看起来很有趣,但问题是:人类并没有给这些机器人编程来比赛,它们自己学会了这项运动。
谷歌机器人靠自学发明了新的足球战术
哈塞尔:它们想出了这些有趣的不同策略,不同的走路方式,不同的防守姿态。而且这里使用的人工智能程序是独立于机器人的,它可以玩数千场游戏,从中学习并发明自己的战术。
问:人工智能自己找到了解决办法。
哈塞尔:没错,但这需要一段时间。起初,所有的球员只是像一群6岁的孩子那样追着足球跑。随着时间的推移,我们现在开始看到的是,它们已经学会配合,分工合作。
问:这很有趣。但是,我们在这里看到的实际影响是什么?
哈塞尔:这种类型的研究最终可能导致机器人走出工厂,在其他类型的人类环境中工作。想想采矿,想想危险的建筑、勘探或灾难恢复等工作。
问:DeepMind是12年前由戴米斯·哈萨比斯(首席执行官)与人共同创立的。他先后攻读过剑桥、哈佛、麻省理工学院等名校,并拥有计算机科学和神经科学学位。在就读博士学位期间,哈萨比斯主要研究人类想象力。在12岁的时候,他已经是世界排名第二的国际象棋冠军。通过游戏,哈萨比斯进入人工智能领域。
哈萨比斯:2010年左右,当我们开始创业的时候,还没有人在做人工智能。在工业领域,什么都没有发生。过去,当我们与投资者谈论人工智能时,人们通常对此不屑一顾。所以,我们很少得到资金扶持。你再看看现在投入到人工智能初创公司的数十亿美元,这让人觉得疯狂。我从事人工智能研究已经有几十年了,我一直相信这将是人类有史以来最重要的发明。
问:人工智能技术发展的速度会超过我们的适应能力吗?
哈萨比斯:我不这么认为。我认为,在某种程度上,人类是一个适应能力无限的物种。看看今天我们在使用的智能手机和其他设备,我们可以毫不费力地适应这些新技术。人工智能将是另一个这样的变化。
问:DeepMind最大的成就之一是发现了自学机器可以具有创造性。哈萨比斯向我们展示了一个可以自主学习的游戏程序,它被称为AlphaZero,它想出了人类从未见过的制胜国际象棋策略。但这只是一台机器,它是如何实现创造力的?
哈萨比斯:AlphaZero与自己对弈了数千万次。因此,它可以探索国际象棋的某些部分,这些部分可能是为国际象棋进行计算机编程的程序员以及人类棋手以前从未想过的。
问:它永远不会疲劳,不会感到饥饿,它只是一直在下棋。
哈萨比斯:是的。这是一件令人感到惊讶的事情,因为实际上你在早上启动了AlphaZero,它就开始随机下棋。到午餐时间,它就能打败我,打败大多数棋手。到了晚上,它就比世界冠军更强大了。
问:哈萨比斯于2014年将DeepMind出售给谷歌。 其中一个原因是,他想要借助谷歌拥有人工智能所需的巨大计算能力,其在俄克拉何马州的普赖尔就有一家规模庞大的数据中心。而谷歌拥有23个类似的计算中心,在计算能力上接近世界第一。这是现在让人工智能崛起的两大进步之一。首先,所有人类知识总是在线的;其次,蛮力计算“非常接近于”神经网络和大脑的能力。
谷歌数据中心
哈萨比斯:像记忆、想象力、计划、强化学习,这些都是已知关于大脑如何工作的东西,我们想在我们的人工智能系统中复制其中的一些。
问:这些都是促使DeepMind取得迄今为止最伟大成就的一些因素,甚至帮助解决了生物学中的一个“不可能”问题。 如今,大多数人工智能系统都能做好一到两件事。例如,足球机器人不能写下购物清单,不能为你的旅行订票,也不能开你的车。最终目标是所谓的通用人工智能,可以执行各类任务的学习机器。这样的机器会有自我意识吗?
哈萨比斯:这是另一个很好的问题。你知道,哲学家们还没有真正确定意识的定义,但如果我们指的是自我意识或诸如此类的事情,我认为人工智能将来有一天可能会拥有。我绝对不认为他们今天就拥有了自我意识。但我要再次强调下,这是我们在迈向人工智能旅程中发现的令人着迷的科学事情之一。
问:即使是无意识的,目前的人工智能在狭义上也堪称是超人。谷歌机器人高级总监文森特·万豪克向我们展示了机器人106号是如何针对数百万张图像进行训练的。
万豪克:如果我们能给机器人提供多样化的体验,在不同的环境中有更多不同的物体,机器人在每一个方面都会变得更好。
问:人工智能可以利用世界上所有的信息,这是任何人类都无法想象的事情。我想知道,人类是否被我们正在发明的这种巨大能力所削弱?
马尼卡:我认为人工智能不会以任何方式减少人性。事实上,在某些方面,我认为它们实际上让我们思考更深刻的问题,这是一个重要转折点。我们正在不断地将这些超能力或能力添加到人工智能所能做的事情中,以扩大可能性而不是缩小可能性。但它确实给我们提出了一些非常深刻的问题:我们是谁?我们看重什么?我们擅长什么?我们如何与他人相处?这些都是非常非常重要的问题。在某种情况下,这会令人兴奋,但也可能令人不安。
问:这是一个令人感到不安的时刻。批评人士认为,人工智能的发展太快了,而谷歌这样的巨头和我们从未听说过的初创公司之间的竞争压力,正在推动人类进入未来,无论我们是否准备就绪。
皮查伊:但我认为,如果展望未来10年,我很清楚,我们将拥有某种形式的、非常强大的人工智能,可以做许多令人惊叹的事情。作为社会,我们需要适应它。同时,各国政府需要尽快制定监管规则和法律,以确保人工智能不会危及世界安全。
这些都是深刻的问题,我们称之为“对齐”,即如何开发与人类价值观(包括道德)一致的人工智能系统?这就是为什么我认为这个领域的发展不仅需要工程师,还需要社会科学家、伦理学家、哲学家等等。我认为我们必须深思熟虑。我认为这些都是社会需要解决的问题,而且这远不是一家公司能决定的。(金鹿)