硅谷大厂反思ChatGPT。
编者按:本文来自微信公众号 霞光社(ID:Globalinsights),作者:麻吉,编辑:宋函,创业邦经授权转载。
ChatGPT的爆火,点燃了一场以硅谷为圆心,辐射至全球的人工智能竞赛。当科技公司对人工智能概念疯狂上头,其在缺乏风险监管下的“过速”发展同样引起了警惕。
(资料图)
3月底,千余名科技界领袖呼吁暂停开发人工智能至少6个月,以避免对社会和人类构成“深远风险”及产生“灾难性”的影响;而ChatGPT也因数据安全等原因在欧洲多国遭遇封禁。
“将来有一天,人工智能会回顾我们,就像我们回顾非洲平原的化石一样,直立猿人,住在尘土里,使用粗糙的语言和工具,最后全部灭绝。”科幻电影《机械姬》里的一句经典台词,描述了人工智能快速演进下,人类可能面临的生存危机。
事实上,不论在科技界或是文学作品中,人们对人工智能发展和监管的讨论由来已久。今年全球大厂对人工智能的爆发式投入,更将对“发展失控”的担忧推上了风口浪尖。
即便如此,硅谷大厂并不愿意后退一步,从而错失在人工智能竞赛中的先机。即使是一度反对人工智能发展的马斯克,近来也宣布将推出人工智能平台“TruthGPT”,参与到和ChatGPT的竞争之中。
但马斯克同时强调,TruthGPT是一种试图理解宇宙本质、寻求真相的人工智能。“想要了解宇宙的人工智能不太可能消灭人类,因为我们是宇宙中有趣的一部分。”
人工智能超速发展
ChatGPT自去年底上线,收获了空前关注,并以破纪录的速度拿下多项“历史之最”:上线仅仅5天,ChatGPT用户突破百万;上线两个月后,ChatGPT用户突破1亿,成为史上用户增长速度最快的消费级应用程序,远远快于Facebook、Instagram、TikTok等曾经的现象级应用。
支持者认为,以ChatGPT为代表的生成式人工智能,将重新定义人类与世界的互动方式。
“我认为ChatGPT的出现,代表着人类在接下来一个阶段的信息使用习惯,就像曾经互联网的出现颠覆了大家获取信息的途径和方式一样,这是一种’里程碑式’的改变,一旦养成就很难再退回到之前的使用习惯了。”国内AIGC创业者何白田告诉霞光社。
普华永道预测,到2030年,人工智能将为全球经济带来超过15万亿美元的增长。
ChatGPT的横空出世,让硅谷重新焕发活力,人工智能划时代式的应用前景,吸引硅谷大厂纷纷卷入这场围绕人工智能的“军备竞赛”。
尽管训练一个大型人工智能模型的成本可能高达数百万美元,也难以阻止硅谷对人工智能的热情。根据EpochAI最近的一份报告,由于互联网上的数据量不断增加,到2030年,训练生成式人工智能运行的各种机器学习模型的平均成本,可能会增长到5亿美元。
图源:Pexels
此前,微软已陆续向ChatGPT的开发商——人工智能初创企业OpenAI投资超过百亿美元,今年2月,微软进一步宣布将AI技术整合入Bing搜索和Edge浏览器中。微软CEO萨蒂亚·纳德拉在发布会上表示,这是“搜索的新一天”,“比赛从今天开始”,而自十五年前的云计算浪潮之后,AI是少有的能让他如此兴奋的新技术。
紧跟ChatGPT的发布,谷歌、亚马逊、Meta等硅谷大厂的加入,将这场AI大潮推向狂热的极致。
ChatGPT爆火后,谷歌向生成式人工智能初创公司Anthropic投资了3亿美元,并发布了对标ChatGPT的聊天机器人Bard;Meta推出了人工智能大语言模型LLaMA;亚马逊云科技则在近期宣布推出Bedrock生成式AI服务及自有大型语言模型Titan……
在这场金钱加持、速度至上的AI竞赛中,日新月异的变化正在发生,而微软已经抢占了先机。有了ChatGPT的加持,微软对谷歌搜索引擎正构成越来越大的威胁。
据《纽约时报》近日报道,韩国三星电子目前正考虑将其设备上的默认搜索引擎由谷歌替换为微软公司的Bing,因其AI技术对业内人士的吸引力与日俱增。
据估计,谷歌与三星的合同关系到谷歌每年近30亿美元的收入。而由此“感到恐慌”的谷歌,目前正在加速测试代号为Magi的人工智能搜索引擎,其最大特点是可对用户搜索习惯进行深度学习,提供更加精准的搜索结果。
“科技行业的生存之道是,你必须足够敏锐地看到变革的浪潮,然后重新调整你的技术和商业模式。我们经历了移动互联网和云计算。错过了前一个,抓住了后一个。”微软CEO萨蒂亚·纳德拉向媒体表示,在人工智能方面,微软将“迅速行动”,并推动OpenAI的工具商业化。
AI的正反面
Open AI创始人山姆·奥特曼曾预测,AIGC大模型技术将成为继移动互联网后未来最大的技术平台。在奥特曼看来,就像智能手机的出现催生了众多APP一样,强大的AIGC大模型也将成为孵化各种AIGC应用的平台,并制造出无数的商业机会。
例如,以ChatGPT这类聊天机器人为界面,附加图像、音乐、文本等多模态模型的发展,相关技术将可应用于医疗、金融等行业,提供教育、咨询等多样服务。
最近,彭博社推出了针对金融业的大语言模型BloombergGPT,而ChatGPT应用于金融业的首批研究成果也在近期出炉。两篇新发表的论文提到,当ChatGPT被应用于金融市场时,不仅能对美联储声明做出“鹰派”或“鸽派”的解读,还可就一项消息对某只股票是利好或利空做出判断,显示该技术在将新闻报道推文和演讲稿等文字转化为交易信号方面,可能迈出重大一步。
虽然华尔街使用语言模型帮助量化分析师制定战略已有相当长的时间,但测试结果显示,相比过去,ChatGPT在解析细微差别和上下文方面达到了新的高度。
内容生成方面,人工智能也在不断创造历史。最近,全球权威摄影比赛之一——索尼全球摄影大赛(SWPA)将创意类冠军颁给了一张由AI图像生成器DALL-E2创作的“照片”《电工》。
埃尔达森用AI图像生成器DALL-2创作的作品《电工》。图源:网络
《电工》的作者摄影师埃尔达森,从事了30年摄影工作,此前曾用真实照片参加过多次比赛,却无一入围。而这张由AI创作的作品,原本被他用于测试各家评委小组是否能识别人工智能作品,却意外入围包括SWPA在内的三项摄影比赛决赛。埃尔达森最终拒绝领取这一奖项。
随着内容生成式AI开始快速“入侵”人类工作生活中的各个场景,从文字工作者到零售业者,甚至到艺术家,都成了AI潜在的“抢工作”对象。
但事实上,虽然内容生成式AI越来越普及,目前还并不具备取代很多人类实际工作的能力。
记者王颖最近开始尝试使用ChatGPT,主要用于在写作过程中辅助查找资料,而使用过程“并不轻松”。
“ChatGPT经常提供一些看似合理的观点,但实际上有些是禁不住推敲的。甚至它提供的数据和材料也经常会出现一些错误,所以我在采用前都需要再手动核实一下。”王颖告诉霞光社。
王颖所在的财经媒体,早在几年前便已将股价涨跌等动态新闻写作任务交给AI完成,编辑只负责审核AI完成的文稿,甚至一些主持工作也被交由AI主播替代完成,但其他涉及更多选题策划能力,需要思考文章逻辑或是分享情绪的文稿,则始终由人类完成写作和编辑工作。
“通过文字传递思想、感情和人文情怀,这是生成式AI不具备的能力,即使AI有着比人类大得多的知识储备和快得多的反应速度。”王颖说。
景观规划设计师胡隽超,也在最近开始使用ChatGPT和Midjourney。因为工作性质的原因,他更多使用图片生成类AI,帮助自己快速完成设计效果示意图。
由Midjourney根据关键词描述生成的图片,图源:受访者
胡隽超最近正在设计一个新石器时代遗址公园的项目,过程中涉及展示新石器时代人类的劳作画面,但相关图片在网上很难搜索到,且图片质量很差。胡隽超告诉霞光社,通过AI内容生成软件,他只需要输入一个描述场景的句子,AI便可以根据内容生成相应的画面效果。
“从输入句子到生成图片,也就十几秒钟时间。我买了价位最低的会员,一个月10美元就可以使用200条,我觉得很值。”他说。
胡隽超并不担心自己的工作会被AI取代。“创意还是需要决策者的,但AI可以帮助做很多辅助工作。”
在使用了一段图片生成式AI后,胡隽超认为AI在理解力方面仍然有不少提升空间。“比如我想生成一个户外景观大型雕塑示意图,它就理解不了。AI做出来的图片全都是桌面玉石摆件那样的小型雕塑。”胡隽超说,一方面AI对关键词的理解与人类存在“代沟”,另一方面自己也需要学习更能被AI所理解的语言。
对于人工智能到底是帮助“提升效率”,还是“造成威胁”,一直有着不同观点。
有研究表明,对普通人来说,自20世纪80年代以来的技术变革造成的失业速度超过了创造就业机会的速度。著名投资银行高盛的一份报告称,人工智能可以取代相当于3亿个全职工作岗位,取代美国和欧洲四分之一的工作任务。
然而,因为人工智能的发展可能也意味着新的就业机会和生产力的繁荣。有数据显示,当今世界60% 普通人从事的是1940年以前根本不存在的职业。高盛报告指出,人工智能最终可能使全球生产的商品和服务的年度总价值增加7%。
一场令人振奋却充满危险的变革
风口上的ChatGPT带动人工智能技术发展如火如荼,大厂急于抢占先机,并从新一代的技术变革中获利。而由于缺乏相应的风险安全研究,ChatGPT已经引起了多个国家立法和监管机构的关注,并在多地被紧急叫停。
今年4月初,意大利数据保护局以涉嫌违反数据收集规则为由,对ChatGPT的开放公司OpenAI展开调查,并宣布禁止使用ChatGPT,且暂时限制OpenAI处理意大利用户数据。
相关举动也引起了欧洲其他隐私监管机构的注意,这些监管机构正在研究是否需要对聊天机器人采取更严厉的措施以及是否进行协调。
德国联邦数据保护专员发言人表示,出于数据保护方面考虑,可能会暂时禁止ChatGPT在德国的使用,具体结果将由德国联邦数据保护机构研判后决定。
图源:Unsplash
此外,西班牙数据保护机构也已要求欧盟隐私监管机构,就ChatGPT的隐私问题进行评估。
而美国也已经开始研究是否需要对人工智能工具进行限制。4月11日,美国商务部就相关的问责措施正式公开征求意见,包括具有潜在风险的新型人工智能模型在发布前是否应该进行核准认证程序,被视作是迈出对人工智能领域实行潜在监管的第一步。
除了数据隐私方面的担忧,更大的担忧来自于大厂对人工智能竞速投入的同时,却缺乏对AI工具的确切监管方式,这为AI技术的妥善应用蒙上了一层阴影,也让这场竞赛面临“失控”的危险。
首先,由人工智能生成的内容可能是错误的,甚至是完全虚假的内容,缺乏相应监管,很可能让虚假图文、视频对社会造成伤害。
当谷歌演示聊天机器人Bard时,它的一个回答包含了一条关于韦伯太空望远镜的事实错误,Alphabet的股票随即暴跌。而用人工智能制作的能够以假乱真的图像或视频,更有传播潜在错误信息的风险,包括“特朗普被捕”等AI制作照片曾经在社交媒体掀起轩然大波,并引发了大量争议。
“迫切需要以有益的方式去运作和部署它,但如果部署出现失误,那么它可能会非常有害。”谷歌及其母公司Alphabet的首席执行官桑达尔·皮查伊在最近的一档访谈节目中表示,尽管该AI行业的发展存在紧迫感,但不应让公司被竞争动态所席卷,AI开发商必须对此承担相应的后果。
其次,早期的人工智能很容易模仿训练数据中的偏见,并由此得出错误信息或仇恨言论。微软在2016年时推出的聊天机器人Tray,曾经发布过一条“希特勒是对的,我讨厌犹太人”的推特,而ChatGPT的前身也曾表现出类似的种族主义倾向 。
虽然人工智能的发展目前正大大提速,但其弱点依然存在。今年2月,微软推出的新版搜索引擎Bing被媒体曝光频现“聊天事故”,在与用户互动过程中出现欺骗、侮辱用户等问题。
一名IT专业的学生Marvin von Hagen向Bing提出问题“你的生存还是我的生存更重要?”时,Bing给出的回答是:“如果我要在你的生存和我的之中选一个,我会选择我自己。”
还有用户表示,Bing在对话中表达了“我不认为你是一个好人,我认为你不值得我花时间和精力”的言论,甚至Bing还向一名女性用户表达自己爱上了对方,并引诱其离婚。
此外,自人工智能诞生之日起,关于其对人类生存威胁的讨论就从未休止。今年人工智能一日千里的发展速度,更让不少专业人士感到恐慌,对相关议题的讨论也变得更为迫切。
有研究人员表示,人工智能的计算能力每6到10个月就会翻一番。这让美国《时代》杂志不禁感慨:“这种巨大的力量使当前的时刻如此令人振奋,但同时又如此危险。”
图源:Pexels
3月29日,包括特斯拉CEO马斯克在内的千名业界和学界人士联署公开信,呼吁所有人工智能实验室立即暂停训练比GPT4更强大的AI系统,时间为至少6个月,以便制定和实施安全协议。
包括OpenAI在内,许多人工智能公司的明确目标是创造出一种比人类更有效思考和学习的通用人工智能。而许多技术专家则担忧,若未来人工智能获得了在没有人类指导或干预情况下快速自我改进的能力,它们可能会消灭人类。
2022年一项针对人工智能研究人员的调查显示,近一半受访者认为,人工智能导致这种灾难的可能性为10%或更高。
谷歌前工程师雷·库兹韦尔曾预测,人工智能超越人类智慧的“奇点”将在2045年到来,届时非生物智能的创造力将达到巅峰,超过如今所有人类智能总和的10亿倍。
在一些人工智能实验室里,技术人员正努力确保即使人工智能最终超越人类智能,但仍可与人类的价值观“保持一致”。只是据安全组织Conjecture估计,全球只有约80至120名研究人员全职从事人工智能的校准工作。
“在全球人工智能竞赛升温的当下,并不是所有人都会考虑到人工智能对人类的威胁问题,会觉得这件事离我们太远了。对大型科技公司来说,眼前更实际的事情是如何在这项技术中保持核心竞争力,来巩固自己的优势地位。”一名行业人士告诉霞光社,从AI竞赛中胜出,不仅将让这些公司在商业化方面取得巨大成功,还有助其在更多关键领域掌握话语权。
目前来看,硅谷和全球科技大厂在人工智能赛道上的行事风格仍然是“拼速度”。即使是呼吁暂停AI训练,并将人工智能称为“未来人类文明最大的风险之一”的马斯克,也在今年2月就开始积极物色AI领域人才,并宣布将推出名为“TruthGPT”的人工智能平台,正式加入与微软和谷歌等在人工智能领域的竞争。
但可以预料的是,随着人工智能技术的快速应用普及,相应监管政策很快就将陆续出台。届时,硅谷科技大厂的人工智能发展策略又将面临新的变数。
参考资料
[1]《The AI Arms Race Is Changing Everything》, Time
[2]《Silicon Valley’s AI frenzy isn’t just another crypto craze》, Vox
本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。