购买AI服务没有一种方法,但一些购买模式正在出现。一种就像购买杂货:你可以将其送到家门口,或者在商店中查看选项,并通过定制的体验结账。


(资料图片仅供参考)

顶级云制造商拥有截然不同的人工智能店面,包括响应式聊天机器人、图像生成器,以及即将推出的可以做任何事情的多模态模型。区别在于客户希望使用大语言模型的体验、工具和参与度。

Microsoft和谷歌提供了现成的人工智能模型组合,公司可以租用这些模型,而无需浪费时间进行定制和微调。两家公司都有坚实的基础模型,客户将不得不为此支付溢价。

亚马逊的方法是专注于围绕第三方基础模型的工具和云服务。AWS高管认为,随着人工智能成为主流,围绕模型大小和类型的炒作将会消失。亚马逊还希望提供选项,以便客户不会将所有鸡蛋放在一个AI篮子中,并且可以在选择最适合他们需求的模型之前使用模型。

为 AI 打包云

几十年前,大学的人工智能课程谈到了通过识别大量数据线程中的模式和趋势来寻找答案的概念,类似于大脑的功能。公司已经开发了庞大的存储库,但只有GPU和AI芯片能够运行生成答案的复杂算法,人工智能才成为可能。

云提供商正在基于以下三种结构生成业务理念:收集数据,提供算法和数据集,以及提供可以从数据集中提供最快答案的硬件。

区别在于云制造商如何打包这三者并将其呈现给客户。也有例外,比如Meta的Llama2大语言模型,可以通过Microsoft的Azure和亚马逊的AWS获得。

人工智能并不新鲜,多年来,顶级云提供商一直在提供特定于应用程序的机器学习技术。人工智能作为一种通用智能形式——在这种情况下是大语言模型——还不是主流。当时,谷歌和Meta正在研究自己的LLM,两家公司在学术论文中对此进行了详细说明。

但是去年年底,生成式人工智能在ChatGPT上爆发了,这是一个OpenAI聊天机器人,可以回答问题,提供摘要,写诗,甚至生成软件代码。ChatGPT在不到两个月的时间内达到了100亿用户,云提供商意识到可以从他们本土的LLM中赚钱。

Microsoft的方法

Microsoft和谷歌锁定了他们的人工智能模型,作为他们业务战略的核心。Microsoft的GPT-4基于OpenAI模型,首先在Bing中实现,现在Windows 11正在填充由大语言模型驱动的AI功能。LLM也被用于Microsoft 365的“副驾驶”功能,这将有助于编译信件,总结文件,写信和创建演示文稿。

GPT-3.5的创建者为ChatGPT和GPT-4提供支持,最初是一家非营利性公司,承诺提供开放模型。OpenAI在之后将其地位转变为营利性,仅比Microsoft向该公司投资1亿美元早几个月。Microsoft正在通过OpenAI Azure服务将这项投资货币化,该服务提供对OpenAI开发的专有模型的基于云的访问。

Microsoft还使用OpenAI资产将客户锁定到Azure,该公司的最后一块是建立一个GPU基础设施来运行这些模型。该公司已经用数千台Nvidia GPU构建了Azure超级计算机,并正在投资数十亿美元来建造新的数据中心,这些数据中心经过专门布线,以满足AI应用程序的马力和功耗。

谷歌着眼于长期

OpenAI技术在Microsoft基础设施中的准备情况让谷歌陷入了困境,谷歌随后过早地宣布了将其名为PaLM的LLM商业化到其搜索,映射,成像和其他产品的计划中。谷歌随后在五月份宣布了PaLM-2,它现在正在悄悄地集成到其搜索产品和Workspace应用程序中。该公司还将其各种人工智能小组(包括DeepMind和Brain)合并为一个小组。

在最初的恐慌和针对Microsoft和OpenAI的AI反弹之后,谷歌一直专注于安全和道德,并将其AI努力的成果传达为实验性的。但与Microsoft一样,谷歌-开源工具的大力支持者-已经锁定了对其最新型号PaLM-2的访问,希望利用它产生长期收入。该公司还在训练其名为Gemini的新模型,该模型最初由DeepMind开发,将成为该公司下一代AI产品的基础。

谷歌的PaLM-2尚未商业化到Microsoft的GPT-4的程度,但可以通过Vertex AI产品提供给Google Cloud上的一些客户。Google Cloud是开发人员的最爱,因为它能够根据特定需求定制模型,该公司已经讨论了如何使用PaLM-2来创建仅用几行代码的基本应用程序。谷歌还谈到了Duet,它将允许用户在Workspace中提高工作效率,就像Microsoft 365的Co-pilot功能一样。

该公司还通过其“与AI一起构建”模型采用开放式AI方法,该模型允许公司与ISV合作,在Google Cloud上构建软件。

谷歌在云中的PaLM-2软件堆栈的计算模型是围绕TPU构建的,TPU是封装在超级计算机中的本土AI芯片。TPUv4超级计算机在机架上拥有4096个TPUv64 AI芯片,这些芯片通过48个光电路开关互连。这些超级计算机是机架级光互连的首批已知实现之一。该公司还通过A3超级计算机为客户提供Nvidia GPU,尽管GPU没有被调整为运行PaLM-2模型,并且会产生缓慢的结果。

AWS 提供“触手可及的计算”

亚马逊正在采取另一种方法,在各个级别(包括模型和硬件)提供灵活性,以便在AWS上运行AI。这就像典型的亚马逊购物体验——放弃您选择的AI,选择所需的计算,然后在结账时付款。

亚马逊正在通过最近的EC2 P5实例加倍计算,其中20,000个Nvidia H100 GPU可以塞进可以提供高达20 exaflops性能的集群中。用户可以部署扩展到数十亿或数万亿个参数的ML模型。

“云供应商负责其中两个驱动因素。第一个是触手可及的计算可用性。它是有弹性的,它是现收现付的。你选择它们,你训练,你付钱,然后你关闭它们,你不再付钱了,“AWS生成AI副总裁Vasi Philomin说。

第二是提供最佳技术,从庞大的存储库中获取见解。AWS最近推出了一个名为Agents的新概念,它将独立数据链接到大型语言模型以回答问题。基础模型可以通过链接到外部数据库来提供更有用的答案。代理是AWS最近在纽约市举行的AWS峰会上宣布的云中的众多AI功能之一。

但随着人工智能的成熟,模型将变得不那么重要,重要的是云提供商满足客户需求的价值和能力。

“我认为模型不会成为差异化因素。我认为区别在于你可以用它们做什么?“

©THE END

转载请联系本公众号获得授权

推荐内容