摘要:

微软: 微软云成为帮助客户从数字支出中获得最大价值的首选平台,并推动下一代人工智能进行创新。微软将提供AI基础设施训练大型模型,提供智能数据平台帮助整合数字资产,提供AI开发工具帮助开发人员提高效率,通过AI驱动企业业务流程,提供跨行业解决方案,将大模型应用到安全领域,更新各应用(Microsoft、LinkedIn、Bing、Edge等)的AI功能。


(资料图片)

谷歌: Alphabet将汇集谷歌研究院(the Brain Team)和Deep Mind,以显著加快Alphabet在AI方面的进展。在搜索领域和云计算领域应用人工智能来改善用户体验,并推出了以深度计算机科学和AI为基础的重要产品更新。

Amazon: 发布新的AWS工具——托管服务、计算产品和AI编码伴侣来帮助用户更实用、经济、高效地使用AI,亚马逊的每一个业务都将在大型语言模型上构建。

Meta: AI工作主要体现在推荐排名系统和生成式基础模型中。在推荐系统中的投资推动了Meta在发现引擎、Reels和广告方面的发展。在生成式基础模型中,Meta将AI应用于产品中,以改善用户体验;建立开放的技术平台,向研究人员发布了LLaMa大模型;对AI基础设施进行资本支出,满足公司在AI领域的研发需求。

Apple: 思考将AI应用到更多产品中。

多看点:马斯克与星舰的成与败

微软:微软云成为帮助客户从数字支出中获得最大价值的首选平台,并推动下一代人工智能进行创新

“世界上最先进的人工智能模型正与世界上最通用的用户界面(自然语言)走在一起,创造一个新的计算时代,”微软董事长兼首席执行官SatyaNadella说,“在整个微软云中,我们是帮助客户从他们的数字支出中获得最大价值并为下一代人工智能进行创新的首选平台。”

电话会议中有关AI的表述:

微软的AI应用:

1.基础设施: 利用AI基础设施训练大型模型,Azure抢占市场份额,因为客户继续选择我们无处不在的计算结构——从云到edge,尤其是当每个应用程序都由人工智能驱动时。 我们拥有最强大的AI基础设施,我们的合作伙伴OpenAI和NVIDIA以及Adept和Inflection等领先的AI初创公司都在使用它来训练大型模型。

Azure OpenAI服务将ChatGPT和GPT-4等高级模型与Azure的企业功能结合在一起。 从Coursera和Grammarly,到梅赛德斯-奔驰和壳牌,我们现在拥有2,500多个Azure OpenAI服务客户,环比增长10倍。就在上周,EpicSystems分享了它正在使用Azure OpenAI服务将下一代AI与其行业领先的EHR软件集成。 Azure还支持OpenAI API。 我们很高兴看到Shopify和Snap等品牌使用API来集成OpenAI的模型。

2.数据: 我们的智能数据平台将数据库、分析和治理结合在一起,因此组织可以将更多时间用于创造价值,而将更少时间用于整合其数据资产。Cosmos DB是首选数据库,可为世界上任何规模的要求最严苛的工作负载提供支持。 OpenAI依靠Cosmos DB动态扩展他们的ChatGPT服务——这是有史以来增长最快的消费者应用程序之一——来实现高可靠性和低维护。

3.开发人员: 从Visual Studio到GitHub,我们拥有最流行的工具,可帮助每个开发人员从想法到代码,再从代码到云——同时保持他们的流程。如今,76%的财富500强企业使用GitHub来构建、发布和维护软件。 借助首款大规模AI开发人员工具GitHub Copilot,我们正在从根本上改变每位开发人员(从新手到专家)的生产力。 Copilot for Business以来的三个月内,已有10,000多家组织注册,包括可口可乐和通用汽车,以及Duolingo和Mercado Libre,所有这些都归功于Copilot提高了开发人员的速度。

我们还将下一代AI引入Power Platform,因此任何人都可以自动化工作流程、创建应用程序或网页、构建虚拟代理以及仅使用自然语言分析数据。 超过36,000家组织已经在PowerPlatform中使用了现有的人工智能功能。通过我们在Power Apps中的新Copilot,我们将这些功能扩展到最终用户,他们可以通过对话而不是点击与任何应用程序进行交互。总而言之,我们现在拥有近3300万的Power Platform月活跃用户,同比增长近50%。

4.业务应用程序: 从客户体验和服务到财务和供应链,我们继续在我们服务的所有类别中分享份额,因为 Asahi、CH Robinson、E.ON、Franklin Templeton等组织选择我们的AI驱动的业务应用程序来自动化、模拟和预测每个业务流程和功能。 我们将更进一步, 通过跨CRM和ERP系统工作的Dynamics365Copilot,为每个工作职能的员工带来下一代AI,减少手动数据输入、内容生成和记笔记等繁重任务。

5.行业和跨行业解决方案: 我们的Cloud for Sustainability得到了各行各业公司的广泛采用,包括BBC、Nissan和PCL,因为它们履行了各自的环境承诺。上周,我们的医疗保健云成为HIMSS的前沿和中心,因为我们扩展了为付款人提供的产品,并为供应商增加了新的AI支持的功能。 我们展示了第一个完全人工智能自动化的临床文档应用程序Nuance DAX Express, 它将GPT-4带给Dragon Medical超过550,000名的用户。在汉诺威工业博览会上,西门子分享了它将如何使用与Azure OpenAI服务集成的Teams应用程序来优化工厂工作流程。

6.未来的工作: Microsoft 365 Copilot将下一代AI与Microsoft Graph和Microsoft 365应用程序中的业务数据相结合,消除了繁琐的工作并释放了工作的创造力。 Copilot与用户一起工作,嵌入到每天有数百万人使用的Microsoft 365应用程序中,它还为Business Chat提供支持,后者使用自然语言来显示基于业务内容和上下文的信息和见解。 我们对早期反馈感到鼓舞,并期待在未来几个月内将这些体验带给更多用户。 TeamsPremium满足了企业对智能回顾等人工智能功能的需求。 现在普遍可用,它是我们有史以来增长最快的Modern Work产品之一,仅两个月就拥有了数以千计的付费客户。 通过VivaSales,我们将该平台扩展到特定的工作职能,帮助卖家将大型语言模型应用于他们的CRM和Microsoft365数据,这样他们就可以自动生成内容,比如客户邮件。 所有这些创新都在推动整个Microsoft365的增长。Ferrovial、Goldman Sachs、Novo Nordisk和Rogers都选择了E5来为其员工提供我们一流的生产力应用程序,以及高级安全性、合规性、语音和分析。

7.安全: 我们涵盖所有云和所有平台的全面的、人工智能驱动的解决方案为防御者提供了敏捷优势。 我们在更多类别中处于领先地位,超过任何其他提供商,我们再次在我们服务的所有主要类别中占据份额。我们将继续推出新产品和新功能,以进一步保护客户。 借助Security Copilot,我们将大型语言模型与由我们的威胁情报和65万亿个每日安全信号提供信息的特定领域模型相结合,以转变SOC生产力的各个方面。 我们还添加了新的治理控制和策略保护,以更好地保护身份及其访问的资源。近720,000家组织现在使用AzureActiveDirectory,同比增长33%。总的来说,近600,000名客户现在有四个或更多的安全工作负载,同比增长35%,凸显了我们端到端的差异化。安永和高通都选择了我们的完整安全堆栈,以确保在其组织中提供最高级别的保护和可见性。

8.LinkedIn: LinkedIn越来越多地成为人们学习、讨论和提升技能的地方,提供100多个AI课程。我们还推出了新的人工智能功能,包括为会员资料和职位描述撰写建议,以及协作文章。

9.Bing和Edge: 我们继续创新首创的人工智能功能,包括设置聊天基调和根据文本提示创建图像的能力,由Dall-E提供支持。迄今为止,已经创建了超过2亿张图像。而且我们看到,当人们使用这些新的AI功能时,他们与Bing和Edge的互动度会上升。可以通过Bing、Edge、Windows和OpenAI的Azure支持的聊天入口点,真正选择商业模式和方式聊天GPT。我们期待在最大的软件类别——搜索——的代际转变中继续这一旅程。周后,我们将召开Build 大会,我们将分享我们如何为开发者构建最强大的AI平台。

微软财报电话会议中有关AI的Q&A:

人工智能监管:

我们不是等待监管出现。我们采取的方法是,任何新技术的意外后果从出现的第一天起就作为我们的第一要务,并将所有保障措施纳入我们的工程流程。例如,在2016年,当我们提出AI原则时,我们有一套内部标准,然后进一步转化为实施过程,然后我们基本上坚持内部审计,就是我们拥有的框架。我们有一个首席AI官负责思考标准是什么,帮助我们的内部审核流程。我们感觉非常好因为我们能够在推出的系统创造信任。因此,我们显然会参与任何司法管辖区出现的任何监管。但老实说,我们认为,越是有任何形式的信任塑造人工智能的差异化地位,我们会从中受益。

人工智能工作负载的计算成本:

加速计算是用来驱动人工智能的。我们非常关注的是确保我们在使用这些资源时非常有效。 超大规模企业(hyperscaler)的作用不仅仅是提供机架和堆栈之类的硬件,而是使用软件来优化特定工作负载的性能,实际上是异构工作负载和硬件的性能。 因此,我们有许多旋钮将继续推动其优化。即使是给定的一代大型模型,我们在一个季度变化的时间段内,从开始到结束的成本足迹的优化。我们在十年多的时间里在公共云的努力会带来持续优化COGS到各种工作负载集中的好处。现在有很多工作负载。就像我们与OpenAI合作的原因之一是这种类型的工作量,无论是训练还是托管的工作量,对我们更加普遍相关,而不仅仅是在AI的背景下。因此我们在其他合同中也提供了这种服务。实际上,即使是我们的第一方工作负载和应用程序也是在同一平台上构建的。而且因为我们是一个超大规模企业, 我们有一个大型的商业云第一方以及像Bing这样的消费者应用程序第一方, 我们能够利用这一点和GPU利用率,以及整个堆栈中的AI服务利用率。

谷歌:推出了以深度计算机科学和AI为基础的重要产品更新

财报中有关AI的表述:

调整了Deep Mind报告方式:

Deep Mind与谷歌服务、谷歌云和其他业务的合作日益增加,从2023年第一季度开始, Deep Mind被报告为Alphabet未分配企业成本的一部分,而不是在其他业务中。 此外,从2023年第一季度开始,Alphabet更新并简化了成本分配方法,为业务领导者提供更高的决策透明度。先前期间已重新计算以反映修订后的列报方式,并显示在下面的历史分部业绩中。

正如2023年4月20日宣布的那样, Alphabet将汇集谷歌研究院(the Brain Team)和Deep Mind,以显著加快Alphabet在人工智能方面的进展。 此更改不会影响第一季度报告。该小组名为Google Deep Mind,将从第二季度开始在Alphabet的未分配企业成本中报告。

电话会议中有关AI的Q&A:

人工智能功能更新:

在搜索领域, 公司已经使用了人工智能,应用LLMs提高搜索质量,引领搜索发展。现在我们有机会更加流畅地使用LLMs, 主要通过North star, 我们将继续对其迭代更新。目前用户仍然在继续使用搜索产品,他们重新回到曾经热衷的事情上来。LLMs可以帮助用户在这些场景得到更好的体验,这是一个真正的机遇。 例如YouTube, 有机会真正改善创作者和消费者在视频观看方式等方面的体验。 对Workspace, 我们已经推出了一些更新,这个领域未来的进步可能最大因为生产力工具是生成式AI应用的一个强大应用场景。

在云计算领域, 现在也是一个重要的时刻,因为几乎每个组织都在考虑如何使用人工智能来推动转型。因此,从初创企业到大公司都在与公司合作,因此我认为目前的确是一个转折点。

人工智能工具对公司生产力提高的作用:

首先,使用人工智能和自动化来进一步提高整个公司内部的生产力,例如人工智能对于我们在运营和管理财务组织使用的很多分析中都很有帮助,公司与云计算客户也会分享这些成果。

其次,例如Google Workspace的更新也提高了公司内部的效率。这些内部工具也对外部客户和企业用户开放。

最后,计算能力以及基础设施创新的机会对公司内部的工作有帮助,但主要有利于我们的客户。

LLMs在搜索引擎中的应用:

公司已经发布Bard作为搜索引擎的补充产品,但是未来也会把LLMs的经验更多引入搜索领域。公司将以一种渐进的方式推出以测试和迭代。

我认为它可以适用于更广泛的查询,也许可以拓展用户的查询类别, 例如没有正确答案的搜索,答案更有创造力的搜索等等。其次,即使在现有的查询类别中,它也有机会为用户做一些繁重的工作,并使用人工智能更好地指导用户。现在还处于早期阶段,但未来会有很多创新。

在成本方面, 如果搜索的成本有所不同,一定是基于公司多年来的经验,公司一直致力于不断提高硬件、软件和模型的效率,这并不新奇。新奇的是技术曲线是否陡峭,技术曲线越陡峭公司越兴奋,因为公司已经建立了世界级的能力来接受它,然后依次降低成本,然后在全球范围内大规模部署。因此,我认为我们在如何推动创新方面会主要考虑到以上这些因素。

AI团队的整合:

我很兴奋能带来两个世界级的团队—— Brain和Deep Mind 。他们过去十年在人工智能领域共同的成就为现在奠定了基础。因此,双方进入人才池使他们能一起协调工作,汇集计算资源,这至关重要并将帮助我们建立。我们的核心产品显然是安全、负责任地构建更强大的模型并考虑到客户需要的所有功能,包括消费者端和云端;然后进行产品迭代并实现良性循环。公司目前已经推出PaLM APIs,我们正在将PaLM整合到产品中,公司正在继续这一进展,并将随时发布最新消息。

Amazon:新的AWS工具——托管服务、计算产品和AI编码伴侣,亚马逊的业务在大型语言模型上构建

财报中有关AI的表述:

宣布推出新的AWS工具,使各种规模的组织都可以轻松、实用且经济高效地使用生成式人工智能(AI)进行构建。 这些工具包括:

1.托管服务: Amazon Bedrock是一项新的托管服务,可为客户提供构建和扩展企业就绪生成式AI应用程序的最简单方法。Amazon Bedrock提供对来自AI21 Labs、Anthropic和Stability AI等AI初创公司的领先基础模型(生成式AI所依赖的超大型机器学习模型)的轻松访问,以及对AWS开发的Titan系列基础模型的独家访问。对模型的广泛访问使客户能够灵活地选择根据其特定需求进行自定义和扩展。

2.计算产品: 两种下一代计算产品,可为在云中训练模型和运行推理提供最低的成本:由AWS设计的Inferentia2芯片提供支持的实例的正式可用性,AWS的第二代加速器,专为深度学习推理而构建,以及针对大型网络密集型模型的网络优化Trn1n实例的一般可用性。与其他EC2实例相比,Inferentia2提供的推理性价比提高了40%,Trainium可节省高达50%的训练成本。

3.AI编码伴侣: Amazon CodeWhisperer正式发布,这是一款AI编码伴侣,可通过实时生成代码建议来提高开发人员的工作效率。Amazon CodeWhisperer对个人开发人员免费。CodeWhisperer是为AWS服务(包括Amazon EC2、AWS Lambda和Amazon S3)生成代码的最准确、最快和最安全的方式。在生产力挑战种,使用CodeWhisperer的参与者完成任务的速度平均提高了57%,成功完成任务的可能性比不使用CodeWhisperer的参与者高27%。

亚马逊电话会议中有关AI的Q&A:

AWS的AI和大型语言模型的关键差异竞争点:

亚马逊在25年多的时间里对机器学习进行了相当大的投资, 这是很有用的。机器学习服务几乎根植于亚马逊的所有产品和服务,它推动了我们的个性化电子商务推荐、驱动了运营中心的Pick Pass,它在我们的Go Store、Prime Air、无人机中,在Alexa和AWS中。我们有25个以上的机器学习服务、有最广泛的机器学习功能和客户群。

大型语言模型和生成式人工智能已经存在了一段时间,但在6-9个月前并不引人注目。它目前变得更大、更快、更好,这提供了绝佳机会,可以改变几乎现在所有的客户体验以及许多以前并不容易实现的客户体验。但目前还处在非常早期的阶段, 亚马逊多年来一直投资构建自己的大型语言模型。

1.计算的关键是芯片: 所有的大语言模型都在计算上运行,计算的关键是芯片,到目前为止,我认为很多芯片,特别是GPU,它们针对这种类型的工作负载进行了优化,但这些芯片既昂贵又稀缺,很难找到足够的容量。因此,在AWS中,我们一直致力于构建了制的机器学习芯片, 构建了专门用于机器学习训练的芯片——Trainium,以及专门用于推理或来自模型的预测的芯片——Inferentia。 现实情况是,大多数人将大部分时间和金钱都花在了训练上。但是,随着这些模型逐步投入生产,它们在应用程序中,所有的支出都将用于推理。 我们刚刚发布了Trainium和Inferentia的第二个版本。 客户从这些芯片中获得的价格和性能的组合非常差异化。因此, 我们认为很多机器学习训练和推理将在AWS上运行。

2.托管基础模型服务Bedrock: 真正重要的领先的大型语言模型需要很多年的时间、需要数十亿美元来构建,会有少数公司想要投入时间和金钱,但大多数公司不会。因此,这些公司可以使用基础模型,然后根据自己的专有数据、需求和客户体验对其进行自定义,他们可以以不会将他们独特IP泄露给更广泛通用模型的方式来完成这一点。这就是我们一周前刚刚发布的Bedrock,这是一个托管的基础模型服务,人们可以从亚马逊运行基础模型——Titan,或者从领先的大型语言模型提供商(如AI21和Anthropic and Stability AI)来运行这些基础模型,根据自己的目的自定义它们,能够以相同的安全性和隐私性以及他们在AWS中用于其余应用程序的所有功能运行它,这对客户来说非常有吸引力。

3.构建在大型语言模型上的应用程序: ChatGPT是正在构建的应用程序的一个很好的例子,我们也将自己构建一些应用程序。例如,我们将在生成式AI中构建的最引人注目的应用程序之一与使开发人员在编码辅助方面更加有效有关。因此,我们构建了一个名为CodeWhisperer的东西,我们刚刚宣布了它的正式可用性,开发人员可以插入一种自然语言,例如建立一个视频托管网站,CodeWhisperer将提供需要的代码,开发人员可以使用这些代码并将其投入生产,这确实很有吸引力。这会提高开发人员的工作效率,减少他们重写代码的时间。

Alexa未来的关键投资重点:

亚马逊的每一个业务都在大型语言模型上构建,以重塑我们的客户体验。

有关Alexa,我们希望建立世界上最好的个人助理。这需要跨越很多领域,但考虑到大型语言模型和生成式人工智能的出现使底层模型更加有效,这确实加速了构建世界上最好的个人助理的可能性。Alexa的起点很好,因为亚马逊有几亿个端点用于娱乐、购物、智能家居和信息,以及第三方生态系统合作伙伴的大量参与。 我们正在构建一个更大、更通用、更有能力的语言模型,这将真正加速成为世界上最好的个人助理的愿景。

Meta:

财报中有关AI的表述:

Meta创始人兼CEO马克·扎克伯格(Mark Zuckerberg)表示,“我们的一季度表现良好,社区持续增长, 我们的AI(人工智能)工作正在推动APP和业务取得良好成效, 我们也在变得高效,更快打造更好的产品,并使自己处于更有利的位置,以实现我们的长期愿景。”

电话会议中有关AI的表述:

有两个主要的技术浪潮在推动我们的路线图——今天巨大的人工智能浪潮和未来的元宇宙浪潮。

AI工作

我们的人工智能工作主要体现在两个方面: 第一,为我们所有主要产品提供动力的大规模推荐和排名基础设施 ——从Feeds到Reels到我们的广告系统到我们的诚信系统,我们在这方面已经工作了很多很多年; 第二,新的生成式基础模型,正在实现全新的产品和体验类别。

1.推荐和排名系统

我们在推荐和排名系统方面的投资推动了我们今天在发现引擎、Reels和广告方面看到的很多结果。 除了来自朋友和家人的内容,现在你的Facebook和Instagram feeds中超过20%的内容是由人工智能推荐的,来自你不关注的人、团体或账户。在整个Instagram上,这大约是你看到的内容的40%。自从我们推出Reels以来,人工智能推荐推动了在Instagram上花费的时间增加了24%以上。

我们的人工智能工作也在改善货币化。 Reels的货币化效率在Instagram上比一季度增加了30%以上,在Facebook上比一季度增加了40%以上。在过去6个月中,来自Advantage+购物广告系列的每日收入增长了7倍。

2.生成式基础模型

除了推荐,我们人工智能工作的另一个主要重点是基础模型,以实现许多新的使用案例,包括生成性人工智能。这是在这方面取得进展的相当惊人的一年, 现在发生的工作将影响我们的每一个应用程序和服务。 我非常高兴在未来几个月里,我们将推出更多的东西。

2.1产品: 首先,对于我们的产品,我们总是专注于连接和表达,我希望我们的人工智能工作将反映这一点。我认为有机会以有用和有意义的方式向数十亿人介绍人工智能代理。 我们正在探索WhatsApp和Messenger的聊天体验,Facebook和Instagram的帖子和广告的视觉创作工具,以及随着时间推移的视频和多模式体验。 我期望这些工具对每个人都有价值,从普通人到创作者到企业。例如,我预计,一旦我们掌握了这种经验,就会有很多人对用于商业信息传递和客户支持的人工智能代理感兴趣。随着时间的推移,这也将扩展到我们在元空间方面的工作,人们将更容易地创建化身、对象、世界,以及将所有这些联系起来的代码。

2.2开放的技术平台: 讨论实现这一目标的技术平台。现在,大多数培训大型语言模型的公司都有商业模式,导致他们采用封闭式的开发方式。我认为有一个重要的机会来帮助创建一个开放的生态系统。如果我们能够帮助成为其中的一部分,那么大部分的行业将标准化地使用这些开放的工具,并帮助进一步改善它们。因此,这将使其他公司更容易与我们的产品和平台整合,因为我们实现了更多的整合,这也将帮助我们的产品保持领先。

我们对人工智能和我们的基础设施的方法一直是相当开放的。 我们开放了许多我们最先进的模型,这样人们就可以用它们进行实验和构建。 本季度我们向研究人员发布了我们的LLaMa 大模型。 它有650亿个参数,但性能优于大型模型,并被证明相当受欢迎。 我们还开放了其他三个开创性的视觉模型及其训练数据和模型权重 --Segment Anything、DinoV2和我们的动画图画工具--我们也得到了所有这些模型的积极反馈。

2.3基础设施和资本支出: 人工智能基础设施和资本支出是一项重大投资。几年前,我要求我们的基础设施团队制定雄心勃勃的计划,以建立足够的能力 不仅支持我们现有的产品,而且还为主要的新产品提供足够的缓冲能力。 这也是我们在过去几年中增加资本支出的主要动力。在这一点上,我们在建立人工智能基础设施方面不再落后,相反,我们现在有能力在这个领域大规模地做领先的工作。随着这些新模式和用例的不断扩大,我们将需要继续投资于基础设施,在今年晚些时候,一旦我们能够衡量将推出的一些新产品的使用情况,我们将对该投资的轨迹会有一个更好的想法。

AI与元宇宙:

除了人工智能之外,我们关注的另一个主要技术浪潮是元宇宙。有一种说法是,我们在某种程度上正在远离对元空间愿景的关注,所以我只想先说,这并不准确。 多年来,我们一直专注于人工智能和超现实领域,我们将继续关注这两个领域。

AI和元宇宙是相关的。 计算机视觉方面的突破使我们能够推出第一个独立的VR设备。 混合现实是建立在一系列人工智能技术之上的, 用于理解物理世界并将其与数字对象相融合。能够按程序生成世界,对于大规模提供令人信服的体验非常重要。我们对AR眼镜的愿景涉及一个以人工智能为中心的操作系统,我们认为这将是下一代计算的基础。 元宇宙技术也将有助于提供人工智能。 例如,体现人工智能的代理将利用我们在过去几年中对化身的深入投资。

meta电话会议中有关AI的Q&A:

AI的应用场景:

Meta在未来几个月会发布更多与生成式AI相关的产品与服务。 总的来说,我认为AI中蕴藏巨大机遇。

1.广告: 生成式AI能够带来更有吸引力的体验,进而提高用户参与度,这能够为广告商创造更多机会。

从视觉角度来看,生成式AI还能够帮助广告商打造更多极具创意的机会。目前来看可能离实现还有一段距离,但我相信随着时间的推移目标最终会实现。

在引入生成式AI之前,广告商往往只告诉我们他们的目标,我们则需要尽一切可能、全方位思考如何满足需求;但随着生成式AI的出现,它能够代替我们完成许多创造性工作。

2.对话: 将AI与商业对话相结合。现在有非常多的企业每天都需要回答用户问题、与用户互动聊天。如果能将AI引入其中,数以千万计的小型企业便可以用AI代替人工,帮助他们回答用户问题,更多的企业也能负担得起,省去了一笔人工费用。

上述内容只是我们正着手研究的一部分。生成式AI的应用前景非常广泛, Meta的每一款产品、每一项服务背后都会运用到AI技术, 公司上下也都致力于AI研究。

Meta进行AI与开放系统的驱动力:

Meta所提供的产品与许多技术基础设施之间存在着重要区别,特别是我们所编写的软件。从过往经验来看,无论是Meta已经完成的开放计算项目,还是开源内容,我们实际上开源了非常多的基础设施,我们对公司的许多核心产品代码都进行了开源。

Meta其实与业内其他一部分公司不同,我们并不出售云计算服务。 之所以这样做的原因在于我们不希望构建一套独有的、与行业不同的软件基础设施。我们其实认为如果行业基本工具与基础设施能够实现标准化是再好不过的了,不仅有利于我们自身,行业中的其他人也能从中获益。在某些特定情况下,我相信使用这些标准化工具的公司能够有效降低成本,我们的业务效率也会有所提高。因此,从某种程度上来说,与行业其他玩家不同(如谷歌、微软、亚马逊等),Meta在基础设施建设方面有着自己的赛道。

总而言之,我们希望 Meta能在开源低级别模型、工具方面 作出更大贡献。当然,这些工作的出发点还是要为我们自身带来效益,所以 并不是说我们开发的所有代码都会进行开源,我们还需要为自家产品创造独有价值。 但总而言之,就基本模型而言,我希望Meta能够推动行业逐步建立开放的生态系统,这点至关重要。

AI推动公司资本密集度:

Meta的资本支出投资分为三大类。 第一大类是我们之前提到的非AI算力需求。 为支持现有业务运转,Meta有着长期基本算力与储存需求,但我认为在这方面我们有能力优化资本密集度效率,未来我们也将专注提升效率。 第二大类是对核心AI技术的投资。 这其实也是目前公司大部分AI投资流向,我们需要支持“发现引擎”(Discovery Engine)的构建、支持内容与广告的运营等等。我们对这部分投资的投资回报率(ROI)保持密切关注,确保实现令人满意的ROI。这部分投资也与未来我们在核心AI技术支出方面的计划息息相关。 第三大类则是围绕生成式AI的资本支出投资。 对Meta而言这是一个新兴投资机遇,目前我们仍处在熟悉技术应用范畴的起步阶段。我个人认为相比其他AI技术投资,对生成式AI技术的投资对公司来说将是一个重要投资机会,虽然目前谈及投资回报还为时尚早。从这个角度来看,对生成式AI的投资将如何从短期影响公司的资本密集度我们还不得而知,但我预计未来这部分投资将占公司资本支出的很大比重。

总而言之,我想强调的是Meta关注的是整体投资, 我们会在提高资本支出效率与投资公司所需AI能力之间找到合适自己的平衡点。

Meta选择开源的理由:

AI工具方面,Meta在这条路上已经走了很久。举例来说,比如PyTorch(Meta曾将Pytork机器学习框架贡献给Linux基金会),如今PyTorch已经成为行业标准化工具之一,许多人选择使用它构建AI模型。这对我们来说意义深远,可以说现在行业内最优秀的开发人员与Meta内部使用着相同的开发工具。因此,一旦他们有所创新,这些创新便很容易与我们的工作内容相融合;反之,一旦我们有所改进,也会为其他产品带来助益,因为大家使用的工具是相通的。所以一旦有机会将这些创新集成到产品之中时,确保开发人员与我们的工作系统是兼容的,这就会让一切容易很多。从这一层面来说, 代码开源能够让我们在保持行业领先地位的同时,更充分地与行业融合, 随着时间的推移,能让Meta的基础设施运行更加高效。刚刚我提到的PyTorch便是例子之一。

我相信只要基础工作做得越好,未来摆在我们眼前的机遇也就会越多。我之前曾和大家分享过大型语言模型LLaMA, LLaMA模型目前还只向研究人员开源,但目前已经取得许多令人欣喜的成果。 总而言之,我们肩上的担子很重,要做的工作也很多,我们希望未来代码能够愈加开放,Meta也将坚定不移地沿着这条路走下去。

Apple:

对生成式人工智能的看法: 我们显然在整个生态系统中整合人工智能和机器学习取得了巨大进展,多年来我们将其应用到产品和功能中。你可以看到,在跌倒检测、碰撞检测和心电图等方面,这些不仅是很棒的功能,而且可以挽救人们的生命,所以这绝对是了不起的。因此,我们认为人工智能是一个巨大的领域,我们将继续在深思熟虑的基础上将其应用到我们的产品中。(调研纪要)

推荐内容