7月31日大股东中国移动减持、8月1日苹果应用商店下架讯飞星火APP,连续经历两个黑天鹅事件后,科大讯飞能否继续讲好AI大模型故事,正在成为公众所关注的问题。

结合当前大模型市场,横向对比第一梯队生成式AI的表现,我们得出以下结论:

1.国产AI大模型日新月异,但科大讯飞想要完成“今年十月份之前超越ChatGPT”的目标,挑战不小。


(资料图片)

2.C端市场需求增量明显,且垂直细分倾向走高,但生成式AI产品的主要付费用户仍局限于B端。未来国内AI大模型赛道的走向,或将取决于360、百度、科大讯飞等一线科技企业中,谁能够率先走通盈利模式。

一、国产AI大模型距离赶超ChatGPT还有多远?

超越ChatGPT,早已成为国内AI大模型企业的执念。

就像科大讯飞在今年6月份召开的星火认知大模型V1.5升级版发布会上,曾多次提及“讯飞星火离ChatGPT仅仅一步之遥”“今年十月份之前就会超过ChatGPT”等言论。

尽管科大讯飞有“碰瓷营销”的嫌疑,但以目前国产AI大模型所表现出来的技术力,超越ChatGPT并非没有可能。

从产品角度而言,ChatGPT本质上只是一款“聊天机器人”,是基于NLP逻辑构建的自然语言处理人工智能,也可以通俗理解为“弱人工智能”。毕竟在没有进行数据训练之前,除了与人类进行对话,它很难胜任其他工作。

距离具备独立思考和学习能力,能够在非人力干预环境下独立完成多线程任务的“强人工智能”,ChatGPT还有很长一段路要走。

而且在高科技的外表下,ChatGPT的数据内核依旧没能摆脱对人力干涉的依赖。

例如此前有消息称,OpenAI为了满足ChatGPT的数据训练需求,曾以“血汗工厂”模式,低价雇佣“数码劳工”进行重复的手动数据标注和信息纠偏。严格来讲,其技术壁垒并没有想象的难以跨越。

在摩根商研所看来,ChatGPT的成功,在于其满足了人们对AI工具属性的部分想象力。而超越ChatGPT的关键所在,也可以归结于两个方向:

1.在技术层面实现更快速精准的运算效率。

2.寻求特色化突破,释放更多AI工具想象力。

那么国产AI大模型想要在技术层面实现超越,需要弥补多少的差距?

答案可能要比想象中严峻许多。

根据2023年6月份国内研究机构SuperCLUE发布的中文大模型排行榜,在人类平均能力分值被判定为93.09分的标准下,GPT-4以78.76分位列前茅,独占第一梯队。

60分区间的第二梯队中,360智脑和百度文心一言以较为相似的分值分别位于三、四名。而科大讯飞则以0.2分的差距,遗憾落于第三梯队。

尽管SuperCLUE的数据评估仍存在争议,排行榜所涉及的分值和排名还需要进一步验证,但也足以表明国产AI大模型与ChatGPT之间的距离。

2023年10月份之前,科大讯飞或许有希望追平360智脑和百度文心一言,但想要弥补与GPT-4之间近20分的差距,或许只能寄希望于某项“黑科技”诞生。

那特色创新方面,国产AI大模型是否有机会实现“弯道超车”?

遗憾的是,现阶段较为成熟的生成式AI产品,大都是从模仿ChatGPT起步,功能区块可谓是大同小异。尽管大模型仍未脱离新概念塑形期,却已经展现出一定的同质化倾向。

为了争夺“中国版ChatGPT”的虚名,国内AI大模型企业大都选择了最稳健的商业竞争逻辑,照搬ChatGPT已证实可行性的产品设计思路,将主要竞争方向集中于参数、算力等核心科技内核。高度内卷之下,也将AI大模型从上半场研发,提前拉入下半场落地阶段,进一步压抑产品想象力。

不过国内AI玩家中,也有不少小品级的生成式AI产品,由于缺乏资金、技术等硬实力基础,选择从垂类细分市场切入赛道。例如前不久爆火的妙鸭相机,就是切中了AI生成证件照、写真照的女性向市场需求。

就连OpenAI也开始调转船头,瞄准垂类大模型市场。近期有海外消息称,OpenAI计划上线多个低运行成本的小型GPT-4模型,针对多个垂类专业领域进行任务和主题训练。

这或许也意味着,“大炮打蚊子”式的AI产品逻辑即将退居二线,取而代之的或许是“手术刀”式轻量化设计理念。

以科大讯飞为首,还在追赶ChatGPT的大模型们,可能正在被越甩越远。

二、生成式AI成本难控,垂类竞赛盈利为王?

OpenAI转向垂直,根源还是在于成本压力。

根据OpenAI此前发布的研究报告,2012年至2018年早期大型AI模型研发过程中,每隔4个月左右,需要的算力就会翻倍。到了现如今,仅是训练AIGC模型,算力消耗就增长了近30万倍。

随着ChatGPT使用量增大,对算力的需求也堪称指数级增高。以至于在今年4月份,OpenAI由于无法满足持续走高的算力需求,不得不暂停了ChatGPT的Plus付费服务。

算力猛涨的背后,是极其庞大的成本支出。

据不完全统计,GPT-3单次训练成本约为200万美元至1400万美元,折合人民币约1437万元至1.01亿元。考虑到ChatGPT的训练次数很可能超过1000次,全部训练成本几乎称得上天文数字,而这也仅是软件成本。

硬件方面,据了解,ChatGPT的AI计算集群,是由数万枚英伟达A100和H100高性能GPU芯片组成。粗略估算下来,硬件设备成本约为2亿美元,折合人民币约14亿元。

诚然,如此高昂的成本,换来了放眼人类历史都具有划时代意义的生成式AI产品。但是从商业角度来看,ChatGPT盈利空间狭小、成本维持艰难的弱点不容忽视,如果想要实现收支平衡,向垂类细分市场寻求轻量化突破几乎成为必然。

毕竟根据OpenAI的公开数据,每进行一条信息提问的收费价格为2.5美分,折合人民币约0.18元。而每1000tokens需要算力成本0.02美元,折合人民币0.14元。

根据公开消息,目前GPT-4每个账户每分钟请求不能超过200次,提问加回答不超过40000tokens,GPT-3.5每分钟请求次数不能超过3500次,提问回答限制为90000tokens。粗略计算下来,GPT-4每分钟最高创收36元、成本最高5600元,GPT-3.5每分钟最高创收630元、成本最高12600元。

至少在全面放开使用权限之前,现有计费模式下,ChatGPT入不敷出的情况仍旧难以改善。以管窥豹,国产AI大模型或许也将长期处于大规模烧钱状态。

科大讯飞就是一个较为典型的案例。

根据近些年财报,科大讯飞在2022年12月开始筹备AI大模型研发之前,除了因疫情和美国极限施压,导致2022年营收增长停滞、利润大幅下滑,整体业绩表现趋向于稳健上升。

然而到了2023年一季度,科大讯飞总营收同比下滑17.64%,净利润同比下滑152.26%,由盈转亏。财报中也明确指出,2022年12月15日启动的“1+N认知智能大模型专项攻关”、2023年5月6日正式发布的讯飞星火大模型,其新增投入对当期利润产生了影响。

一季度的亏损也影响到了2023年上半年业绩表现,前段时间公布的业绩预告中,科大讯飞2023年上半年归属净利润预计同比下降71%-80%。尽管预计二季度营收利润都有所增长,但受限于AI大模型难盈利、高投入的困境,科大讯飞未来数个季度中成长能力仍存在恶化风险。

同时根据天眼查显示的财务指标,科大讯飞总资产周转率下滑明显,也要留意财务状况恶化的可能性。

如今,AI大模型转向垂类竞赛的大势所趋已成定局,希望科大讯飞能够加强对轻量化生成式AI产品的重视,积极寻找可以撬动利润增长的需求方向,早日走通盈利模型。

对于所有国内AI大模型企业而言,如何在垂类市场的“加时赛”中发掘破局希望,都将是必须严肃对待的问题。

免责声明:本文基于公司法定披露内容和已公开的资料信息,展开评论,但作者不保证该信息资料的完整性、及时性。

另:股市有风险,入市需谨慎。文章不构成投资建议,投资与否须自行甄别。

推荐内容