1、主管机构的监管思路


【资料图】

短期不太可能发市场准入的牌照,监管主要是聚焦标准的制定。近期信通院发布了整体面相大模型的标准化体系的2.0版本(《大规模预训练模型技术和应用评估方法》),鼓励第三方机构去做全面和客观的评测。标准制定后,会将其作为大模型的国家标准去发布(可参考数据管理成熟度的评估模型)。目前标准中包括模型开发、模型能力、模型运营、模型应用、安全可信五大能力域,但都是申请制的,并不会进行强制的国家贯标。

中期还在考虑是否要采取审核备案的形式(类似游戏版号发放),但目前都还在政策预研的阶段,这个需要看届时产业发展的速度,以及国家能否突破安全可信监管上的技术难点。现在的思路主要还是围绕4.11发布的生成式AI管理征求意见稿去补充和细化(正式稿还不会很快出台)。中期审核还是偏意识形态和价值取向,特别是违反互联网内容生态治理规定的内容,但涉及虚假、歧视等AI算法公平性技术上还不具备可操作性,更多从数据源去确保真实可信,即强调AIGC提供者自身的责任。

2、当前对大模型监管的领域

第一,技术层面进行管控,例如数据构建、模型训练、模型管理和模型部署等。在模型开发阶段,评估会涵盖数据标注方式、数据来源、语料库和模型训练方式等多个维度,包括模型训练日志和微调部署的模式等。目前,在语料库和数据标注方面,正在制定一些特定领域的标准。

第二,模型能力进行管控,比如说包括对模型的丰富程度、性能的优越度、服务的成熟度,在NLP,CV、语音、Al for Science这几个领域在评测。稳定性和安全可信性目前存在技术难点的一个层面(整个数据安全模型,比如说偏见、可解释性,包括公平性这几个角度)。

第三,模型应用的评估管控,其中包括产品形态、开放API接口等不同方式的运营管理和服务。目前这个评估体系包括了几个方面。国家标准紧扣AI工程化特点,同时结合中科院推出的NLP评测定量为基础、以及公布的ID C和SuperCLU E的评测等。

在4.11发布的文件中,以及目前政策的修订方向中,都强调了人工智能产品提供者的责任,即整体责任是在大模型开发厂商。在事前,提供者需要向监管部门备案,并申报安全评估,需要满足硬性要求,包括算法变更等手续。如果存在意识形态问题或虚假信息等问题,则需要按照现有的互联网安全评估规定和行政办法进行监管闭环。

影响大模型应用商业化落地的因素监管目前不是商业化落地的限制性因素(但也提到各大厂商需要在安全可信的角度有一定的算法备案才能去进行下一步的推广)。从各地出台的政策来看导向都是非常支持通用人工智能的发展的(例如北京的政策是作为基础设施去鼓励的),可信AI这块监管想要监管但是还是有难度,监管在技术上跟不上大模型的发展,是目前科技条线在公关的难题(也在探索能不能用模型去监管模型,推进类似安全可信控制器的研发)。

我国对互联网监管的核心思路都是鼓励行业发展,包容审慎监管,从中央的角度就是最大限度的减少事前的准入限制,加强事中和事后的监管。所以应用落地还是回到了是否有一个真正清晰的商业模式,坦率来讲国内的大模型厂商从技术成熟度的角度还不具备完全2C的推向市场的能力,从厂商们内部的模型评估也能看出。大模型的高成本高能耗也是一个问题,一些大厂也在通过网络架构、训练策略、并行运算方式的优化创新提供自身模型的经济性。

3、海外大模型进入中国的可能性

目前,针对海外模型的监管方向已经比较明确,即鼓励与信息产业进行结合。此外,之前招商证券等公司叫停采购海外模型的行为表明,我们需要等待国内头部AI基建企业的技术成熟,并满足严格的安全和可信标准后,才有可能深度绑定行业应用。因此,我们目前还不能明确允许采购国外的模型。但是类似于国内互联网公司使用Google等海外模型这类情况,这是国家管不了的。

与国外公司(例如OpenAl)在国内合资成立大型模型可能性不太大,即使数据存储在国内也是如此。因为大型模型将作为赋能企业IT架构、提升企业服务能力的角度去看,完全的国产替代一定是国家未来要倡导的一个方向。

对AIGC监管主体的划分除技术监管外,行业主管部门的缺位也是我们目前面临的难点之一。就大模型所属的产业领域而言,工信部是主管部门,而产业政策制定则由发改委和科技部负责。然而,由于涉及到互联网这个条线的监管,网信办一直处于主管地位。在这个过程中,AIGC和价值观等因素使得中宣部也参与了制定4.11的文件,并提出了许多意见。此外,在版权方面,广电总局和出版总署也是行业主管机构。由于大模型本身技术复杂性较高,以及涉及到下游应用等多个方面,整个行业主管部门确实存在缺位的情况。目前来看,工信部可能会担任统一监管的角色,但具体的监管机构尚未确定。数据和算力的管理主管部门很明确位于工信部,例如在地方层面有统一调度算力的管理机构。

大模型国家队模型工作组的组长是信通院和副组长单位华为、百度、科大、中科院,但也不能把它视为AI国家队。虽然我们在确立组长和副组长时考虑了他们在标准制定中的贡献,而且华为和百度在去年的合作中对大模型工作提供了很大的帮助。但这并不能释放出明确的信号表明它就是国家队。如果要说AI国家队,则会有一些更清晰的信号,比如股份等方面内外资的差异。

在模型制定和最初测试阶段,我们以华为和百度作为参考和评级。这两家企业也是我们大型模型评测方面最早被评级的企业之一,并且达到了4+的评级(3级可商用、4级优秀、5级国际领先)。华为和百度代表了我国未来互联网和整个Al生态层面的自主可控性能力。这种自主可控性不光是指模型本身,而是从芯片到框架、再到模型和应用都完全自主可控。虽然它们与我们的标准体系是否完全契合还有待进一步确定,但在我们的1.0版本中,它们与国家的标准体系契合度非常高。在我们的2.0版本中,由于思泽团队的模块和团队不同,会结合新涌现的大型模型做出调整。特别是关于数据层面,包括模型开发、数据库构建和语料库等方面,我们将采用最新的评测标准进行新的细化。

推荐内容