(资料图)

以ChatGPT为代表的生成式人工智能(AI)异军突起,带来AI技术的突破性创新,推动产业颠覆性变革,但与此同时,信息不对称、安全伦理、算法歧视等一系列风险挑战愈加凸显。2023年4月11日,国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》,集中瞄准生成式人工智能的问题,从明确条件要求、划定责任主体、形成问题处理机制、清晰法律责任几个方面为行业划定底线,体现了监管前置的思路,给应对AIGC带来的内容风控挑战带来了新思路。

AIGC(AI-Generated Content),即人工智能生成内容,被认为是继PGC、UGC之后的一种新型内容创作方式。据商业咨询机构Acumen Research And Consulting预测,2030年AIGC市场规模将达到1100亿美元。在可预见的未来,AIGC将被广泛应用于各行业的内容生产创作中,成为互联网内容行业的新一轮增长点。但与此同时,AIGC内容带来的安全争议不可回避,内容安全挑战重重。与传统内容生产方式相比,AIGC工具所产出的内容具有更高的创造力和创作速度。应用门槛降低。一方面。“低代码”和“无代码”AI工具使得集成、构建和部署AI应用程序变得便宜而容易。另一方面,信息不对称加剧。开发生成式AI模型的“上游开发人员”,无法预估应用该模型的全部场景,而未参与原始模型开发的“下游开发人员”,可能又会调整模型并将其输出集成到更广泛的软件系统中,开发出新的应用场景。由于上游和下游开发人员均无法全面了解、完全控制整个AI系统,商业应用中出现错误和意外的可能性大大增加。因此,对AIGC工具而言,非常重要的一点就是输出“安全内容”。 AIGC目前在内容质量、投入成本、隐私规范、版权归属等方面仍存诸多问题。尤其是当AIGC工具被滥用时,会加剧虚假消息、错误消息或负面价值观的传播。例如2016年3月,当微软聊天机器人Tay上线开始和人类聊天后,不到24小时就被“教坏”了,成为一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”,这也导致其不到一天就被关闭了。2023年1月,新闻可信度评估与研究机构NewsGuard向聊天机器人发出100个虚假叙述查询,在80%的案例里,聊天机器人准确地模仿了假新闻,而现实生活中的阴谋论者可有效利用这一工具,编写有违是非曲直、指鹿为马的宣传文章。 此外,随着“AI换脸”技术门槛逐渐降低,在满足人们猎奇、美颜、社交等需求的同时,因“AI换脸”引发的争议乃至违法犯罪行为屡见不鲜。因此,《互联网信息服务深度合成管理规定》明确规定,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,并要求深度合成服务提供者应当建立健全辟谣机制。为解决深度合成带来的内容安全风险,有业内专家建议,未来的监管体系要控制住技术源头,可以尝试要求技术开发者在技术中预留一个“技术水印”,从而使网络平台可以迅速识别出该视频是否是使用“AI换脸”技术进行制作的。由此可见,AIGC的内容安全离不开内容风控,而内容风控更离不开技术的赋能。正如此次发布的《生成式人工智能服务管理办法(征求意见稿)》,采用了全流程安全监管的基本逻辑,让所谓的“人工智能技术安全”并不仅仅体现于事后的责任认定或损害赔偿,同样表现为在算法设计阶段遵循数据安全保护义务、科技伦理规范。这进一步强调了对AIGC内容安全的重视程度,其监管前置的思路也给机构、企业等不同主体带来了面对内容风控挑战的另一解题思路——使防范先于监管,让风控跑赢风险,以技术规制技术。 让风控跑赢风险 用技术护航内容安全 如今,AI内容风控正在成为必备品。在海外, Facebook这类与内容打交道的企业每年都耗费大量技术投入在解决假新闻和低俗内容。谷歌也深受其害,曾经因在平台上发现涉及到恐怖主义的广告而陷入信任危机。目前谷歌正在利用人力对视频数据进行标注,从而训练出自动识别恶意视频的AI模型。英国伦敦的一家AI技术公司(Factmata)也在训练其聊天机器人识别政治偏见内容、虚假内容和仇恨言论。OpenAI公司研发了一种水印工具,服务于ChatGPT生成内容的识别。此类工具将统计模式、代码嵌入到单词甚至标点符号中,系统可以检测出某些内容是否由AI生成。这种方式使得公众能更加直观地识别聊天机器人生成内容和人工内容的区别,避免深度造假的兴起和传播。据媒体估算,我国内容审核从业规模已经达到10万人以上,且依旧持续增加。以技术优化审核精度与效能,正成为充满机遇的全新赛道。在国内,由RM网与中科院自动化所共同发起设立的“人工智能技术引擎”和科技成果转化平台——人民中科,便致力于面向政府和企业,提供内容安全服务、内容监测及版权保护、内容安全测评和互联网内容审核、风控、巡检等系统和一站式内容风控解决方案,可广泛运用于新零售、传媒、互联网金融、在线教育、政府、安防、信息通信等应用场景,有效帮助各互联网主体降低内容风险,保障运营安全。 针对AIGC监管痛点 跨模态技术来帮忙 当下,AIGC面临着可能被滥用于制造仇恨言论、色情低俗、血腥暴恐、无意义垃圾等,给网络社交平台上的内容管理带来新挑战。因此,AIGC的内容安全审核能力,需要具备针对AIGC内容多模态、海量化、碎片型、变异快、反检测等特征,进行快速识别的能力。 而人民中科的核心产品跨模态智能引擎“白泽”,便拥有通过文本搜图片、文本搜视频、图片搜视频、视频搜视频、图片搜文字、视频搜文字等功能,具备对全网海量内容高通量感知、机器理解、智能检索并自主进化的能力。让风控跑赢风险 从数据源头护航内容安全针对内容合成伪造识别难题,人民中科已针对人脸识别伪造的不同场景和难点,通过机器学习、算法学习和模型训练,在技术能力上,实现了基于身份空间约束的身份交换型伪造人脸鉴别和基于噪声一致性的伪造人脸鉴别等多种伪造人脸鉴别技术能力,以此达到从数据源头解决输入安全的问题。 针对内容合规检测难题,人民中科将全流程安全监管的思路贯彻到内容风控服务中,其“白泽”企业公共服务平台能够为企业提供风险预警、事件监测、账号监测、智能检索一站式网络舆情智能化解决方案,可以实现:发布前自主预审。平台提供智能审校工具,可对日常公文、媒体稿件、图文音视全媒体作品等进行自动化、智能化错敏校对,并给出高亮提示和修改建议。发布后实时巡检。巡检预警可对目标互联网平台已发布的内容进行实时智能审校和风险提示。全量历史数据巡检。可对目标巡检内容进行历史数据全量采集和内容风险检测,输出样本数据统计报表、审核统计报表,并出具巡检报告。针对AIGC的版权保护难题,“白泽”企业公共服务平台在版权保护上集版权管理、监测、审核、取证多位一体。在版权内容管理与监控环节,支持视频介质管理和授权管理。视频介质上传后,可选定时间段,通过版权作品授权状态,对设定监控的版权内容、话题24小时监控。在侵权线索发现环节,可根据线索状态、侵权平台、侵权日期等方式,筛选侵权内容,还可以主动添加侵权内容。在侵权内容取证环节,针对侵权内容支持管理账号单条、新增、批量的灵活取证的操作方式,后台便会自动进行取证环节。取证结束后会得到专业公证机构提供的认证证书及对应的侵权证据。 未来,随着AIGC技术研发门槛、制作成本等不断降低,在如何规避内容风险,护航内容安全上将面临新一轮挑战难题。基于此,以技术助力内容风控,护航内容安全,将会成为监管前置思路下,持续赋能的破题之道。

推荐内容