近期,关于ChatGPT在数据采集和使用方面有安全隐患的报道层出不穷。

4月6日凌晨,OpenAI在官网发布了《 Our approach to AI safety 》(“我们的AI安全之道”),介绍了自己在安全、可靠地为全球用户提供ChatGPT服务方面所做的努力。

以下是我对重点部分的翻译(括号中斜体文字是我的评论,另点击“阅读原文”可以查看原文):OpenAI 一直致力于确保人工智能系统的安全性和广泛的效率提升。我们的全球用户告诉我们,ChatGPT可以提高他们的生产率,增强他们的创造力,并提供量身定制的学习体验。 我们也认识到,像任何技术一样,这些工具会带来真正的风险——因此我们在系统的各个级别上都建立了强有力的安全保障。


【资料图】

建设越来越安全的AI系统

在发布任何新系统之前,我们会进行严格的测试,邀请外部专家提出反馈意见,通过强化学习、人类反馈等技术改进模型的行为,并构建广泛的安全监控系统。

例如,在我们最新的模型GPT-4完成训练后,我们花费了超过6个月的时间,全力打造更加安全和一致的模型,并在发布之前进行了充分的测试。

我们认为,强大的AI系统应该接受严格的安全评估。需要监管措施来确保采取了这样的规定。同时,我们也积极地与政府合作,讨论这种监管措施的最佳形式。

监管措施的增长曲线会在技术逐步进入快速发展期之后启动,目前各国已经出现这样的趋势,下图为我的朋友龚总Robin画的技术发展阶段曲线图,在Gartner曲线基础上叠加了监管曲线、市场占有率曲线和社会接受度曲线,很有参考意义。

通过在实践中学习,加强安全保障

虽然我们尽力在部署新系统之前防范各种可以预见的风险,但是我们在实验室中所能学到的知识毕竟是有限的。因为,尽管进行了广泛的研究和测试,但我们仍然无法预测人们将如何使用我们的技术。 这就是为什么我们认为,从实践中学习,是建设和发布越来越安全的AI系统的重要手段。

因此,我们以小心谨慎的、循序渐进的方式,向越来越广泛的人群发布新的AI系统,期间采取了大量的保护措施,并根据我们学到的经验,进行持续的改进。

保护儿童

我们安全工作的一个关键重点是保护儿童。我们要求人们必须年满18岁,或在父母的批准下年满13岁才能使用我们的AI工具,并正在寻求年龄验证方法。

我们不允许我们的技术用于生成仇恨、骚扰、暴力或成人内容等其他类别。我们最新的模型GPT-4对不允许的内容的响应请求比GPT-3.5少82%,我们建立了一个强大的监测系统来监测滥用。GPT-4现已可用于ChatGPT Plus订户,我们希望随着时间推移,将其提供给更多人使用。

尊重隐私

我们的大型语言模型是基于广泛的文本语料库进行训练的,其中包括公开可用的内容、许可内容和人工评审生成的内容。

我们不使用数据来销售我们的服务、广告或创建人们的资料——我们使用数据使我们的模型更有益于人们。例如,ChatGPT通过进一步训练人们与其进行的对话而改进。

虽然我们的一些训练数据包括可在公共互联网上获得的个人信息,但我们希望我们的模型学习世界,而不是个人隐私信息。

因此,我们努力在可能的情况下从训练数据集中删除个人信息,微调模型以拒绝请求个人信息,以及回应个人请求从我们的系统中删除其个人信息。这些步骤最大程度地减少了我们的模型可能生成包含私人个人信息的响应的可能性。

这部分是对个人输入信息可能会用于模型训练的回答,事实上,在ChatGPT的使用条款中,OpenAI注明,用户可以选择是否允许将自己的数据用于模型训练,而且对于API用户,其选项默认就是关闭的

改善事实准确性

今天的大型语言模型根据它们先前看到的模式,包括用户提供的文本输入,来预测下一个系列的单词。在某些情况下,下一个最可能的单词可能不准确。

这里描述的是Transformer模型的工作原理

改善事实准确性是OpenAI和许多其他AI开发人员的主要关注点,我们正在取得进展。通过利用ChatGPT输出被标记为不正确的用户反馈作为主要数据源,我们已经改进了GPT-4的事实准确性。GPT-4比GPT-3.5更有可能产生真实的内容。

GPT-4与Plugin和Browsing的结合,进一步提升了保障内容真实性的能力

持续研究和参与

我们认为,解决AI安全问题的实际方法是将更多的时间和资源投入到研究有效的安全和合规技术,并测试它们对真实世界中各种滥用行为的承受力。

重要的是,我们也认为,提高AI的安全性和能力应该相辅相成。迄今为止,我们最好的安全工作是通过我们能力最强的模型合作完成的,因为它们更擅长按照用户的指示行事,并且更容易指引。

我们将越来越谨慎地创建和部署更有能力的模型,并将在不断发展我们的AI系统的同时,继续改进安全预防措施。

尽管我们等待了超过6个月的时间才部署GPT-4,以更好地了解其能力、好处和风险,但有时需要更长时间来改进AI系统的安全性。

因此,政策制定者和AI技术提供商需要在全球范围内,有效地治理AI的开发和部署,以免有人为了走在前面而偷工减料。

这是一个艰巨的挑战,需要技术和制度创新的结合,但这也是我们热切希望做出贡献的重要领域。

解决安全问题还需要广泛的辩论、实践和参与,包括对AI系统行为边界的讨论。我们一直在促进各方利益相关者之间的合作和开放对话,以创建一个安全的AI生态系统。

推荐内容