“人类的偏见比 AI 的偏见更难消除。”
——普林斯顿大学教授 奥尔加·鲁萨科夫斯基
2014年,一款AI招聘工具在识别招募的软件工程师时被发现歧视女性,该工具随即遭弃用;2016年,某商用AI司法软件在帮助法官作出量刑决定时,被发现对黑人犯罪的可能性存有偏见。随着人工智能在各行各业中大规模开展应用,AI的伦理道德成为人们必须探讨的议题。
(资料图)
AI的伦理道德
01“我的朋友不是‘大猩猩’!”
在遥远的2015年,人工智能刚刚开始加速发展的时候,一位黑人朋友Jacky Alciné曾震惊地发现,自己被某图像识别算法歧视了:他和他的朋友竟被自动分类成“大猩猩”(gorilla)!
错误的图像识别
6年后的今天,机器已经有能力作出可以改变人们日常生活的决定:AI汇集和评估的大量数据,常常超出人力所及的范畴——AI可以在几秒内确定贷款申请人的信用度,也可以预测罪犯再次犯罪的几率。
然而,AI系统能强化它们从现实数据中获得的认知,也存在放大该认知的风险,比如开头提到的种族和性别偏见。在面对不熟悉的场景和存有偏见的数据时,AI还可能作出错误的判断。人们已经开始意识到,在技术投入使用之前,必须把道德关切纳入考量。
02“我们用技术打造的世界,必须让人想要居于其中。”
人们往往将人工智能的伦理道德置于模型本身的角度予以考虑。然而,当我们现在谈及负责任的 AI 时,必须要将整个人工智能生态系统考虑在内。事实上,这些考量不仅与 AI 有关,更与企业的社会责任有关。
在构建合乎道德的 AI 时,需要把AI伦理置于整个过程之中——从模型偏见,到数据安全性,再到可解释性。成功部署之后,还必须考虑到模型将对社会产生什么样的影响。
03 AI伦理道德的四大考虑因素
偏见偏见问题需要在模型构建一开始就保持警惕,否则就可能被引入开发和生产的各个阶段。在数据标注阶段,无论是数据本身还是数据标注者都需要实现多元化。安全性数据安全和隐私是企业面临的另一项挑战。然而数据所涉及的安全性问题又不仅仅是隐私。合格的数据合作伙伴必须得通过严格的安全标准来确保正确处理企业和相关客户的数据。可解释性在我们创建一个 AI 模型时,只有当它能够向客户予以解释、为其理解和信任,才能算创建成功。尽管最先进的 AI 应用很难解释,但我们可以从数据结构、输入、输出等用于开发模型的训练数据中获得一些可解释性。验证和再训练流程则可以让我们更加了解模型预测机制。社会影响在进行任何 AI 尝试之前,团队应该首先提出一些与社会影响有关的 AI 伦理问题:我创建的AI模型将会对我的业务、构建模型的人员、最终用户和整个社会产生什么样的影响?当我的模型做出错误决定时又会发生什么?这类问题的考虑将帮助团队构建出对所有利益关系人都具有积极影响的模型。04“人类的道德始于情感,人工智能的道德始于数据。”
部署负责任的 AI 必须自始至终应用 AI 道德标准。从部署的一开始,训练数据就要以负责任的方式从多元化的标注员那里获得,才能有效发挥其作用。
其中,偏见最小化应该作为整个模型构建过程之中最重要的考虑因素。定期使用新数据重新训练模型,有助于及时发现偏见,并随着时间的推移保持模型的准确性,以免对企业或消费者造成不必要的负面影响。
人工智能应该使所有人受益,无论其种族、性别、国籍或背景如何。负责任的 AI 不仅仅是一个哲学概念,更是 AI 领域的所有企业都必须采用的方法。好在时间已经为我们证明:以负责任的态度构建的 AI 模型,往往在现实应用中也更为成功。