在人工智能这个概念出现后,各路研发人员对于人工智能的研究与开发也就变得更多了起来。不过,目前欧盟正在讨论的人工智能法案(AIA)则提到了对开源人工智能的监管。但这一想法却得不到研发人工智能的科学家们的认可。
(资料图片)
在此次欧盟人工智能法案 (AIA) 中提到了开源 AI 法规。该法案拟限制通用开源 AI (GPAI) 的使用、共享和分发。
然而,不认开发人员认为严格限制通用开源 AI (GPAI) 使用、共享和分发可能会被视为倒退。扩大开源 GPAI 研究人员和开发人员的法律义务只会阻碍技术创新和发展。
不少开发人员认为,人类能够以如此快速的速度推进技术的唯一途径是通过开源文化。而限制这一趋势可能只会扼杀技术的进步和创新。这将阻止开发人员交流知识和想法,使新企业或有抱负的人更难获得尖端技术。
当然,还有不少赞同限制开源 AI 法规的人士认为,虽然人工智能可以通过多种方式为企业提供竞争优势,简化成本。但如果不充分关注人工智能治理、道德和不断发展的法规,人工智能的缺点可能是灾难性的。
而为人工智能带来这些风险的技术也是有固有的存在因素。例如,如果使用有偏见的数据集或部署没有适当治理的人工智能,这种人工智能系统得出给定的结论,或许将与现实有巨大的偏差。
如果道德和治理没有纳入到对人工智能研发中,人工智能及其实施也有可能会产生可怕的影响。
在科幻电影《终结者》中,邪恶的人工智能天网要么已经接管了人类,要么即将接管人类。而这也反映出不受控制的人工智能会产生什么可怕的后果。
根据欧盟的“人工智能法案”草案,新规将给通用人工智能系统研发制定了法律责任。即便是开源开发者也必须遵守风险管理、数据治理、技术文档和透明度、以及准确性和网络安全标准等方面的指导方针。
值得一提的是,有科学家还认为监管机构不应寻求广泛监管的人工智能技术、而应专注于人工智能的特定应用。正是因为现在人工智能发展迅速,才存在快速变化和太多的不确定性,而迟缓的监管过程无法发挥作用。
诸如,现在人脸识别技术等远程生物特征识别技术、自动驾驶汽车、机器人或玩具等人工智能的应用才应成为被监管的对象。
目前,人工智能技术的发展越来越迅速,对人工智能可能会带来的系统性风险开展前瞻性的监管也是有必要的。从这个意义上来看,欧盟正在讨论的人工智能法案(AIA)其实也值得借鉴。