1956年,几个计算机科学家在达特茅斯会议上,首次提出“人工智能”的概念。从那时起,人工智能就在科研实验室中慢慢孵化。

过去的几十年里,人工智能一直处于两个舆论极端——一会儿被誉为人类文明通往美好未来的关键,一会儿又被称作了疯狂科学家的妄想。事实上,直到 2012年,这两种声音还同时存在。

近几年,特别从 2015年开始,人工智能开始大爆发。这很大程度上关乎了GPU的广泛应用,得并行处理更快、更便宜、更强大。当然,无限拓展的存储能力与骤然爆发的数据洪流(大数据)的组合,也使得图像数据、文本数据、交易数据、映射数据全面海量爆发。

人工智能是如何从萧条一步步发展到如今这样——成千上万人使用着基于人工智能的应用?

为机器赋予的人类智能

回到 1956 年夏天的那场会议。彼时,人工智能先驱们的梦想是使用新兴计算机造出具有人类智力的复杂机器。这就是“ 通用人工智能 ”(General AI)的概念——人工智能可以拥有甚至比人类更多的感觉、人类的理智,并能像人类一样思考。

我们在电影中见过很多次这样的“人工智能”了,有的作为人类的朋友,比如《星球大战》中的 C-3PO ,有的则是人类敌人,比如终结者T-1000。目前,通用人工智能还仅存在于各类电影和科幻小说中,我们还无法实现它,至少现在不行。

那我们能实现的有哪些?这里要提到一个叫做“ 弱人工智能 ”(Narrow AI)的概念了。弱人工智能是指能将特定任务处理得和人类一样好,甚至更好的技术。关于弱人工智能的相关例子就很多了,比如 Pinterest 上的图像分类,Facebook的人脸识别等等。

这些已在实践中使用到的弱人工智能,展示出了人类智能的某一些方面。但它们是如何做到的?“智能”又是怎么来的?

机器学习:实现人工智能的一种方式

机器学习的基本原理是运用算法来分析数据、从中学习,从而对真实世界中发生的事件做出决策或预测。不同于那些需要手动敲代码、输入指令来完成特定功能的程序,机器学习会通过海量大数据和算法来不断“训练”自己,并从中学习如何完成任务。

机器学习直接来源于早期的人工智能领域。传统算法包括了决策树学习(decision tree learning)、归纳逻辑编程(inductive logic programming)、聚类(clustering)、强化学习(reinforcement learning)和贝叶斯网络(Bayesian networks)等。不过人们现在还没能实现强人工智能,早期机器学习方法甚至都无法实现弱人工智能。

事实证明,机器学习的最佳应用领域是计算机视觉,尽管它还是需要大量手工编码来完成工作。人们需要编码一些分类器,比如边缘检测过滤器(edge detection filters)让程序识别对象的启止位置;形状检测(shape detection)来判断它是否有八条边;还有用来识别单词“S-T-O-P”的分类器。有了这些手工编写的分类器,人们才可以开发出能感知图像、判断图像否为“停止标志牌“的算法。

这是结果不错,但还不够好。比如遇上大雾天气,或是当标志牌被树枝遮挡住一部分时,它很可能会失灵。这就是为什么在之前很长一段时间里,计算机的视觉和图像检测功都无法媲美人类——它太容易受环境条件干扰了。

然而随着时间的推移,学习算法的发展改变了一切。

用人工智能“还原”历史(或虚构)人物:

阿波罗

阿佛洛狄忒

巴赫

成吉思汗

达芬奇

卡利古拉

路西法

牛顿

女法老哈特谢普特

萨拉丁

圣女贞德

肖邦

珍妃

宙斯

深度学习:一种实现机器学习的技术

另一种源自早期机器学习的算法—— 人工神经网络 (Artificial Neural Networks),已有几十年的历史。神经网络的灵感来源于大脑的生理结构——互相交叉相连的神经元。但与大脑中一个神经元可以连接一定距离内的任意神经元不同,人工神经网络具有离散的层、连接和数据传播的方向。

比如,我们把一个图像切分成小块,输入到神经网络的第一层中,然后第一层的单个神经元们将数据传递给第二层,第二层的神经元将数据传给第三层,如此传递直到最后一层,然后输出最终结果。每个神经元都会分配一个权重给它的输入——来评估所执行的任务是否正确。最终的输出由这些权重加总来确定。

直到前不久,神经网络都是被人工智能圈避开的。人们从人工智能早期就一直在做这方面的研究,但它并没有贡献出太多“智能”。主要问题在于,即使是最基本的神经网络,也需要大量的运算。神经网络算法的运算需求难以得到满足。

像Facebook 里,使用神经网络成功识别出你妈妈的脸;或者吴恩达(Andrew Ng)教授2012年在谷歌实现了神经网络学习识别到小猫的图片。

吴教授的突破在于他从根本上使用了这些神经网络,并通过增加层数和神经元的数量使它们显著增大,然后用大量的数据来训练它们。吴教授使用的数据是一千万个YouTube视频中的图像。他把“深度”(deep)加入到“深度学习(deep learning)”中,这这里的“深度”就是指神经网络中众多的层。

如今经过深度学习训练后的图像识别,在一些场景中甚至比人类做的更好。识别范围之广,从识别视频中的小猫图像,到识别血液中的癌细胞留下的蛛丝马迹,或是核磁共振显像中的肿瘤。谷歌的AlphaGo也是先学会了打简单的电脑游戏,然后被训练下围棋——通过反复与自己下棋,不断训练自己的神经网络。

日常办公中的AI:当AI遇见RPA

近年来,RPA和AI皆因“自动化”而备受瞩目。在日益激烈的市场竞争中,企业借助RPA(机器人流程自动化)和AI技术加快数字化转型已是大势所趋。

RPA常被看做是AI最容易落地的领域之一。

从发展阶段来看,RPA的发展可划分为辅助人工、解放人工、增强智能和自主智能四大阶段。

目前,RPA仍处于发展的初级(辅助人工、解放人工)阶段,只能应对基于规则的、机械性、重复性的任务。

例如,RPA可以从电子邮件中提取信息,根据特定规则在内部发送电子邮件。然而,如果邮件中包含非结构化的内容(如表单中某个字段有移动),RPA机器人就很难发挥作用。

由此可见,现阶段RPA适用的流程必须满足两个条件:

1.规则明确、有固定的流程和步骤;

2.流程中没有复杂任务,也不涉及线上线下融合。

不少企业部署RPA后,随着各类业务的发展,对RPA 提出了更高的要求,希望RPA能拓展边界,处理更为复杂的场景。于是,AI成了RPA的“智能”突破口。

结合了机器学习和深度学习的AI ,可通过计算机视觉、语音识别、自然语音处理等技术拥有认知能力,适合处理RPA无法理解的非结构化数据,以帮助RPA提高应用范围和工作效率。

具体而言,AI可以从 认知捕获 和 流程编排 两方面,拓展RPA自动化边界。

认知捕获: 认知捕获侧重于通过各类渠道(Web表单、纸质文档、电子邮件)提取数据,通过使用AI、认知算法,将非结构化数据转换为结构化格式,以便RPA顺利开展自动化任务。

流程编排: 流程编排不仅增加了自动化流程的严谨性和纪律性,也有助于RPA处理所有异常情况,执行传统的动态案例管理。

此外,通过借助AI-OCR技术,RPA还可以轻松识别纸质发票中的编号、日期、金额,并自动输入Excel表格中,比传统人工录入更为准确、快捷、高效。

今后,RPA的任务将不仅局限于减少重复性工作。基于AI的决策,RPA可以在更多业务领域承担更加复杂的任务。届时,RPA+AI将拓展自动化的深度和广度,引领自动化潮流,及时响应业务变化和需求。

推荐内容