1.1.3 发展阶段
从20世纪70年代开始,人工智能的研究已经逐渐在世界各国开展起来。此时召开并创办了多个人工智能国际会议和国际期刊,对推动人工智能的发展、促进学术交流起到了重要作用。1969年成立了国际人工智能联合会(JCAI)。1970年创刊了著名的国际期刊《人工智能》。1974年成立了欧洲人工智能会议(European Conference on Artificial Intelligence,ECAI)。此外,许多国家有本国的人工智能学术团体。英国爱丁堡大学那时候就成立了“人工智能”系。日本和西欧一些国家虽起步较晚,但发展都较快。那时苏联对人工智能研究也开始予以重视。我国是从1978年开始对人工智能课题进行研究的,那时候主要集中在定理证明、汉语自然语言理解、机器人及专家系统等方面的研究。我国先后成立了中国人工智能学会、中国计算机学会、人工智能和模式识别专业委员会和中国自动化学会、模式识别与机器智能专业委员会等学术团体,开展这方面的学术交流。
当时涌现出了一批重要的研究成果。例如,1972年法国马赛大学的A.Comerauer提出并实现了逻辑程序设计语言PROLOG。Stanford大学的E.H.Shortliffe等从1972年开始研制用于诊断和治疗感染性疾病的专家系统MYCIN,但是,在20世纪60年代末至70年代末,人工智能研究遭遇了一些重大挫折。例如,Samuel开发的下棋程序在与世界冠军对弈时,五局中败了四局。机器翻译研究中也碰到了不少问题。例如,“果蝇喜欢香蕉”的英语句子Fruit flies like a banana会被翻译成“水果像香蕉一样飞行”。“心有余而力不足”的英语句子The spirit is willing but the flesh is week被翻译成俄语,然后由俄语翻译回英语后,竟变成了The vodka is strong but meat is rotten,即“伏特加酒虽然很浓,但肉是腐烂的”,这种错误都由多义词造成的。这说明仅仅依赖一部双向词典和简单的语法、词法知识还不足以实现准确的机器翻译。在问题求解方面,即便是对于良结构问题,当时的人工智能程序也无法面对巨大的搜索空间。更何况现实世界中的问题绝大部分是非良结构的或者是不确定的。在人工神经网络方面,感知机模型无法通过学习解决异或(XOR)等非线性问题。这些问题使人们对人工智能研究产生了质疑,1966年,ALPAC的负面报告导致美国政府取消了对机器翻译的资助。1973年英国剑桥大学应用数学家赖特黑尔(James Lighhil)爵士的报告认为,“人工智能研究即使不是骗局,至少也是庸人自扰”。当时英国政府接受了该报告的观点,取消了对人工智能研究的资助。这些指责中最著名的是明斯基(Minsky)的批评。1969年,明斯基和贝波特(Papert)出版了《感知机》(Perceptron)一书。在书中他批评感知机无法解决非线性问题,如异或(XOR)问题等,而复杂性信息处理应该以解决非线性问题为主,他还认为几何方法应该代替分析方法作为主要数学手段。明斯基的批评导致美国政府取消了对人工神经网络研究的资助。人工神经网络的研究此后被冷落了20年。智能研究出现了一个暂时的低潮。面对困难和挫折,人工智能研究者们对以前的思想和方法进行了反思和检讨。1977年《人工智能的艺术:知识工程课题及实例研究》的报告,提出了知识工程的概念,知识工程是研究知识信息处理的学科,它应用人工智能原理和方法为那些需要专家知识才能解决的应用难题提供了解决途径。采用恰当方法实现专家知识的获取、表示、推理和解释,是设计基于知识的系统的重要技术问题。以知识为中心开展人工智能研究的观点被大多数人所接受。基于符号的知识表示和基于逻辑的推理成为其后一段时期内人工智能研究的主流。人工智能从对一般思维规律的探讨转向以知识为中心的研究。
知识工程的兴起使人工智能摆脱了纯学术研究的困境,使人工智能的研究从理论转向应用,并最终走向实用。这一时期产生了大量专家系统,并在各个领域中获得了成功应用。例如,地矿勘探专家系统PROSPECTOR拥有19种矿藏知识,能根据岩石标本及地质勘探数据对矿产资源进行估计和预测,能对矿床分布、储藏量、品位、开采价值等进行推断,制订合理的开采方案。1978年,该系统成功地找到了价值过亿美元的钼矿脉。1980年,美国DEC公司开发了XCON专家系统用于根据用户需求配置VAX机器系统。人类专家做这项工作一般需要3个小时,而该系统只需约半分钟。
日本政府在1981年宣布了第5代电子计算机(智能计算机)的研制计划。智能计算机的主要特征是具有智能接口、知识库管理、自动解决问题的能力,并在其他方面具有人的智能行为。这一计划引发了一股智能计算机的研究热潮,但是,到了20世纪80年代末,各国的智能计算机计划相继遇到了困难。后来日本政府于1992年宣布五代机计划失败。这一时期,人们发现专家系统面临着几个问题:一是交互问题,即传统的方法只能模拟人类深思熟虑的行为,而不包括人与环境的交互行为;二是扩展问题,即大规模的问题,传统的人工智能方法只适合于建造领域狭窄的专家系统,不能把这种方法简单地推广到规模更大、领域更宽的复杂系统中去;三是人工智能和专家系统热衷于自成体系的封闭式研究,这种脱离主流计算(软硬件)环境的倾向严重阻碍了专家系统的实用化。人们认识到系统的能力主要由知识库中包含的领域特有的知识决定,而并不主要在于特别的搜索和推理方法。
基于这种思想,以知识处理为核心去实现软件的智能化,开始成为人工智能应用技术的主流开发方法。它要求知识处理建立在对应用领域和问题求解任务的深入理解的基础上,并扎根于主流计算环境,从而促使人工智能的研究和应用走上稳健发展的道路。知识工程的困境也动摇了传统的人工智能物理符号系统对于智能行为是必要的也是充分的这一基本假设,促进了区别于符号主义的联结主义和行为主义智能观的兴起。
人工神经网络理论和技术在20世纪80年代获得了重大突破和发展。1982年,生物、物理学家霍普费尔德(John Hopfield)提出并实现了一种新的全互联的神经元网络模型,可用作联想存储器的互联网络,这个网络被称为Hopfield网络模型。1985年,Hopfield网络比较成功地求解了货郎担问题,即旅行商问(Traveling Salesman Problem,TSP)。1986年,儒梅哈特(Rumelhart)发现了反向传播算法(Back Propagation Algorithm,BP算法),成功解决了受到明斯基责问的多层网络学习问题,成为广泛应用的神经元网络学习算法。1987年,在美国召开了第一届神经网络国际会议,从此掀起了人工神经网络的研究热潮,提出了很多新的神经元网络模型,并被广泛应用于模式识别、故障诊断、预测和智能控制等多个领域,但是,随着人工神经网络研究和应用的深入,人们又发现人工神经网络模型和算法也存在问题。例如,首先,神经计算不依靠先验知识,而是靠学习与训练从数据中取得规律和知识。这固然是优点,但同时也带来困难。如效率问题、学习的复杂性都是困扰神经网络研究的难题。其次,由于先验知识少,神经网络的结构难以预先确定,只能通过反复学习寻找一个较优结构,而且由此所确定的结构也难以被人理解。再者,人工神经网络还缺乏强有力的理论支持。
总而言之,人工智能的发展经历了曲折的过程。现在,人工智能已经走上了稳健的发展道路。人工智能的理论研究和实践应用都在推动着这门学科稳步前进。随着计算机网络技术和信息技术的迅猛发展,人类社会已经进入信息时代。这既对人工智能提出了新的课题,也给人工智能带来了更大的发展空间。人工智能的第三次浪潮较前两次浪潮具有本质区别。如今,以大数据和强大算力为支撑的机器学习算法已在计算机视觉、语音识别、自然语言处理等诸多领域取得了突破性进展,基于人工智能的技术应用业已开始成熟。不仅如此,这一轮人工智能发展的影响范围不再局限于学术界,人工智能技术开始广泛嫁接生活场景,从实验室走入日常,政府、企业、非营利机构开始纷纷拥抱人工智能。具体来讲,这一轮人工智能的发展主要得益于三大驱动因素。
1.深度学习算法的突破和发展
2006年,加拿大神经网络专家杰弗里·辛顿(Geoffrey Hinton)提出了“深度学习”的概念,他与其团队发表了论文《一种深度置信网络的快速学习算法》(A fast Learning Algorithm for Deep Belief Nets),引发了广泛的关注,吸引了更多学术机构对此展开研究,也宣告了深度学习时代的到来。2012年,辛顿课题组在ImageNet图像识别比赛中夺冠,证实了深度学习方法的有效性。深度学习的优势在于,随着数据量的增加,深度学习算法的效果会比传统人工智能算法有显著提升。当然,深度学习也存在一定的局限性,它对于数据量的要求较高,仅在数据量足够大的条件下,才能训练出效果更好的深度学习模型。对于一些样本数量少的研究对象,深度学习的算法并不能起到什么特殊作用。我国在基础算法的研发领域相对落后,但在图像识别、语音识别等算法应用领域已具备了较强的研究积累,处于国际领先地位,近年来强化学习、迁移学习等机器学习算法也发展迅速。2017年,强化学习被《麻省理工科技评论》(MIT Technology Review)评为2017全球十大突破性技术,包括百度、科大讯飞、阿里巴巴、中国科学院在内的我国企业和高校是该领域的主要研究者。迁移学习是运用已有的知识,对不同但相关领域的问题进行求解的一种机器学习方法,目前香港科技大学、百度、腾讯等已将其作为重要研究方向。
2.计算能力的极大增强
运算能力的提高与计算成本的下降加速了人工智能的发展进程。计算机行业有一条非常著名的摩尔定律,它是由英特尔(Intel)创始人之一戈登·摩尔(Gordon Moore)提出来的,其内容为当价格不变时,集成电路上可容纳的元器件的数目,每隔18~24个月便会增加一倍,性能也将提升一倍。换言之,每一美元所能买到的计算机性能,将每隔18~24个月翻一倍以上。这让整个计算能力一直呈指数式拓展。现在,我们普通人使用的手机的计算能力,就超越了美国登月计划时NASA(美国国家航空航天局)所拥有的全部计算能力的总和。
进入新的时期,云计算、图形处理器(GPU)的出现为人工智能的发展提供了更多可能。作为大数据挖掘和深度学习算法的实际处理平台,云计算平台可提供计算能力,并解决在数据存储、管理、编程模式和虚拟化等方面存在的问题。GPU的崛起则是促使传统计算模式向更类似人脑的并行计算模式发展的重要因素之一。2009年,吴恩达及斯坦福大学的研究小组发现GPU在并行计算方面的能力,使神经网络可以容纳上亿个节点间的连接。传统的处理器往往需要数周才可能计算出拥有一亿节点的神经网的所有级联可能性,而一个GPU集群仅需要一天就可以完成。
云计算平台、GPU的大规模使用使并行处理海量数据的能力变得十分强大,极大提升了人工智能的运算速度,大大缩短了训练深度神经网络模型对某一事物的认知时间,也进一步加速了人工智能的发展。以百度2016年发布的百度大脑为例,依托强大的底层技术、开源的算法模型和GPU大规模并行计算,百度大脑现已建成超大规模的神经网络,拥有万亿级的参数、千亿样本和千亿特征训练,目前已能提供语言技术、图像技术、自然语言、用户画像、机器学习和AR增强现实等超过100种服务。
芯片的革新也在持续提升大规模计算的能力。以深度学习原理为基础的人工神经网络芯片是国内外相关公司重点发展的方向,英特尔、IBM、英伟达等企业纷纷涉足该领域。我国的寒武纪科技公司推出的深度学习芯片已经具有国际领先水平,在现有工艺水平下,单核处理器的平均性能超过主流CPU的100倍,而面积和功耗仅为主流CPU的1/10。2011年起,为了深度学习运算的需要,百度开始基于现场可编程逻辑门阵列(FPGA)研发AI加速器芯片,并于同期开始使用GPU。最近几年,百度对FPGA和GPU进行了大规模部署。由于市场上现有的解决方案和技术不能满足百度对AI算力的要求,百度科学家和工程师开始自主研发“昆仑”芯片,其计算能力比原来用FPGA做的芯片提升了30倍左右。
3.数据量的爆炸式增长
大数据训练可以有效提高深度学习算法的效果,获取足够多的数据,这样机器学习就会学得越准确越快速,训练出的模型效果会更好,而经过不断学习后的人工智能模型又可以挖掘和洞察数据中更多的信息,帮助数据增值。以物联网、移动互联网为代表的技术带来了数据量的爆发性增长,给人工智能发展提供了不可或缺的基础。
我国在数据资源方面也有特定的优势。根据中国互联网络信息中心(CNNIC)发布的《中国互联网络发展状况统计报告》显示,截至2017年12月,我国网民规模达7.72亿,普及率达到55.8%,超过全球平均水平(51.7%)4.1个百分点,超过亚洲平均水平(46.7%)9.1个百分点。我国拥有全球数量最多的互联网用户、最活跃的数据生产主体,并在数据总量上具有优势;数据标注的成本较低,则在一定程度上降低了大量初创企业的运营成本,有利于我国人工智能加速发展。
2015年,谷歌公司训练的对话Agent,不仅能够与人类做技术性的交流,而且可以表达自己的观点,回答以事实作为依据的问题。该对话Agent采用基于句子预测的模型,能够从特定领域和通用领域的语料库中抽取知识,并作简单推理。可以看到,Agent能完成简单问答任务,但仍然存在一些前后不一致的缺陷。
棋类游戏一直被视为是人类智力活动的一种体现,AI的研究人员也因此持续从事机器博弈研究。自从1997年IBM公司的Deep Blue击败了国际象棋冠军卡斯帕罗夫之后,围棋就被视为是人类智慧最后的堡垒。这是因为国际象棋的状态组合为1046量级,而围棋的状态组合数是10172(宇宙中原子数为1080量级)。即使最先进的博弈搜索技术也难以应对如此规模的问题,然而在2016—2017年,DeepMind公司开发的AlphaGo和AlphaGo Zero采用深度神经网络加强化学习的办法攻破了这一最后的堡垒,击败了人类围棋冠军。至此,机器在所有棋类游戏中均已完胜人类。
2017年,OpenAI公司开发的游戏机器人在线上Dota2比赛(1vs1)中击败了人类顶尖选手。不仅如此,OpenAI公司还在开发与人类选手合作的游戏机器人。该机器人并非模仿人类选手或采用状态搜索,而是直接从自我对战中学习游戏策略,通过学习得到的知识,游戏机器人能够预测对手的走位,在不熟悉的情况中做出回应,以及与队友配合。对于如何构建在复杂真实人类环境下完成确定目标的AI系统,此项工作具有重要意义。谷歌公司发布了中文拍照翻译App。即使用户对源语言一无所知,该软件的图片识别和翻译功能也足以满足用户需求。除中文外,谷歌翻译软件还支持100多种语言。
2018年3月,《自然》杂志发表了利用AI技术区分中枢神经系统肿瘤的最新研究成果。此项成果由来自美国、德国、意大利等100多个实验室的近150位科学家共同完成。他们开发了一个超级AI系统,根据肿瘤组织DNA的甲基化数据准确地区分了近100种不同的中枢神经系统肿瘤。此外,该系统还具备学习能力,可分析并发现一些临床指南中尚未包含的新肿瘤分类。