3 三起两落潮水平
1997年,在与卡斯帕罗夫的最后一局对弈中胜出之后,传奇的国际象棋电脑“深蓝”退役。二十年之后,在一场围棋比赛中,人工智能棋手AlphaGo战胜人类最强棋手柯洁。不同于它的前辈“深蓝”坎坷的战绩,AlphaGo几乎是所向披靡。在这二十年里,当我们已经适应互联网给人类带来的巨大而深刻的变化时,人工智能又将人类拉入新纪元。
虽然如今人工智能炙手可热,但它的发展之路从来都不是一帆风顺的。相反,它历经数次的巅峰与低谷(图6)。虽然当下人工智能又一次迎来它的黄金期,但以史为鉴,我们发现正是达特茅斯会议之后的起起落落,最终沉淀下助推人工智能大发展的动力。
图6 起起伏伏发展路
开端:人工智能的第一次大发展(1950—1974年)
“二十年内,机器将能完成人能做到的一切工作”!这样乐观的预言在达特茅斯会议闭幕之后的十几年里甚嚣尘上。
1952年,IBM科学家亚瑟·塞缪尔(Arthur Samuel)开发了一个“智能”的跳棋程序。这个程序能够通过观察棋子当前的位置,学习棋盘隐含的模型,从而进行下一步行动。塞缪尔还发现,伴随着游戏程序运行时间的增加,其后续指导能够越来越好。因为这个程序,此前关于机器无法超越人类、像人类一样写代码和学习的观点被驳倒了。因此,塞缪尔创造了“机器学习”一词,并将其定义为 “可以提供计算机能力而无需显式编程的研究领域”。
1957年,弗兰克·罗森布拉特(Frank Rosenblatt)基于神经感知科学提出了第二模型,这一模型与今天的机器学习模型十分类似。基于这个模型,罗森布拉特设计出了感知机(the perceptron)——第一个计算机神经网络,它能模拟人脑的运作方式。1967年,最近邻算法(The nearest neighbor algorithm)诞生,由此,计算机可以进行简单的模式识别。
在这段大发展的期间内,计算机被广泛用来解决数学问题,甚至被用来学习和使用英语。
随着人工智能技术的前景一片大好,来自美国ARPA(国防高等研究计划署)等政府机构的大笔资金也相继注入麻省理工学院、卡内基梅隆大学、斯坦福大学、爱丁堡大学的人工智能项目中。然而事与愿违,大量的资金投入却并没有取得与之相当的成果,乐观的预言全部落空。
停滞:人工智能的第一次低谷(1970—1980年)
从20世纪60年代中期到20世纪70年代末,机器学习的进展几乎停滞不前。虽然这个时期仍然有一些进展,如结构学习系统和归纳学习系统的产生,但这些所谓的成果只停留在概念层面,未能投入到实际应用中。雪上加霜的是,神经网络学习机也存在理论缺陷,未能达到预期效果,研究一度转入低潮。
这个时期人工智能的研究目标是,模拟人类的学习过程,并在机器内部使之转化为能够理解的逻辑结构。但是因为无法转化成实用的成果,来自政府的经费被大规模削减。
首先是1968年,美国参议院多数党领袖曼斯菲尔德(Mike Mansfield)对“先进研究项目局”(ARPA)的资助提出异议,因为AI的成果无法运用于军事,他认为这类项目应该由美国国家科学基金会NSF负责,国防部的钱不能被用于军事目的之外的研究领域。到了70年代初期,海尔梅尔(George Heilmeirer)在任期内以AI不能制造武器用于战争为由,大规模削减了对AI的经费资助。
实际上这个时期整个AI领域都遭遇了瓶颈。最根本的症结在于硬件无法满足运算需求,当时的计算机内存有限,处理速度不足,所以无法有效解决实际的AI问题。当时的研究者们的设想是计算机程序对这个世界具有相当于儿童水平的认识,但他们很快就发现这个要求太高了:即使是一个儿童的大脑内也存储着庞大的数据,在1970年,没有人能够做出如此巨大的数据库。另外,儿童也是具有学习能力的,他们能够不断地丰富自己的数据库,然而对于程序来说,没人能让一个程序自主学到丰富的信息。
实际上这一时期的这些挫折源于人工智能研究者们对项目难度评估不足,这除了导致向投资者的承诺无法兑现外,还严重打击了人们对AI的乐观期望。到了20世纪70年代,人工智能开始频繁遭遇批评,来自政府和公司的研究经费也被转移到那些有期望实现的特定项目上。在这个困难重重的时期,计算机硬件性能遭遇瓶颈、人类的能力跟不上计算复杂性的增长速度、缺乏大量的数据样本。这些问题看上去好像永远找不到答案。以机器视觉功能为例,在那时就无法找到一个足够大的数据库来支撑程序去学习。
压垮骆驼的最后一根稻草来自人工智能的先驱明斯基。1968年,他在《语义信息处理》一书中分析了所谓人工智能的局限性,并给出结论: “目前”(1968年)的方法无法让计算机真正有类似于人的智能。这一业界大拿的唱衰引起了大规模的连锁反应。美国政府给人工智能断粮,一下子拿掉了用于人工智能研究的绝大部分经费,此后十余年左右时间里,全世界的人工智能研究都处于低谷。
复苏:人工智能的第二次繁荣(1980—1987年)
这一时期,人工智能领域是专家系统和人工神经网络的天下。专家系统可以解释为一个智能计算机程序系统。它就像一位人类的专家,系统内含有大量的相当于某个领域专家水平的知识与经验,针对某个特定领域的问题,能够利用人类专家的知识来处理问题。
早在20世纪60年代,后来的图灵奖获得者爱德华·费根鲍姆(Edward Albert Feigenbaum)就通过实验和研究,证明了实现智能的要义在于知识。同时,也是他最早倡导“知识工程”(knowledge engineering),并开始了对专家系统的早期研究,由此爱德华·费根鲍姆也被称为“专家系统之父”。
经过二十多年的发展,卡内基梅隆大学的约翰·麦克德莫特(John P. McDermott)在1978年用OPS5开发了XCON专家系统。XCON专家系统最初被用于DEC位于新罕布什尔州萨利姆的工厂。据统计,通过减少技师出错、加速组装流程和增加客户满意度,它每年能为DEC节省2500万美元。能看到经济效益的发明总是受人欢迎的,XCON的成功激发了工业领域对人工智能尤其是专家系统的热情。
科学家们认为,专家系统具有的实用性在某些程度上改变了人工智能的发展方向。人工智能不再是实验室的玩具,而是转变为能够通过智能系统来解决实际生活中问题的工具。这种实用性的增加虽然与当初创立人工智能的初衷不完全一致,却也为人工智能的生存指明了道路。由于其实用性的大大增强,才能吸引大量的关注和投资,并由此走出低谷。
与此同时,人工神经网络的发展也如火如荼。人工神经网络某种程度上可以被理解为仿生学,也常直接被简称为神经网络或类神经网络。在概念上它是指计算机从信息处理角度对人脑的神经元网络进行模拟和抽象,建立某种简单的模型,以不同的连接方式组成不同的网络。实际上人工神经网络是一种运算模型,它内部包含大量的节点,节点相互连接。在算法中,每个节点都表示一个输出函数,每两个节点间的连接就代表加权值,就相当于人工神经网络的记忆。
神经网络的发展史非常长,早在1943年,心理学家麦克洛奇(W. S. McCulloch)和数理逻辑学家皮特(W. Pitts)就开创了人工神经网络的研究时代,他们建立了神经网络的数学模型,被称为MP模型。
到了20世纪60年代,人工神经网络的研究进一步发展,科学家们提出了更加严谨的神经网络模型。即使是在20世纪70年代,人工神经网络转入低潮期,这一领域的研究者们仍然没有放弃,他们提出了认知机网络等重要的概念,同时进行了神经网络数学理论的研究。
到了1982年,约翰·霍普菲尔德(John Hopfield)引入了“计算能量”的概念,基于他在加州理工担任生物物理教授期间的研究,其提出了一种新的神经网络概念,后来被命名为霍普菲尔德网络,它可以用来解决大类模式识别的问题。1984年,约翰·霍普菲尔德又提出了连续时间Hopfield神经网络模型,成为神经计算机研究领域的开拓者,自此,神经网络在联想记忆和优化计算方面获得了新的发展途径,这也进一步推进了神经网络的研究。
1986年,大卫·鲁梅尔哈特(David Rummelhart)、杰弗里·辛顿(Jeffrey Hinton)、罗纳德·威廉姆斯(Ronald Williams)联合发表了一篇论文:《通过误差反向传播学习表示》,他们通过实验确定反向传播算法能够运用于神经网络的训练之中。这是一个具有里程碑意义的发现,推动了神经网络研究的发展。
在20世纪80年代,“神经网络”就像此后90年代的互联网和眼下的“大数据”一样,每个人都想对其一亲芳泽。1993年,《神经网络会刊》创刊,目的在于为神经网络领域的高质量文章提供出版渠道,这是由美国电气电子工程师学会(IEEE)主办的。
资金支持随之而来,美国国防部和海军等也纷纷加大对神经网络研究的资助力度。神经网络一时风头无限。然而后来的互联网掩盖了神经网络在20世纪80年代的光芒。但是,80年代互联网的发展也给了神经网络更大的机会。这几年计算机科学的明星——“深度学习”与神经网络就有着诸多相似之处,两者密不可分。所谓深度学习,就是用多层神经元构成神经网络达到机器学习的功能。而神经网络也是由一层一层的神经元构成的。
时至今日,世界各大发达国家仍旧十分重视人工神经网络的研究。
同时,人工智能领域也有了亚洲国家——日本的身影。日本从1981年开始研发人工智能计算机,它的开创之举就是大量撒钱。第二年,日本经济产业省斥资8.5亿美元,用以研发人工智能计算机。这之后,英国、美国纷纷效仿,开始向信息技术领域注入大量资金。
危机:人工智能第二次低谷(1992—2005年)
繁荣背后一定隐藏着危机,对人工智能的大规模注资并不是慈善家们的善款,更何况很多还是来源于政府的预算。政府期待的是一分投入一分产出,基于对于人工智能强大能量的预期,期待更高的回报也是无可厚非的。
然而现实却是,专家系统虽然实用,但是用处仅仅局限于某些特定的情景,带来的产出并没有那么理想。日本斥巨资投入的项目也未达到预期。随着PC的普及,大型的计算机开始逐步淡出人们的视野。加之20世纪90年代初经济不景气,日本的经济持续下滑。1992年,日本确实生产出了“第五代计算机”,但它的核心能力却不达标,并且与主流需求相差甚远,所以最终宣告失败。人工智能仿佛是一块贫瘠的土地,投入成本巨大,却长不出丰硕的果实,维护成本也极其高昂。
经历过这次预算削减的科学家们将这一时期称为“人工智能的冬天”,冬天缺少阳光而大地封冻。对于耗资巨大的计算机科学来说,资金就是阳光,整个社会的唱衰无疑使将整个行业遭到封冻。
爆发:人工智能第三次大发展(2005年至今)
冬天已经来临,春天还会远吗?那些处在冬天的科学家们并没有放弃自己的研究,在等待着一次厚积薄发。
从某种意义上说,2005年可以算作大数据元年。4月,Google的机器翻译首次在由美国国家标准与技术研究所(National Institute of Standards and Technologies)主持的测评和交流中,就远远超越其他研究团队。2006年,加拿大多伦多大学教授杰弗里·辛顿在《科学》杂志上发表了关于深度学习的文章,神经网络又引起了大家的关注。2008年,谷歌推出了一款预测流感的产品。这款产品根据某些搜索字词进行汇总,可以近乎实时地对全球当前的流感疫情进行估测。
随后,人工智能程序在挑战人类的道路上一骑绝尘。2011年,人工智能程序Watson(沃森)参加了美国的智力问答电视节目,最终击败两个人类冠军,赢得了100万美元的奖金。当然,所获得的奖金被其开发公司IBM收入囊中。
图灵曾说过,机器的智能是对人类的模仿游戏,如今它们在模仿人脑的征途上不断突破。2012年,加拿大神经学家团队创造出了升级版人工大脑“Spaun”——一个配有250万个模拟人类大脑的“神经元”、具备一些简单认知能力的虚拟大脑,“Spaun”还通过了最基本的人类智商测试。
在这个人工智能发展之春,各大科技巨头趁此东风纷纷进入角逐场。在深度学习领域,Facebook成立了人工智能实验室;Google收购了语音和图像识别公司DNNResearch,推广深度学习平台;剑桥大学建立了人工智能研究所……
在这次人工智能发展的大浪潮中,已不再仅仅是美国这一超级玩家在玩独角戏了,各国都纷纷参与到这次人工智能的狂欢之中。中国作为崛起中的大国,自然也不甘落后,例如百度创立了深度学习研究院,其他互联网巨头也都在神经网络、无人驾驶等领域崭露头角。
在“深蓝”战胜卡斯帕罗夫将近20年后,谷歌公司开发的AlphaGo在2016年战胜了围棋世界冠军李世石。这一次人机对弈让人工智能变得更加炙手可热,人工智能也不再是科技圈的游戏。此后,AlphaGo又战胜了目前代表人类围棋手最高水准的柯洁,这一次,人工智能的威力震撼了所有人(图7)。有人开始忧惧人工智能的强大,而更多的人则感到兴奋。整个社会都开始加入到这一狂欢之中,随之而来的是整个人工智能市场的新一轮爆发。
图7 当AI战胜人类
结语:保持清醒,无惧变革
从达特茅斯会议上AI的正式诞生,到后续的起起落落,如今,人工智能已经迎来了茁壮成长的夏天。人工智能在经历了它的高山低谷之后,在21世纪又将迎来它的大发展。未来将会是什么样的图景,我们无法准确预测,但可以肯定的是,人工智能将会深刻改变我们的生活。