1.3 “三起两落”的螺旋演进
人工智能不同学术分支各有侧重,各有优势。在各学派的不断探索和共同努力下,全球人工智能研究向前持续发展,走出了螺旋式发展的技术演进路径。随着人工智能的发展演进,不同时期人工智能的主流技术路线也在不断变化,技术在更替换代中不断进化与完善。见图1-2,人工智能“三起两落”的阶段式发展与三大学派的持续进步相互交织。
图1-2 人工智能“三起两落”的发展历程
第一阶段是基于符号逻辑的推理证明阶段。连接主义是人工智能领域最早起源的研究学派,从1943年麦克洛克和皮茨提出的神经元数学模型就已开始了连接主义理论的探索和孕育。1946年计算机的发明,给人工智能研究带来了新的思想,人们发现可以从功能角度通过逻辑推理和符号演算实现智能,在人工智能的学术探讨中逐步形成了模拟神经系统和模拟心智两个派别。1956年的达特茅斯会议召开之后,“符号主义”或“逻辑主义”快速崛起,开始成为当时人工智能研究的主流学派,也被称为经典人工智能,引领了第一次人工智能发展高潮。
在符号主义方法推动下,人工智能开始能够像人一样完成一些高层次的认知活动,比如实现代数应用题求解、几何定理证明等,1960年,麦卡锡及其学生开发了可用于符号处理、自动推理的计算机语言LISP,成为当时使用最为广泛的人工智能语言,涌现出像逻辑理论家、STUDENT等一批成功的定理证明和解题系统,并且能力越来越强大。可以说,当时人工智能程序在强逻辑问题的推理能力方面已经达到或者接近了巅峰水平,这也是人工智能第一轮高潮给我们留下来的宝贵财富。
但是实际上,人类的高级认知活动不能够完全通过符号逻辑进行推理,很多复杂问题求解,直觉性的问题决策和判断都没法通过符号推理的形式来实现,当时的人工智能研究者们低估了这些问题的难度,当时的理论和技术还难以支撑对更复杂现实问题的求解。而且,符号主义擅长利用人类已知知识求解已知问题,在智能涌现能力方面薄弱,对于求解未知问题显得办法不多。到20世纪70年代初期,符号逻辑学派发展遇到了基础性瓶颈,工程化推进困难。
连接主义在这一时期也受到重创。1969年,马文·明斯基(Marvin Minsky)和麻省理工学院的西摩尔·佩普特(Seymour Papert)合作出版了《感知机:计算几何学》,证明单层神经网络不能解决异或(XOR)问题,认为神经网络的计算能力十分有限,没有太大前途。再加上受硬件水平限制,当时的电脑也没有能力支撑大规模神经网络模型所需要的超大计算量,受此影响,政府资助机构也逐渐停止了对神经网络研究的支持,连接主义进入长达十几年的消沉期。
第二阶段是基于人工规则的知识工程阶段。这一阶段主要从20世纪70年代中期到90年代初期。经过第一轮低潮以后,人们认识到机器有了逻辑推理能力好像还不是万能的,还需要有很多知识。人工智能研究者开始把重点转向将人类已经形成的知识和经验通过规则化方式嵌入系统。这种技术路线可以通过辅助决策增强和拓展人们生产和业务能力,并且具有向用户解释推理过程的能力。最早的专家系统DENDRAL于1968年问世,能够根据质谱仪的数据推知物质的分子结构。在1977年举行的第五届国际人工智能联合会议上,美国空军首席科学家费根鲍姆将这一领域命名为知识工程,人工智能再次进入快速发展阶段。
基于人工规则的知识处理和辅助决策成为这一阶段人工智能研究的焦点,许多知名专家系统与知识工程在全球不同地方得到应用。美国斯坦福大学研制的细菌感染疾病诊断专家系统MYCIN,能够帮助医生对住院的血液感染患者进行诊断并选用抗生素类药物进行治疗;卡内基梅隆大学为美国DEC公司开发的专家配置系统 R1(XCON),可以按照客户需求自动配置VAX系列计算机零部件,6年内为DEC处理了8万多个订单,每年为DEC公司节约400万美元。专家辅助系统已经能够在实际生产活动中创造经济价值,这给人们带来了希望。这通常被认为是符号主义的第二拨发力。
知识工程阶段的这种手工生产规则和知识的技术路线仍存在较大局限性,主要表现在两个方面:一是这种人工方式的知识生成很难规模化。因为很多实际业务都是复杂规则的支撑,很容易超出预先设定的知识边界,比如在城市复杂环境中自动驾驶可能面对各种各样的路况,遇到千奇百怪的应急情况。自然语言的机器翻译可能是人工智能研究中最早的方向之一,早期大量学者借助语言学知识,通过规则化方式开展机器翻译研究,而通过人工方式很难处理体量庞大、错综复杂的规则,算法能力的局限性与实际业务需求的复杂性之间形成不可调和的矛盾,导致从这一技术路线上迟迟难以取得突破。
二是隐性知识很难规则化。人类智力活动大部分都是隐性知识,是各行业各领域的专家通过长期感性体会或言传身教形成的经验积淀,也是人类智慧的最宝贵财富。但人类专家经验难以量化表达,往往专家很容易解决一个问题,但很难说出来到底是用了什么知识。比如医疗诊断就是一个基于大量隐性知识和经验的决策过程,而一家企业的核心竞争力往往取决于专业工程师工艺Know-How(技术决窍)知识的精深和独到。这些也是很难进行规则化的,不能够通过明确的符号、明确的模型、明确的文字表示出来。此外,这类知识系统的更新和维护成本很高,只能在特定领域内应用,难以大规模推广。
自1982年霍普菲尔德神经网络提出,连接主义在这一时期也得到进一步发展。反向传播(B-P)算法、自组织映射(SOM)、限制性玻尔兹曼机(RBM)等成果陆续诞生,连接主义学派的阵营得到进一步壮大,形成了连接主义发展的一次小高潮。
基于这些模型方法,计算机视觉、自然语言理解、机器翻译等专项技术也得到探索和发展,但当时水平还无法投入应用。而1981年日本投资8.5亿美元研发第五代计算机项目,其目标是建立知识信息处理的新型计算机体系架构,但因缺乏更有效的知识图谱和语义网等知识表示和处理技术的支撑,于1992年以失败告终,被认为加快了人工智能研究进入第二次寒冬的过程。
第三阶段是大数据驱动的机器学习阶段。经历了两次起落后,人工智能发展受到沉重打击,不但学术研究经费锐减,人工智能学者甚至被称为骗子,但各个子领域仍有大批专家尝试采用不同的技术路线向前持续探索。这一低潮期延续了多年,随着20世纪90年代中期以来机器学习、模式识别技术路线上陆续取得实质性进展,人工智能研究活跃度才逐渐得以恢复。
机器学习研究机器怎样模拟或实现人类的学习行为,通过样例或数据获取新的知识或技能,不断改善自身的知识结构和决策能力。简言之,机器学习把人工智能的重心从如何“制造”智能转移到如何“习得”智能。什么叫制造智能?就是把人类知识总结成规律,再根据这个规律制造成系统。而习得智能则跳过了知识的表述规则过程,直接通过抽取挖掘数据中蕴含的知识,实现系统智能水平的提升。这些数据中有人类行为所记录的经验知识和规律,为模型学习提供了丰富的隐性知识。在神经网络、支持向量机、贝叶斯学习等机器学习新模型新方法驱动下,模式识别和趋势预测等人工智能专项技术在这一时期得到快速发展,并且实现了一批产业界的早期应用。
具备海量数据建模能力的深度学习方法的兴起,推动人工智能发展进入大数据驱动的机器学习阶段,机器学习走到了人工智能的最核心位置,并向着知识的规模化建模和隐性知识抽取两大难题迈出了坚实的一步。基于数据获取知识甚至智能的能力达到前所未有的水平。
基于大数据的深度学习模型和算法在机器翻译、模式识别、博弈等各个人工智能分支领域均取得了巨大成功,并很快在产业界得到认可。2015年,在斯坦福大学组织的ImageNet比赛中,微软图像识别算法准确度首次超越人类水平;2016年3月,DeepMind开发的围棋机器人AlphaGo与围棋国际冠军、职业九段棋手李世石进行围棋人机大战,围棋世界冠军以4比1的总比分获胜,让人们惊觉人工智能的力量已经今非昔比。而在2017年,Alpha Zero仅仅训练了3天就战胜了AlphaGo,再次让世人惊叹。
不论是符号主义、连接主义还是行为主义,最早都源发于20世纪中叶,天才的人工智能奠基者们在人工智能发展早期就已经总体勾画出了实现智能的几条主要途径。
人工智能多年的发展,经历过乐观兴奋期,也跌入过悲观低谷期,但在科学家对拥有像人类一样的机器智能的梦想坚定而持续的推动下,人工智能技术始终在不断演进和完善,经历了“三起两落”的理论积淀和螺旋演进,人工智能发展迎来了新生,历史性地进入产业化阶段和技术创新活跃期,也使我们看到了人工智能技术落地并驱动经济社会智能化变革的曙光。