1.3 第一阶段:偏理论的理性主义
NLP研究的第一次浪潮持续了很长一段时间,可以追溯到20世纪50年代。1950年,阿兰·图灵提出了图灵测试来评估计算机展示与人类无法区分的智能行为的能力(图灵,1950)(注意:本书这种“人名,年份”的说明方式用于读者必要时查阅下载资源文件,以确认参考文献的出处)。该测试基于人和计算机之间的自然语言对话,旨在产生类似人的响应。1954年,Georgetown-IBM实验展示了第一个能够将60多个俄语句子翻译成英语的机器翻译系统。
这些方法基于这样一种信念,即人类大脑中的语言知识是通过一般遗传而提前固定下来的,这在20世纪60年代到20世纪80年代后期的NLP研究中占主导地位。这些方法被称为理性主义方法(Church,2007)。理性主义方法在NLP中占有主导地位,主要是由于诺姆·乔姆斯基关于先天语言结构的论点得到广泛接受,以及他对N-gram的批评(Chomsky,1957)。假设语言的关键部分在出生时就已经扎根于大脑,作为人类遗传的一部分,理性主义方法会努力设计人工制作的规则,将相关知识和推理机制融入智能NLP系统。直到20世纪80年代,最著名的NLP系统是基于复杂的手写规则集的,例如模拟罗格氏(Rogerian)心理治疗师的ELIZA和将现实世界的信息构造成概念本体的MARGIE,是基于复杂的手写规则集。
这一时期大致与人工智能的早期发展相吻合,人工智能以专家知识工程为特征,行业专家根据他们所拥有的(非常狭窄的)应用领域的知识设计了计算机程序(Nilsson,1982;Winston,1993)。专家们使用基于细致的表示和工程学知识的符号逻辑规则来设计这些程序。这些基于知识的人工智能系统往往通过检查“大脑”或最重要的参数,并针对每个具体情况采取适当行动,从而有效地解决特定领域的问题。这些“大脑”参数由人类专家提前确定,使“尾部”参数和案例保持不变。由于缺乏学习能力,很难将其解决方案推广到新的场景和领域。在此期间的典型方法是专家系统,例如模拟人类专家决策能力的计算机系统。这种系统旨在通过推理知识来解决复杂问题(Nilsson,1982)。第一个专家系统创建于20世纪70年代,而后在20世纪80年代兴起。使用的主要“算法”是“if-then-else”形式的推理规则(Jackson,1998)。这些第一代人工智能系统的主要优势在于其执行逻辑推理(有限的)能力的透明性和可解释性。就像ELIZA和MARGIE这样的NLP系统一样,早期的专家系统使用人工制作的专家知识库,这些知识在某些特定的问题中往往是有效的,尽管推理机制不能处理实际应用中普遍存在的不确定性。
对于语音识别的研究和系统设计,NLP和人工智能面临的一个长期挑战是在很大程度上需要依赖于专家知识工程的范式,正如Church和Mercer(Church和Mercer,1993)所分析的那样。在20世纪70年代和80年代初期,语音识别的专家系统方法非常受欢迎(Reddy,1976;Zue,1985)。然而,研究人员敏锐地认识到该阶段缺乏从数据中学习和处理推理中不确定性的能力,继而出现接下来描述的第二阶段语音识别、NLP和人工智能。