AI不那么令人印象深刻的一面
AI很难处理逻辑上模棱两可甚至彻头彻尾错误的指令。例如,许多电梯里都能看到这样的指示:“如遇火警,请勿使用。”意思是,如果发生火灾,你不应该使用电梯。对此,大多数人都很容易理解。但它很容易被AI理解为“绝对不要使用电梯,以防万一发生火灾”。
或者以电影《帕丁顿熊》(Paddington)中的精彩一幕为例——那只与电影同名的熊即将踏上它的首次伦敦地铁之旅。当它在自动扶梯上看到了一个数百万伦敦通勤者都熟悉的标识——“抱好犬只”后,帕丁顿迅速离开车站,为的是去偷狗,这样他就能完全按照那个指示要求带一只狗上扶梯了。和帕丁顿一样,AI也很可能会错误地理解这条指示。
AI狂热者无疑会反驳说,编写AI程序来恰当地解释这类指令是很容易办到的。我相信这是真的,但这完全没有抓住重点。在人的整个一生中,这种逻辑上含糊不清的指令也许随时都会在毫无预警的情况下突然出现,没有预先编程的机会。人类之所以能够精确地应对,是因为他们不完全按照逻辑行事。
就连“深蓝”备受夸耀的胜利也有其局限性。因为对自己的对手非常好奇,战败的国际象棋冠军加里·卡斯帕罗夫对比了AI梦想家早期的设想和现实情况。设想是,他们要创造出像人类一样思考、下棋的计算机,也就是说,这种计算机要具有创造力和直觉;而现实是,“深蓝”下棋时像一台机器,其获胜靠的是运用不动脑筋的粗暴数字计算能力,这种计算能力让它每秒能够评估出2亿种可能的走法。[32]
麻省理工学院的传奇教授诺姆·乔姆斯基(Noam Chomsky)对AI击败国际象棋冠军的表现有着清楚的认识。他说道:“这并不比叉车在举重比赛中获胜更令人惊讶。”他还补充说,在某些特定领域,很多其他生物都做得比人类好。例如,蝙蝠理解声呐信号的能力比人类强。但目前还没有任何人认为,只要给予足够的进化完成时间,蝙蝠将在通用智能方面超过人类。
哲学家约翰·塞尔(John Searle)在《华尔街日报》(Wall Street Journal)上发表过一篇评论文章,全面而幽默地评价了“沃森”在《危险边缘》节目中获胜的表现。其标题是:《“沃森”不知道它在〈危险边缘〉节目中赢了》。塞尔指出,“沃森”事先并没有梦想得到这种结果,事后也没有庆祝。它不与朋友聊天,也不同情被击败的对手。[33]
默里·沙纳汉也认识到了这种局限性。他曾说道:“聊天机器人和人形机器人很容易给人相反的印象,前者经编程后可以讲几个笑话,后者的眼睛能跟着你在房间里转。但AI怀疑论者会迅速而恰当地指出,这只是一种幻觉。”[34]
就AI的所有巨大进步而言,到目前为止,其取得的成果只不过是鹦鹉或八哥的数字化等效对象,这些鸟常常因能发出单词或短语的音而令人震惊,但其实它们并不理解自己在“说些什么”。