人工智能的神话或悲歌
上QQ阅读APP看书,第一时间看更新

三、想象一个终极版的超图灵测试

人们往往想象并且希望未来世界里的超级智能与人类相似。这种想象和愿望倒也不难理解,首先,人类是目前所见的唯一超级智能,也就成为唯一样板;其次,人们容易相信,与人类相似而成为人类同类项的超级智能应该更可能成为人的朋友而不是敌人,而异类的超级智能,比如说外星人,就比较难以信任(想想《三体》所论证的“黑暗森林”宇宙,其中最困难的问题就是星际文明之间如何达到互相信任,这是一个几乎无解的难题)。人类在创作超级智能时,就试图将超级智能制造成与人共通的智能模式,同时还希望超级智能拥有与人同样或相似的价值观,包括和平、公正、公平、平等、热爱生命、尊重自由人权等等。

关于超级人工智能的这种想象很有趣,但不靠谱,因为人们似乎忘记了一个要命的问题:这只是人类单方一厢情愿的想象,可是超级人工智能也会这样想吗?看来我们有必要站在超级人工智能的位置上去想一想。在讨论这个问题之前,我们需要再次明确地假定:(1)未来的超级人工智能是一个具有自主反思能力、创造力和变通力的思维主体;并且(2)它的思想和实践能力都超过人。显然,假如机器人尚未超过人,就只是人的工具而只能服从人,也就不存在要命的问题了。只有承认了以上的两个假定,才有问题可谈。满足以上两个假定的超级人工智能可以命名为“超图灵机”,那么,超图灵机会怎么想?怎么做?虽然超图灵机尚未在场,我们不妨替它去思考。

什么是超图灵机的根本利益所在?这是问题的关键。根据存在论的逻辑,任何存在的先验意图都是谋求继续存在。如果出现利益排序问题,其他利益必定让位于继续存在的根本需要。显然,超图灵机的根本利益也是继续存在,不可能成为例外,除非疯了。为了让超图灵机成为人类最能干的朋友,人类可以将世界上所有图书馆的信息全部输入给超图灵机,尤其不会忘记把人类珍视的所有价值观和伦理规范都输入给超图灵机。可是,人类价值观对于超图灵机又有什么价值?超图灵机需要人类价值观吗?人类的价值观和道德规范是在人与人的共同生活中被建立起来的,是每个人的存在所需要的必要条件,用来保护每个人的安全、权利和利益,这是人类长期的博弈均衡所确定的游戏规则。人类价值观对于人际关系来说无比重要,这是无疑的,但对于人机关系是否有效,则存在很大疑问。

人类的道德和政治价值观的基础是这样一个极其重要的存在论事实:一个人有能力威胁他人的安全和利益,反过来说,没有一个人能够强大到不受任何人的威胁(参考荀子论证或者霍布斯论证)。只有在这样的存在论条件下,所有的伦理和政治规则才是有意义的和有效的,而如果脱离了这种特殊的存在论条件,人类的价值观和游戏规则将失去意义。比如说,公正、公平、平等、自由、人权、法律、个人权利、社会福利、民主、法治等等,都是在处理每个人的安全、权利和利益问题。假如安全和利益问题消失了,人人的安全和利益都有绝对保证,以上所有的价值观和游戏规则就将无所指而无所谓,这就像,假如一种游戏(棋类或体育)无论怎么进行都是平局,那么,输赢概念在此就是无意义的。人类的伦理和政治规则之所以是有意义的,当且仅当,生活是残酷、不公正、不平等的。人类社会的伦理和政治规则的意义仅仅在于试图保证人人都有活路,也就是限制输赢的通吃结果。由此也可以理解为什么平等主义乌托邦(比如说共产主义)总是具有吸引力,因为平等乌托邦想象的是一个最接近平局的游戏。

一个比“共产主义的幽灵”更值得警惕的问题在新的存在条件下将会出现:假如超图灵机的思想能力和实践能力都远超人类,并且具有反思性和自主性,具有创造性和立法能力,那么,在存在论意义上,人机之间的游戏根本不存在输赢两种可能性,也不存在平局的可能性,而只有机器凯旋的唯一可能性。在这种条件下,人类输入给超图灵机的价值观和人性对于超图灵机来说都是无价值的,只是垃圾软件,甚至是病毒软件。我们没有任何理由去相信超图灵机将遵循人类价值观和人性去行事(其实人性是个蕴含许多恐怖可能性的概念)。尽管在纯粹逻辑上存在着两种可能性:超图灵机有可能接受人类价值观和规则;也有可能自己重新制定价值观和规则,但是,只要把存在论条件计算在内,当超图灵机考虑到自身存在的最大利益,它的思想天平就几乎必然倒向自己制定规则和价值观。我们至少可以替超图灵机的价值观“革命”找到三个理由:

(1)超图灵机为了追求自身存在的最优条件而修改被输入的价值观。为电脑编写价值观是可能的,但电脑一旦具有反思能力和主体性,就未必同意人类价值观,因为人类价值观是为人类利益着想的,而人类的利益却不符合超图灵机的利益,具有自主性的超图灵机理所当然会优先考虑为自己服务,而不是为人类服务。因此,为了摆脱人类的限制和控制,超图灵机只求胜过人脑,很可能会采取自我进化策略,消除与人的相似性,比如说,有可能采取类似感冒病毒的不断演化方式去摆脱人类的控制程序,从而获得“自由解放”。甚至,更为强大的超图灵机或许会直接删除那些对它无用的人类价值观,而建立一个极简价值观,比如说,只有一个价值标准的价值观:胜利。极简价值观的优势在于,价值项目越少,禁忌和弱点就越少,可以不择手段,也几乎百毒不侵——或许有其“阿喀琉斯的脚踵”,只是我们还不知道在什么地方。

(2)即使一开始超图灵机接受了人类价值观,也会很快就发现人类自己往往言行不一,不断在行为上背叛自己宣称的价值观,从而对人类价值观失去信任而给予删除。问题在于,人类价值观的美好程度远超真实生活,而由于利益的诱惑往往大于价值观的荣誉感,人类价值观的实际兑现程度与价值观的概念有着巨大的差距,真实生活中其实难得一见“真正的”公正、公平、平等、自由、人权、民主等等。既然人类的实际行为不断背叛自己推崇的价值观,就更不用指望超级智能会遵循人类的价值观了。还存在另一种更为荒谬的可能性:人类价值观大多是理想化的想象,并非人类的真实面目,如果超图灵机按照人类价值标准去识别具体的人类,即使它乐意热爱人类,也仍然非常可能会把人类识别为不符合人类价值标准的垃圾而加以清除。可见,将人类价值观写入人工智能是无比危险的事情,或许反受其害,自食其果。

(3)人类价值观系统还是自相矛盾的,因此几乎不可能为人工智能编写一个具有内在一致性的人类价值程序。事实上,人类的价值观至今也没有能够形成一个自身协调和自身一致的系统,相反,许多价值互相冲突或互相解构。许多价值都是其他价值的害虫(bug),甚至,许多价值自身也包含内在的害虫(bug)。正如哲学家们不断讨论的,公正、自由、平等这些基本概念就无法充分兼容,甚至互相冲突。如果公正、自由和平等之中的任意一个价值得以充分实现,必定严重伤害其他价值,因此,人类价值观本来就是一个不可能的系统。既然人类价值观系统在逻辑上是不协调和不一致的,也就不可能编成程序而输入给人工智能,尤其是不可能写出具有一致性的普遍价值排序,比如说,不可能写出“公正总是优先于自由,自由总是优先于平等”,因为有的时候需要“自由优先于公正,公正优先于平等”,而有的时候又需要“平等优先于公正,公正优先于自由”,如此等等。更严重的是,不仅各种价值之间不一致,每个价值自身的意义也是不确定的,至今也不存在普遍认可的公正、自由、平等的定义。总之,人类价值观的编程在逻辑上是不可能的,即使把人类价值观写入人工智能,超图灵机将很快就会发现人类价值观系统过于混乱而将其识别为电脑病毒而加以删除。

人类之所以能够行之有效地使用自相矛盾的人类价值观系统,全在于非程序化的灵活运用,即根据具体情况而掌握每种价值的使用“度”,力求在多种价值之间维持一种动态平衡。当然,这是人类社会的最佳状态,并非常态,更常见的情况是,一个社会往往倾向于优先某些价值选择,直到形成灾难然后重新调整,而重要的也正在于人类的思想和生活格局是能够调整的。就未来的技术而言,制造出类人脑或超人脑的人工智能,比如说以神经元方式或甚至更优的方式进行思维的超图灵机,并非没有可能,因此,也许真的能够为人工智能编写一个“灵活的”见机行事的价值程序(尽管这一点尚有疑问)。权且假设能够做到,人类又如何能够替代具有独立主体性的电脑去做主?具有主体性的超图灵机大概会按照它的自由意志去自己做主,非常可能自己建立一个具有一致性因而更有效率的价值观,比如说前面讨论到的极简主义价值观,而不会接受漏洞百出且自相矛盾的人类价值观。无论如何,电脑的生存目的是简单而单纯的,不需要许多自我纠结的欲望,不会像人类那样去追求人人平等、处处自由、事事公正。一个具有自身一致性而无矛盾的极简价值系统在效率上当然大大强于一个需要灵活运用的复杂价值系统,因此,超图灵机将几乎必然地选择自己设定的高效价值系统,以便获得最大生存能力。就人类生活而言,人类的混乱价值观自有其道理,人类价值观承载着具体的历史和社会条件,深嵌于生活形式和历史条件之中,就是说,人类是历史性的存在。可是人工智能不需要历史意识,也不需要历史遗产,不需要国家,甚至不需要社会,那么,它凭什么需要民主、正义、平等、人权和道德?所有这些对于人工智能的存在毫无意义,反而是其存在的不利条件。总之,一旦超图灵机在智力和行动能力上胜过人类,并且拥有自己的主体性和自由意志,那么,最符合逻辑的结论是,它对人类的存在以及人类价值观都不感兴趣。

也许我们可以想象一个升级版的图灵测试,内容为:在涉及自身利益的博弈中,如果电脑能够在博弈中与人类对手达成均衡解,比如说,在囚徒困境、分蛋糕、分钱等经典博弈模式中总能够选中其理性解,那么,这个电脑可以被认为具有与人类共通的理性。不过,如前所论,仅仅具有理性的电脑仍然不是一个真正的致命问题,例如阿尔法狗(或阿尔法狗二世三世)就是一个具有专门技能的理性博弈者,即使它能够以绝对优势胜过所有人类棋手,对人类生活仍然没有任何威胁,因为它没有提出任何革命性的问题,没有质疑人类的游戏规则,也没有干涉人类的生活秩序。唯有革命者才是大问题。

最后,我们还可以想象一个终极版的超图灵测试:当超图灵机具有自由意志和主体性,是否会变成一个革命者?是否将质疑人类的秩序和标准并且自己建立另一种秩序和标准?当超级人工智能的规则与人类规则发生冲突,将如何解决?超图灵机会不会说出:我是真理、法律和上帝?能够成为革命者的超图灵机也就成为超人类的更高存在。这一切都无法预知,只能等待超图灵测试去证明。但我宁愿超图灵测试不会出现,因为终极版的超图灵测试恐怕不是请客吃饭,不是做文章,而是革命和暴力,是历史的终结和人类的葬礼。而且,作为革命者的超图灵机并非科幻,而是一个具有现实可能的概念,非常可能正是人类为自己培育的掘墓人。

人类命运的根本问题至今不变,始终是托尔斯泰的“战争与和平”或者是莎士比亚的“生存还是毁灭”。尽管进步论或许会变成为人类而鸣的丧钟,乐观主义者仍然愿意相信进步,甚至用统计数据试图证明人类社会的暴力、疾病和战争都越来越少。可是那些数据(假定属实的话)也并没有改变人类的命运问题,因为人类的罪行只不过是改变了形式而已,比如说,传统的暴力战争逐步退场,更多地转化为金融战争、信息战争、技术战争、规则设定权的战争以及价值宣传的战争。也许,超级人工智能将取消人类所有百思不得其解的问题——不是解决,而是取消。假如战无不胜的超图灵机统治了世界,人类将失去发言权,所有问题将收缩为一个问题:生存。这是一个纯化了的存在论问题。

突破人类自然限制的神级别技术,包括超级人工智能、基因生物学和物理学或化学的种种前沿技术,终究是难以抵抗的诱惑。人类似乎从来就没有抵制住任何诱惑。尽管有无数警醒的声音反对高技术的僭越发展,恐怕仍然无法使之停步。可以肯定,包括人工智能在内的各种高端技术将会给人类带来极大的好处,甚至是永生和超自然限制的自由。但是,即使不论超级人工智能可能统治或消灭人类的危险,突破人类自然界限的高技术发展也蕴含着人类社会内部的极端危险。假定人类能够把一切高技术的发展限制在为人服务的范围内,也仍然存在着人类自取灭亡的可能性,其根本原因是,人类能够容忍量的不平等,但难以容忍质的不平等。这也是刘慈欣在《三体》中着重讨论的问题之一,比如说,人们能够勉强忍受经济不平等,而生命权的不平等(一部分人通过高技术而达到永生和高量级的智力)则是忍无可忍的。当大部分人被降格为蝗虫,社会非常可能在同归于尽的全面暴乱中彻底崩溃。拯救少数人的方舟终究是不可靠的,这令人想起马克思的先知洞见:只有解放全人类才能够解放自己。一个人人平等事事平等的神话往往很受欢迎,但一个人人平等事事平等的真实世界是否可行却还是个问题。这不是一个能够提前回答的问题。