五种未来前景
说得委婉一点,这是个远未尘埃落定的问题。对于在由机器人和AI主导的未来世界里的人类命运,各种相互冲突的观点可简要总结为以下五种可能:
●毫无分别
●糟糕透顶
●好到极致
●灾难临头
●永生之匙
本书的目的是借助这些不同的可能性绘制出一条路径。在论述即将开始之际,我不能也不应该抢自己的风头,所以,我把前三种可能结果留到后续章节中讨论。现在,我必须简略地谈谈第四种和第五种可能。
对任何不熟悉该主题文献资料的人来说,我用来描述第四种和第五种前景的词语(即灾难临头、永生之匙)似乎有些夸张。但所有钻研过这些文献的人都知道,它们并未言过其实。技术人员认为,一旦制造出达到人类水平的AI,超人类AI的出现几乎是必然发生的事情。与人脑不同的是,数字大脑可无限制地复制,且能够被提速。
这就引出了AI革命可能是人类最后一次进步的想法。一旦我们创造出比任何人类个体都强大的AI,它们就会发展出更强大的智能,完全超出我们的理解力,超越我们的控制力,诸如此类。对这些新型智能体来说,我们即使真的不算是累赘,也是低等品,而且一文不值。它们可以轻易地决定是否摧毁我们。2014年,斯蒂芬·霍金爵士曾对BBC(英国广播公司)表示:“全AI的发展可能意味着人类的终结。”[5]
同样,卓越的剑桥大学科学家、皇家天文学家(Astronomer Royal)马丁·里斯勋爵(Lord Martin Rees)将AI获得超级智能的时间点描述为“我们的最后时刻”。他把人类智能主导这个世界的时期视为昙花一现。[6]
在文献资料中,很多人将某些形式的AI变得比人类更智能的时刻称为“奇点”(Singularity)。当其到来之时,后果很可能远远超出对个体的影响。默里·沙纳汉(Murray Shanahan)是伦敦帝国理工学院(Imperial College London)的认知机器人学(Cognitive Robotics)教授,他在下文中概括了许多AI专家的观点:
依此类推,若指数级的技术进步会带来如此巨大的变化,以至于我们现今所了解的人类事务将走向终结,那么人类历史将会出现奇点。我们认为理所应当存在的体系(经济、政府、法律、国家)将不会以目前的形式存留下来。人类最基本的价值观(生命的神圣性、对幸福的追求、选择的自由)会被替代。[7]
但是,出现奇点的世界并不是对人类完全不利。事实上,对AI狂热者们的“大祭司”(领袖人物)雷·库兹韦尔(Ray Kurzweil)来说,情况恰恰相反。他强调人类与AI的融合,实际上能使我们把自己“上传”为非物质形式,从而获得永生(我猜想这对我们所有人来说都是一种更积极的前景,我不了解你们的想法,但就我个人而言,为了永生而被“上传”为某种形式的AI对我未必有吸引力)。[8]
对我这样的人来说,除了“上传”技术和永生前景,有关AI能力和奇点降临后人类命运的信息都让我如同一头扎进如科幻小说的世界一般。尽管如此,正如我会在后记中所表明的那样,我并不排斥这些想法。当我们这个时代中一些最伟大的科学家(如斯蒂芬·霍金爵士和里斯勋爵)均已认真对待这些前景时,我几乎没有资格去蔑视它们。
但我深切地意识到,奇点降临后如科幻小说般的世界,与机器人和AI的日常进步之间存在着错位,这些进步时刻都在对经济产生着影响。这既需要企业和个人在追求自身利益时做出决定,又要求政府在寻求公共利益时做出决策。
奇点对这些决定会有何影响?“文化经理人”约翰·布罗克曼(John Brockman)认为,所有这些当前做出的决定应该都会受到即将到来的革命性变化的强烈影响。布罗克曼与全球大多数顶尖的AI科学家和思想者都有联系。他写道:“人们无须成为超级AI就能意识到,毫无准备地向着人类历史上最重大的事件直奔而去是愚蠢至极的行为。”[9]
另外,加利福尼亚大学(University of California)的计算机科学教授斯图尔特·罗素(Stuart Russell)声称,不做好准备迎接奇点是自满自得乃至彻头彻尾不负责任的表现。他曾写道:“如果我们收到了来自更先进的外星文明的无线电信号,说他们将在60年后到达这里,你不会耸耸肩说:‘嗯,60年后?’若你有孩子,你就不会这样。”[10]
我强烈反对这种观点。我不会基于这样一个“无线电信号”立即匆匆忙忙做出重大决定。首先,我要知道该信息是否真的来自外星文明,这种来源记录是否为准确地预告对应行动或预测相应事件起过作用。当然,如果这是第一次收到的“信息”,则不会有这种记录。它会让我警惕起来。而且我还会敏锐地想到H. G.威尔斯(H. G. Wells)创作的科幻小说《世界大战》(The War of the Worlds)。1938年10月30日,由此书改编的著名广播剧播出,主播是奥逊·威尔斯(Orson Welles)。在这部剧中,来自火星的外星人入侵新泽西州,使得成千上万的美国人受到惊吓,并造成了大面积的恐慌。
然后,如果我认为该信息可信(尽管牵扯到奥逊·威尔斯和H. G.威尔斯),那么我就要知道我们能做些什么,是为战争做准备还是策划一场欢迎派对?我还要通过该信息猜想外星人何时会来,是200年后还是500年后,或者就在某一时刻?根据外星人到达时间的紧迫性和距离的遥远程度,我们应该做的事情可能会迥然不同。
事实上,那些声称奇点已近的人并非更先进的生物、外星人,而是地球上的某个异教团体的极端狂热者。而且,尽管他们热情很高,尽管他们也许是对的,但我们有很充分的论据证明他们是错的(我将在书末讨论这一点)。
此外,时间尺度真的很重要。我之前引用过里斯勋爵的话,他相信AI正在蓬勃发展,且具有无法抑制的力量,认为机器可能会“在几个世纪内”接管一切。别担心,这不可能,若奇点降临这个世界的时间像里斯勋爵相信的那样被推迟了那么久,那么有可能的是,人类或许早就因为核战争、小行星碰撞、瘟疫或天知道什么事件而灭亡了。或者也许在那之前,人类会以这样或那样的方式得到救赎。
从宇宙的规模尺度来看,几百年也许仅仅相当于一次心跳,但对公共政策的设计者而言(更不用说我们所有个体),它可能是无限遥远的。对奇点的关注会将决策者在考虑此时此地的日常问题时引向“花园小径”。另外,这些问题很有可能会伴随我们多年。的确,日复一日可能很容易变成年复一年,乃至溜走了一个又一个世纪。因为未来某个不确定时刻可能到来的奇点,现在就改变我们的生活、制定公共政策以做好准备是代价高昂的愚蠢行为。更糟糕的是,它会让人们看不清楚机器人和AI在不久的将来会呈现出的明显进步,从而导致我们对摆在眼前的事情毫无准备。这很危险。
因此,我在本书一开头就做出了重大决定。我将奇点降临的世界及其带来的一切影响置于末日的地位(你很可能认为,这恰恰是启示录和永生的应许必定属于的地方)。书中的其他所有内容均指向前面的世界(当下的世界),在这个世界中,虽然机器人和AI变得更加重要,但人类并未被AI超越,更不用说被其消灭。我们也没有被上传到网络空间。
不过,这并不意味着我们应该低估(更别提忽视)机器人和AI对经济和社会产生的影响。它们将带来巨大而深刻的改变。我们也许会走向奇点,也许不会,但我们正在走向AI经济。本书讲述的是,对人类来说,AI经济将会是什么样子的。