一条一直上钩的鱼
罂粟是红色的,苹果是香甜的,云雀会唱歌,这些都在我们的意识中。
奥斯卡·王尔德(Oscar Wilde)
作家、诗人、剧作家,英国唯美主义艺术运动的倡导者
在我们深入探究思维克隆人的世界之前,有必要就“让这些(数字化)存在成为我们的克隆”的含义达成一致。这些存在的目的就是获得和表现出人类意识。在这场旅途中,确定一个行之有效的“人类意识”定义至关重要。意识让我们成为“我们”。那些构成了我们意识的品质—记忆、推理能力、过往经历、不断更新的意见和观点,以及对世界的情感投入,都将产生思维克隆人的数字化意识。
刚出生时和早期婴儿时期,没有自我……宝贝有本能的欲望,但是这些欲望并不属于任何人……最早的经验,被限制为本能和控制,当意识的代理从初期意识的迷雾中,获得了“我”(I)和“我”(me)的人类特征……当意识到“我”(I)就是“我”(me)的时候,我就拥有了自我……自我相当于对正在画自画像的自我画自画像。
彼得·怀特(Peter White)
《存在的生态》(The Ecology of Being)
问题是,每个人(无论是科学家,还是门外汉)都有各自不同的意识概念。人工智能领域的先驱之一、MIT人工智能实验室联合创始人马文·明斯基在《情感机器》一书中将“意识”称作“手提箱”式词汇(suitcase word)—它具有多重合理的意思。这一领域其他一些人则抱怨意识“同义词的多样性”“大量术语往往会掩盖潜在的相似之处”。考虑到人类大脑已经进化和正在进化的方式,意识很有可能同样具有渐进性。意识的一个普罗大众的意思就是自我认知(self-awareness)。但是,它是否充分描述了意识的真实本质呢?
当然,一个婴儿的自我认知与一个青少年的自我认知不同,而青少年的自我认知又与中年人完整的自我认知不同,与一个年事已高的、部分认知能力已经丧失的老年人会不同。新生儿和成年人相比,前者拥有多少自我意识(self-conscious)呢?我回想了一下家庭照片—这些照片作为那些我深爱的已经过世的家人曾经活着的证据,相比拍摄照片时有血有肉的人的状态,当然拥有非常不同的意识状态。
虽然很明显自我认知是一个有意识之人很重要的一面,但它不是唯一的条件。我们当然不会把能端水作为网络意识的一种定义。事实上,程序员可以编写出一个简单的能拥有自我认知的软件—可以检测、报告,甚至能对自己进行修正。举个例子,操作自动驾驶汽车的软件,可以被编程定义为:现实世界中的物体,包括地形(“使用传感器导航”)、程序员(“执行任何输入命令”)以及汽车自身(“我是一辆机器人汽车,可以对编程指令作出响应,进行导航”)。谷歌汽车正在做这些事情,一些人会定义它的运行代码,又或者,汽车本身是有意识的。
自我认知软件和机器人不会感受到身体或情感的疼痛或快乐—它们没有知觉。大多数人要求精神主观性(mental subjectivity)要涵盖情感(也就是知觉),以便具备意识,因为对“我们如何感受”的认识是人类意识的一部分,也是“作为人的条件”。但是,知觉仍然不能让我们获得想要的意识定义,因为我们所期望的有意识的存在应该同时是独立的思考者和感受者。
因此,“感觉”(feelings)也不是意识的一个独立描述。身体感觉并不需要复杂的认知能力。
当一条已经上钩的鱼在扭动时,我们大多数人会将这种现象解释为鱼在经受疼痛,而也有人认为这是鱼的本能反应——并没有相应的情绪反应。大多数人都认为鱼是没有意识的,因为我们认为鱼的痛觉神经不会思考、探讨,或者向同类抱怨。相反,我们认为,鱼只是单纯地在依赖非认知反射,因为它试图摆脱这一局面。一旦脱钩,回到它正常的环境,鱼会继续游,好像自己从来没有上钩一样——因此它很容易会再次上钩。我认识一位渔夫,在捕鱼季时,他会钓住、放生同一条鱼很多次。这条鱼似乎在上钩时会感受到疼痛,但它从来不会从这一经验中“学到”任何东西,对于未来的水中冒险,它也不会接受任何“教训”,这说明,它缺乏某种关键的自我意识。
当然,人类可能会本能地拒绝被鱼钩钩住,因为我们知道这会让我们感到疼痛,我们会咒骂疼痛,并且思考如何在之后避免这种事情。我们会警告其他人避免鱼钩的陷阱,传递尽可能多的关于鱼钩的信息。与鱼类不同,我们可能不会轻易地被鱼钩再次钩住,因为我们会记住这次疼痛的经历,并试图避免重蹈覆辙。当我们看到鱼钩的时候,会用大脑去识别鱼钩,从而避开它,同样也会预测下一次渔夫可能会移动到湖的哪个位置。因此,清晰的学习、推理和判断(对已知信息的应用)能力同样是意识的一部分,而自主性也参与其中。在鱼和人类之间,“意识”的定义存在如此深奥的差异。
1908年,聋哑、盲人作家海伦·凯勒(Helen Keller)清晰地描述了如何基于交流,建立人类意识:
在遇到我的老师之前,我不知道我是谁。我活在一个不是世界的世界里。我无法描述那种没有意识,但有虚无感的时间……因为我没有思考的能力,我不会将不同心理状态进行比较。
换句话说,虽然“意识”最基本的定义是醒着的、警觉的和有意识的,但思考和感受还有一个更为突出的意义。像人类一样思考,这个人必须也能够根据黄金法则演化而来的各种社会法则,作出道德抉择。在这一点上,哲学家和科学家相仿,从伊曼努尔·康德到卡尔·荣格,都相信这是人类大脑天生具备的能力。如果你去问世界上任何一个正常人,用棒球棍击打孩子的头是不是有悖常理,得到的答案一定是肯定的。
定义“意识”遇到的另一个复杂问题与潜意识有关,专业人士称其为“无意识思维”。有充分的证据证明,我们并不知道我们思考和感受的大部分东西,有时甚至会在未经思考的情况下行动。就像著名棒球经理尤吉·贝拉(Yogi Berra)总结的一样:“好好想想!你怎么能在同一时间思考和击打?”
弗洛伊德认为,我们无法完全意识到的无意识思维或本我(Id),经常与有意识思维或自我(ego)存在交叉的部分,并在自我中进行自主推理。现代心理学已经与弗洛伊德式的无意识意愿解释渐行渐远,却接受了这样一个事实:“在我们生活的每时每刻,无论我们是完全清醒,还是深度睡眠,潜意识都会展现出自己的存在。”在电影院射击某人的头当然是错的,但是,2014年,一个退休的警察在佛罗里达的坦帕(Tampa)就作出了这样的事情,因为他的无意识思维以一种非常糟糕的方式宣告了自己的存在。美国总统奥巴马在演讲中描述了自己成为总统前,白人女性看到他时如何本能地抓紧自己的钱包,并且赶紧从他身边离开。许多这类反应都可能是对他的肤色作出的潜意识反应。
对人类而言,理性、感情或自我认知,并不一定要一直呈现出来,才能证明一个人是有意识的。不过,某种程度的非理性、无情感、无意识的心理过程,几乎会在每位正在阅读本书的读者意识中一直存在。具有人类意识,就一定意味着同时拥有无意识思维。因为人类思维不可避免地要将某些概念(概括和套路)、动机(作出选择)与决策(避免危险)分流给无意识神经模式,从而腾出更多的大脑能力给有意识神经模式。同样的事情也会发生在网络意识上。我们大多数时候会有意识地走出由无意识控制的背景。
意识难题的一个解决方案是道格拉斯·霍夫施塔特(Douglas Hofstadter)的“意识连续体”(continuum of consciousness)。他声称,意识不是“在这里或那里”的东西,而是或多或少地存在于以下一个或多个方面中—自我认知、情感、道德、自律和升华。霍夫施塔特在《我是一个奇异的环》(I Am a Strange Loop)一书中,勉强承认了蚊子具有一定意识。尽管他没有讨论谷歌无人驾驶汽车,“意识连续体”肯定会把它也视作蚊子的意识量子,又或者不像蚊子,因为它不需要伤害其他动物以实现“生存目的”:谷歌无人驾驶汽车已经完成超过160万公里“无事故旅程”。霍夫施塔特对连续体逻辑的信心在于,他承认甘地和阿尔伯特·史怀哲(Albert Schweitzer)有着比自己更伟大的意识,因为他们展示了高于他自己的典范责任心(自我认知、情感、道德、自律和升华)。
另一种理解意识连续体的方法是反思:
我们认为某些生物是有意识的,在一定程度上是因为他们作出的决策更加复杂,由进化预置的明显过程更少,并能权衡进化过程中产生的不同欲望。运动员决定忍痛坚持肯定是有意识的。在这种情况下,意识被分成了不同等级,因为很明显,运动员作出了比鱼更复杂的决定。
实际上,拥有思维克隆人的人类会被认为“提高了意识水平”“拓展了思维”,形成了网络意识,而网络意识延伸让我们以双思维的方式参与了更加复杂的决策,并且减少了进化中的预置过程,即使是思维软件工程师进行的编程,例如,天文学家卡尔·萨根(Carl Sagan)所谓的人类的“爬行动物冲动”。或者,如果作出的决策是基本的、具有明显的“电路化”,思维克隆人或许被认为具有亚人类意识。
对霍夫施塔特“意识连续体”进行声援的,是2012年7月7日的《剑桥意识宣言》(Cambridge Declaration on Consciousness)—这次签字仪式十分重要,以至于热门新闻杂志节目《60分钟》(60 Minutes)对其进行了拍摄。根据宣言,“一个由认知神经科学家、神经药理学家、神经生理学家、神经解剖学家和计算神经科学家组成的优秀国际团队”总结出:“有重要证据显示,人类不是唯一拥有能够产生意识神经基质的物种。非人类动物,包括所有哺乳动物和鸟类、许多其他生物(包括章鱼),同样拥有这种神经基质。”
凭着对意识连续体长度的限制,生物学家、神经科学家弗兰西斯·克里克(Francis Crick)和意识现代科学代表人物克里斯托弗·科赫(Christof Koch)赞同:“语言系统不是意识的必要条件—没有语言也可以拥有意识的必要特征。当然,这并不是说语言没有丰富意识的内涵。”因此,当我们在本书中讨论意识的时候,我们并不是讨论所有意识,因为意识包括鸟、狗、猪的意识;而我们讨论的是人类意识。
因此,人类网络意识的定义需要足够个性、具体,并具有可确定性。将自我认知和道德与自律划分为一组,情感和升华与移情划分为一组,我们可以得到如下的定义:人类网络意识就是由一小组研究人类意识的专家达成一致后确定的,基于软件的人类级别的自律和移情的连续体。
显然,这是一个以人类为中心的定义。但是,这一定义不存在冗余部分。它不是间接定义,因为是由“研究人类意识的专家”来确定“人类级别的自律和移情”是否存在。它以人类为中心,实际上,这正是我们所希望的结果,因为就像美国哲学家、认知科学家丹尼尔·丹尼特(Daniel C.Dennett)所说的:“无论思维是什么,它都应该是与人类的思维相像的东西;否则,我们不会叫它思维。”[13]换言之,具备人类意识是判断一个主体是否像人类一样思考和感受的捷径。我在一定程度上同意美国最高法院的波特·斯图尔特法官(Potter Stewart)的说法,他在被问到“如何定义色情”时回复说:“当我看到时,我就能判断。”
依靠“人类级别的自律和移情的连续体”,我将那些无意识发生的独立思考和感受也纳入无意识思维。网络意识软件必须拥有一定量的无意识概念、动机和决策,以制造人类级别的思维。就像后台运行的代码一样,这不是搅局者,它的前台信息处理单位不是“有意识的”,是很早以前就已经掌握的编程技巧。
艾伦·图灵首先提出,如果软件能成功通过人类的判断,并被认为具备人类意识,那这一软件就是具有人类意识的。如今,我们称之为“图灵测试”。用他自传中的话说就是:
为了避免对“思维”“思想”“自由意志”应该是什么的哲学式讨论,他提出只需要比较机器的表现和人类的表现,就可以判断一个机器人的思维能力。这是“思考”的操作性定义,而非像爱因斯坦坚持的对时间和空间的操作性定义,以便将他的理论从先验假设中解放出来……如果机器表现出了像人类一样的行为,那么它正是像人类一样在行动。
我们对人类网络意识的定义,收紧了图灵测试:图灵测试需要软件说服一小组专家,而非单一个体;不只涉及偶然的对话,也关乎自律和移情。比如,一个人可能会批评图灵测试说,如果木头鸭子叫的像真鸭子,那么它就是真鸭子,显然这是不对的。但是这个批评太过片面,因为图灵测试的观点是在测试功能,而非形式。如果木头鸭子能像鸭子一样游泳,那么它就是真正的鸭子。如果机器像人类一样思考,那么它就是人类思考者。[14]