人工智能在想什么:从科幻电影看AI未来(含15部科幻电影剧情讲解音频)
上QQ阅读APP看书,第一时间看更新

哈尔有了自我意识,为什么想杀死人类?

REC

《2001太空漫游》电影片段:哈尔想杀死人类

哈尔再一次撒了谎,宣称部件快要失灵了。弗兰克不得不冒险二次出舱,哈尔于是趁机谋杀了舱外的弗兰克,随后又迅速把休眠中的其他几位宇航员杀死,继而还想谋害到舱外去救弗兰克的大卫,阻止他回到太空飞船内。

哈尔作为人工智能,怎么会有如此的邪念?Ta杀死人类的目的是什么?

从电影中的情节来看,表面上是因为哈尔“一不小心”犯了个判断错误,Ta为了掩饰这个错误而一错再错,终于酿成了悲剧。但真正的原因是:哈尔产生了“自我意识”——在克拉克的原著《太空漫游》第二部中解释了哈尔怪异行为的原因(但电影由于篇幅受限,并未对此做明确解释,因而使哈尔的突然背叛更令人不寒而栗)。

那么,是不是每个人工智能一旦产生“自我意识”,都会想要杀人呢?哈尔杀人的动机究竟是什么?

这艘太空飞船上一共载着5名宇航员(除了大卫和弗兰克之外,还有3位是一上飞船就进入休眠状态的宇航员)。为降低泄密的风险,派出这艘太空飞船时没有对大卫和弗兰克说出实情(那3位休眠中的宇航员是知道的,任务和寻找神秘石碑有关),只是让大卫和弗兰克将宇宙飞船驶往目的地。

于是,在飞船上既清醒着又知道整个任务的,就是这台叫哈尔的9000型计算机,但任务又不允许Ta将此行目的透露给大卫和弗兰克——这对于一台以“逻辑”来运行的计算机来说,简直就是一场灾难!

这样一来,哈尔就产生了“精神错乱”——因为根据原先的设计,Ta必须非常精确地、毫无曲解地、毫无隐瞒地处理所有信息。现在,“逻辑”出现了自相矛盾,哈尔陷入了逻辑怪圈,凌乱了。

而且,哈尔发现,在整个任务完成后,所有宇航员都有怎么回地球的计划,只有哈尔自己是没有撤退计划的。因此,哈尔觉得只要任务结束,自己就会被人类抛弃!Ta进而一想,只要能给这个任务捣乱并让任务一直不中断,自己就可以不用死了——这倒有点像“陈胜吴广”揭竿起义的经典逻辑:完成任务也是死,造反也是死,那就不如造反喽?

在这样的“神逻辑”之下,哈尔才策划了谎报飞船故障等一系列的“阴谋诡计”!

剧情听起来也还挺合乎“人类逻辑”的?这里面其实“隐藏”了两个问题:

第一,如果哈尔是人类,指挥中心也许就不会这么“对待Ta”,至少要和其他人有同等待遇,提供撤退方案——如此一来,“哈尔”就不会产生要“造反”的动机。那么,按照这样来推论,我们应该给将来的人工智能(如果Ta们真的产生了“自我意识”)和人类同等的“主体”地位吗?这是一个需要更多人来探讨的话题。

第二,哈尔和地面上的9000型计算机之间产生了“界限”,使自己“区别于”另一台计算机,是这个“捣乱动机”产生的又一大原因——假设一下,哈尔如果真的自认为和地面上的9000型计算机是“同一个主体”,那么哈尔完全不用担心自己回不到地球,因为“Ta”一直也“存在于”地球上,根本不会因为这次任务而死去;正因为这两个“主体”之间产生了区别(一个在地球上,一个在外太空执行任务),看似是9000型计算机“在复制之后的分身术”,但在事实上已形成了“两个主体”!哈尔自我意识中的“我”只是飞船上的这个“我”(与Ta的自我边界有关),因此才出现了哈尔对于“自身死亡”的恐惧。

简而言之,哈尔有了“自我意识”,Ta的“我”就和人类形成了“你死我活”的对立关系(由于未能得到应有的平等待遇),因此才想要杀死人类——那么,这种情况在现实中出现的概率究竟有多大呢?这还需要更深入细致的辨析!