1.1 认知加速的奇点
认知是如何基于HFL演化的?如果每个循环的周期都无限缩短,趋近于零,它如何影响世界的运转?会带来哪些非线性的变化?
1.1.1 演化和认知,如何基于反馈形成
地球生命形态的开始,是在引力和电磁力作用下,在无数粒子相互碰撞产生的可能性中,自发秩序形成了生命形态演化的“假设”,再由自然选择的“反馈”作用演化而来。海底热泉口源源不断地喷出生命形成所需要的基础元素,在火山岩上和细胞大小接近的孔隙中,反应的产物越来越复杂。在一个开放、自由交换的大系统里,随机的自我组织就像彼此之间在互通信息,RNA、DNA等可以自我复制的生命分子相继出现,直到形成了后来细胞需要的一切物质。就像斯坦利·米勒后来在芝加哥大学的实验室里,用烧瓶实验模拟的情况一样,在40亿年前的海洋和大气环境中,二氧化硫、二氧化碳、硫化氢可以自然地产生几种氨基酸。生命的有序结构出现,这是自然界物理和化学的演化速度,在随机假设下生命演化要取得新进展,是以亿年为计量单位的反馈周期。
从随机假设开始
接下来的进化方式到了基因变异(也有观点认为基因的变化不一定是在原有基因基础上发生变化,也可能是从非编码部分新生成的)和自然选择主导的生物阶段。在这个阶段,以真核生物为例,每一代平均有0.006个碱基突变(Drake et al.,1998),拥有3亿对碱基的人类平均每一代会出现60~80个全新突变。而这种变化是有限变异,不是完全随机的。大约7万年前,从东非开始的地理迁徙,那些更有开拓精神和创造力的早期人类个体在新大陆生存下来了,他们是基因变异的随机假设形成种群特征多样性分支中的一个。作为自然选择的反馈结果,开拓精神和创造力就会反映在因这些基因特征而存活下来的下一代的基因里。1996年,科学家真的发现了一种与开拓精神和创造力有关的基因,叫DRD4,全称是多巴胺受体基因D4(Dopamine Receptor D4 Gene)。这种基因让大脑产生一种奖励机制,一旦我们有了开创性的新想法,大脑就会分泌让自己感到愉悦的多巴胺。这是生物进化的速度,人类基因变化的HFL周期需要以万年为计量单位。
此后,人类对自己的未来演化,开始通过主动探索和假设创造可能性,开始有能力想象不存在的东西,有能力主动选择。对于人类,选择权甚至比选择本身更重要。正是人类展现出的这种独特且强劲的选择欲,驱动人类区别于其他生物,进而成为地球上的优势物种。大约500多年前从欧洲海岸驶向美洲的帆船,几十年前大推力火箭带人类登陆月球,规划中的火星基地打印拼装方案,人类的主动探索体现在地理和空间的拓展过程中认知能力的同步提升。这是人类智能的演化速度,从随机假设和自然选择,过渡到主动基于经验假设和基于实践反馈的人为选择,HFL的周期从以万年为计量单位到以十年为计量单位。
主动实验(无论是思想实验还是发生在客观世界的实验)和严谨抽象的知识推理体系,以此高效地形成假设,这是人类快速进化的一部分原因。从随机的假设到机器学习算法基于统计经验的假设,再到科学家有创造力的假设,帮助我们从具象的三维世界中探索出抽象的数学、哲学,以及建立更完善的时空认知;帮助我们通过想象构建出文化、制度等共同认同的社会秩序来加强协作。
新的假设总是要在实践的反馈中被证明有效,且可以反复使用才行。快速的有用性测试反馈,坚持这一实践性原则是人类快速进化的一部分原因。再次追溯到7万多年前,最有说服力的例子可能是动物陷阱,在南非的Sibudu洞穴,威特沃特斯兰德大学的考古学家Lyn Wadley发现了人类正在猎杀大量小型,或许有危险的森林动物的线索,包括丛林猪和被称为蓝羚羊的小型羚羊。捕捉此类小动物的唯一可行方法是使用圈套或陷阱。这可能是我们现在能推测到最早的人类在“假设和反馈”中学会现代性复杂策略中的一个例子。而今天,人类从有限、长周期、不精准的个体感官观察反馈方式,已经升级到数字化时代,海量、实时、精确的大数据反馈,基于规模数据的算法实现了更强大的函数拟合能力,这意味着发现规律和认知世界的能力有了空前的飞跃,很多事情会因此被彻底改变。
复杂系统的共同起点
从基础的粒子组合到演化出生命与智能的复杂系统,虽然它们在不同阶段的形式不同,但都是在以不同的形式探索新“假设”,并在相应的“反馈”驱动下做出演化方向的选择,都是从简单的规则开始,这就是演化的HFL通识机制。
机能简单的蚂蚁在寻找搬运食物最短路径的过程中,个体通过随机探索和路径假设,加上群体内相互反馈,可以迅速发现和调整路径。在随机和混乱中涌现秩序,形成一个有效运转的复杂系统。在个体上,微小片段的基因变异也是在独立、相对随机地不断提出新假设,并通过自然选择的反馈决定不同基因变异的扩散,使群体向前演化为更高级的生命形态。
我们想讨论的HFL机制几乎体现在任何领域。原始人通过持续新的尝试在反馈中学会新的技能,更新对外部世界的认知假设。计算机算法工程师用贝叶斯思想训练机器学习模型,这种思想认为,假设我们并不知道硬币是什么样子,我们应该假设它“扔出正面的概率”是一个未知数,这个数字需要从观察到的测试反馈来不断逼近更可信的假设值。这种方法已经在疾病预测、自然语言处理等领域产生实际效果,适用于几乎所有可以通过反馈中的经验归纳来学习规律并改进实践的课题。而且,我们不单单是通过归纳获得反馈。
HFL的演化现象
一切从改变假设开始
假设和反馈的效率不断加速我们的进化,如果我们能够在某个特定的假设空间内迅速穷尽空间内的可能性,之后就需要跨越到新的、更大的假设空间才能获得新发展。人类从河流文明到星系文明,再到更广的假设空间,即新的认知“域”。比如从“硅基电子”到“光子计算”再到“量子计算”的模式切换,就是基于不同的物理“域”;比如从化工合成材料与生物合成材料对人体和环境有不同的友好性;比如三体人以智子干扰新粒子发现的故事中所描述的。人类的进展就是不断突破原有“域”的假设空间约束(人类的碳基形态最终只能感受和思考宇宙中很有限的部分),再开启新的HFL。
加速缩短的HFL周期
不断提出新假设,不断切换到新的“域”,这个过程并不会一帆风顺。人们说亚里士多德的很多观点后来被证明是错的,但这并不妨碍他在人类历史上的影响力。甚至有更夸张的犯错例子,通过切除前额叶治疗精神疾病的治疗方法曾经获得过诺贝尔奖,但很快这种治疗方法就被否定了,现在看来这荒唐且可怕。科学的意义就在于,虽然人类在有限的认知条件下永远都在不停犯错,但人类的进步在于不断加速提出新的假设,并通过反馈检验。
1.1.2 提出新假设的能力正在指数级加速
自2007年以来,新蛋白质结构的积累速率似乎已经趋于稳定。现在,探索新蛋白质结构的任务可以借助深度学习算法快速而海量地建立新的结构假设供测试。在很短的时间里,DeepMind已经破解了几乎所有已知的蛋白质结构,算法首先要将氨基酸链的样本数据输入转换成算法可以理解的特征空间,从样本上学习规律并提出新假设。在上述蛋白质结构预测的基础上,科学家们又研究出了利用人工智能设计自然界中尚不存在的新蛋白质的方法,ProGen模型设计出的新蛋白质与已知蛋白质相似度低至31.4%,却与天然蛋白质一样有效,这能够变革抗癌药和疫苗的研发工作。
生物的基因变异也是“提出新假设”的过程,但基因技术的发展改变了这种“提出假设”的方式。CRISPR基因编辑技术与人工智能相结合,更快地对致病基因进行高通量的自动化筛选,使研究人员更有效地找到新的治疗靶点。在更多领域,算法探索数据中的统计规律,以统计、模拟、演化、生成、搜索、博弈推理等方式发现新“假设”。现在,一流的棋手也在借鉴AI并通过这种方法提出新定式。
此外,基础的关联关系探索也是一个重要的数据驱动发现新假设的方法。科学家在表型组学的分析中寻找基因与疾病的关系,通过层级聚类等方式寻找共性。最近,人们通过关联分析发现指纹和肾纹理之间存在还无法解释的相关性,诸如此类的新假设在验证的过程中会引导人们发现新的知识“域”。在算法可以解构的领域,进化速度很快就会突破原来在现实世界中的诸多束缚。
新假设在反馈中加速演进
当我们走出家门,发现街道湿漉漉的,我们的第一个想法是在下雨。但是阳光灿烂,人行道干燥,所以我们立即排除了下雨的可能性。当我们向一侧看时,我们会看到一辆道路清扫车停在街上。我们得出的结论是,道路潮湿是因为清扫工作。这是一个从观察获得反馈来验证假设,并得到结论的过程,是智能生物的基本功能。我们不断地根据自己所知道的和所感知的信息来推断,大部分都是潜意识发生,我们并没有集中注意力或直接应用注意力。
科学家也是这样获得新发现的,在多数情况下,我们都面临着信息不完备的观察,然后基于此得到假设,再根据我们的知识来寻找一个可能性最大的解释。导致街道潮湿的原因可能有很多,人类有快速判断假设的能力,我们需要算法能够自主基于假设进行检验和推理,才能快速演进。例如,溯因学习算法(Abductive Learning)就能够选择最有希望的假设,快速排除错误的假设,再进一步寻找新假设和得出可靠结论。
传统的机器学习是如何工作的?首先,我们要有很多样本数据来提供分析需要的充足信息量,需要有很多标签来标注这些样本的特征,帮助算法从不同的维度理解样本。这样就可以做监督学习了,例如训练出一个判断邮件是否是垃圾邮件的分类器,这是一个从零开始学习样本的归纳分类工作,多数的机器学习都是用这个基础框架来工作的,具有归纳的能力但没有演绎和推理的能力,也没有知识记忆,新的自监督学习算法也并没有超越归纳法。而Abductive Learning的模型理念有希望突破这个局限,从而使机器学习能够更智能地解决更广泛的问题。这一理念认为,建立假设可以借助一个已有的知识库和一个初始分类器。在学习过程中,我们先把所有的数据提供给这个初始分类器,这个初始分类器会基于归纳能力得出一个结果值,再将其转化为一个知识推理系统,将刚刚通过归纳法学习到的新知识和原有的知识做比较,并尝试通过不同的参数调整方式使偏差反馈最小化。最后我们可以基于调整后的结果值重新放回样本集,训练新的分类器,重复这个过程直到分类器不再变化,知识库和事实一致。
这种方式是演绎和归纳的一种变体,结合了知识系统,还远未完善。但是,算法在学会了这些演进新假设的方法之后,就能够基于自洽的知识体系自学习、自主扩展,并借助算力和处理海量数据规模的优势,不断加速。
1.1.3 反馈数据规模增长正在指数级加速
在物理世界,新假设需要反馈数据的快速检验,特别是来自现实世界的实践反馈能够最终确认新假设的可用性。走进“灯塔工厂”,低成本、低时延的物联网使感知能力几乎无处不在,从环境数据(温度、湿度等)和操作数据(速度、流量等)到网络数据(数据包数据、SNMP等)。特别是像压力、振动、位置、电压、电流、功率和能量等多维度数据都可以被低成本持续采集。以温度传感器为例,根据精度、温度范围、响应时间和稳定性等标准,可能有数百种可用传感器供选择。据IDC预测,每年连接设备数量的增长速度在30%左右。DataProt的数据显示,到2025年,每分钟将有15.22万台物联网设备接入互联网,总体规模将有416亿台设备。
机器每毫秒可生成数百个数据点,在生产场景,未来的工厂模式是实时一体的连接、反馈、改进。数字工厂中的集成机器数据可以通过REST和GraphQL API完整移植,集成到现有的BI、自定义工作流程和报告中,并集成到其他工厂应用程序中;也可以轻松将数据从云直接发布到Azure、AWS、SAP和任何其他云、大数据或企业应用程序。项目运营者可以跨时间和地点实时了解工厂车间发生的事情。
自动驾驶车辆通过十维以上的前融合感知数据获得来自外部世界的反馈,现实世界数字化的门槛越来越低的另一个动力是,AI突破带来的多模态交互使万物皆能以更自然的交互方式高效互动,这也会与规模的进一步扩大形成正反馈,我们正在越来越接近这个加速的转折点。
在生活场景,用户互联网已经初步完成了对“人”的数字化,从客观描述性特征到内在特征推理都可以被有效建模。虽然对用户流量的战斗还在社交和算法之间进行,然而,在以“物”为中心的产业场景网络化已经在不断加速,商品流和资金流都在加速数字化。一切可数字化连接的对象最终都将被数字化,否则就无法适应数字化世界的进化速度,从而被淘汰。生产、生活、产业这三个场景最终会编织成一张反馈数据网,实现对社会资源的整体优化。
1.1.4 反馈速度正在呈指数级加速
在同样的时间内,更快的反馈速度代表更高频率的假更新,更短的周期使同质化的竞争变成了代际的竞争。20世纪50年代美国制造业的策略是规模领先,20世纪70年代是价格竞争第一,20世纪80年代是质量竞争第一,20世纪90年代则开始转为市场速度第一,英伟达在游戏显卡的竞争中就是以此实现了对领先者的超越。
快速的反馈除了大规模使离线世界数字化之外,还有快速的数据处理和计算速度。今天的技术进展已经和当时的市场环境有极大的差别,用户的访问和点击行为可以形成几乎实时的个性化反馈,发现流水线设备异常也可以被不间断地实时反馈,甚至可以做到提前预测。更复杂的策略,像反欺诈模型已经能够做到在交易行为发生时进行毫秒级响应,将现有的对可疑交易的“事后反欺诈”(主要通过电话确认)转化为事中就提醒,极大地减少了银行的损失,同时还节省了银行的人力成本和运营投入。
OpenAI曾发布,AI算法效率每16个月提升一倍,并认为这是新的摩尔定律。英伟达的CEO黄仁勋则认为大语言模型的计算速度已被提升100万倍。
此外,低时延的5G应用普及等新技术也让数据连接和流通的速度有了巨大的进展,而且有很多提升速度的技术创新正在不同的细分领域大量涌现。例如,在最大化网络流的技术创新方面,最近有六位计算机科学家发布的新算法,称可以在最大流问题上无限接近理论上的最快速度,这是一种组合最优化问题,主要讨论如何充分利用装置的能力,使运输的流量最大。其中使用了一种“低拉伸生成树”(Low-stretch Spanning Tree)的方法来简化以往的图算法,以更快的方式检查整个网络,并减少了网络中的涟漪效应。
有了高效的网络基础设施,在很多领域,我们已经接近速度的终点,那就是接近实时的反馈,特别是在“ToC”的应用中,用户已经很难感知到时延。
库兹韦尔提到的级联S曲线
最终,在仿真模拟中加速
Waymo的自动驾驶策略正在模拟器中以革命性的方式加速进化,DeepMind通过自对弈训练策略发现了人类难以发现的新定式,从零开始训练的AlphaZero以4小时击败最强国际象棋AI,2小时击败最强将棋AI,8小时击败李世石版的AlphaGo。连最强围棋AI AlphaGo Zero也不能幸免,训练34小时的AlphaZero战胜了训练72小时的AlphaGo Zero。
除了下棋,模拟策略还可以用在优化计划、减少盲目的资源分配与能源消耗等更多领域。其实,人们在熟练使用的A/B测试就是模拟的最简单形态,而元宇宙可能是未来最大的模拟引擎。虽然理论上并不是整个世界都可以用数字来表征,但数字化已经可以对我们身边几乎所有的事情进行高效且精确的抽象,使之成为可计算的对象,并且让测试环境和现实世界同步演化,避免失效。这使我们更容易通过数字孪生将业务全景装进一个模拟器,通过更充分的“假设”测试,全样本、实时地反馈每个细微的变化,追求最大限度的优化,让数字化认知升级的速度不断接近极限。
1.1.5 叠加效应:HFL周期呈指数级缩短
单纯的信息爆炸会降低效率,更重要的是将反馈信息和科学严谨的假设对应组合来完成校验,通过Pairwise的“紧耦合的反馈调优”实现持续高效迭代。在这个基本的组合里,“假设”就是最大化利用有限的已知信息所做出的推测,并需要通过有针对性的测试获得“反馈”来修正偏差。剩下的,就是为这个简单机制持续加速。
互联网产品更加强调速度,从很早以前开始,搜索引擎公司每天都会有上百次的更新、升级、上线,网页搜索的结果页,每一天都有几十个等待测试上线的升级项目。这种产品和我们买回家多年不换的电器完全不同,网络产品时刻都在更新,时刻都在被应用反馈重新定义。
在快时尚领域,设计是对流行趋势的假设,而用户的浏览和消费行为反馈可以帮助我们迅速提高假设的确定性。如果建立假设像猜谜游戏,那么快速的反馈可以让我们比别人更早知道答案。线上快时尚DTC(直接触达消费者)的整个生产周期通常只有7~15天,ZARA的整个生产周期为15~30天,而传统服装业的整个生产周期为42天。SHEIN通过每天数千款上新刺激用户主动访问,而这些访问带来的实时反馈,在用户行为和产业SaaS之间快速迭代业务策略。更新的产品就有更多、更快的反馈,从而可以更快地推出新品,如果能够形成这样的正反馈,就能领先行业。行业演化也正在从追求同质化的规模到差异竞争,再到缩短创新周期提升创新密度以获取更高附加值。在更多的行业里,新生产力正在提升反馈效率,反过来,反馈效率也在加速生产力升级。
对于互联网和深度学习代表的AI算法,竞争的焦点同样是在循环周期的缩短上。以自动驾驶为例,为无人驾驶汽车开发的开源软件,用于目标检测或路径规划的开源数据集,能够在更大范围应用中建立更强大的反馈效应。通过云端软件更新,一辆特定的无人驾驶汽车控制行为中的一个适应性“突变”,有可能快速传播到数百万其他车辆上。机器可能呈现出不同的进化轨迹,因为它们不被有机体进化那套机理约束。算法可以在海量反馈数据中实时提出新“假设”,并在反馈流数据中即时验证,这种循环速度是生物进化无法比拟的。从互联网到AI应用的竞争,焦点在于采用什么样的反馈机制实现学习速度的领先。
在科技前沿的生物医药领域,根据《自然》(Natrue)杂志的数据,一款新药的研发成本大约是26亿美元,耗时约10年,而成功率不到10%。创新者正在通过机器学习、深度学习等AI技术结合量子化学、分子动力学等生物化学知识,建立含有多个药物关键性质参数的AI模型和物理模型(主要表现为AI软件),将药物分子的化学语言转化为与之对应的程序语言。这样就可以在靶点发现、苗头化合物筛选、先导化合物优化、候选化合物的确定等环节进行大幅加速。
2021年2月,美国AI药物研发企业Insilico Medicine(英矽智能)宣布,其利用AI技术发现了特发性肺纤维化的全新靶点,以及针对该靶点设计的新化合物。这一靶点的发现和药物化合物的设计发现仅历时18个月,成本消耗为260万美元。而在传统新药研发的过程中,一个全新靶点的发现就要3~4年,成本高达数千万美元。当然,这些进展还需要临床价值的最终反馈来评价。
除了在生物医药领域,认知加速的作用会体现在几乎所有的事情上,创新无处不在,已有事物的成本会迅速下降,这会为每个人带来巨大的财富效应。
这种竞争的终点必将是基于软件定义产品和大规模反馈数据的算法自学习,因为这已经超出人类能力和组织的响应效率极限。所以,我们的业务最开始就应该建立在新一代的模式之上才能参与未来的竞争,参考HFL考虑一切问题的本质,因为通过加速HFL几乎可以解决一切问题,后面我们会就如何更好地建立假设与反馈机制展开讨论。
不断接近零时延反馈
1.1.6 可能性穷尽点之后,是认知加速的奇点——在人类的认知视角之外提出新假设
一方面,从获得反馈数据的速度来看,无论是否存在算力推动的智能奇点,HFL有效迭代效率的不断提升,并以此推动的“可能性穷尽点”离我们更近、更具体,且正在加速到来。空间上的分形结构可以升维,时间角度的频率提升也在帮助我们打开新的世界。
另一方面,从处理数据的算法来看,深度神经网络推动的这一代AI技术,本质是在特定规则假设下不断分解问题,逼近“可能性穷尽点”的工作模式。算法对潜在模式的全面统计能力,提升了探索假设空间的宽度和多样性,在凡是可以转化为搜索类问题的领域,例如符号化的形式推理,算法很快会超越人类。在人类认知空间之外的视角提出新假设,这种能力可以在近乎无限反馈数据的条件和充足算力的推动下,在模拟空间里,近乎无限地对更短周期的HFL机制做重复的循环加速,不断接近真正的“可能性穷尽点”,逼近认知范式和信息的极限,在某种意义上,这就是认知极限的临界点。
当谈到某种智能的转折点,大家总是本能地感到恐惧。人类的古老大脑部分控制着我们的基础生理活动,比如呼吸和运动,这是生物进化的结果。正因为这部分大脑的工作,人们会因为害怕死亡而产生恐惧,会为了延续基因而努力繁衍,会有占有、控制的欲望。而人工智能目前还没有形成类似人类古老大脑的结构和能力,也没有进化压力、没有情感,关闭承载着它的计算硬件也不会让它感到害怕。同样,人工智能也没有目标,如果没有特别的指令,也不会想消灭人类,除非我们赋予它目标。我们恐惧是因为我们总是把比自己更聪明的智能当成也有自己欲望的一种存在,也许超级智能和人类有着本质的不同。而且,现在的智能算法只是以一种粗略的网络结构和反馈机制提升了一些拟合效率,即便是大规模预训练模型取得的在知识涌现方面的最新进展,也远未达到超级智能的标准。
算法自我意识意味着一个主体意识系统可以观察一个意识系统自身的运转,相当于智能算法可以在人类给定的目标函数和运行规则下生成新的目标函数和规则,这意味着主体概念和目标的产生。而人类之所以有这样的机制,是因为可能更多与生命系统“硬件”有关系,我猜想身体的激素调节系统对理性系统的影响能力可能更接近自我意识,而非仅是计算能力增强的必然结果。在突然意识到外部变化并知之甚少的时候,人类本能地会夸大事实。
此外,即使算法穷尽了几乎所有可能性,也需要反馈来为不同的可能性赋予意义,在可能性中最终做出选择才有价值。人类的作用在于,可以基于特有的知识和意义体系来完成最终这一步,而算法目前还只能在特定领域基于人工正样本的输入所学习到的价值函数来评估。
走出穷尽点
在算力和数据的支持之下,有限集内的可能性会被迅速穷尽。局限在于归纳式框架,人类在历史上是归纳多于逻辑的。理想的状态是,基于观察和归纳,并能不断提出新的有创造力的假设,而开放性的假设才是突破认知极限的有效方法,创新才会产生。因为,世界的复杂性远大于我们现在建立的假设数量。
一般来说,事情的进展需要在一个明确的“域”的层次上定义清楚,认知的进展是在人类观察能力所能触及的“域”内定义。观察域的拓展、新认知体系的建立、智能的指数级加速,三者交替拓展。例如,受限于人体感受器官的直接观察能力,原始人类只能停留在前科学时代;天文望远镜和显微镜的诞生扩展了人类的观察能力,推动了近代科学;当人类的观察能力拓展到宇宙这个更大的“域”上面,就产生了相对论;同样地,在量子“域”里人类找到了量子论。在不同的“域”下面,才有了观察和输入、假设、反馈的循环,并不断地穷尽每个新“域”内的可能性,我们再通过原有假设应用于新“域”的偏差,发现现有体系的边界和新假设,来持续向前演化。也许我们已经感受到,“域”的跃迁和文明形态也会有“人类自身”的约束,需要脱离具身模式和行为模式等基础能力的约束。我们不得不面对“具身冲突”,这是人类身体的感知和认知模式,与不断抽象推演向前的理论演绎之间的冲突,就像很多人很难接受量子论描述的世界与眼前世界的“认知冲突”,更不用说对三维空间的熟悉和对高维空间运行规则认知的“不适”。更直接的说法是,人类身体硬件的性能和模式,正在束缚更高级智能产生。
人类的认知也是在特定环境塑造下形成了自己的HFL模式特性,而且进化也出现了边际放缓。在每个“域”下面,数据样本的收益最终都会出现边际收益递减的现象,这时候我们需要通过创新更基础的假设,切换“域”,来实现进一步的突破。我们可以参考机器学习里面的“过拟合”现象,当参数假设对现有观察到的有限数据样本陷入过度的高相关时,则失去了根本上的客观和广义的普适性。
生物和文明都需要保持一定的代谢效率才能保持生存和进化的节奏,否则就会被世界变化的速度淘汰,或者被进化的阻力消耗殆尽。智能的阻力在于,多数的计算模式都会随着问题复杂度的更快提升出现边际效率递减,而且很难“自己设计自己,突破自己”。算法需要提出创造性假设,才能走出穷尽点。