(二)数字技术生态与发展历程
1.大数据
大数据通常被定义为高速涌现的大量的多样化数据。大数据的价值主要体现在五个方面:
第一,大量(volume)。大数据的“大”首先体现在数据量上。在大数据领域,海量的低密度的非结构化数据需要处理,数据价值可能未知,例如微博数据流、网页或移动应用点击流,以及设备传感器所捕获的数据等等。在实际应用中,大数据的数据量通常高达数十TB,甚至数百PB。
第二,高速(velocity)。大数据的“高速”指高速接收乃至处理数据——数据通常直接流入内存而非写入磁盘。在实际应用中,某些联网的智能产品需要实时或近乎实时地运行,要求基于数据实时评估和操作,而大数据只有具备“高速”特性才能满足这些要求。
第三,多样化(variety)。多样化是指可用的数据类型众多。通常来说,传统数据属于结构化数据,能够整齐地纳入关系数据库中。随着大数据的兴起,各种新的非结构化数据类型不断涌现,例如文本、音频和视频等,它们需要经过额外的预处理操作才能真正提供洞察和支持性元数据。
第四,价值(value)。数据具有内在价值,但在挖掘出其中的价值之前,它们并没有什么用处。
第五,真实性(veracity)。数据的真实性和可靠性也同样重要。
自20世纪90年代初以来,“大数据”这一术语一直在被使用,而就其真正的本质而言,大数据并不是完全新的东西,也不是最近20年才有的。几个世纪以来,人们一直在尝试使用数据分析和分析技术来支持其决策过程。公元前300年左右的古埃及人已经试图捕捉亚历山大图书馆中的所有现有“数据”。此外,罗马帝国曾经仔细分析其军队的统计数据,以确定其军队的最佳排兵布阵。
然而,在过去的20年里,数据产生的数量和速度都发生了变化,超出了人类理解的尺度——在2020年,全球数据总量达到了59ZB。即使今天最先进的技术,也不可能分析所有这些数据。对于处理这些越来越多和非结构化的数据集的需要是传统数据分析在过去十年中转变为“大数据”的原因。
大数据的演变可大致分为三个主要阶段,而每个阶段都有自己的特点。
第一阶段,大数据1.0阶段。数据分析、数据分析和大数据起源于历史悠久的数据库管理领域。它在很大程度上依赖于存储在关系型数据库管理系统(RDBMS)中的数据常见的存储、提取和优化技术。
数据库管理和数据仓库被认为是大数据第一阶段的核心组成部分。它使用了众所周知的技术,如数据库查询、在线分析处理和标准报告工具,为我们今天所知的现代数据分析提供了基础。
第二阶段,大数据2.0阶段。自21世纪初以来,互联网和网络开始提供独特的数据收集和数据分析机会。随着网络流量和网店的扩大,雅虎、亚马逊和eBay等公司开始通过分析点击率、IP特定位置数据和搜索日志来分析客户行为,从而开启了一个全新的可能性世界。
从数据分析、数据分析和大数据的角度来看,基于HTTP的网络流量带来了半结构化和非结构化数据的大量增加。除了标准的结构化数据类型,企业现在需要找到新的方法和存储解决方案来处理这些新的数据类型,以便有效地分析它们。社交媒体数据的到来和增长,大大增加了对能够从这些非结构化数据中提取有意义信息的工具、技术和分析技术的需求。
第三阶段,大数据3.0阶段。尽管基于网络的非结构化内容仍然是许多组织在数据分析、数据分析和大数据方面的主要关注点,但移动设备正越来越多地提供目前检索有价值信息的可能性。移动设备不仅提供了分析行为数据(如点击和搜索查询)的可能性,而且还提供了存储和分析基于位置的数据(GPS数据)的可能性。这些移动设备可以跟踪运动,分析身体行为,甚至与健康有关的数据(你每天走的步数)。这些数据提供了一个全新的机会,从交通,到城市设计和健康护理。
同时,基于传感器的互联网设备的兴起,正在前所未有地催生新的数据。“物联网”(IoT)中数以百万计的电视、恒温器、可穿戴设备甚至冰箱现在每天都在产生百万亿字节的数据。而从这些新的数据源中提取有意义和有价值的信息的竞赛才刚刚开始。
2.IPv6
IPv6是英文“Internet Protocol Version 6”(互联网协议第6版)的缩写,是互联网工程任务组(IETF)设计的用于替代IPv4的下一代IP协议,其地址数量号称可以为全世界的每一粒沙子编上一个地址。IPv6是互联网升级演进的必然趋势、网络技术创新的重要方向。IPv6在我国被定位为网络强国建设的基础支撑,可以在强化网络承载能力、优化应用服务性能、拓展行业融合应用和培育创新产业生态方面起到关键性作用。
IPv4最大的问题在于网络地址资源不足,这严重制约了互联网的应用和发展。IPv6的使用,不仅能解决网络地址资源数量的问题,而且也扫清了多种接入设备连入互联网的障碍。互联网数字分配机构(IANA)在2016年已向国际互联网工程任务组(IETF)提出建议,要求新制定的国际互联网标准只支持IPv6,不再兼容IPv4。
2021年7月12日,中央网络安全和信息化委员会办公室、国家发展和改革委员会、工业和信息化部发布《关于加快推进互联网协议第六版(IPv6)规模部署和应用工作的通知》。
互联网的运行基础TCP/IP协议有着漫长的演进历史,其源头来自美国国防高级研究计划局(Defense Advanced Research Projects Agency,DARPA)。1973年夏天,DARPA的卡恩和瑟夫开发出了一个基本的改进网络协议,就是TCP/IP的雏形,很快在1974年,DARPA和BBN(位于美国马萨诸塞州剑桥的高科技公司)、斯坦福大学和伦敦大学签署了协议,决定开发不同硬件平台上均可支持的运行版本。当时总共有四个版本被开发出来,最开始有TCPv1和TCPv2。1975年,在斯坦福大学和伦敦大学之间进行了测试;1977年11月,在美国、英国和挪威三个国家之间又进行了测试,在这个过程中不断对TCP/IP协议做修补。到了1978年春天,TCP/IP被分成为TCPv3和IPv3的改进版本,后来一版就是稳定的TCP/IPv4版本,IPv4从此走上历史舞台,世界迎来了网络时代,IPv4因此也统治了互联网近50年。
在IPv4之前有IPv1—IPv3三个版本。IPv3和IPv4最为接近,IPv4在IPv3定义的基础上又做了些删减,最终定稿。1983年1月1日IPv4得以正式部署,1984年,美国国防部将TCP/IP作为所有计算机网络标准,后来IPv4很快成为互联网的网络标准协议。
之后很快又出现了IPv5。IPv5是一个实验性的资源预留协议,被称为因特网流协议(Stream Protocol),目的是提供服务质量(QoS),支持多媒体(语音/视频和实时数据流量),在互联网上实时传输。IPv5由两个协议组成:一个是用于数据传输的ST协议,另一个是流控制消息协议(Stream Control Message Protocol,SCMP),又称为ST2。IPv5设计的目的并不是要取代IPv4,而是希望多媒体应用同时使用这两类协议,采用IPv4传送传统数据包,IPv5则用于传送承载了实时数据的数据包。虽然从未真正实现过,IPv5最终被融入IPv4协议当中。在IPv4中有个资源预留标准是传输层协议,通常称为资源预留协议(Resource ReSerVa tion Protocol,RSVP),可实现在IPv4上由接收端发起的资源预留请求。1994年,当IETF工作组开始研究“互联网下一代协议”时,他们需要一个新版本号,但IPv5已分配给ST协议,所以选用了IPv6。IPv6是IPv4的替代版本,与IPv5并没有关系。
IPv4网络的发展速度出乎了所有人的预料,尤其是第三世界国家的经济崛起,对互联网有极大需求,但IPv4地址却很少,IPv4地址面临不足的问题,有人也预测大概到什么时候IPv4地址会被分光,而且按照这样的速度发展下去,已于1992年提出的IPv7的64位IP地址分配也很可能很快遇到瓶颈。
IPv6的设计主要是为解决IPv4地址短缺问题,并不是将IPv4推倒重来,大多数协议的处理都有继承,并针对IPv4实际使用中遇到的缺陷进行改进。IPv6有128位IP地址长度,足够为世界上的每一粒沙子分配一个IP地址——IP是海量的,即便到现在也想象不到IPv6何时能被用完,所以IPv6作为下一代协议获得了极大关注。
这两年IPv4地址已被分光,物联网又有迫切发展的需要,IPv6被推上历史舞台,同时全网展开了IPv6改造IPv4的热潮。而IP协议依然没有停止发展的脚步——IPv8出现了。IPv8继承和拓宽了IPv4性能,避免了IPv6存在的与IPv4差异太大、系统不兼容等问题。IPv8主要实现IP层的安全,它是通过类似与IPv6的安全选项来实现的。IPv8只能解决IPv4的安全问题,新一代网络的需求IPv8都满足不了,逐渐变成了一个纯理论的技术标准。到了1994年的愚人节,英国工程师Julian Onions发表了《使用IPv9历史观》,成为RFC1606草案,IPv9正式被提出,描述的是若干年以后一种新互联网协议的产生以及其在未来时代中的应用。后来我国对IPv9做了重新定义,它再次对IPv6可能存在的协议缺陷进行改良,IPv9采用十进制技术取代IPv4和IPv6均采用的十六进制技术,能分配的地址量比IPv6多了7倍。IPv9依然是一种理论,并未在国际上获得广泛认同。2017年,IPv10问世,采用了一个非常简单和有效的方法解决了使用IPv6协议主机与使用IPv4协议主机之间相互通信的问题——通过IPv10进行通信无须协议转换。
从IPv1到IPv10,见证了互联网网络协议的发展史。
3.4K和8K
4K是种超高解析度(Ultra HD,UHD)影像格式,水平解析度约为4000像素。解析度就是由像素所组成的,像素越多呈现的色彩就越多元,画面也就会更加细致。8K与4K之间的差异,一样是在于解析度,4K解析度的长宽是4096×2160,8K的解析度是7680×4320,大概由3200万个像素组成,等于是4K的一个像素又被拆成四格像素。
4K和8K带来数据存储的需求量激增,以及极致稳定的读写高带宽的需求。当前,信息视频化、视频超高清化已经成为全球信息产业发展的大趋势。从技术演进来看,视频已经从标清、高清进入4K,即将进入8K时代。以广电行业为例,2019年3月1日,工业和信息化部、国家广播电视总局、中央广播电视总台联合发布了《超高清视频产业发展行动计划(2019—2022年)》,提出坚持“4K先行、兼顾8K”的总体技术路线,到2022年,中国超高清视频产业总体规模将超过4万亿元。4K超高清的建设和应用,使广电行业互联网基础设施在高可靠性的基础上,向着高性能、低延迟、集约化的方向转型,尤其对存储平台的能力带来巨大挑战。4K超高清制播业务所产生的数据量比高清多出至少4倍以上,制播的各个环节,如视频剪辑、特效合成、渲染、调色、视频输出等,都需要海量的存储空间以及并发的读写能力。
(1)分辨率竞赛
推动行业不断提高屏幕分辨率的因素可以部分归因于自20世纪90年代开始的数字电视图像的主流化。2009年6月,美国政府强制要求广播公司完全转向数字信号。这种转变使得像素(数字显示屏的微小发光元素)成为每个电视屏幕的核心:1个像素通常由3个亚像素组成,它们分别为红色、蓝色和绿色,由薄膜晶体管(TFT)控制,并沉积在较薄的玻璃背板或其他基板上。开发人员找到了增加像素数量、使像素变得更小但更强大以及增加像素密度(每英寸像素/点,简称“ppi”或“dpi”)的方法。
(2)不断演变的电视技术和术语
HDTV是指“高清电视”,该术语在电视技术发展的中期变得很常见,取代了较早期的SDTV(标准清晰电视)数字格式。两者之间的主要区别在于像素数量。SDTV通常拥有480行像素,每行包含640像素(即480×640像素)。相比之下,HDTV通常拥有720或1080行像素,所提供的分辨率达到SDTV屏幕的两倍。本质上,包含更多的像素意味着更高的分辨率,对应于屏幕上包含更多细节和更清晰的图像。大多数HDTV被描述为“全高清”(FHD):采用1080×1920像素的格式,总共拥有约200万像素。简而言之,HDTV通常被称为“1080p”电视屏幕。
进入2010年后,市场上出现了提供3840×2160像素(称为“4K”)的电视机。从技术上讲,4K一开始是指4096×2160像素,这是影院使用的一种格式。但这些尺寸必须调整为16:9的比例,因此4K术语也适用于3840×2160像素的电视屏幕。事实上,市场上现在销售的大多数50英寸以上的电视机都是这种4K类型。
“超高清”(UHD)这一术语最初是为3849×2160像素的显示屏创造的(以区别于适用于4K相机的4096像素)。但现在,我们经常听到UHD用于任何极高分辨率的电视机,比如“4K UHD”。新型8K屏幕也被贴上了UHD标签。而且4K也的确拥有4096×2160像素的投影仪和专业相机的规格,通常称为4K×2K。(如表3-1)
表3-1 不同显示屏的分辨率和像素
资料来源:Synopi。
注:4K电视的尺寸(测量值)大约是2K电视的两倍,但像素数量是其4倍,因此可以显示分辨率相对更高的图像。
(3)8K电视的曙光
如今市场上最令人兴奋的是8K显示屏,其拥有7680×4320像素。夏普(Sharp)于2015年发布了市场上的首款商用8K电视,而首款OLED 8K电视则是LG Display公司于2019年发布的88英寸屏幕电视。虽然我们可以简单地将8K看作是SD→HD→4K→8K发展趋势的下一阶段,但它有望实现显著的性能改进。它包含HDR元素,并创造“透过窗口观看”的图像质量,几乎就像3D一样;此外,由于能够采集8K格式的内容,因此可以提高图像质量,甚至包括在2K和4K电视上。
采集8K格式内容的能力还有助于实现更宽广的视野,如可以拍摄整个运动场上的动作。2020年东京奥运会(2021年举办)便是以8K格式采集内容并进行播放的,为观众提供了身临其境的观看体验。
(4)对于观看者而言意味着什么?
虽然人类视觉非常敏锐,但并非无限敏锐的。在正常对比度和最小焦距下,人类眼睛的感知能力可以达到每英寸250到290个像素点数。最近的研究表明,我们眼睛的分辨率可以达到5.76亿像素。然而,人类视觉并不是均匀的,中心(中央凹)的分辨率较高,而外围的分辨率则较低。此外,观看距离也会产生影响,观看者离屏幕越远,单个像素就会变得越模糊。“随着观看距离的增加,空间分辨率将会急剧下降(在超过1米远后,会降到每英寸75个像素点数以下),在低对比度的情况下甚至也会下降。”
那么,这对于观看高分辨率显示器意味着什么?举例来说,在近距离观看的情况下,普通高清显示器与4K显示器之间的区别是可以分辨出来的。然而,在距离屏幕约一米的距离之外,普通观看者通常无法分辨出图像清晰度存在多大差异。当坐在房间对面的沙发上观看时,两个屏幕可能看上去具有几乎相同的分辨率。对于大于85英寸的超大屏幕而言,8K技术将会对图像质量产生影响。(如图3-2)
一些分析人士认为,8K技术对于普通观看者并不会产生显著影响;据许多其他专家预计,寻求更具沉浸感和逼真感体验的消费者将会对这项技术作出积极回应。尽管如此,目前几乎没有8K内容可供观看。但如果以历史为鉴,技术变革的步伐将会继续,消费者的预期将会继续上升,8K技术最终将变得很普遍。
图片来源:Geoffrey Morrison/ CNET。
图3-2 不同面板分辨率下所显示图像内容之比较
4.移动通信技术
5G是第五代无线网络技术。5G作为一种新型网络,是继4G之后的新一代全球无线标准,旨在提高数据传输速度,降低延迟,支持更多的用户、设备和服务,同时提升网络效率。
5G支持三类广泛使用的场景:
(1)增强型移动宽带(eMBB)——适用于无线连接的高带宽服务。
(2)超可靠低延迟通信(URLLC)——适用于关键要求的超可靠和低延迟通信。
(3)大规模机器类通信(mMTC)——适用于数十亿计的传感器和监控设备的可靠通信。
5G旨在提供高达20Gbps的下行链路峰值数据速率,它比峰值速率为1Gbps的4G LTE快20倍。同样,5G有望将用户体验数据速率提高10—100倍,支持的联网设备数量达到4G的10—100倍,并具有1ms量级的超低延迟。这样,5G不仅能改善网络性能,提高网络速度,而且为用户提供了增强型联网体验。5G可以改善业务应用性能,同时在增强现实、虚拟现实和混合现实应用(AR、VR和MR),视频会议,工业自动化,自动驾驶汽车和联网医疗设备等领域实现全新用户体验和服务。
5G和物联网带来数据量激增,同时也让数据采集和云边协同能力发生质的变化。5G通过提升连接速率和降低时延,使得单位时间内产生的数据量急剧增长,单位面积内的联网设备成倍增加,海量原始数据将被收集。4G时代,数据多产生于人与人之间的互联,5G时代,物联网将得到较大程度的发展,人与物、物与物之间的连接将急剧增多,数据采集渠道将更加丰富,如联网汽车、可穿戴设备、机器人等,这也对数据存储与采集技术提出更高要求。同时,5G时代下越来越多的物联网设备将通过边缘计算进行存储、处理和分析,云、边协同能力变得尤为重要。
当前,6G没有一个统一的定义。最早提出6G概念的是英国电信集团的首席网络架构师Neil McRae,他认为6G是5G与卫星网络的结合。通过卫星让5G信号不需要基站就能实现全球覆盖,从而实现更加廉价且快捷的互联网连接,让全球的网络真正成为一个整体。根据学术界和产业界普遍预测,无论5G发展是否能达到预期,到2030年,6G都将在全球范围内投入应用。
每一代移动通信技术的演进都是一段激动人心的旅程。
(1)第一代移动通信系统(1G)
“大哥大”使用的就是1G。第一代通信技术,即模拟通信技术,是指最初的模拟、仅限语音的蜂窝电话标准。模拟通信技术表示和传递信息所使用的电信号或电磁波信号往往是对信息本身的直接模拟,例如语音(电话)、静态图像(传真)、动态图像(电视、可视电话)等信息的传递。用户语音信息的传输是以电信号模拟语音方式实现的。
美国摩托罗拉公司的工程师马丁·库珀于1976年首先将无线电应用于移动电话。同年,国际无线电大会批准了800/900 MHz频段用于移动电话的频率分配方案。1978年年底,美国贝尔实验室研制成功了全球第一个移动蜂窝电话系统——先进移动电话系统(Advanced Mobile Phone System,AMPS)。五年后,这套系统在芝加哥正式投入商用。
1G存在许多技术缺点,例如容量有限、存在太多互不兼容的制式、保密性差、通话质量低、不能提供数据业务和自动漫游等。1G无法支持发短信这种数据信息的传输。
1G标准制定于20世纪80年代,全球1G标准有:
NMT——北欧国家、东欧以及俄罗斯移动电话系统
AMPS——美国移动电话系统,72多个国家地区采用
TACS——英国移动电话系统,包括中国在内的30个国家地区采用
JTAGS——日本移动电话系统
C-Netz——德国移动电话系统
Radiocom 2000——法国移动电话系统
RTMI——意大利移动电话系统
中国的第一代模拟移动通信系统于1987年11月18日在广东第六届全运会上开通并正式商用,至2001年12月底中国移动关闭模拟移动通信网,1G系统在中国的应用长达14年,用户数最高达到了660万。
(2)第二代移动通信系统(2G)
2G以数字语音传输技术为核心,用户体验速率为10 Kbps,峰值速率为100 Kbps。2G主要以语音通讯和短信为主,基本标准分为两种,一种是基于时分多址(TDMA),一种是基于码分多址(CDMA)。
2G通信系统有:
GSM——基于TDMA,源于欧洲,已实现全球化
IDEN——基于TDMA,美国电信系统商Nextell使用
IS-136(D-AMPS)——基于TDMA,源于美国
IS-95(CDMA One)——基于CDMA,源于美国
PDC——基于TDMA,仅在日本普及
1982年,欧洲电信标准协会(ETSI)的前身欧洲邮电管理委员会(CEPT)成立了移动特别行动小组(Groupe Speciale Mo bile),后来为了推广改成全球移动通信系统(Global System for Mobile Communications),即GSM系统。GSM系统最早由移动特别行动小组负责开发,后来先后经手CEPT、ETSI,最终被移交给标准化机构“第三代合作伙伴计划”(3GPP)。其间尝试了很多技术方式,如:时分多址(TDMA)、频分多址(FDMA)、码分多址(CDMA)。
2004年,全球已拥有超过10亿的2G用户(日本和韩国从未采用过GSM系统)。中国从1996年引进GSM商用,主要使用GSM-800、GSM-900、GSM-1800频段,拥有139号段,号码10位,后升为11位。
(3)第二代到第三代的过渡(2.5G)
2.5G移动通信技术是从2G迈向3G的衔接性技术。GPRS、HSCSD、WAP、EDGE、蓝牙(Bluetooth)、EPOC等技术都是2.5G技术。
2.5G的系统大致有:GPRS、EDGE、CDMA1X。在中国,2.5G指的就是GPRS,也就是移动的GPRS服务。EDGE则俗称2.75G。2.5G能够实现图片、铃声、短小的视频传输、也可以无线上网,在当时的历史阶段引领了包括手机、互联网、游戏、音乐、视频等行业的发展。2000年12月,中国移动正式推出了移动互联网业务品牌——移动梦网Monternet。
(4)第三代移动通信系统(3G)
3G与2G相比,前者传输声音和数据的速度有了大幅提升,能够在全球范围内更好地实现无线漫游,并处理图像、音乐、视频流等多种媒体形式,将无线通信与国际互联网等多媒体通信结合。
1985年,在美国的圣迭戈成立了一个名为“高通”(Qual comm)的小公司,这个公司利用美国军方解禁的“展布频谱技术”开发出一个被命名为“CDMA”的新技术,CDMA技术直接促成了3G的诞生。CDMA是3G的基础原理,而展布频谱技术是CDMA的基础,三大3G标准都是基于高通的CDMA。
3G的标准有:
美国CDMA2000——日韩北美以及中国电信采用
欧洲WCDMA——以GSM系统为主的欧洲厂商和中国联通采用
中国TD-SCDMA——中国移动一家采用
在3G时代,高通拥有高达4000+的CDMA专利,其中核心专利是CDMA原理、雷克接收机、功率控制,以及软切换,这就意味着高通掌握了3G核心科技,成为压制全通信业的绝对霸主。3G三大标准已定,但以英特尔为首的一批厂商又推出了极具竞争力的WiMAX技术,却未成为主流。
(5)第四代移动通信系统(4G)
4G将WLAN技术和3G通信技术进行了很好地结合,使图像的传输速度更快,提升了传输图像的质量和清晰度。4G通信技术可以使用户的上网带宽理论上达到100兆每秒,带来了高清、视频直播、云计算、手机网游等。4G有多个叫法,国际电信联盟称其为IMT-Advanced技术,其他的还有B3G、BeyondIMT-2000等。
4G的两大技术根基是LTE和IEEE 802.16m(WiMax2)。LTE(Long Term Evolution,长期演进)是指在3G基础上通过技术迭代慢慢达到4G。
在3G时代,欧洲为了推广自己的UMTS(通用移动通信系统),建立了3GPP组织;在向4G演进时,3GPP明确“去高通化”,在路线上规避了高通的专利技术。与此同时,高通开始攻关自己的4G演进技术——UMB(超宽带移动技术),后在种种不利条件的叠加下,宣布放弃UMB而转投LTE。
2009年10月,国际电信联盟(ITU)共征集到了六个候选技术,可以分为两大类,一类是基于3GPP的LTE-Advanced的技术;另外一类是基于IEEE 802.16m(WiMax2)的技术。中国提交的技术为TD-LTE-Advanced;3GPP提交的是LTE-Advanced技术,包括FDD模式和TDD模式;IEEE提交的是802.16m;日本提交的提案涵盖LTE-Advanced和802.16m;韩国提交的是802.16m。
图3-34 G国际标准
最终4G确定下来LTE-Advanced和IEEE两项国际标准(如图3-3)。LTE-Advanced中,LTE-TDD只有一条信道,通过信号灯控制器来决定传输方向。LTE-FDD有两条信道,可以同时进行上传和下载。两种国际标准各具优势:LTE-TDD占用资源少,LTE-FDD性能更强劲。
2013年12月4日,4G牌照发放,我国进入4G时代。
中国联通:LTE-TDD、LTE-FDD
中国电信:LTE-TDD、LTE-FDD
中国移动:LTE-TDD
(6)第五代移动通信系统(5G)
5G网络的主要优势是数据传输速率高,最高可达10Gbps,比有线互联网要快,比先前的4G LTE蜂窝网络快100倍。同时,5G的网络延迟较低,低于1ms,而4G的延迟为30—70ms。5G的准备工作从2013年开始。2017年12月21日,在国际电信标准组织3GPP无线接入网(Radio Access Network,RAN)技术规范组第78次全体会议上,5G NR首发版本正式冻结并发布。5G NR是“5G New Radio”的缩写,中文学名“5G新空口”,而“空口”则是空中接口,比如手机到基站的接口。
在5G阶段,3GPP组织把接入网5G NR和核心网5G Core拆开,各自独立演进到5G时代,这是因为5G不仅是为移动宽带设计,而是要面向eMBB(增强型移动宽带)、URLLC(超可靠低时延通信)、mMTC(大规模机器通信)三大场景,同时提高带宽、降低延时并便利机器通信。如图3-4:
图3-4 5G三大应用场景
2018年2月23日,在世界移动通信大会召开前夕,沃达丰和华为宣布,两公司在西班牙合作采用非独立的3GPP 5G新无线标准和Sub6-GHz频段,完成了全球首个5G通话测试。2018年2月27日,华为在MWC 2018大展上发布了首款3GPP标准5G商用芯片巴龙5G01和5G商用终端,支持全球主流5G频段,包括Sub6-GHz(低频)、mmWave(高频)。2018年6月13日,3GPP 5G NR独立组网标准(Standalone,SA)方案在3GPP第80次TSG RAN全会正式被批准并发布,这标志着第一个真正完整意义的国际5G标准正式出炉。2018年12月1日,韩国三大运营商SK、KT与LG U+同步在韩国部分地区推出5G服务,这也是第五代移动通信服务在全球首次实现商用,第一批应用5G服务的地区为首尔、首都圈和韩国六大广域市的市中心,手机用户在2019年3月左右得以使用5G服务。2019年6月6日,工信部正式向中国电信、中国移动、中国联通、中国广电发放5G商用牌照。2019年10月31日,三大运营商正式启动5G商用,并于11月1日正式上线5G商用套餐。
5.物联网与边缘计算
在我们的日常环境中,智能物联网设备的加速提供了新的服务和应用的机会,可以改善我们的生活质量。然而,微型的物联网设备通常无法容纳有形的界面来进行适当的用户互动。XR谱系下的数字实体可以弥补缺失的互动组件。特别是,拥有穿透式显示器的用户可以在半空中查看XR界面。此外,一些笨重的设备,如机器人手臂,由于外形的限制,用户更希望能远程控制,在这种情况下,XR可以作为一个随需应变的控制器。虚拟环境(AR/MR/XR)展示了将不可见的实例及其操作可视化后的突出特点,如WiFi和用户个人数据。另外,AR可以将智能相机和扬声器的物联网数据流可视化后给用户,从而告知用户在用户—物联网互动中的风险。相应地,用户可以通过AR可视化平台控制他们的物联网数据。
由于现在的车辆配备了强大的计算能力和先进的传感器,拥有5G甚至更先进网络的互联车辆可以超越车与车之间的连接,并最终与元宇宙连接。考虑到车辆是具有高流动性的半公共空间,车内的司机和乘客可以接收到丰富的媒体信息。在上述激励措施下,学界和工业界正在努力推进人工智能时代自动驾驶技术的进步。车联网是物联网设备的一个例子,自动驾驶汽车可能成为我们日常通勤中最受欢迎的场景。
边缘计算是指在更接近终端用户及其设备的一侧进行计算、存储和传输数据,与云计算相比,可以减少用户体验到的延迟。在这种架构下,资料的分析与知识的产生,更接近于数据资料的来源,因此更适合处理大数据。早在2009年,有学者就认识到,在离移动设备最近的地方部署强大的类似云的基础设施,即所谓的小云,可以改变游戏规则,这一点目前已被证实。例如,有学者通过对一系列应用的实证研究评估了边缘计算的延迟性能。研究表明,LTE云小站可以提供比默认的云计算更显著的好处(延迟减少60%)。同样,研究人员通过测量发现,与云计算相比,边缘计算可以平均减少至少80毫秒的服务时延。
边缘计算到目前经历了技术储备、快速增长和稳健发展三个时期。
(1)技术储备期
在技术储备阶段,边缘计算历经“蛰伏—提出—定义—推广”等发展过程。边缘计算最早可以追溯至1998年Akamai公司提出的内容分发网络(Content Delivery Network,CDN)。CDN是一种基于互联网的缓存网络,依靠部署在各地的缓存服务器,通过中心平台的负载均衡、内容分发、调度等功能模块,将用户的访问指向最近的缓存服务器上,以此解决网络拥堵,提高用户访问的响应速度。
随后,在万物互联的技术发展中,边缘数据迎来了爆发性增长。为了解决面向数据传输、计算和存储过程中的计算负载和数据传输带宽的问题,研究者开始探索在靠近数据生产者的边缘增加数据处理的功能。具有代表性的是移动边缘计算(Mobile Edge Computing,MEC)、雾计算(Fog Computing)和海云计算(Cloud-Sea Computing)。
美国思科公司于2012年提出了雾计算,并将雾计算定义为可将云计算中心任务迁移到网络边缘设备执行的一种高度虚拟化计算平台,通过减少云计算中心和移动用户之间的通信次数,来缓解主干链路的带宽负载和能耗压力。雾计算和边缘计算具有很大的相似性,但是雾计算关注基础设施之间的分布式资源共享问题,而边缘计算除了关注基础设施之外,也关注边缘设备,包括计算、网络和存储资源的管理,以及边端、边边和边云之间的合作。与此同时,2012年,中国科学院启动了战略性先导研究专项,称之为“下一代信息与通信技术”倡议,其主旨是开展“海云计算系统项目”的研究,其核心是通过“云计算”系统与“海计算”系统的协同与集成,增强传统云计算能力。其中,“海”端指由人类本身、物理世界的设备和子系统组成的终端。相比较而言,海云计算关注“海”和“云”这两端,而边缘计算关注从“海”到“云”数据路径之间的任意计算、存储和网络资源。
2013年,美国太平洋西北国家实验室的Ryan LaMothe在一个两页纸的内部报告中首次提出现代意义上的“Edge Computing”一词。此时,边缘计算的含义已经包括云服务功能的下行和万物互联服务的上行。
(2)快速增长期
2015—2017年为边缘计算快速增长期,在这段时间内,边缘计算因能满足万物互联的需求,引起了国内外学术界和产业界的密切关注。
在政府层面上,2016年5月,美国自然科学基金委(Nation al Science Foundation,NSF)在计算机系统研究中用边缘计算替换云计算,并将其列为突出领域(highlight area);8月,NSF和英特尔专门讨论针对无线边缘网络上的信息中心网络;10月,NSF举办边缘计算重大挑战研讨会(NSF Workshop on Grand Challenges in Edge Computing),会议针对三个议题展开研究:边缘计算未来5—10年的发展目标、达成目标可能面临的挑战,以及学术界、工业界和政府应该如何协同合作来应对挑战。这标志着边缘计算的发展已经在美国政府层面上引起了重视。
在学术界,2016年5月,美国韦恩州立大学施巍松教授团队给出了边缘计算的一个正式定义:边缘计算是指在网络边缘执行计算的一种新型计算模型,边缘计算操作的对象包括来自云服务的下行数据和来自万物互联服务的上行数据,而边缘计算的边缘是指从数据源到云计算中心路径之间的任意计算和网络资源。在该团队发表的《边缘计算:前景与挑战》(Edge Computing:Vision and Challenges)一文中,第一次指出了边缘计算所面临的挑战。同年10月,ACM和IEEE开始联合举办边缘计算顶级会议(ACM/IEEE Symposium on Edge Computing,SEC),这是全球首个以边缘计算为主题的科研学术会议。自此之后,重要国际会议也开始增加边缘计算的分会(tack)或者专题研讨会(workshop)。
工业界也在努力推动边缘计算的发展。2015年9月,欧洲电信标准化协会(ETSI)发表关于移动边缘计算的白皮书,并在2017年3月将移动边缘计算行业规范工作组正式更名为多接入边缘计算(Multi-Access Edge Computing,MEC),致力于更好地满足边缘计算的应用需求和相关标准制定。2015年11月,思科、ARM、戴尔、英特尔、微软和普林斯顿大学联合成立了OpenFog联盟,主要致力于《OpenFog参考架构》(Fog Reference Architec ture)的编写。为了推进应用场景与边缘计算的结合,该组织于2018年12月并入了工业互联网联盟。
国内边缘计算的发展和世界几乎同步,特别是在智能制造的领域。2016年11月,华为技术有限公司、中国科学院沈阳自动化研究所、中国信息通信研究院、英特尔、ARM等在北京成立了边缘计算产业联盟(Edge Computing Consortium),致力于推动“政产学研用”各方产业资源合作,引领边缘计算产业实现健康可持续发展。2017年5月,首届中国边缘计算技术研讨会在合肥开幕,同年8月中国自动化学会边缘计算专委会成立,标志着边缘计算的发展已经得到了专业学会的认可和支持。
2018年是边缘计算发展过程中的重要节点,尽管此前业内已经对边缘计算抱有很大期望,但一直到2018年边缘计算被推向前台,才开始被大众熟知。进入稳健发展阶段,边缘计算的参与者范围扩大很快,已经基本涵盖了计算机领域的方方面面,包括:云计算公司、硬件厂商、CDN公司、通信运营商、科研机构和产业联盟/开源社区。
6.人工智能
人工智能(AI)是指使机器能够从经验中学习并执行各种任务的理论和技术,类似于智能生物。近年来,它在各种应用场景中取得了最先进的性能,包括自然语言处理、计算机视觉和推荐系统。人工智能是一个广泛的概念,包括表示、推理和数据挖掘。机器学习是一种广泛使用的人工智能技术,它使机器能够通过从经验中提取的知识来学习和提高性能。机器学习有三类:监督学习、无监督学习和强化学习。监督学习需要对训练样本进行标记,而无监督学习和强化学习通常适用于无标记的数据。典型的监督学习算法包括线性回归、随机前T和决策树。K-means、原理成分分析(PCA)和奇异值分解(SVD)是常见的无监督学习算法。流行的强化学习算法包括Q-learning、Sarsa和策略梯度。机器学习通常需要手动选择特征。机器学习中涉及深度学习,它的灵感来自生物神经网络。在深度神经网络中,每一层都接收来自前几层的输入,并将处理后的数据输出到后续层。深度学习能够从大量的数据中自动提取特征。然而,深度学习也需要比传统机器学习算法更多的数据来提供令人满意的准确性。卷积神经网络(CNN)、递归神经网络(RNN)是两种典型的、广泛使用的深度学习算法。
毫无疑问,新兴的元宇宙的主要特征是叠加了深不可测的海量复杂数据,这为应用人工智能将运营商从枯燥而艰难的数据分析任务中解放出来提供了机会,例如,监测、监管和规划。
人工智能也有着悠久历史。1950年,一位名叫马文·明斯基(后被人称为“人工智能之父”)的大四学生与他的同学邓恩·埃德蒙一起,发明了世界上第一台神经网络计算机,这也被看作是人工智能的一个起点。巧合的是,同样是在1950年,被称为“计算机之父”的阿兰·图灵提出了一个举世瞩目的想法——图灵测试。按照图灵的设想:如果一台机器能够与人类开展对话而不能被辨别出机器身份,那么这台机器就具有智能。而就在这一年,图灵还大胆预言了真正具备智能机器的可行性。1956年,在由达特茅斯学院举办的一次会议上,计算机专家约翰·麦卡锡提出了“人工智能”一词。后来,这被人们看作是人工智能正式诞生的标志。就在这次会议后不久,麦卡锡从达特茅斯搬到了MIT。同年,明斯基也搬到了这里,之后两人共同创建了世界上第一间人工智能实验室——MIT人工智能实验室。值得注意的是,达特茅斯会议正式确立了“AI”这一术语,并且开始从学术角度对人工智能展开严肃而精专的研究。在那之后不久,最早的一批人工智能学者和技术开始涌现。达特茅斯会议被广泛认为是人工智能诞生的标志,从此人工智能走上了快速发展的道路。
在1956年的这次会议之后,人工智能迎来了属于它的第一段研究热潮。在这段长达十余年的时间里,计算机被广泛应用于数学和自然语言领域,用来解决代数、几何和英语问题。这让很多研究学者看到了机器向人工智能发展的信心。甚至在当时,有很多学者认为:“20年内,机器将能完成人能做到的一切。”
20世纪70年代,人工智能进入了一段痛苦而艰难的岁月。由于科研人员在人工智能的研究中对项目难度预估不足,不仅导致与美国国防高级研究计划署的合作计划失败,还让人工智能的前景蒙上了一层阴影。与此同时,社会舆论对人工智能的压力也慢慢积累起来,导致很多研究经费被转移到了其他项目上。
在当时,人工智能面临的技术瓶颈主要是三个方面:第一,计算机性能不足,导致早期很多程序无法在人工智能领域得到应用;第二,问题的复杂性,早期人工智能程序主要是解决特定的问题,因为特定的问题对象少,复杂性低,可一旦问题上升维度,程序立马就不堪重负了;第三,数据量严重缺失,在当时不可能找到足够大的数据库来支撑程序进行深度学习,这很容易导致机器无法读取足够量的数据进行智能化。
1973年James Lighthill针对英国人工智能研究状况的报告,批评了人工智能在实现“宏伟目标”上的失败。由此,人工智能遭遇了长达六年的科研深渊。
1980年,卡内基梅隆大学为数字设备公司设计了一套名为XCON的“专家系统”。这是一种采用人工智能程序的系统,可以简单地理解为“知识库+推理机”的组合,XCON是一套具有完整专业知识和经验的计算机智能系统。这套系统在1986年之前能为公司每年节省超过4000美元经费。有了这种商业模式后,衍生出了像Symbolics、Lisp Machines等和IntelliCorp、Aion等这样的硬件、软件公司。在这个时期,专家系统产业的价值就达到五亿美元。仅仅在维持了七年之后,这个曾经轰动一时的人工智能系统就宣告结束历史进程。到1987年时,苹果和IBM公司生产的台式机性能都超过了Symbolics等厂商生产的通用计算机。从此,专家系统风光不再。
20世纪90年代中期开始,随着人工智能技术尤其是神经网络技术的逐步发展,以及人们对人工智能开始抱有客观理性的认知,人工智能技术开始进入平稳发展时期。1997年5月11日,IBM的计算机系统“深蓝”战胜了国际象棋世界冠军卡斯帕罗夫,又一次在公众领域引发了现象级的关于人工智能话题的讨论。这是人工智能发展的一个重要里程碑。
2006年,Hinton在神经网络的深度学习领域取得突破,人类又一次看到机器赶超人类的希望,这也是标志性的技术进步。
人工智能在最近几年引爆了一场商业革命。谷歌、微软、百度等互联网巨头,还有众多的初创科技公司,纷纷加入人工智能产品的战场,掀起又一轮的智能化狂潮,而且随着技术的日趋成熟和大众的广泛接受,这一次狂潮也许会架起一座现代文明与未来文明的桥梁。
7.量子计算
量子计算机是量子信息领域最具颠覆性的技术。它具有强大的并行处理数据的能力,可解决现有计算机难以运算的数学问题。量子计算因此成为世界各国战略竞争的焦点。量子计算机是基于量子力学原理构建的计算机。相较经典计算机,量子计算机利用量子态叠加原理使得每个量子比特(qubit)能够同时表示二进制中的0和1,从而使算力发生爆发式增长,形成“量子优越性”。量子比特较经典比特信息容量更大,且呈幂指数级别增加。以4位计算机为例,1台4位经典计算机一次表示1种状态,1台4位量子计算机一次表示16种状态,若以此类推,则1台n位经典计算机一次表示1种状态,1台n位量子计算机一次表示2n种状态。理论上,1台n位的量子计算机算力等于2n台n位的经典计算机算力。
量子计算机通过量子门对量子进行操作。类似于经典计算中基本的与门、或门、非门,量子计算中基本的量子门有阿达马门、受控非门等。根据量子力学,量子系统在经过“测量”之后就会坍缩为经典状态。同样,量子计算机在经过量子算法运算后每一次测量都会得到唯一确定的结果,且每一次结果都有可能不相同。虽然量子计算机每一次的测量结果都类似“上帝掷骰子”会发生不同,但只要量子算法设计合理,量子计算机运算结果中出现概率最大的结果就是正确结果。
量子计算机还处在早期发展阶段。类比经典计算机,量子计算机还处在经典计算机的电子管时代,最底层的物理载体还没有完全形成。目前主流的技术路径有超导、半导、离子阱、光学以及量子拓扑这五个方向。前四种路径均已制作出物理原型机,但量子拓扑尚无物理层面的实现。超导表现为无电阻电流沿回路来回震荡,注入的微波信号使电流兴奋,让它进入叠加态;半导是通过向纯硅加入电子造出了人造原子,微波控制着电子的量子态。离子阱表现为离子的量子能取决于电子的位置,使用精心调整的激光可以冷却并困住这些离子,使它们进入叠加态;光学是利用激光激发量子点产生单光子,通过开关分成多路,再通过光纤导入主体设备光学量子网络,最后利用单管子探测器探测结果。量子拓扑表现为电子通过半导体结构时会出现准粒子,它们的交叉路径可以用来编写量子信息。目前进展最快最好的是超导方向,不仅在于人类希望借助现有非常先进的技术促进量子计算发展,包括半导体集成、电路工艺和技术,还在于超导路径具有可扩展性非常强的优势,固态器件、电学方向能够使未来的量子计算与经典的计算机相兼容。未来技术更加成熟之后,将持续发力离子阱和量子拓扑这两个方向。
量子计算的真正发展,业界普遍认为源自20世纪诺贝尔奖获得者理查德·费曼(Richard Feynman)在1982年一次公开演讲中提出的两个问题:
(1)经典计算机是否能够有效地模拟量子系统?
虽然在量子理论中,仍用微分方程来描述量子系统的演化,但变量的数目却远远多于经典物理系统。所以Richard Feynman针对这个问题的结论是:不可能,因为目前没有任何可行的方法,可以求解出这么多变量的微分方程。
(2)如果放弃经典的图灵机模型,是否可以做得更好?
费曼提出,如果拓展一下计算机的工作方式,不使用逻辑门来建造计算机,而是一些其他的东西,比如分子和原子;如果使用这些量子材料,它们具有非常奇异的性质,尤其是波粒二象性,是否能建造出模拟量子系统的计算机?于是他提出了这个问题并做了一些验证性实验,然后他推测,这个想法也许可以实现。由此,基于量子力学的新型计算机的研究被提上了科学发展的历程。
此后,计算机科学家们一直在努力应对这一艰巨挑战。伴随时代发展的趋势,在20世纪90年代,量子计算机的算法发展取到了巨大的进步。
1992年Deutsch和Jozsa提出了D-J量子算法,拉开了量子计算飞速发展的大幕。1994年Peter Shor提出了Shor算法,这一算法在大数分解方面比目前已知的最有效的经典质因数分解算法快得多,因此对RSA加密极具威胁性,该算法在带来巨大影响力的同时也进一步坚定了科学家们发展量子计算机的决心。1996年Lov Grover提出了Grover量子搜索算法,该算法被公认为继Shor算法后的第二大算法。1998年Bernhard Omer提出量子计算编程语言,拉开了量子计算机可编程的帷幕。
2009年MIT三位科学家联合开发了一种求解线性系统的HHL量子算法。众所周知,线性系统是很多科学家和工程领域的核心,由于HHL算法在特定条件下实现了相较于经典算法有指数加速效果,这是未来机器学习、人工智能科技得以突破的关键性技术。
自2010年以后,在量子计算软硬件方面各大研究公司均有不同程度的突破。2013年加拿大D-Wave系统公司发布了512Q的量子计算设备。2016年,IBM发布了6量子比特的可编程量子计算机。2018年年初英特尔和谷歌分别测试了49位和72位量子芯片。2019年1月,IBM发布了世界上第一台独立的量子计算机IBM Q System One。
8.隐私计算
作为涵盖众多学科的交叉整合技术,隐私计算是平衡数据利用与安全的重要路径。在数字经济时代,数据已成为企业和国家具有战略价值的核心资产,同时数据共享和流通成为刚性业务需求,但隐私保护和数据高效流动之间存在明显冲突,成为各行业所关注的重点。如何在安全的环境下实现数据流通、激活数据要素价值,成为隐私计算所要攻克的难题。
从20世纪70年代发展至今,隐私计算主要可以分为三大方向:一是基于密码学的隐私计算技术;二是基于可信硬件的隐私计算技术;三是人工智能与隐私保护技术融合衍生的技术。
根据中国信息通信研究院的定义,隐私计算是指在保证数据提供方不泄露敏感数据的前提下,对数据进行分析计算并能验证计算结果的信息技术。广义上,隐私计算是指面向隐私保护的计算系统与技术,涵盖数据的产生、存储、计算、应用、销毁等信息流转的全生命周期,完成计算任务,使得数据在各个环节中流转却保密。因而,隐私计算与基于加密技术的区块链的结合,可以满足更复杂多变的商业需求,特别是面向数据存证、确权、共享、交易的各类场景,加速从信息互联网到价值互联网的转变。
(1)路径Ⅰ:多方安全计算
多方安全计算(Secure Multi-Party Computation,SMPC)属于基于密码学的隐私计算技术应用。其核心思想是设计特殊的加密算法和协议,从而支持在加密数据之上(即不接触数据明文内容)直接进行计算,得到所需的计算结果。多方安全计算包括同态加密(Homomorphic Encryption)、不经意传输(Oblivious Transfer)、混淆电路(Garbled Circuit)及秘密共享(Secret Sharing)等。目前,多方安全计算已形成清晰的安全模型,具备可商用的技术基础。
(2)路径Ⅱ:可信计算
可信计算基于可信执行环境技术(Trusted Execution Environ ment,TEE),以英特尔的SGX、AMD的SEV及ARM的Trust Zone等技术作为代表。可信计算的核心思想是以可信硬件为载体,提供硬件级强安全隔离和通用计算环境,在完善的密码服务加持下形成“密室”——数据仅在“密室”内才进行解密并计算,除此之外任何其他方法都无法接触到数据明文内容。数据在离开“密室”之前又会被自动加密,从而实现数据在流转的同时又能保密。
在更广泛的可信计算领域中,可信计算基础(Trusted Compu ting Base,TCB)则包含提供安全环境的计算系统中的所有内容,从操作系统及其标准安全机制、计算机硬件、物理位置,到网络资源和规定的程序都在其列。例如,医疗设施的可信计算基础通常具有安全机制,对其临床信息数据库实施访问控制和用户身份验证,将确保用于研究的任何记录不会保留足够的剩余信息以供识别个别患者;通信安全协议通常会管理在网络传输过程中对数据的访问;备份等可用性控制将确保记录在发生盗窃或自然灾害时得到保护。
(3)路径Ⅲ:联邦学习
隐私计算发展的另外一个重要技术方向是联邦学习,其本质上是一种分布式机器学习技术或机器学习框架,目标是在保证数据隐私安全及合法合规的基础上,进行数据联合训练,建立共享的机器学习模型。
2017年,谷歌的研究人员首次发表了一篇关于联邦学习的论文,他们希望这项新技术可以改善安卓手机数字键盘Gboard上的搜索建议。通过边缘计算和机器学习的结合,联邦学习提供了一种无须在中央数据库中跟踪用户每一步移动,就能不断改进全局查询建议模型的方法。
联邦学习可被分为横向联邦学习与纵向联邦学习。当两个数据集的用户特征重叠较多而用户重叠较少的情况下,我们把数据集按照横向(即用户维度)切分,并取出双方用户特征相同而用户不完全相同的那部分数据进行训练,这种方法被称为“横向联邦学习”,比如两家不同地区的银行需要联合建模以扩充样本集。
然而,我们在训练算法时,它不像数学平均数那么简单,因为每个机构的数据集在规模、基本人口统计数据和其他因素方面都是不同的。因此,当两个数据集的用户重叠较多而用户特征重叠较少的情况下,我们把数据集按照纵向(即特征维度)切分,并取出双方用户相同而用户特征不完全相同的那部分数据进行训练,这种方法被称为“纵向联邦学习”,比如同一地区的银行及电商需要联合建模。
总之,像许多创新一样,隐私问题也随着信息技术的发展而不断引发重视,而技术应用在隐私性和便利性之间需要平衡。从产业角度来看,隐私计算生态已经开始布局。
9.区块链
区块链将成为数字经济价值流转的基础。从某种意义上来说,区块链是一种新型安全基础架构。和传统的基于密码学的运用不同,区块链并非把需要保护的敏感数据集中在“云端”。区块链所代表的安全基础架构是一种全局性的安全,区块链中的数据被多个相关部门集体共管共存,基于分布式存储的机制下只有真实有效的数据才会被接入链条中,而伪造的数据将会被系统自动丢弃。区块链所具有的数据存储和流转以及基于共识机制的自动裁判修正功能并非由一方单独完成,而是集合所有利益相关方的力量而得以实现。
1991年,Stuart Haber和W.Scott Stornetta首次描述了加密安全的区块链。1998年,计算机科学家Nick Szabo致力于“比特黄金”——一种去中心化的数字货币的研究。2000年,Stefan Konst发表了他的密码安全链理论以及如何实现的构想。2008年,化名Satoshi Nakamoto的开发人员发布了一份建立区块链模型的白皮书。2009年,Nakamoto将第一个区块链作为使用比特币进行的交易的公共分类账。2014年,区块链技术与货币分离,开始探索其在其他金融、组织间交易的潜力。区块链2.0随之诞生,即应用以太坊区块链系统将自动化程序引入区块中,可以代表债券等金融工具,这些被称为智能合约。这以后,区块链的产业应用在不断的技术迭代中逐渐铺展开来,诞生了非中心化交易所、非中心化金融、非中心化存储等各类区块链应用。
10.扩展现实
扩展现实(Extended Reality)简称XR,是指结合了现实和虚拟的环境及人机互动设备,是用电脑技术以及可穿戴型设备所计算,其中的X表示变数,可以是现在或是未来的空间计算技术,包括了增强现实(AR)、虚拟现实(VR)及混合现实(MR)以及在这三者之间的区域。其虚拟的程度可能从部分的感测器输入到沉浸式虚拟,这都算是扩展现实。
扩展现实技术演进有着近200年的历史。
在1838年,Charles Wheatstone利用双目视差原理发明出了可以看出立体画面的立体镜。通过立体镜观察两个并排的立体图像或照片给用户提供纵深感和沉浸感。1849年David Brewster以凸透镜取代立体镜中的镜子发明了改良型的立体镜。受欢迎的View-Master立体镜(1939年获得专利)经后期发展被用于“虚拟旅游”。
1929年,Edward Link发明了Link Trainer(1931年获得专利),它可能是历史上第一个纯机电的商业飞行模拟器。它由连接到方向舵和转向柱的电动机控制,以修改俯仰和滚转。以小型电动机驱动的装置可以模拟湍流和扰动。这样做是为了用更加安全的方式去训练飞行员,当时美国军方以3500美元购买了六个这样的设备。不过这些钱还不到2015年的五万美元。在第二次世界大战期间,超过500,000名飞行员使用10,000多个“Blue Box”Link训练器进行初始培训以提高飞行技能。
在20世纪30年代,斯坦利·G.温鲍姆(Stanley G.Wein baum)的科幻小说《皮格马利翁的眼镜》(Pygmalion's Spectacles),被认为是探讨虚拟现实的第一部科幻作品,简短的故事中详细地描述了佩戴者可以通过嗅觉、触觉和全息护目镜来体验一个虚构的世界。事后看来,当时Weinbaum对那些佩戴护目镜的人经历的描述,与如今人们对虚拟现实的体验有着惊人的相似,这使他成为这个领域真正的远见者,VR大幕就此拉开。
在20世纪50年代中期,当大部分人还在使用黑白电视的时候,摄影师Morton Heilig成功造出了一台能够正常运转的3D视频机器(1957年)。它能让人沉浸于虚拟摩托车上的骑行体验,感受声响、风吹、震动和布鲁克林马路的味道,他给它起名为Sen sorama Simulator(1962年获得专利)。
作为杰出的电影摄影师,Morton Heilig创造Sensorama的初衷是打造未来影院。Sensorama具有立体声扬声器、立体3D显示器、风扇、气味发生器和一个振动椅等部件。Heilig希望通过这些部件刺激观看者的所有感官,将人完全沉浸在电影中。为此,他还创作了六部短片,拍摄、制作和编辑均由自己完成,短片名字分别为《摩托车》(Motorcycle)、《肚皮舞》(Belly Dancer)、《沙滩越野车》(Dune Buggy)、《直升机》(Helicopter)、《与莎宾娜的约会》(A date with Sabina)、《可口可乐瓶的自白》(I'm a co ca cola bottle)。
Morton Heilig的下一个发明是Telesphere Mask(1960年获得专利),它虽然是没有任何运动跟踪的非交互式电影媒体,但作为头戴式显示器(HMD)的第一个例子,看起来非常现代,几乎可以看作是早期的虚拟现实设备。
在1961年,Philco公司的两个工程师开发了第一个HMD的前驱物——Headsight。它包括视频屏幕和磁力运动跟踪系统,可链接到闭路电视摄像机。实际上Headsight没有虚拟现实的应用开发程序,但允许军队对危险情况进行沉浸式远程查看,观察者通过移动头部带动远程相机移动,便可以自然地环视环境。
1965年,计算机图形学之父和虚拟现实之父Ivan Sutherland发表了一篇题为《终极显示》(Ultimate Display)的论文。文章指出,应该将计算机显示屏幕作为“一个观察虚拟世界的窗口”,计算机系统能够使该窗口中的景象、声音、事件和行为非常逼真。这篇论文成为当下整个虚拟和增强现实概念的核心蓝图。
Myron Krueger是美国计算机艺术家、互动艺术家,也是虚拟现实(VR)和增强现实(AR)领域的早期阶段或第一代研究员之一。在威斯康星大学攻读博士学位期间,Myron Krueger在1969年从事了许多计算机互动的工作,其中包括GlowFlow。GlowFlow作为早期虚拟现实环境原型,是一个由计算机控制、以人响应作为输入的环境。
参与艺术创作Glowflow之后,Myron Krueger提出了电脑互动的观念并将虚拟现实(VR)的观念带入了艺术创作。1985年,他创建了第一个可以让用户与虚拟物体进行交互的Videoplace系统,它是由Glowflow到Metaplay再到Psychic Space等各种这样的系统演进而来。
美国VPL公司创建人Jaron Lanier,被业界称为“虚拟现实之父”,这位集计算机科学家、哲学家和音乐家三种身份于一身的天才在1987年提出了“VR”的概念。VPL公司研发出了一系列虚拟现实设备,包括Dataglove(由该公司的联合创始人Tom Zim merman在工程师Young Harvill的协助下所创造出来的)和Eye Phone头戴式显示器和手套。
VPL致力于虚拟现实产品的商业化,逐渐发展成了一家以制造软件产品为导向的公司,当时EyePhone 1的售价为9400美元、EyePhone HRX售价为49,000美元,手套售价为9000美元。虽然VPL在1992年年末走向了破产,但作为第一家销售虚拟现实产品的公司,它作出了非常重要的贡献。
于1991年发布的Virtuality 1000CS是20世纪90年代具有影响力的VR设备,是虚拟现实走向市场的重要一步。该设备使用头显来播放视频和音频,用户可以通过操控3D操纵杆进行虚拟现实交互。该系统使用Amiga 3000计算机来处理大多数游戏的运算。然而,Virtuality 1000CS最终却败给了高达60,000美元的高昂成本。
我们开始看到公众逐渐可以访问虚拟现实设备。Virtuality集团推出了一系列街机游戏和机器,玩家佩戴一套VR护目镜,并在游戏机上体验实时的(小于50ms延迟)身临其境般的立体3D视觉效果。一些组件也可以通过网络连接在一起,用于多玩家游戏体验。
1995年,Virtual Boy是任天堂第一款32位游戏机,它搭载了一块32位处理器,型号为NEC V810,主频为20MHz,同时集成高性能显卡,至少在当时来说是非常先进的。Virtual Boy采用了头戴显示器的设计,内置两块384×224分辨率的红色LED单色显示器,可支持显示128级对比度的黑色和红色。虽只有黑色和红色,但可显示不同深度,来表现不同的层次。由于拥有两块屏幕和模仿人眼视角,即便当时的游戏画面为2D,但也可通过调整视角形成一定的3D效果。
在日本市场,Virtual Boy仅仅上市五个月便下架,美国市场也仅仅坚持不到一年。最终,Virtual Boy全球销量不到100万台,无疑是一个商业失败案例。有报告中分析认为,失败的原因是缺乏图形颜色(只有红色和黑色)、缺乏软件支持、缺乏游戏资源,以及很难在一个舒适位置使用控制台。
整个20世纪90年代,基本跟VR搭上关系的公司都希望能够布局虚拟现实,但大多数以失败告终,原因主要是技术不够成熟、产品成本颇高。但这一代虚拟现实的尝试,为后续虚拟现实的扩展打下了坚实的基础。与此同时,虚拟现实在全世界得到进一步的推广,尽管没有得到市场的认可,但大大丰富了虚拟现实领域的技术理论。
在21世纪的第一个十年里,手机和智能手机迎来爆发式发展,虚拟现实仿佛被人遗忘。尽管在市场尝试上不太乐观,但人们从未停止在VR领域的研究和开拓。索尼在这段时间推出了三千克重的头盔,Sensics公司也推出了高分辨率、超宽视野的显示设备piSight,还有其他公司也陆续推出了各类产品。由于虚拟现实技术在科技圈已经充分扩展,科学界与学术界对其越来越重视,虚拟现实在医疗、飞行、制造和军事领域开始得到深入的应用研究。
2006年,美国国防部花了2000多万美元实施了一套虚拟世界的“城市决策”培训计划,专门让相关工作人员进行模拟迅雷,一方面提高大家应对城市危机的能力,另一方面测试技术的水平。2008年,美国南加州大学的临床心理学家利用虚拟现实治疗创伤后应激障碍,开发了一款“虚拟伊拉克”的治疗游戏,帮助那些从伊拉克回来的军人患者。这些例子都在证明,虚拟现实已经开始渗透到各个领域,并生根发芽。
高密度显示器和3D图形功能的智能手机的兴起,使得新一代轻量级高实用性的虚拟现实设备成为可能。深度传感摄像机传感器套件、运动控制器和自然的人机界面已经是日常人类计算任务的一部分。2014年Facebook以20亿美元收购Oculus工作室,这让全球投资者的目光又一次聚焦到了虚拟现实行业,自此虚拟现实浪潮开始席卷全球。如今,HTC、微软、Facebook等科技巨头纷纷发力VR产业,全球VR产业进入初步产业化阶段,涌现出了HTC Vive、Oculus Rift、暴风魔镜等一系列优秀产品。
11.非同质化通证
非同质化通证(Non Fungible Token,NFT)指代的是基于区块链技术,使得代表的资产具有独一无二性和不可分割性的通证。在现实世界中,不同的艺术品、不同的设计方案等资产都是不可分割的,且背后对应价值也不同。NFT可以更好地承载这些产品或者服务的独特价值。NFT可以理解为基于区块链的特定资产登记方式,每枚NFT都代表了某一具体资产的所有权。结合区块链的透明性、防篡改特性,可以方便识别资产的创造者、持有者;结合智能合约,可以确保唯有资产的持有者才有权对资产进行操作。资产所有权通过公共区块链网络进行验证和追踪,用户可以验证每枚NFT的真实性,并追踪溯源。因此,NFT也可以被解读成“由原创者发行的防伪证书”,通过加密技术证明NFT持有者对某一资产官方版本的所有权。NFT拥有许多优势,比如艺术家可以将其数字艺术品变现,在游戏中创建可验证的游戏物品,打造全新的数字收藏品生态,以及将现实世界的资产变成通证,以提升流其动性等。
NFT的发展历史较为短暂,但走向清晰。
(1)2012—2013年:彩色币(Colored Coins)
NFT的想法源于所谓的“彩色币”,最初于2012—2013年在比特币区块链上发行。彩色币是代表区块链上真实世界资产的通证,可用于证明任何资产的所有权,从贵金属到汽车再到房地产,甚至股票和债券。这个想法最初是将比特币区块链用于数字收藏品、优惠券、财产、公司股票等资产。
(2)2014年:Counterparty
2014年,Robert Dermody、Adam Krellenstein和Evan Wagner创立了Counterparty,一个基于比特币区块链的点对点金融平台和分布式开源互联网协议。Counterparty允许创建资产并进行去中心化交易,从而为用户创建自己的可交易货币提供了一种方式。
(3)2015年:Counterparty上的Spells of Genesis
2015年4月,Counterparty与Spells of Genesis的团队创建者合作。Spells of Genesis游戏创作者不仅是通过Counterparty将游戏内资产发行到区块链的先驱,而且也是最早推出ICO(Initial CoinOffering,首次币发行)的人之一。创作者通过引入他们拥有的名为BitCrystals的游戏内货币来资助Counterparty的发展。
(4)2016年:Counterparty上的交易卡及稀有佩佩
2016年8月,新的趋势开始出现。Counterparty与流行的集换式卡牌游戏Force of Will合作,并在Counterparty平台上推出了他们的卡牌。Force of Will成为“口袋妖怪”“游戏王”“魔法”之后,北美销量排名第4的纸牌游戏。Force of Will之前没有区块链或加密货币经验,这证明了将区块链技术应用在该领域的价值。
同一年,模因(Meme)进入区块链。10月,模因开始进入Counterparty平台。人们开始以资产形式发行一个名为“稀有佩佩”的模因。稀有佩佩起初是一个名为“青蛙佩佩”的漫画形象,现在已经成为互联网上最流行的模因之一,拥有一个稳定的庞大粉丝群。2017年年初,随着以太坊的地位日益突出,稀有佩佩也开始在以太坊交易。Portion的创始人杰森-罗森斯坦和路易斯-帕克一起,在首届稀有数字艺术节上进行了稀有佩佩的第一次现场拍卖。NFT加密艺术品交易平台CryptoArt随着稀有佩佩钱包的诞生而诞生,这使全世界的创作者第一次实现了上传和出售自己艺术作品的夙愿。这也是数字艺术第一次具有内在价值。
(5)2017年:加密朋克(Cryptopunks)
随着稀有佩佩交易的增加,Larva Labs的创建者John Watkin son和Matt Hall创造了一种原生于以太坊区块链的独特角色——Cryptopunks。这些角色中没有两个是相同的,总量被限制为10,000个。项目名称Cryptopunks参考了20世纪90年代的比特币实验,可以被视为ERC721和ERC20的混合体。
ERC20是最常见的以太坊通证标准,具有允许通证彼此交互的规则,但不是创建唯一通证的最佳方法。ERC721的目的是成为以太坊区块链上NFT的标准接口,并协助跟踪智能合约中通证的所有权及其转移。
加密猫(CryptoKitties)NFT首先使用了ERC721。它是一款基于区块链的虚拟游戏,允许玩家使用以太坊收养、繁殖和交易虚拟猫。加密猫由一家名为Axiom Zen的温哥华公司开发,面市后迅速走红,曾一度被CNBC和Fox News等主流新闻媒体进行专题报道。
(6)2018—2021年:NFT大爆发
在2018年至2021年期间,NFT慢慢进入公众视线,然后在2021年年初爆发,为主流采用。
NFT市场比现有的资产转移方法更有效、更具流动性。许多平台已经火爆全网,都致力于为创作者和收藏家提供差异化服务。主要颠覆性领域是限制集中费用,传统艺术经纪人、拍卖行通常会收取高达40%的费用。Opensea被认为是最大的NFT市场,提供艺术、音乐、域名、收藏品和交易卡等领域的NFT服务。Mintable平台的重点是让创作者的铸造过程变得非常简单。Portion平台旨在连接NFT、DeFi(去中心化金融)和DAO(去中心化自治组织)等领域,并由平台治理通证$PRT的持有人(社群)负责管理。其他平台,如Niftex允许用户购买NFT的一小部分或“碎片”,它们是代表完整NFT一部分的ERC20通证。