人类历史上的每一次科技革命,都是以物理学上的重大突破为基础的。第一次科技革命源自牛顿力学和热力学,瓦特等人以此为理论改进了蒸汽机等技术,将人类文明带入了工业时代。第二次科技革命源于法拉第和麦克斯韦在电磁学上的重大发现,以此为基础,科学家们陆续发明了发电机和电动机等,将人类带入了电气时代。第三次科技革命又称为信息革命,它源自量子力学的发现,以此为基础,物理学家们发明了半导体晶体管和集成电路、激光器等等,将人类文明带入了信息时代。
这次信息革命声势浩大且持续时间长,并因此诞生了互联网,彻底改变了人们的生活方式。但是信息革命仅仅走了一半。这是由于半导体和激光虽然植根于量子力学,但是处理的都是经典信息。在这次信息革命的下半场,完全用量子力学规律来处理信息的“量子信息技术”将要登场,其中标志着人类文明到达信息革命之巅的,就是量子计算机。
速度无与伦比的量子计算
很多伴随信息革命成长起来的信息技术(IT)领域的大公司,都将量子计算机作为未来的发展方向,并投入了极大的研发力量。这其中包括IBM、微软和Google(谷歌)等,其中又数Google投入最大。该公司在2014年正式雇佣了加州大学圣芭芭拉校John Martinis,资助他所领导的超导量子计算实验室,开创了私人公司全资资助量子计算实验室的先河。
阿里巴巴作为我国最大的互联网公司,在经典信息技术上拥有雄厚的积累。而中国科学技术大学在量子信息学研究上领先世界。在Google模式的启发下,两者一拍即合,在中国科学技术大学上海研究院联合成立了“中国科学院-阿里巴巴量子计算实验室”。开我国引入民间资本来全资资助科研单位基础科学研究之先河。
量子计算为何具有如此魅力,吸引IT巨头们纷纷解囊?这还要从量子物理学最基本也是最奇异的特性“叠加态(superposition)”说起。在经典物理学中,物质在确定的时刻仅有一个确定的状态。量子力学则不同,物质会同时处于不同的量子态上。一个简单的例子就是双缝干涉实验:经典的粒子一次只能通过一个狭缝,但是量子力学的粒子一次可以同时通过多个狭缝,从而产生干涉。
传统的信息技术扎根于经典物理学,一个比特在特定时刻只有特定的状态,要么为0,要么为1,所有的计算都按照经典的物理学规律进行。
量子信息扎根于量子物理学,一个量子比特(qubit)就是0和1的叠加态。因为处于叠加态,一个量子比特可以同时代表0和1,对这个量子比特做一次操作,等于同时对0和1都做了操作。扩展下去,比如一个10比特的数,经典计算每一次运算只能处理一个数(如 0001001000,0100001000等等),但是量子计算可处理一个10量子比特的叠加态,这就意味着量子计算每一次运算就可以处理210=1024个数(即从0到1023被同时处理一遍)。
以此类推,量子计算的速度与量子比特数的关系是2的指数增长关系(而经典计算机的速度和比特数仅仅是线性正比关系)。一个64位的量子计算机一次运算就可以同时处理 264=18446744073709551616 个数。如果单次运算速度达到目前民用电脑CPU的级别(1GHz),那么这64位的量子计算机的数据处理速度将是目前世界上最快的“太湖之光”超级计算机(每秒 9.3 亿亿次)的1500亿倍!
量子力学叠加态特性赋予了量子计算机真正意义上的“并行计算”能力,而不是像现在经典计算机一样只是靠罗列更多的CPU来并行,艰难地维持着“摩尔定律”。在强烈需要大数据处理技术的今天,人们对信息处理速度的要求越来越严苛。“天下武功唯快不破”,量子计算就是凭借先天的量子叠加优势,快得无与伦比,因此越来越得到互联网巨头们的重视。
量子计算机的独有算法
1985年,牛津大学的物理学家David Deutsch提出了量子图灵机的概念,随后贝尔实验室的PeterShor于1995年提出了量子计算的第一个解决具体问题的思路,即Shor因子分解算法。
我们今天在互联网上输入的各种密码,都会用到RSA算法加密,即用一个很大的数的两个质数因子生成密钥来给我们的密码加密,从而安全地传输密码。由于该数很大,用目前经典计算机的速度算出它的质数因子还是比较困难的,例如2009年曾用多台超级计算机耗时多天,才破解了RSA-768。
但有了量子计算机就是另外一种情况了。利用量子计算的并行性,Shor算法可在很短的时间内获得质数因子,从而破解密钥,使RSA加密技术不堪一击。
量子计算机会终结任何依赖计算制造复杂度的加密技术,但这不意味着从此我们会失去信息安全的保护。量子计算的孪生兄弟——量子通信,会从根本上解决信息传输的安全隐患。
Shor算法提出一年后,1996年,同在贝尔实验室的Lov Grover提出了Grover算法。该算法通过量子计算的并行能力,同时给整个数据库做变换,可用最快的步骤显示出需要的数据。量子计算的Grover搜索算法远远超出了经典计算机的数据搜索速度,这也是互联网巨头们对量子计算的关注点之一。量子信息时代的搜索引擎将植根于Grover算法,让我们更快捷地获取信息。
量子计算机的实现难度
量子计算各种算法的理论已经成熟多年,但是世界上第一台量子计算机何时问世还是遥遥无期。因为在物理实现上,量子计算机需要与大量的量子比特关联起来,进行量子逻辑门操作。这就不得不面对“退相干”的难题。
退相干现象来自外界环境对量子态的扰动,使量子态逐渐演化到经典的状态,失去量子叠加特性。而且系统越大,各种内部和外部的相互作用越多,越难维持量子态,退相干发生得也就越快。这就是为什么我们现在能观察到粒子的叠加态,却观察不到“薛定谔的猫”的叠加态,因为像猫这么大的系统会以极快的速度发生退相干,只留下经典的死或活状态。退相干在量子和经典世界间筑起了一道鸿沟。
在量子逻辑门的各种物理实现方案中,有的虽可维持较长的退相干时间,却无法做到很多的量子比特关联(如离子阱、核磁共振);有的可以做到较多的量子比特关联,但退相干时间过短(如超导电路、量子点)。相比之下,超导电路看起来更有希望通过延长退相干时间来取得突破,研发出可用的量子计算机。因而,Google公司也在超导电路量子计算方案上押了宝。
量子计算机与人工智能
英国著名物理学家罗杰·彭罗斯(Roger Penrose)把依靠经典计算机的人工智能称为“皇帝新脑”,即像皇帝的新衣一样。他认为人脑不会像经典计算机那样以确定的方式处理信息,但量子测量会赋予人脑随机性,同时量子叠加态还会赋予人脑全局观(而一个一个比特处理的经典计算还做不到全局观),因此,彭罗斯认为人脑是一台量子计算机,并和神经学家Hameroff合作给出了模型。
但是,美国麻省理工学院的物理学家Max Tegmark计算出室温下彭罗斯模型的退相干时间只有10-15秒量级,这个时间远不够进行量子计算。2015年,巴克利奖获得者、物理学家费舍尔(Matthew Fisher)提出了一个假说,即神经元中波斯纳分子的磷原子核会携带量子比特,而且退相干时间能够达到几分钟,这很可能是人类意识的起源。但争论仍在持续,这个假说的证据也远远不足。也许量子计算机的研究能在这个方面取得突破,在某个量子和经典的交汇点上找出解答人类意识和智慧起源问题的答案。那样量子计算机的研究不但会给我们带来极速计算,还可能成为实现真正的人工智能的关键。
基于以上原因,量子计算机一旦成功研发,就会成为人类历史上最伟大的科学技术成就之一。量子计算机的研究任重道远,目前仍然处于烧钱研发阶段。惟其如此,所以很多人不理解巨额投入的价值。但回想一下,我们现在手中用到的便利廉价的信息技术,不都源自于上世纪五六十年代以贝尔实验室为首的科研机构长期大量投入的结果吗?未来我们的子孙很可能用着量子手机和智能机器人,在量子互联网上感谢着我们这个时代的投入。