2015年12月11日星期五

量子计算机

 编辑
同义词 quantum computer一般指量子计算机
量子计算机(quantum computer)是一类遵循量子力学规律进行高速数学逻辑运算、存储及处理量子信息的物理装置。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就是量子计算机。量子计算机的概念源于对可逆计算机的研究。研究可逆计算机的目的是为了解决计算机中的能耗问题。
  • 最新新闻
12月11日报道俄媒称,中国学者使用一块金刚石建成世界上首台量子计算机。该计算机能够在不到一秒的时间内提取获得被编码的信息,而普通的计算机要完成这一工作则需要几年甚至十年的时间。...详情
内容来自
中文名
量子计算机
外文名
quantum computer
规    律
遵循量子力学规律
提出者
理查德·费曼

相关理论编辑

有趣的量子理论
量子论的一些基本论点显得并不“玄乎”,但它的推论显得很“玄”。我们假
布洛赫球面布洛赫球面
设一个“量子”距离也就是最小距离的两个端点A和B。按照量子论,物体从A不经过A和B中的任何一个点就能直接到达B。换句话说,物体在A点突然消失,与此同时在B点出现。除了神话,你无法在现实的宏观世界找到一个这样的例子。量子论把人们在宏观世界里建立起来的“常识”和“直觉”打了个七零八落[1] 
薛定谔之猫是关于量子理论的一个理想实验。实验内容是:这只猫十分可怜,它被封在一个密室里,密室里有食物有毒药。毒药瓶上有一个锤子,锤子由一个电子开关控制,电子开关由放射性原子控制。如果原子核衰变,则放出α粒子,触动电子开关,锤子落下,砸碎毒药瓶,释放出里面的氰化物气体,猫必死无疑。这个残忍的装置由奥地利物理学家埃尔温·薛定谔所设计,所以此猫便叫做薛定谔猫。量子理论认为:如果没有揭开盖子,进行观察,我们永远也不知道猫是死是活,它将永远处于非死非活的叠加态,这与我们的日常经验严重相违。[1] 
物理诺奖得主首次活捉粒子 量子计算机将成可能
瑞典皇家科学院9日宣布,将2012年诺贝尔物理学奖授予法国物理学家塞尔日·阿罗什和美国物理学家戴维·瓦恩兰,以表彰他们在量子物理学方面的卓越研究。他说,这两位物理学家用突破性的实验方法使单个粒子动态系统可被测量和操作。他们独立发明并优化了测量与操作单个粒子的实验方法,而实验中还能保持单个粒子的量子物理性质,这一物理学研究的突破在之前是不可想象的。[2] 

历史发展编辑

量子计算机,早先由理查德·费曼提出,一开始是从物理现象的模拟而来的。可他发现当模拟量子现象时,因为庞大的希尔伯特空间使资料量也变得庞大,一个完好的模拟所需的运算时间变得相当可观,甚至是不切实际的天文数字。理查德·费曼当时就想到,如果用量子系统构成的计算机来模拟量子现象,则运算时间可大幅度减少。量子计算机的概念从此诞生[1] 
量子计算机,或推而广之——量子资讯科学,在1980年代多处于理论推导等纸上谈兵状态。一直到1994年彼得·秀尔(Peter Shor)提出量子质因子分解算法[3]  后,因其对通行于银行网络等处的RSA加密算法破解而构成威胁后,量子计算机变成了热门的话题。除了理论之外,也有不少学者着于利用各种量子系统来实现量子计算机[1] 
20世纪60年代至70年代,人们发现能耗会导致计算机中的芯片发热,极大地影响了芯片的集成度,从而限制了计算机的运行速度。研究发现,能耗来源于计算过程中的不可逆操作。那么,是否计算过程必须要用不可逆操作才能完成呢?问题的答案是:所有经典计算机都可以找到一种对应的可逆计算机,而且不影响运算能力。既然计算机中的每一步操作都可以改造为可逆操作,那么在量子力学中,它就可以用一个幺正变换来表示。早期量子计算机,实际上是用量子力学语言描述的经典计算机,并没有用到量子力学的本质特性,如量子态的叠加性和相干性。在经典计算机中,基本信息单位为比特运算对象是各种比特序列。与此类似,在量子计算机中,基本信息单位是量子比特,运算对象是量子比特序列。所不同的是,量子比特序列不但可以处于各种正交态的叠加态上,而且还可以处于纠缠态上。这些特殊的量子态,不仅提供了量子并行计算的可能,而且还将带来许多奇妙的性质。与经典计算机不同,量子计算机可以做任意的幺正变换,在得到输出态后,进行测量得出计算结果。因此,量子计算对经典计算作了极大的扩充,在数学形式上,经典计算可看作是一类特殊的量子计算。量子计算机对每一个叠加分量进行变换,所有这些变换同时完成,并按一定的概率幅叠加起来,给出结果,这种计算称作量子并行计算。除了进行并行计算外,量子计算机的另一重要用途是模拟量子系统,这项工作是经典计算机无法胜任的。[1] 
1994年,贝尔实验室的专家彼得·秀尔(Peter Shor)证明量子计算机能完成对数运算,[4]  而且速度远胜传统计算机。这是因为量子不像半导体只能记录0与1,可以同时表示多种状态。如果把半导体计算机比成单一乐器,量子计算机就像交响乐团,一次运算可以处理多种不同状况,因此,一个40位元的量子计算机,就能解开1024位元的电子计算机花上数十年解决的问题。[1] 

概念提出

随着计算机科学的发展,史蒂芬·威斯纳在1969年最早提出“基于量子力学的计算设备”。而关于“基于量子力学的信息处理”的最早文章则是由亚历山大·豪勒夫(1973)、帕帕拉维斯基(1975)、罗马·印戈登(1976)和尤里·马尼(1980)年发表[4][5][6] [7]。史蒂芬·威斯纳的文章发表于1983年[8]。1980年代一系列的研究使得量子计算机的理论变得丰富起来。1982年,理查德·费曼在一个著名的演讲中提出利用量子体系实现通用计算的想法。紧接着1985年大卫·杜斯提出了量子图灵机模型 [9]。人们研究量子计算机最初很重要的一个出发点是探索通用计算机的计算极限。当使用计算机模拟量子现象时,因为庞大的希尔伯特空间而数据量也变得庞大。一个完好的模拟所需的运算时间则变得相当可观,甚至是不切实际的天文数字。理查德·费曼当时就想到如果用量子系统所构成的计算机来模拟量子现象则运算时间可大幅度减少,从而量子计算机的概念诞生。[3] 

经典算法

量子计算机在1980年代多处于理论推导状态。1994年彼得·秀尔(Peter Shor)提出量子质因子分解算法后,因其对于通行于银行及网络等处的RSA加密算法可以破解而构成威胁之后,量子计算机变成了热门的话题,除了理论之外,也有不少学者着力于利用各种量子系统来实现量子计算机。[1] 
半导体靠控制集成电路来记录及运算信息,量子计算机则希望控制原子或小分子的状态,记录和运算信息。 1994年,贝尔实验室的专家彼得·秀尔(Peter Shor)证明量子计算机能做出离散对数运算[11],而且速度远胜传统计算机。因为量子不像半导体只能记录0与1,可以同时表示多种状态。如果把半导体比成单一乐器,量子计算机就像交响乐团,一次运算可以处理多种不同状况,因此,一个40比特的量子计算机,就能在很短时间内解开1024位计算机花上数十年解决的问题。[4] 

概念编辑

量子计算机,顾名思义,就是实现量子计算的机器。是一种使用量子逻辑进行通用计算的设备。不同于电子计算机(或称传统电脑),量子计算用来存储数据的对象是量子比特,它使用量子算法来进行数据操作。[1] 

经典计算机

要说清楚量子计算,首先看经典计算机。经典计算机从物理上可以被描述为对输入信号序列按一定算法进行变换的机器,其算法由计算机的内部逻辑电路来实现。[1] 
1.其输入态和输出态都是经典信号,用量子力学的语言来描述,也即是:其输入态和输出态都是某一力学量的本征态。如输入二进制序列0110110,用量子记号,即|0110110>。所有的输入态均相互正交。对经典计算机不可能输入如下叠加态:C1|0110110 >+ C2|1001001>。[1] 
2.经典计算机内部的每一步变换都演化为正交态,而一般的量子变换没有这个性质,因此,经典计算机中的变换(或计算)只对应一类特殊集。[1] 

推广

量子计算机量子计算机
相应于经典计算机的以上两个限制,量子计算机分别作了推广。量子计算机的输入用一个具有有限能级的量子系统来描述,如二能级系统(称为量子比特(qubits)),量子计算机的变换(即量子计算)包括所有可能的幺正变换。[1] 
1.量子计算机的输入态和输出态为一般的叠加态,其相互之间通常不正交;[1] 
2量子计算机中的变换为所有可能的幺正变换。得出输出态之后,量子计算机对输出态进行一定的测量,给出计算结果。[1] 
承载16个量子位的硅芯片承载16个量子位的硅芯片
由此可见,量子计算对经典计算作了极大的扩充,经典计算是一类特殊的量子计算。量子计算最本质的特征为量子叠加性和量子相干性。量子计算机对每一个叠加分量实现的变换相当于一种经典计算,所有这些经典计算同时完成,量子并行计算。[1] 
无论是量子并行计算还是量子模拟计算,本质上都是利用了量子相干性。遗憾的是,在实际系统中量子相干性很难保持。在量子计算机中,量子比特不是一个孤立的系统,它会与外部环境发生相互作用,导致量子相干性的衰减,即消相干(也称“退相干”)。因此,要使量子计算成为现实,一个核心问题就是克服消相干。而量子编码是迄今发现的克服消相干最有效的方法。主要的几种量子编码方案是:量子纠错码量子避错码和量子防错码。量子纠错码是经典纠错码的类比,是目前研究的最多的一类编码,其优点为适用范围广,缺点是效率不高。[1] 
迄今为止,世界上还没有真正意义上的量子计算机。但是,世界各地的许多实验室正在以巨大的热情追寻着这个梦想。如何实现量子计算,方案并不少,问题是在实验上实现对微观量子态的操纵确实太困难了。已经提出的方案主要利用了原子和光腔相互作用、冷阱束缚离子、电子或核自旋共振、量子点操纵、超导量子干涉等。还很难说哪一种方案更有前景,只是量子点方案和超导约瑟夫森结方案更适合集成化和小型化。将来也许现有的方案都派不上用场,最后脱颖而出的是一种全新的设计,而这种新设计又是以某种新材料为基础,就像半导体材料对于电子计算机一样。研究量子计算机的目的不是要用它来取代现有的计算机。量子计算机使计算的概念焕然一新,这是量子计算机与其他计算机如光计算机和生物计算机等的不同之处。量子计算机的作用远不止是解决一些经典计算机无法解决的问题。[1] 

潜力

硅芯片上16个量子位的光学照片硅芯片上16个量子位的光学照片
正如大多数人所了解的,量子计算机在密码破解上有着巨大潜力。当今主流的非对称(公钥)加密算法,如RSA加密算法,大多数都是基于于大整数的因式分解或者有限域上的离散指数的计算这两个数学难题。他们的破解难度也就依赖于解决这些问题的效率。传统计算机上,要求解这两个数学难题,花费时间为指数时间(即破解时间随着公钥长度的增长以指数级增长),这在实际应用中是无法接受的。而为量子计算机量身定做的秀尔算法可以在多项式时间内(即破解时间随着公钥长度的增长以k次方的速度增长,其中k为与公钥长度无关的常数)进行整数因式分解或者离散对数计算,从而为RSA、离散对数加密算法的破解提供可能。但其它不是基于这两个数学问题的公钥加密算法,比如椭圆曲线加密算法,量子计算机还无法进行有效破解[3]  
针对对称(私钥)加密,如AES加密算法,只能进行暴力破解,而传统计算机的破解时间为指数时间,更准确地说,是
  
,其中
  
为密钥的长度。而量子计算机可以利用Grover算法进行更优化的暴力破解,其效率为
  
,也就是说,量子计算机暴力破解AES-256加密的效率跟传统计算机暴力破解AES-128是一样的。[1] 
更广泛而言,Grover算法是一种量子数据库搜索算法,相比传统的算法,达到同样的效果,它的请求次数要少得多。对称加密算法的暴力破解仅仅是Grover算法的其中一个应用。[1] 
在利用EPR对进行量子通讯的实验中科学家发现,只有拥有EPR对的双方才可能完成量子信息的传递,任何第三方的窃听者都不能获得完全的量子信息,正所谓解铃还需系铃人,这样实现的量子通讯才是真正不会被破解的保密通讯。[1] 
此外量子计算机还可以用来做量子系统的模拟,人们一旦有了量子模拟计算机,就无需求解薛定谔方程或者采用蒙特卡罗方法在经典计算机上做数值计算,便可精确地研究量子体系的特征。[1] 

研发情况编辑

发展趋势

用原子实现的量子计算机只有5个q-bit,放在一个试管中而且配备有庞大的外围设备,只能做1+1=2的简单运算,正如Bennett教授所说,“现在的量子计算机只是一个玩具,真正做到有实用价值的也许是5年,10年,甚至是50年以后”,我国量子信息专家中国科技大学的郭光灿教授则宣称,他领导的实验室将在5年之内研制出实用化的量子密码,来服务于社会!科学技术的发展过程充满了偶然和未知,就算是物理学泰斗爱因斯坦也决不会想到,为了批判量子力学而用他的聪明大脑假想出来的EPR态,在六十多年后不仅被证明是存在的,而且还被用来做量子计算机。在量子的状态下不需要任何计算过程,计算时间,量子进行空间跳跃。可以说量子芯片,是终极的芯片[1] 
发展历史
1920年,奥地利人埃尔温·薛定谔、爱因斯坦、德国人海森伯格和狄拉克,共同创建了一个前所未有的新学科——量子力学。量子力学的诞生为人类未来的第四次工业革命打下了基础。在它的基础上人们发现了一个新的技术,就是量子计算机。[1] 
量子计算机的技术概念最早由理查得·费曼提出,后经过很多年的研究这一技术已初步见成效。
美国的洛斯阿拉莫斯和麻省理工学院、IBM、和斯坦福大学、武汉物理教学所、清华大学四个研究组已实现7个量子比特量子算法演示。[1] 
2001年,科学家在具有15个量子位的核磁共振量子计算机上成功利用秀尔算法对15进行因式分解。
2005年,美国密歇根大学的科学家使用半导体芯片实现离子囚笼(ion trap)。[5] 
2007年2月,加拿大D-Wave系统公司宣布研制成功16位量子比特的超导量子计算机,但其作用仅限于解决一些最优化问题,与科学界公认的能运行各种量子算法的量子计算机仍有较大区别。
2009年,耶鲁大学的科学家制造了首个固态量子处理器。[6] 
同年,英国布里斯托尔大学的科学家研制出基于量子光学的量子计算机芯片,可运行秀尔算法。
2010年3月31日,德国于利希研究中心发表公报:德国超级计算机成功模拟42位量子计算机,该中心的超级计算机JUGENE成功模拟了42位的量子计算机,在此基础上研究人员首次能够仔细地研究高位数量子计算机系统的特性。[7] 
2011年4月,一个成员来自澳大利亚和日本的科研团队在量子通信方面取得突破,实现了量子信息的完整传输。[8] 
同年9月,科学家证明量子计算机可以用冯·诺依曼架构来实现。[9] 
同年11月,科学家使用4个量子位成功对143进行因式分解。[10] 
2012年2月,IBM声称在超导集成电路实现的量子计算方面取得数项突破性进展。[11] 
同年4月,一个多国合作的科研团队研发出基于金刚石的具有两个量子位的量子计算机,可运行Grover算法,在95%的数据库搜索测试中,一次搜索即得到正确答案。该研究成果为小体积、室温下可正常工作的量子计算机的实现提供可能。
同年9月,一个澳大利亚的科研团队实现基于单个硅原子的量子位,为量子储存器的制造提供了基础。[12] 
同年11月,首次观察到宏观物体中的量子跃迁现象。[13] 

研发进展

德国首次成功在晶体中精确定位单个稀土离子,并准确测量了其量子力学的能量状态。这一研究使得在离子中存储量子信息成为可能,将对未来量子计算机的研发产生重大贡献。[14] 
世界范围内,很多学者都在研究构建未来的量子计算机的模块。其中,量子系统是关键要素,量子点或光吸收缺陷(色心)是许多研究者关注的焦点。但是,稀土离子发出的光非常小,很难被检测到。借助精密激光和显微镜技术,专家们经过六年多的深入研究,在硅酸钇晶体中把3价镨离子(Pr3+)精确定位在几纳米,并以前所未有的精度测量了其光学特性。[14] 
科学家们用激光来激发晶体中的单离子,并观察他们如何在一段时间之后以光线的形式再次放出能量。由于稀土离子受晶体的热学和声学振动影响不强烈,其部分能量状态异常稳定,需要一分多钟才回到基态,这比大多数今天研究的量子系统时间长数百万倍。量子信息存储在一个原子或离子的不同能量状态时,镨离子可作为量子计算机的存储器。[14] 
将来研究人员用纳米天线和微谐振器把镨信号加强几百或几千倍,每秒响应的单个离子小于100个光子,届时离子的信号可以更容易地被看到。[14] 

国内突破

2013年6月8日,由中国科学技术大学潘建伟院士领衔的量子光学和量子信息团队首次成功实现了用量子计算机求解线性方程组的实验。[1] 
相关成果发表在2013年6月7日出版的《物理评论快报》上,审稿人评价“实验工作新颖而且重要”,认为“这个算法是量子信息技术最有前途的应用之一”。[1] 
据介绍,线性方程组广泛应用于几乎每一个科学和工程领域。日常的气象预报,就需要建立并求解包含百万变量的线性方程组,来实现对大气中温度、气压、湿度等物理参数的模拟和预测。而高准确度的气象预报则需要求解具有海量数据的方程组,假使求解一个亿亿亿级变量的方程组,即便是用现在世界上最快的超级计算机也至少需要几百年。[1] 
美国麻省理工学院教授塞斯·罗伊德等提出了用于求解线性方程组的量子算法,利用GHz时钟频率的量子计算机将只需要10秒钟。
该研究团队发展了世界领先的多光子纠缠操控技术。实验的成功标志着我国在光学量子计算领域保持着国际领先地位。[15] 

实现编辑

一般认为量子计算机仍处于研究阶段。 然而2011年5月11日, 加拿大的D-Wave System Inc. 发布了一款号称 “全球第一款商用型量子计算机”的计算设备“D-Wave One”。 该量子设备是否真的实现了量子计算还没有得到学术界广泛认同。2013年5月D-Wave System Inc宣称NASA和Google共同预定了一台采用512量子位的D-Wave Two量子计算机。[1] 
2013年5月,Google和NASA在加利福尼亚的量子人工智能实验室发布D-Wave Two。
2013年6月,中国科学技术大学潘建伟院士领衔的量子光学和量子信息团队的陆朝阳、刘乃乐研究小组,在国际上首次成功实现用量子计算机求解线性方程组的实验。[1] 

工作原理编辑

量子计算机原理量子计算机原理
普通的数字计算机在0和1的二进制系统上运行,称为“比特”(bit)。但量子计算机要远远更为强大。它们可以在量子比特(qubit)上运算,可以计算0和1之间的数值。假想一个放置在磁场中的原子,它像陀螺一样旋转,于是它的旋转轴可以不是向上指就是向下指。常识告诉我们:原子的旋转可能向上也可能向下,但不可能同时都进行。但在量子的奇异世界中,原子被描述为两种状态的总和,一个向上转的原子和一个向下转的原子的总和。在量子的奇妙世界中,每一种物体都被使用所有不可思议状态的总和来描述。[1] 
想象一串原子排列在一个磁场中,以相同的方式旋转。如果一束激光照射在这串原子上方,激光束会跃下这组原子,迅速翻转一些原子的旋转轴。通过测量进入的和离开的激光束的差异,我们已经完成了一次复杂的量子“计算”,涉及了许多自旋的快速移动。[1] 
从数学抽象上看,量子计算机执行以集合为基本运算单元的计算,普通计算机执行以元素为基本运算单元的计算(如果集合中只有一个元素,量子计算与经典计算没有区别)。[1] 
函数y=f(x),x∈A为例。量子计算的输入参数是定义域A,一步到位得到输出值域B,即B=f(A);经典计算的输入参数是x,得到输出值y,要多次计算才能得到值域B,即y=f(x),x∈A,y∈B。[1] 
量子计算机有一个待解决的问题,即输出值域B只能随机取出一个有效值y。虽然通过将不希望的输出导向空集的方法,已使输出集B中的元素远少于输入集A中的元素,但当需要取出全部有效值时仍需要多次计算。

里程碑编辑

首台商用量子计算机
加拿大D-Wave CEO Vern Brownell加拿大D-Wave CEO Vern Brownell
2007年初,加拿大公司D-Wave Systems今天揭开了“全球第一台商用实用型量子计算机”的神秘面纱,展示了这台新型计算机“Orion”如何运行商用程序,及其在解决特定问题上相比传统电子计算机的巨大优势。[1] 
演示是在美国加州山景城的计算机历史博物馆里进行的,不过量子计算机本身并不在现场,而是在D-Wave公司总部,加拿大温哥华本那比(Burnaby)。在那里,量子计算机被液氦冷冻在5mK(毫开)温度下,也就是-273.145℃,只比绝对零度-273.15℃高0.005℃,比星际空间还要冷。[1] 
为了实现量子计算机的商用,D-Wave在基础构造和生产工艺上借鉴了现有半导体产业的成果。“Orion”基于一块硅芯片,包含16个量子位(qubit),可以同时表示0和1两个二元位(电子计算里不是0就是1),而每一个量子位都能模拟其他量子位的值,从而提高计算能力。D-Wave称,这一系统可以在今后加入更多的量子位,计划在2013年底达到32个,2014年底增至1024个,计算能力则会呈指数级增长。[1] 
“Orion”的拿手好戏就是需要处理海量复杂数据和变量的问题,比如生命科学、生物测定学、后勤学、变量数据库搜索、计量金融等等科学和商业领域。[16] 
首台编程通用量子计算机
2009年11月15日,世界首台可编程的通用量子计算机正式在美国诞生,
据美国《新科学家》网站报道,世界上首台可编程的通用量子计算机在美国面世。不过根据初步的测试程序显示,该计算机还存在部分难题需要进一步解决和改善。科学家们认为,可编程量子计算机距离实际应用已为期不远。[1] 
早在2012年,美国国家标准技术研究院的科学家们已经研制出一台可处理2量子比特数据的量子计算机。由于量子比特比传统计算机中的“0”和“1”比特可以存储更多的信息,因此量子计算机的运行效率和功能也将大大突破传统计算机。据科学家介绍,这种量子计算机可用作各种大信息量数据的处理,如密码分析和密码破译等。[1] 
在传统计算机中,采用的是二进制“0”和“1”比特物理逻辑门技术来处理信息,而在量子计算机中,采用的则是量子逻辑门技术来处理数据。对于这种技术,美国国家标准技术研究院科学家大卫-汉内克解释说,“比如,一个简单的单一量子比特门,可以从‘0’转换成‘1’,也可以从‘1’转换成为‘0’。”这种转换就使得计算机存储能力不仅仅是以倍数级增加。与传统计算机的物理逻辑门不同的是,美国国家标准技术研究院所研制的这台可编程量子计算机中的量子逻辑门均已编码成为一个激光脉冲。这台实验量子计算机使用铍离子来存储量子比特。当激光脉冲量子逻辑门对量子比特进行简单逻辑操作时,铍离子就开始旋转运行。制造一个量子逻辑门的方法首先要设计一系列激光脉冲来操纵铍离子进行数据处理,然后再利用另一个激光脉冲来读取计算结果。[1] 
这台可编程量子计算机的核心部件是一个标有金黄图案的铝晶片,其中包含了一个直径大约200微米的微型电磁圈。在这个电磁圈中,科学家放置了四个离子,其中两个是镁离子,两个是铍离子。镁离子的作用是“稳定剂”,它可以消除离子链的意外振动,以保持计算机的稳定性。由于量子比特可能产生多种操作可能,因此科学家们在实验中随机选取了160可能操作进行了演示,来验证处理器的通用性。每次操作都用31个不同的量子逻辑门去将2个量子比特编码至一个激光脉冲中。[1] 
科学家们将这160种程序每一种都运行了900次。通过对测试数据对比和理论预测,科学家们发现,这个芯片基本可以按既定程序工作。不过,科学家们也承认,它的准确率只有79%。汉内克表示,“每个量子逻辑门的准确率均为90%以上,但是当所有量子逻辑门都综合起来使用,整体准确率却下降到79%。”对此,科学家认为,造成这种误差主要是因为每次激光脉冲的强度不同所造成的。汉内克解释说,“由于这些脉冲不是直线的,它们是波动的,因此就会引起这种误差。此外,光线的散射和反射等原因,也会造成这种误差的产生。”[1] 
科学家们相信,随着更多的测试和改进,这种误差将会越来越小。通过改进激光的稳定性和减少光学硬件设备的误差,可以提高芯片运行的准确率。直到芯片的准确率提升到99.99%,它才可以作为量子计算机的主要部件使用,这台可编程量子计算机才可真正地投入实际应用。[17] 
单原子量子信息存储首次实现
据美国物理学家组织网2013年5月3日(北京时间)报道,德国马克斯普朗克量子光学研究所的科学家格哈德·瑞普领导的科研小组,首次成功地实现了用单原子存储量子信息——将单个光子的量子状态写入一个铷原子中,经过180微秒后将其读出。最新突破有望助力科学家设计出功能强大的量子计算机,并让其远距离联网构建“量子网络”。[1] 
量子计算机因其能同时处理用单个原子和光子等微观物理系统的量子状态存储的很多信息,计算速度更快。但量子计算机进行操作时,其内部不同组件之间必须能进行信息交换。因此,科学家希望量子信息能在光子和物质粒子之间交换。[1] 
此前,科学家实现了光子和数千个原子集合之间的信息交换,首次证明,采用一种可控的方式,量子信息也能在单个原子和光子之间交换。实现光子和单个原子之间信息交换的最大障碍是,光子和原子之间的相互作用太微弱。在最新研究中,科学家将一个铷原子放在一个光学共振器的两面镜子间,接着使用非常微弱的激光脉冲让单光子进入该共振器中。共振器的镜子将光子前后反射了多次,大大增强了光子和原子之间的相互作用。[1] 
研究人员还通过添加一束激光——控制激光(在铷原子同光子相互作用时,直接射向铷原子),让铷原子吸收一个光子,从而让铷原子进入一种稳定的量子状态。且原子自旋会产生磁矩,该磁矩的方向将决定用来存储信息的稳定的量子状态。[1] 
这个状态可被相反的过程读出:他们再次使用控制激光照射铷原子,使其重新释放出刚开始入射的光子。结果发现,在大多数情况下,读出的量子信息同最初存储的信息一致,也就是所谓的保真度超过90%。而传统不基于量子效应获取的保真度仅为67%。且量子信息在铷原子内的存储时间约为180微秒,这能与以前基于多个原子方法获得的量子存储时间相媲美。[1] 
但是量子计算机或量子网络所要求的存储时间要比这更长。另外,受到照射的光子中有多少被存储接着被读出——所谓的效率,还不到10%。科学家正着力进行研究以改进存储时间和效率。[1] 
研究人员霍尔格·斯派克特表示,使用单个原子作为存储单元有几大优势:首先单个原子很小。其次,存储在原子上的信息能被直接操作,这一点对于量子计算机内逻辑操作的执行来说非常重要。另外,它还可以核查出光子中的量子信息是否在不破坏量子状态的情况下被成功写入原子中,一旦发现存储出错,就会重复该过程,直到将量子信息写入原子中。[1] 
另一名科学家斯蒂芬·里特表示,单原子量子存储的前景不可估量。光和单个原子之间的相互作用让量子计算机内的更多原子能相互联网,这会大大增强量子计算机的功能。而且,光子之间的信息交换会使原子在长距离内实现量子纠缠。因此,科学家们正在研发的最新技术有望成为未来“量子网络”的必备零件
首次实现线性方程组量子算法
2013年6月8日,由中国科学技术大学潘建伟院士领衔的量子光学和量子信息团队的陆朝阳、刘乃乐研究小组,在国际上首次成功实现了用量子计算机求解线性方程组的实验。该研究成果发表在6月7日出版的《物理评论快报》上。[1] 
线性方程组广泛地应用于几乎每一个科学和工程领域,包括数值计算、信号处理、经济学和计算机科学等。比如与我们日常生活紧密相关的气象预报,就需要建立并求解包含百万变量的线性方程组,来实现对大气中各种物理参数(温度、气压、湿度等)的模拟和预测。而高准确度的气象预报则需要求解具有海量数据的方程组,假使要求解一个亿亿亿变量的方程组,即便是用现在世界上最快的超级计算机也至少需要几百年。[1] 
2009年,美国麻省理工学院教授塞斯.罗伊德(Seth Lloyd)等提出了用于求解线性方程组的量子算法,认为借助量子计算的并行性带来指数级的加速,将能远远超越现有经典计算机的速度。根据理论预计,求解一个亿亿亿变量的线性方程组,利用GHz时钟频率的量子计算机将只需要10秒钟的计算时间。[1] 
潘建伟团队发展了世界领先的多光子纠缠操控技术,成功运行了求解一个2×2线性方程组的量子线路,首次从原理上证明了这一算法的可行性。审稿人评价 “实验工作新颖而且重要”、“这个算法是量子信息技术最有前途的应用之一”。《物理评论快报》把该论文选为重点推介论文,并且在美国物理学会的Physics网站专门撰文介绍。[1] 
在中科院、科技部、教育部和基金委的长期支持下,潘建伟团队对光学量子计算开展了系统性和战略性的研究,取得了一系列开创性的成果:2007年在世界上首次用光量子计算机实现大数分解量子肖尔算法、2008年首次实现量子容失编码、2009年首次量子模拟任意子的分数统计、2010年首次实现可容错光子逻辑门、2011年首次实现非簇态的单向量子计算、2012年首次实现拓扑量子纠错、2013年首次实现线性方程组量子算法。上述成果被美国物理学会、英国物理学会、BBC、新科学家杂志等国际媒体广泛报道,标志着我国在光学量子计算领域保持着国际领先地位。[18] 
量子回路
《自然》杂志网站2013年11月19日(北京时间)报道,悉尼大学和澳大利亚国立大学的研究人员报告称,他们在单个元件上聚集了迄今数量最大的量子回路,将此前14个的世界纪录刷新为10000个,提高了3个数量级。相关论文11月17日在线发表在《自然·光子学》杂志上。[1] 
悉尼大学物理学院理论物理学家尼古拉斯·梅尼库奇博士说:“制造量子计算机的两个最大障碍是微小量子系统的精确控制和可扩展性问题,这是制造大型超高速量子计算机的关键所在。我们已经在可扩展性方面取得突破性进展,通过激光制造出了可供量子计算机使用的‘电路板’。如何精确控制这些量子回路将是下一步的研究重点。”[1] 
上周,量子计算机研究领域还取得了另一项突破。加拿大西蒙·弗雷泽大学教授迈克·斯沃尔特领导的一个研究小组宣称,让室温下脆弱的量子比特的寿命延长到了创纪录的39分钟,将此前硅基系统中25秒的纪录提高了近100倍,克服了超高速量子计算机研究的一大障碍。[1] 
梅尼库奇称,虽然上述实验中的量子比特能存在于室温中,并在冷却和加热的整个过程中保持完好,但其被读取时的温度仍然需要低于零下263.15摄氏度。并且由于所有的量子比特都处于相同的量子态,无法满足量子运算所需要的基于量子比特的不同状态,因此无法用于量子计算。[1] 
研究人员说,支持多重状态的量子比特将成为未来一大挑战。他们希望有人能够创建一个能在室温下读取量子比特的系统。[19] 

实际运用编辑

D-Wave 量子计算机
D-Wave
D-Wave (4张)
在2007年,加拿大计算机公司D-Wave展示了全球首台量子计算机“Orion(猎户座)”,它利用了量子退火效应来实现量子计算。该公司此后在2011年推出具有128个量子位的D-Wave One型量子计算机并在2013年宣称NASA与谷歌公司共同预定了一台具有512个量子位的D-Wave Two量子计算机。[1] 
NSA加密破解计划
2014年1月3日,美国国家安全局(NSA)正在研发一款用于破解加密技术的量子计算机,希望破解几乎所有类型的加密技术。投入巨资 投入4.8亿进行“渗透硬目标”[1] 
根据爱德华·斯诺登提供的文件,国安局正斥资约7970万美元(约合4.8亿元人民币)进行一项代号为“渗透硬目标”的研究项目,其中一项就是在美国马里兰州科利奇帕克的一处秘密实验室研发量子计算机,破解加密技术。
文件显示,国安局的部分研究工作是在一种名为“法拉第笼子”的特殊房间里完成。“法拉第笼子”配备屏蔽装置,防止电磁能量进出,“确保脆弱的量子计算机实验顺利进行”。[1] 
美国情报机构的预算通常被称为“黑色预算”,其中列举了“渗透硬目标”项目的细节内容,同时指出当前项目“将扩展至更大范围的相关领域、并伴随后续努力”。此外,另一个代号为“掌控网络”的项目将以量子研究为基础,开发新手段攻击RSA公钥加密算法等加密工具。[20]  透过将激光束集中在单分子上,ETH Zurich的科学家只用单个分子就产生激光运作的基本条件──受激发射(stimulated emission)。由于在低温下,分子会增加它们的外表面积(apparent surface area)来跟光线互动,因此研究人员将分子冷却到摄氏零下272度,也就是只比绝对零度高1度两条光束瞄准单分子[1] 
在受控制的模式下,利用一道激光束来让单个分子进入量子态(controlled fashion),研究人员如此能明显的缩减或是放大第二道激光束。这种运作模式与传统的晶体管如出一辙;晶体管内的电位(electrical potential)能用来调变第二个信号。不过ETH Zurich并未透露其单分子的化学方程式。由于其性能与散热效能的优势,光子运算技术是科学家们长期追求的目标;光子(photon)不仅发热比电子少,也能达到高出相当多的数据传输速率。不过光通讯技术却只能逐步地从长距离通讯,进展到短距离通讯,再进入单系统中。[1] 

没有评论:

发表评论