一、量子信息科学相似经典计算之于宏观物理的关系,量子计算同样也与微观物理有着千丝万缕的联络。 在微观物理中,量子力学衍生了量子信息科学。量子信息科学是以量子力学为基础,把量子系统“状态”所带的物理信息,中止信息编码、计算和传输的全新技术。在量子信息科学中,量子比特(qubit )是其信息载体,对应经典信息里的 0 和 1,量子比特两个可能的状态普通表示为|0>和 |1>。在二位复向量空间中,|0>和 |1> 作为单位向量构成了这个向量空间 的一 组规范 正交基 ,量 子比特 的状态 是用一 个叠 加态表示的,|
> 如 = a|0>+>b | 1 > ,
,而且丈量结果为 | 0 > 态的概率是
,得到 | 1> 态的概率是
。 这阐明一个量子比特能够处于既不是| 0 > 又不是 | 1> 的状态上,而是处于和的一个线性组合的所谓中间状态之上。经典信息可表示为 0110010110...,而量子信息可表示为
一个经典的二进制存储器只能存一个数:要么存 0,要么存 1;但一个二进制量子 存储器却能够同时存储 0 和 1 这两个数。两个经典二进制存储器只能存储以下四个数中 的一个数: 00 , 01 , 10 或 11 ,倘若运用两个二进制量子存储器,则以上四个数能够同时被存储下来。按此规律,推行到 N 个二进制存储器的状况,理论上,n 个量子存储器与 n 个经典存储器分别能够存
个数和 1 个数。 由此可见,量子存储器的存储才干是呈指数增长的,它与经典存储器相比,具有更强大的存储数据的才干,特别是当 n 很大时 ( 如 n=250 ) ,量子存储器能够存储的数据量比宇宙中一切原子的数目还要多 。量子信息技术内容普遍,由于它是量子力学与信息 科学构成的一个交叉学科,所以它有很多分支,最主要的两支为量子通讯和量子计算。量子通讯主要研讨的是量子介质的信息传送功用中止通讯的一种技术,而量子计算则主要研讨量子计算机和合适于量子计算机的量子算法。由于这个量子计算分支具有庞大的潜在应用价值和严重的科学意义,取得了世界各国的普遍关注和研讨。
二、费曼的两个问题
理查德·费曼 关于量子计算的真正展开,业界普遍以为源自 20 世纪最具丰厚多彩的科学家,诺贝尔奖取得者 理查德·费曼(Richard Feynman)在 1982 年一次公开演讲中提出的两个问题: 1、经典计算机能否能够有效地模仿量子系统?固然在量子理论中,仍用微分方程来描画量子系统的演化,但变量的数目却远远多于经典物理系统。所以理查德·费曼(Richard Feynman)针对这个问题的结论是:不可能,由于目前没有任何可行的措施,能够求解出这么多变量的微分方程。 2、假如放弃经典的图灵机模型,能否能够做得更好?理查德·费曼(Richard Feynman) 提出假如拓展一下计算机工作方式,不运用逻辑门来建造计算机,而是一些其他的东西,好比分子和原子;假如运用这些量子资料,它们具有十分奇 异的性质,特别是波粒二象性,能否能建造出模仿量子系统的计算机?于是他提出了这 个问题并做了一些考证性实验,然后他推测,这个想法也答应以完成。由此,基于量子 力学的新型计算机的研讨被提上了科学展开的进程。 三、展开进程
尔后,计算机科学家们不时在努力攻克这一艰巨应战。随同时期展开的趋向,量子计算机的算法展开得到了庞大的进步: 1992 年,Deutsch 和 Jozsa 提出了 D-J 量子算法,开启了往常量子计算飞速展开的大幕。 1994 年,Peter Shor 提出了 Shor 算法,这一算法在大数合成方面比目前已知的最有效的经典质因数合成算法快得多,因而对 RSA 加密极具要挟性,该算法带来庞大影响力的同时也进一步坚决了科学家们展开量子计算机的决计。 1996 年,Lov Grover 提出了 Grover 量子搜索算法,该算法被公以为继 Shor 算法后的第二大算法。 1998 年,Bernhard Omer 提出量子计算编程言语,拉开了量子计算机可编程的帷幕。 2009 年,MIT 三位科学家分离开发了一种求解线性系统的 HHL 量子算法。众所周知, 线性系统是很多科学家和工程范畴的中心,由于 HHL 算法在特定条件下完成了相较于经典算法有指数加速效果,这是未来能够在机器学习,人工智能科技得以突破的关键性技术。 2010 年,在量子计算软硬件方面各大研讨公司均有不同水平的突破。 2013 年,加拿大 D-Wave 系统公司发布了 512Q 的量子计算设备。 2016 年, IBM 发布了 6 量子比特的可编程量子计算机。 2018 年初,Intel 和 Google 分别测试了 49 位和 72 位量子芯片。 2018 年 3 月,谷歌宣布推出 72 量子比特超导量子计算机,他们发布的主要指标是单比特操作的误差是 0.1%,双比特门操作的误差是 0.6%。 2019 年 1 月, IBM 发布了世界上第一台独立的量子计算机 IBM Q System One 。 2019年10月,谷歌称其开发出一款 54 量子比特数的超导量子芯片 Sycamore。基于该芯片,谷歌对一个53比特、20深度的电路采样一百万次只需200秒。 2020 年,霍尼韦尔成为第一个用其 6Q H0 和 10Q H1 处置器抵达 QV 64 和 QV 128 的厂商。 2020年,IonQ 宣布了一款 32Q 设备,他们希望取得比以前高得多的 QV,固然他们往常更喜欢谈论一种新的权衡指标——算法量子比特(AQ)。算法量子位比特(AQ)——IonQ 定义为可用于计算的有效量子比特的数量(留意:可用逻辑门深度仍有限)。在没有纠错编码的状况下,AQ = log 2(QV)。 2021 年 11 月 15 日,IBM 推出全球首个超越100量子比特的超导量子芯片——Eagle,该量子芯片具有 127 个量子比特,采用了全新的芯片架构,基于 IBM 之前发布的六边形量子芯片,堆叠了多层芯片,但减少了之间的链接,链接越少,干扰就越少。 2021年11月18日,中国团队在2021戈登贝尔奖上夺冠,获奖应用超大范围量子随机电路实时模仿(SWQSIM),可在304秒内得到百万更高保真度的关联样本,在一星期内得到同样数量的无关联样本。 2022年的IBM量子峰会上,该公司宣布了Osprey,它具有其一切处置器中最大的量子比特数,抵达433个量子比特。 来自:Lansonli |