美文网首页自然科普
研发量子计算机的难度你想象不到

研发量子计算机的难度你想象不到

作者: JohnMarti | 来源:发表于2020-11-25 02:49 被阅读0次

2020 年 8 月 28 日,在顶级期刊《科学》杂志的封面上,印着一个奇怪的画面。在黑色的背景上,一个类似于计算机芯片的东西,向下投射出一束神秘的蓝光。在蓝光的映照下,飞舞着一些有机化学分子。

这是谷歌公司的量子计算芯片在不到一年的时间里,第二次登上顶级期刊的封面。封面上那个类似于计算机芯片的东西,正是谷歌公司的量子计算芯片,而那些飞舞在《科学》杂志封面上的有机物,则是一种简单的化学物质,名叫二氮烯。

这篇论文里说:谷歌公司成功地用 12 个量子比特,模拟了二氮烯这种物质的异构化反应。

大家可能还记得,在 2019 年 9 月底的时候,谷歌公司用 53 个量子比特的的量子计算机实现了所谓的量子霸权,从而登上了顶级期刊《自然》杂志的封面。

于是,量子霸权成为了一个里程碑式的存在。但是,谷歌公司显然对实现量子霸权并不满足。他们许下宏愿说,一年之内,要用这台量子计算机完成一次化合物的模拟。果然,不到一年时间,谷歌公司就把这件事儿做成了。所以,新闻一出,科学爱好者们立即就沸腾了。因为有机物质空间结构的模拟,那是出了名的计算量大,计算难度高。这几乎就是量子计算机得天独厚的领域。还有一些新闻媒体做出了大胆的解读和猜测,能模拟有机物,那是不是很快就能模拟蛋白质了?是不是阿尔兹海默症、帕金森症这些疾病,很快就能攻克了?

但是,有点儿遗憾的是,在仔细看了谷歌公司的论文后就能发现,事情并没有媒体们猜测的那么乐观。谷歌量子计算机模拟的二氮烯这种物质,虽然算是有机物,但是它只包含 2 个氮原子和 2 个氢原子,也就是说,它只有 4 个原子。这与解决阿尔兹海默症那种高度复杂的蛋白质折叠问题相比,就好像是一块砖和一栋摩天大楼的差距。

其实早在 2017 年,IBM 公司就利用 7 个量子比特,模拟了氢化铍分子的特性。氢化铍分子中有两个氢原子和一个铍原子,总共 3 个原子,只比谷歌公司这一次模拟的二氮烯,少了一个原子而已。

所以,谷歌这一篇论文,其实只是证明了他们的量子计算机的实用价值而已,所以并没有实现有些媒体过度解读的那种“质的突破”。

听到这里,你可能会有疑问。IBM 模拟氢化铍用了 7 个量子比特,谷歌模拟二氮烯用了 12 个量子比特。可是,谷歌的量子计算机足足有 53 个量子比特呢,如果把所有的 53 个量子比特全部用于计算,是不是就能模拟更复杂的化合物了呢?为什么最好的量子计算机只有 53 个量子比特,让量子比特增加,到底难度在哪里呢?

----量子计算与经典计算的不同---

可能有人觉得,电子计算机和量子计算机,只相差一个字,应该一个用电子做计算,另一个则用量子做计算。其实,这个理解是错误的。电子计算机里的电子,指的并不是真正的电子,它指的是电子电路。虽然我们已经把计算机芯片的尺度缩小到了纳米级别,但是,这些电路依然与墙上的那些开关一样,是完全可控的。

而量子计算机里负责计算的元件可不是开关,那些都是真正的微观粒子。它们就像量子物理中描述的一样,没有确定的状态。我们只能用概率来解释它们的行为。

量子芯片

虽然芯片中的每一个晶体管已经做得比病毒还要小,但是,这些晶体管依然是完全受控的。它们与手指头一样,都是受经典物理学定律指挥的。

与经典计算相对的,就是量子计算。

你可能听说过量子力学中的叠加态、测不准原理和量子纠缠这些奇怪的特性吧。量子计算机真的就是利用了量子力学的这些奇怪特性而设计出来的。

为了让大家能理解量子计算的独特之处,这里我们举几个高度简化的例子:

现在请你想一个 1 到 10 之间的数字,然后用一只手表示出来。我们可以用 5 根手指头表示出 1 到 5 ,然后用拇指和小指一起伸出来表示 6,拇指和食指一起,可以表示 8,如果表示 10,那就攥紧拳头就行了。

那么,请你回答,你用一只手,每一次到底能表达多少个数字呢?你肯定觉得这根本不是一个问题,一只手每次当然只能表达一个数字呗。没错,一只手在同一时间只能表达一个数字,这就是经典计算机存储数据的根本规律。计算机比我们的手指头更快,但它的一个比特位,仍然只能存储一个二进制数。

但是,如果换成量子计算机,那表达数字的方式立即就被颠覆了。现在,请把你刚刚用来表示数字的那只手踹在兜里,先别着急拿出来。请你想一想,你踹在兜里的这只手,如果伸出来之后,有可能表达出多少种数字呢?答案是 10 种可能。但是,在你真正把手伸出来表示一个数字之前,你的手会比出哪个数字,仍然是不确定的。这正是量子计算机的存储单元——量子比特的存储方式。它储存的不是具体的数据,而是所有可能出现的数据的出现概率。你也可以理解为,你踹在兜里的这只手,具有某种不确定性。所有你可以用这只手表达的数字,全部都叠加在一起了。你只用了一只手,就存储了 10 个不同的数字,每个数字出现的概率都是 10%,这就是量子比特的威力。

如果你觉得,同时存储 10 个数字,算不上什么神奇的事情,那是因为我们的一只手只有 5 根手指,而且编码的方式也不够好。如果我们用二进制来表示数字, 5 根手指就能同时存储 32 个数字。如果同时用两只手,那就可以同时存储 1024 个数字了。请看,这就是量子比特的威力所在。同样是 10 根手指,使用叠加态会让存储能力提升了足足 1000 倍,但它们使用的硬件资源却是完全一样的。

不仅如此,以后每增加一个量子比特,存储能力就能再提升一倍。按照这个规律增加下去,用不了多久,我们可以同时存储的数字总量,就比全宇宙的原子数还要多了。

----量子计算机的并行计算-----

任何一次计算,都是把已知条件代入公式,然后通过计算得到结果。经典计算机上的已知条件,就是一个一个的确定的数字。把确定的数字代入公式,当然也只能得到确定的结果。一次计算,得到一个结果,这就是经典计算机的计算模式。

我们可以再打个比方,现在有一个黑盒子,左边伸出 1024 根电线头,右边也伸出 1024 根电线头。现在有人告诉你,其实只有一根电线是连通的,请问,你该如何找到这根连通的电线呢?如果使用经典计算机,我们只能一个一个地尝试。左边的 1 号线头和右边的 1 号线头试试,如果不行,就用左边的 1 号线头和右边的 2 号线头再试,直到找到答案为止。这种方法,最不幸的结果,就是可能要尝试 1024x1024 次,也就是大约 100 万次才能找到答案。

如果用量子计算机解决这个问题,就简单多了。刚刚我们说过,量子比特的存储,所有可能的数字,都是叠加在一起存储的。那么从 1 到 1024,其实就只是一组量子比特而已。也就是说,只需要一次计算,量子计算机就同时把所有的可能都考虑进去了。它可以一次性地找到那根连通的电线。一次计算,量子计算机就通过并行计算,实现了 100 万倍的效率提升。

谷歌的量子处理器

超级强大的存储能力,加上只需要算一遍,就能得到全部结果的并行处理能力,以及每增加一个量子比特,能力就能增加一倍的神奇特性,让全世界都对量子计算机产生着强烈的期待。

-----量子计算的瓶颈------

量子计算机的这些超能力,全部都建立在量子效应的基础上。量子效应最害怕的一件事情,就叫做波函数坍缩。

还记得被薛定谔关在封闭盒子里的那只可怜的猫吗?这只猫之所以能够处于生与死的叠加态,正是因为盒子与外界是完全隔绝的。任何测量,都能把这只量子猫一瞬间打回原形,让它呈现出要么活着,要么死了的平凡状态。

量子计算机的量子比特也存在这种问题。只要有一点点的风吹草动,这些量子比特就会立即坍缩成一个确定的状态。哪怕一组量子比特中装着海量的数据,只要你一测量,这些数据都会立即化为乌有,坍缩成一个具体的数字。

更过分的是,即便是计算结果,你都是没办法直接读出来的。比如,我们用量子计算机,来计算抛出硬币后,正面和背面出现的概率。量子计算机计算得出了 50% 这个结论。但是,这个结论却没办法输出出来。因为我们只要尝试读出结果,就会导致波函数坍缩。结果也就从正确的 50%,变成了不是 1,就是 0 的确定答案了。

科学家们为了正确地获得计算结果,竟然要把同一个计算重复上万遍,然后再把这上万个具体的 0 或者 1 统计一遍,才能重新得出 50% 这个计算结果。

另外一个严重影响量子计算的因素,是量子比特很难保持住量子纠缠的状态。量子纠缠状态又被称为相干性。一组纠缠在一起的量子中,只要有一个受到干扰,那么整组量子就会一起失去相干性,这种现象叫做退相干。相干性可以把量子比特的状态互相绑定在一起,这是实现量子算法的物理基础。而退相干则会让量子算法彻底失效。

2020 年 7 月 20 日,日本东北大学和悉尼新南威尔士大学的一项联合研究,把量子比特维持量子态或相干性的时间延长到了 10 毫秒 。这个成绩比以前的最好成绩,足足提高了 10000 倍。

研究人员采用的核心技术——基于受体的自旋轨道量子位(艺术概念图)

现在你应该大致了解,谷歌公司是在何等艰苦的条件下,完成了对二氮烯分子的模拟了吧。他们必须在千分之几毫秒的时间内,把二氮烯的演化算法重复上万遍。而且,他们必须要用大量冗余的量子比特来处理信息,以防某一个量子比特因为波函数坍缩而失去了计算能力。这就是 53 量子比特的量子计算机,只能拿出 12 个有效的量子比特来进行计算的真正原因。

在过去的几年里,美国、英国、加拿大等国家对量子计算机的研发投入超过了 10 亿美元,德国、俄罗斯和荷兰等国在量子计算上也投入了数亿美元。但是,很显然,在一个具体的技术方向确定之前,这些巨额的投资被各种各样不同的方案分散了。

目前看来,虽然比较领先的谷歌和 IBM 走的都是超导量子计算机的路线,但从这两家公司目前遇到的困境来看,我们仍然不能肯定,这就是那个最优的解决方案。

麻省理工学院最近的一项研究表示,噪声干扰导致的量子比特退相干问题,很可能成为当前量子计算机技术发展的天花板。麻省理工学院林肯实验室的研究员奥利弗教授说:“在过去的20年里,我们就像剥洋葱一样,把引起量子比特退相干的因素一个一个地解决掉。到现在,除了周围的环境辐射以外,已经没有太多的事情可以做了。”

为了减少周围的环境辐射,研究小组甚至把 2 吨重的铅块做成了防辐射墙。他们不断地升起和降下这堵铅做的墙,来测定环境辐射对量子比特退相干的影响。

最后,他们的结论是,这些措施有效地阻挡了来自周围环境的辐射,但是却挡不住无处不在的宇宙射线,宇宙射线已经成为阻碍量子计算机进一步发展的天花板。

他们没有想到,那些极其微弱的辐射竟然对量子比特的稳定性起到了严重的破坏作用。现在,科学家们要么带着设备躲到 1000 米深的地底下去,要么就必须研发出有效的能够抵抗宇宙射线干扰的元器件。

说句大白话就是,宇宙射线锁死了我们的量子计算机技术。

解决退相干问题,大幅度增加量子比特的稳定性,这很可能就是我们要寻找的那个技术奇点。只要这个点被突破,量子计算机就有可能取得爆发式发展

设计建造中的量子计算机

经典计算机的发展,会一直发展到摩尔定律失效,芯片的尺度达到物理极限为止。未来,量子力学会接过经典力学的接力棒,一直推动量子计算机的发展。人类对世界的理解,将从宏观近似的理解,跃升为对微观世界底层规律的精准理解。

量子力学主宰的微观世界,一直以来都以它的反常识和怪异的规则,展现给我们一副生人勿近的状态。

但是,量子力学理论指导下的量子计算机,成了量子力学的破壁人。它不仅把量子力学的各种怪异的特点,应用得淋漓尽致,还通过自己强大的计算能力,不断提升着自身的能力。有了量子计算机之后,人类控制微观世界的大门,就被开启了。

很难想象,人类对微观世界的控制,最终会达到什么样的水平。但是,我们可以肯定的是,量子计算机必然能加深我们对于量子力学的理解,从而形成互相促进的良性循环。也许,人类寻找万物理论的终极梦想,也能在这个阶段得以实现。

参考资料:

https://science.sciencemag.org/content/369/6507/1084

https://www.nature.com/articles/s41586-019-1666-5

https://www.sciencemag.org/news/2017/09/quantum-computer-simulates-largest-molecule-yet-sparking-hope-future-drug-discoveries

https://www.sciencedaily.com/releases/2020/09/200904121331.htm

https://www.sohu.com/a/116866480_465975

https://www.analyticsinsight.net/top-10-countries-leading-quantum-computing-technology/

https://eurekalert.org/pub_releases/2020-08/miot-crm082420.php

https://techbeacon.com/security/waiting-quantum-computing-why-encryption-has-nothing-worry-about

相关文章

网友评论

    本文标题:研发量子计算机的难度你想象不到

    本文链接:https://www.haomeiwen.com/subject/tzrgiktx.html