通过耗散过程制备NVE的双模量子压缩态


利用操控库参数来制备量子纠缠态的工作,最近引起了大家的广泛兴趣,因为这种机制可以得到比较稳定的量子纠缠,对具体实验中的环境参数不是很敏感。我以前也做过一个相关的利用操控库参数来实现量子控制相位逻辑门的工作。在这个工作的基础上,最近我与杨万里等人合作,写了一篇通过耗散过程在NV center系综中制备双模压缩态的工作。我们的这个工作是最近在NV center系综与超导腔耦合系统上一系列工作的一个延续。论文刚刚投稿,希望一切顺利。

在这个工作中,我们研究了两个相互远离的超导腔,每个腔中有一团NV center系综与之耦合。腔与腔之间通过电容或者波导耦合。我们假设这种耦合是单向的,也就是只能从A腔耦合到B腔,而反过来不行。这是一种很典型的级联系统,也是带有耗散的系统。通过绝热的消去腔模,我们可以得到NV center系综与人工库环境的有效主方程。我们考虑到实际系统中耦合效率不可能达到100%,讨论了不完美的耦合对最终纠缠的影响。发现耦合效率不为1时,不可能得到稳定的纠缠,纠缠在某个时间点达到最大,然后开始下降。比如说耦合效率为0.7的时候,最大的双模压缩大概为3dB。

更新:2012年2月18日,论文发表了”Phys. Rev. A 85, 022324 (2012)“。

Advertisements

最近的一些研究进展


上个月,我们的一篇论文发表了,Phys. Rev. A 84, 043849 (2011)。在这里我们讨论了光子晶体耦合腔中的NV center之间的量子态传输和纠缠演化,以及在实际系统中考虑到耗散时有什么影响。在发表了这篇论文后,我们又投出去了一论文,讨论了如何在NV center 系综与超导腔阵列耦合的系统中,模拟人工磁场。

另外,最近还有两篇实验论文,一篇发表在在Nature,另外一篇刚刚被PRL接收。这两个工作各自独立的研究了如何通过磁场耦合在NV center 系综与超导qubit之间实现相干的耦合和量子态传输。他们的工作在实验上验证了我们今年7月发表的一个理论工作。看到自己的理论工作能够这么快得到验证,我们非常的兴奋。这两个实验工作也是对我们最近这个模拟人工磁场工作的有力支持。

商用量子计算机是真的么?


首发果壳网

什么是量子计算机?

量子计算机是基于量子力学的基本原理实现信息处理的革命性计算技术。

这个天才的主意最早是美国物理学家费曼于1982年提出的。他发现分析模拟量子物理世界所需要的计算能力远远超过了经典计算机所能达到的能力,而用实验室中一个可控的量子系统(比如:一台量子计算机)来模拟和计算另外一个我们感兴趣的量子系统(比如:宇宙),会非常高效。

量子计算机和普通计算机有什么不同?

与经典计算机类似,我们完成量子计算所操纵的最基本单元也是比特,只不过是量子世界的“比特”。与0和1组成的比特不同,量子比特可以处于0和1两种状态按照任意比例的叠加。形象的来看,量子比特其实是分布在一个单位球表面上的任意一个点。可见量子比特所包含的信息比经典比特多得多。而且,按照量子系统的可叠加性,多个量子比特也可以并行处理运算。

正是由于这些特殊的性质,量子计算机对某些特殊的计算任务有很高的效率,比如无序搜索和大数质因子分解等。

号称第一台商用量子计算机的“D-Wave One”

2011年5月,加拿大D-Wave公司的商用量子计算机“ D-Wave One ”被公布出来。据小道消息说,它已经卖了一台给美国的洛克希勒马丁公司,单价1000万美金。这个消息一经发布,在业内引起的轩然大波,因为大家一直以来都以为量子计算机的商用化还有很远的路要走。

那么它们所发布的到底是不是量子计算机呢?这取决于我们怎么定义量子计算机。

从已有的公开资料可以看出,他们的处理器是包含一部分量子效应的。在发布D-Wave One之前,他们在《Nature》上发表了 一篇论文 ,展示了他们所研究的量子处理器,里面包含8个量子比特,可以看到某些量子效应。据 他们的博客 所说,在完成某些计算工作时,比如离散最优化,这个机器可以运行“量子退火算法”——这会比一般的经典算法效率要高。因此,他们自称做出了第一台商用的量子计算机,也是有一定道理的。

但是另一方面,他们的D-Wave One并不满足人们对量子计算机的基本要求:通用性。通用性的意思是:量子计算机必须可以满足不同的计算要求,可以运行各种量子算法,比如说大数因子分解的Shor算法,搜索无序数据库的Grover算法等等。

不具有“通用性”的“D-Wave One”能被叫做量子计算机吗?

前文提到,最早研究量子计算机的,是美国物理学家费曼。他曾提出,可以用量子计算机来模拟研究一些复杂的量子现象,这被称为量子仿真。比如可以用来研究高温超导的本质,模拟黑洞的量子效应、中微子震荡等等。而事实上,几十个量子比特就已经可以做很多量子仿真工作了。

不过,上述这种“量子模拟器”只是针对某类特殊的问题而进行有针对性设计的处理器,并不具备通用性。

由此可见,D-Wave公司所发布的D-Wave One,本质上也是一个量子模拟器,只能解决某一类问题。量子模拟器是否属于量子计算机,可能更多是在概念层面上的争议。不过,这显然不影响D-Wave公司靠着量子计算机的名头开始赚钱。

满足“通用性”的量子计算机什么时候能做出来?

要实现通用的量子计算,我们需要实现量子信息的输入、运算和读出,同时保证这套系统是可靠的,并且可以不断地扩展,从而满足更加庞大的计算任务。而要同时满足上述条件,是极端困难的。

过去十几年,人们在实验上的探索就是如何实现前面的输入、运算和读出。最近人们更加关注如何让计算可靠、可以扩展变大,而这恰恰是最难的。要破解商用的RSA密钥系统,我们至少需要几百个量子比特。如果要让计算可靠,就需要更多的量子比特来运行纠错算法,所以一共大概需要1000个量子比特。根据本文作者掌握的资料,目前人们已经实现了16个量子比特的量子处理器。而要把这个系统扩展到1000个,同时保证计算是可靠的,还有很远的路要走。

要发展出具有上述能力的量子计算机,所需时间可以进行如下估计:1995年,人们做出了两个量子比特的处理器;15年过去了,我们刚刚增加到16个,增加了接近10倍。如果量子计算机的发展进程如同经典计算机一样,即其规模随时间指数递增的话,那么30年后,量子比特数会达到1000这个量级,通用的量子计算机有可能出现。当然这只是一个粗略的估计,未来究竟怎样发展,现在还无法确定。