9 月 20 日, 据《财富》,《金融时报》等多家外媒报道, 谷歌已经利用一台 53 量子比特的量子计算机实现了传统架构计算机无法完成的任务, 即在世界第一超算需要计算 1 万年的实验中, 谷歌的量子计算机只用了 3 分 20 秒.
这是迄今为止表明量子计算机超越传统架构计算机, 并走向实用化最为强烈的迹象. 虽然相关论文上传至 NASA 后不久即被删除, 但还是有眼疾手快的读者及时保存了论文. 谷歌是否真的实现了量子霸权? 这一实验算不算一个里程碑事件? 读者可以去论文中寻找答案.
论文链接: https://drive.google.com/file/d/19lv8p1fB47z1pEZVlfDXhop082Lc-kdD/view
这篇论文的摘要写道: 量子计算机的诱人前景在于量子处理器上执行某项计算任务的速度要比经典处理器快指数倍, 而根本性的挑战是构建一个能够在指数级规模的计算空间中运行量子算法的高保真度处理器. 在这篇论文中, 谷歌研究者使用具有可编程超导量子比特的处理器来创建 53 量子比特的量子态, 占据了 2^5310^16 的状态空间. 重复性实验得到的测量值对相应的概率分布进行采样, 并利用经典模拟加以验证.
谷歌的量子处理器大约只需 200 秒即可对量子电路采样 100 万次, 而当前最优的超级计算机完成同样的任务大约需要 1 万年. 这相对于所有已知的经典算法有了巨大的速度提升, 是在计算实验任务中实现的量子霸权, 预示着下一个万众瞩目的计算范式的到来.
如果读者想要了解量子计算到底是什么, 可以看看下面这篇教程, 它不需要我们理解量子力学就能有一个整体的理解:
教程地址: https://arxiv.org/abs/1708.03684
研究社区: 这会是量子计算领域一个里程碑
谷歌的论文迅速在量子计算研究社区内传播, 而「谷歌实现量子霸权」的消息也不胫而走, 成为了上周末科学领域的一个重大新闻. 在知乎上, 有关这一问题的讨论瞬间吸引了 3000 多万次点击.
量子霸权 (quantum supremacy) 是指量子计算在某些任务上拥有超越所有传统计算机的计算能力. 谷歌的研究人员声称已经实现量子霸权, 这意味着最新的量子计算机能力已经达到了目前最为强大的超算也无法企及的程度 -- 它可以在 3 分 20 秒内完成特定任务的运算, 而目前世界排名第一的超级计算机, 美国能源部橡树岭国家实验室的「Summit」执行同样任务需要大约一万年时间.
如何评价谷歌宣称实现量子霸权的研究? 量子计算领域杰出科学家, 原香港中文大学副教授, 现腾讯量子实验室杰出科学家张胜誉在获知消息之后表示, 历史上谷歌硬件组一直做得很好, 相信谷歌的研究是有真实性的. 量子霸权的实现取决于很多因素, 重要的是谷歌的确实现了 50 比特以上, 各方面参数接近优秀的系统, 这一点难能可贵.
不过, 张胜誉认为谷歌主张的量子计算双指数发展规律并不太可能实现.
麻省理工学院量子物理博士在读的 @ 少司命 则对于这篇论文进行了简单的解读:
在硬件方面, 谷歌家一直用的是超导电路系统, 这里是 54 个物理比特 (transmon) 排成阵列, 每个比特可以与临近的四个比特耦合在一起, 耦合强度可调 (从 0 到大概 40MHz).
文章最重要的部分, 谷歌在多项式时间内实现了对一个随机量子电路的采样, 而在已知的经典计算机上需要的时间则非常非常之久, 像文中实现的最极端的例子是, 对一个 53 比特 20 个 cycle 的电路采样一百万次, 在量子计算机上需要 200 秒, 而用目前人类最强的经典的超级计算机同样情况下则需要一万年. 亦即在这个问题上, 量子实现了对经典的超越.*
这里的 cycle 指的是对这些比特做操作的数目, 一个 cycle 包含一系列单比特操作和双比特操作, 可以近似理解为电路的深度 (circuit depth). 对于最大的电路, 即 53 个比特 20 个 cycle 的情况, 在量子处理器上做一百万次采样后得到 XEB 保真度大于 0.1% (5 倍置信度), 用时大概 200 秒. 而要在经典计算机上模拟的话, 因为比特数目很多整个的希尔伯特空间有 2^53~10^16 而且还有那么多电路操作, 这已经超出了我们现在超级计算机的能力 (within considerable time).
就像文中举的另一个例子, 用 SFA 算法大概需要 50 万亿 core-hour(大概是一个 16 核处理器运行几亿年吧), 加 10^13 kWh 的能量 (也就是一万亿度电...), 可以想见是多么难的事情了. 而量子这个问题上为啥会比经典好也非常容易理解, 用到的就是量子运算的并行性, 即量子态可以是叠加态可以在多项式时间内遍历整个希尔伯特空间, 而经典计算机模拟的话需要的资源则是随着比特数目指数增加的.
当然有没有可能是有些更好的经典采样算法和量子的差不多, 只是我们没有找到呢? 文中没有给出很直接的回答, 他们认为从复杂度分析来讲经典算法总是会随着比特数和 cycle 指数增加的, 而且即使未来有一些更好的经典算法, 到时候量子的处理器也发展了所以还是会比经典的好.
最后 @ 少司命 认为, 我们对于谷歌新研究感到振奋的同时也要保持清醒, 我们离着实现量子计算的完全功力还有很远的距离. 硬件上有集成化的问题, 比如这里的超导比特系统要加微波 control 要谐振腔 readout, 比特数目增加后有空间不足和 cross-talk 等各种问题, 远远不止我们图中看到的一个小芯片那么简单. 再一个比特数多了电路深度大了怎么继续提高保真度也是很大问题, 像这篇文章里 53 个比特到第十几个 circuit cycle 时候保真度只有 10 的负二次方量级了, 怎么 decorrelate error 实现量子纠错, 最终实现容错量子计算等等, 这些都是硬件上的挑战.
算法上, 除了这里的采样问题(由此延伸的可以解决的问题其实是非常有限的), 又有哪些问题是可以证明量子比经典有显著优势的, 可不可以设计一些算法使得量子计算机能解决经典不能解决的问题, 或者量子比经典有显著的加速, 就像文章最后所说的:
在 NISQ(noisy-intermediate scale quantum computer) 的时代 (如下图), 虽然我们离绿色真正的容错通用量子计算机还很远, 但是现在已经开始进入到蓝色区域相信在未来几年会有一些
当然,@ 少司命只是表达了自己的看法, 至于论文究竟如何, 大家还需要自己去读一下.
被 NASA 删除的「量子霸权」论文
以下是谷歌论文《Quantum Supremacy Using a Programmable Superconducting Processor》的大部分内容, 供大家参考:
- https://drive.google.com/file/d/19lv8p1fB47z1pEZVlfDXhop082Lc-kdD/view
- https://www.zhihu.com/question/346999432
来源: http://www.tuicool.com/articles/7vyyUrI