1. Google最新一代量子芯片Willow炸裂推出,最大的突破在于超强的计算能力和纠错能力
对于一项名为“随机电路采样”的基准任务,当前最快的超级计算机需要花费10 的 25 次方年来解决,时长远超宇宙年龄(267亿年);而Willow完成这项任务的时间不到5分钟。
量子计算有潜力在特定任务上显著提高计算速度、超越经典计算机,这被称为“量子优越性”。早在2019年,Google就已经验证了这一事实,在《Nature》公布,表明其利用一台 54量子比特的量子计算机Sycamore实现了传统架构计算机无法完成的任务:在世界第一超级计算机需要计算1万年的某实验中,Sycamore只用了3分20秒。彼时GoogleCEO桑达尔·皮查伊表示这是研究者期待已久的一句“Hello World”,是截至当时,量子计算实用化最有意义的一个里程碑。
此次Willow的发布,无疑是量子计算领域的又一标志性事件。
然而,“快”还并不是Willow最值得瞩目的突破。
Willow最大亮点在于超强纠错能力。
过去,量子芯片在数据处理过程中,由于量子态的脆弱性,容易受到环境干扰而发生退相干现象,导致量子比特的状态出错。所以,尽管具备“量子优越性”,但量子计算机容易受到环境影响,非常容易出错。通常,量子比特越多,发生的错误就越多。
因此,“量子纠错”就成了一项关键技术,量子芯片需要特殊的量子纠错技术,这也是该领域的重要挑战,也一度严重制约了量子计算的实际应用和发展。
Willow 芯片成功解决了近 30 年来一直困扰研究者的量子纠错难题,实现了错误率的指数级降低。Google的研究表明,在Willow中使用的量子比特越多,系统的错误率越低。
当量子比特数量增多,从 3×3 的阵列扩展到 5×5 再到 7×7 的阵列时,Google的 Willow 芯片实验中每次扩展都能将编码错误率降低 2.14 倍,错误率下降得越来越快。
2.什么是量子计算?为何如此强大?
1935年,奥地利物理学家薛定谔提出一个伟大的思想实验:把猫装在一个放有放射性物质的盒子里,有50%的概率放射性物质会衰变并释放出毒气杀死这只猫,同时有50%的概率放射性物质不会衰变而猫将活下来。在打开盒子前,谁也不知道猫活着还是死了,只能用“处于生死叠加态”来描述。
量子世界,就如同“薛定谔的猫”一样,处于一种悬而未决的叠加态;对应的新计算理论即为“量子计算”,硬件层则表现为量子芯片、量子计算机。
量子计算表现出两个优点:
第一,强大的数据存储能力。经典计算以比特为基本单元,而量子计算以量子比特为基本单元。
在经典计算中,比特的状态是确定的,要么是0要么是1;而量子比特却处于0和1的叠加态,换句话讲,它可以同时存储0和1。
1块有n个比特的传统芯片,可以同时存储n个数据;而一块拥有n个量子比特的芯片,则能够在同一时刻存储2^n个数据。
第二,对特定问题展现出强大的并行运算能力。
传统电子计算机是串行计算,每次操作只能将单一数值转换为另一个数值,这意味着它必须依照顺序进行计算。而量子计算机通过一次操作即可同时将2^n个数据转换为新的2^n个数据。
3.未来的量子芯片能否替代GPU,推动AI发展进程?
人工智能技术及各种应用在最近几年飞速发展,对计算能力的需求也指数级增长。
理论上讲,量子计算的并行处理能力,使其在处理复杂的人工智能算法时具有天然的优势,能够大大提高模型的训练速度和准确性。Willow芯片的出现,或许能够为人工智能的进一步发展提供了强大的算力开拓。
其实,现在被广泛应用于AI的GPU,最初也是为了加速图形处理而设计。比如游戏中的3D 场景渲染、动画制作中的建模和特效处理、影视制作中的视频视觉效果等。但是,由于其强大计算能力,GPU后来才被广泛应用于科学计算和人工智能领域,特别是深度学习中的神经网络训练和推理阶段,在处理大规模数据集、并行度高的计算任务时表现出色。
从这个角度看,量子芯片未来也会逐步突破发展,打破计算限制,加速各类AI机器学习算法的训练过程。量子芯片目前主要应用于一些对计算复杂度要求极高的特定领域,如密码学中的加密算法破解(例如对基于 RSA 算法的传统加密方式构成潜在威胁)、量子系统模拟(模拟分子、材料等量子层面的物理和化学性质)、复杂的优化问题求解(如物流规划、资源分配等复杂的组合优化问题)等。在这些领域,量子计算的优势能够得到充分发挥,有可能解决传统计算机在可接受时间内无法完成的任务。
量子芯片计算能力的增长主要与量子比特数量的增加和质量的提升相关。未来,随着量子比特数量的增多,量子计算机的计算能力呈指数级增长。每增加一个量子比特,其可能的状态组合数就会翻倍。例如,2 个量子比特有 4 种状态组合,3 个量子比特有 8 种状态组合,以此类推。同时,量子比特的质量(如相干时间、保真度等)也对计算能力有重要影响,高质量的量子比特能够更有效地保持量子态,从而实现更准确、更复杂的计算。
但是,从短期来看,量子芯片难以撼动GPU的地位。量子芯片相比GPU拥有更强的计算能力,理论上可以进行替代。但GPU的护城河,计算能力只是一方面,更重要的是:可编程架构和开发者生态优势、制造工艺和产业成熟度。
GPU的可编程架构和开发者生态是核心壁垒。英伟达用GPU掀起的这场“AI算力革命”铺垫了十多年。
CUDA(Compute Unified Device Architecture)是2006年由英伟达开发的首个GPU编程架构平台,其价值在于构建了一个GPU开发者生态,算法工程师可以按照自己需求对GPU的能力进行发掘,这也将GPU的应用领域从图形渲染拓展到了通用领域。
如果基于新的硬件(如量子芯片)开发新软件,就需要实现向前兼容,但现有的主要AI软件基本都依赖于CUDA平台开发,因此脱离CUDA架构需要付出高昂的成本。再加上开发社区的护城河效应,众多高性能计算开发者是在CUDA生态中积累开发经验的,CUDA每年有高达五百万次的下载量,推动开发者社区转向其他编程模型将是以十年计的工程。
GPU芯片制造工艺和产业链成熟,拥有广阔的消费市场和产业正循环。
GPU从诞生至今已经25年,下游的个人PC、定制开发、AI数据中心等商业化应用场景,已经形成10至30年不等。当前,GPU从芯片立项到流片一年,流片到量产一年,以GPU开发为主基调,形成了光刻设备开发、晶圆代工工艺迭代等相应的联动周期。如此的牢固产业链在十几年的正循环下很难被打破。
而量子芯片制造和GPU产业链难以重叠。量子芯片的设计、制造工程极其复杂,需要高度纯净的实验环境,精密的量子控制技术和稳定的量子比特,因此长期以来都是零星几家顶尖科技公司在“单打独斗”,还没有形成成熟的产业供应链。因此,短期内实现量子芯片的量产和商业化应用是一大难题。
4.量子芯片影响最大领域:加密货币和“HPC+AI”
4.1 量子芯片或是加密货币的“克星”
以比特币为例,其安全性建立在两个关键机制之上。一是“挖矿”机制,比特币产出基于依赖于哈希函数的工作量证明(Proof of Work),哈希率越高,挖矿成功的可能性也就越大。二是交易签名,一种基于椭圆曲线数字签名算法 (ECDSA),相当于用户的“身份钱包”。这两种机制的设计让比特币在传统计算上几乎无法被破解,而量子芯片将会对比特币构成直接威胁。
一是量子计算对“挖矿”机制的暴力破解。量子计算的算法可以加速计算哈希函数,即加快挖矿速度,且幅度超过以往所有的传统设备,结果是挖矿成功率提高,加密货币供应量骤增,造成其市场价格的大幅波动。12月10日,比特币从10万美元一度跌到9.4万美元。Coinglass数据显示,12月10日至12日共有23.7万人爆仓。
二是量子计算对交易签名的直接威胁。加密货币的交易存在“公钥”和“私钥”两种凭证,前者相当于银行卡号,后者相当于钱包密码。通常,公钥地址的公开并不会影响用户的资金安全,但量子计算可以通过公钥来破解签名,并伪造交易。比如,量子计算中的Shor算法,专门用于破解大整数的质因数分解和离散对数问题,将对交易签名造成严重威胁。
虽然Willow在当下对比特币的威胁很小,但未来加密货币极有可能被量子计算突破。理论上,要对比特币的签名和挖矿机制发起攻击,大约需要几百万个物理量子比特,这与Willow目前拥有的105个物理量子比特相比,差距仍然非常巨大。但如果Willow像通用GPU一样迭代,实现量产和算力跃迁,那么未来十年比特币被“攻陷”也不是不可能。
4.2 量子芯片将促进“HPC+AI”,推动高阶人工智能发展
按照OpenAI对AI的分级,从L1(Chatbot)到L5(AGI),当前的AI大模型发展仅在L1到L2的过渡阶段。L5级的AGI定义为“具备组织级别能力”,对动态复杂的真实环境能进行判断、推理、预测、并规划行动。业界认为“HPC+AI”将是实现AGI的关键一步。
高性能计算(HPC)指的是用强大的计算机能力来解决科学、工程和技术实现问题,和如今的AI大模型在一定程度上同源,但方向和侧重点不同。
HPC侧重于“复杂问题解决”,如超级计算机在气象、物理、天文等领域的应用带来过重大科研突破。
而AI模型侧重于“推理和生成”,虽然不擅长于解决复杂模型,却具备良好的通用性。
量子芯片的落地对HPC领域是革命性突破,复杂问题的解决不再需要传统的HPC的长时间“暴力运算”,而是可以在新的方向发展——与AI结合进行更复杂的通用训练。
一是传统的AI训练并不能对量子比特数据进行处理,而量子计算能优化特定的传统计算无法处理的学习模型,并构建量子现象敏感的系统模型。即,未来的AI模型将具备推理、预测复杂世界的能力,相较于当前的大模型减少、甚至消除“AI幻觉”现象。
二是量子纠错技术的优势,Willow芯片克服了量子纠错的关键挑战,实现了错误率的显著降低。在高阶AI训练中,量子纠错技术的应用能够确保模型在训练、处理大量复杂数据时的准确性和可靠性,减少因量子比特脆弱性导致的计算错误,从而提升AI训练的效果和可信度。
虽然当前的AI训练还不具备应用量子芯片的条件,但未来极有可能需要量子芯片作为算力的核心支持。由于量子比特极为敏感,容易受到外界环境因素的影响,包括温度和电磁场等,这些因素可能导致量子态的退相干,进而影响计算结果的精确度。尽管Willow在量子纠错技术上取得了一定的进展,但在实际的人工智能训练应用中,为了实现长时间的稳定运行,量子系统的稳定性和抗干扰性能仍需进一步提升。
Google发布新一代量子计算芯片Willow,在全球科技界引起了巨大的轰动,这不仅是量子计算领域的一项重大突破,也是下一个全球技术最前沿。
未来量子计算技术的发展之路仍有荆棘,距离大规模应用于 AI 训练还有很多待解难题。
科技的进步从来都不是坦途,正如 GPU从默默无闻到大放异彩。