量子神经网络训练景观中的贫瘠高原


9

在这里,作者认为,使用大量参数化门来创建可伸缩量子神经网络的努力被认为对于大量的量子位失败。这是由于以下事实:由于Levy的引理,高维空间中函数的梯度在任何地方都几乎为零。

我想知道该论点是否还可以应用于其他混合量子经典优化方法,例如VQE(可变量子本征求解器)或QAOA(量子近似优化算法)。

你怎么看?


“使用一组参数化的门”设置了什么?它是随机的吗?
rrtucci

本文由也是VQE的先驱Jarrod McClean撰写。我想Jarrod不相信VQE会因为大量的qubit而失败。我认为您对Levy引理的描述与本文所建议的有所不同。您说“高维空间中函数的梯度几乎到处都是零”,但是本文只是说,在本文描述的QNN 的特定情况下就是这种情况。
user1271772

为了详细说明我的最后一条评论:一个人可以构建一个高维函数,该函数在任何地方都变化非常快,而在每个地方都不会具有“几乎为零”的梯度。本文基于Levy引理的结论是针对他们正在优化的特定功能,而不是针对高维空间中的“任何”功能。
user1271772

1
@asdf:花了一天的大部分时间来回浏览本文后,我终于为您提供了答案。看一看。
user1271772

Answers:


4

首先:本文引用了[ 37 ]作为Levy的引理,但您不会在[37]中提及“ Levy的引理”。你会发现所谓的“利维的不平等”,这就是所谓利维引理在,这是不是在你提到的论文被引用。

其次:有一个简单的证据证明此声明对VQE是错误的。在量子化学中,我们优化波函数ansatz的参数|Ψ(p)为了获得最低(即最准确)的能量。能量通过以下方式评估:

Ep=Ψ(p)|H|Ψ(p)Ψ(p)|Ψ(p).

VQE只是意味着我们使用量子计算机来评估该能量,而经典计算机则选择如何改进参数。 p 因此在下一次量子迭代中能量会降低。

因此,当 p很大”完全不取决于我们使用的是VQE(在量子计算机上)还是在经典计算机上运行标准的量子化学程序(例如Gaussian)。量子化学家通常会以高达1010 在参数 p,而我们不做不到的唯一原因是因为我们用完了RAM,而不是因为能源格局开始趋于平坦。在本文中,您可以看到摘要的结尾处,他们计算出的波函数的能量约为1012parameters,其中参数是Slater行列式的系数。众所周知,即使存在一万亿甚至更多的参数,能源格局也不是那么平坦(就像梯度几乎到处都是0一样)。

结论:Levy Lemma的应用将取决于您所拥有的特定能源格局,这取决于两者 H 和你的ansatz |Ψ(p)。对于QNN的特定实现,他们发现Levy的引理的应用是适当的。对于VQE,我们有一个反例,声称Levy的引理“始终”适用。Levy的引理不适用的反例是H分子哈密顿量|ΨCI波函数。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.