在这里,作者认为,使用大量参数化门来创建可伸缩量子神经网络的努力被认为对于大量的量子位失败。这是由于以下事实:由于Levy的引理,高维空间中函数的梯度在任何地方都几乎为零。
我想知道该论点是否还可以应用于其他混合量子经典优化方法,例如VQE(可变量子本征求解器)或QAOA(量子近似优化算法)。
你怎么看?
在这里,作者认为,使用大量参数化门来创建可伸缩量子神经网络的努力被认为对于大量的量子位失败。这是由于以下事实:由于Levy的引理,高维空间中函数的梯度在任何地方都几乎为零。
我想知道该论点是否还可以应用于其他混合量子经典优化方法,例如VQE(可变量子本征求解器)或QAOA(量子近似优化算法)。
你怎么看?
Answers:
首先:本文引用了[ 37 ]作为Levy的引理,但您不会在[37]中提及“ Levy的引理”。你会发现所谓的“利维的不平等”,这就是所谓利维引理在此,这是不是在你提到的论文被引用。
其次:有一个简单的证据证明此声明对VQE是错误的。在量子化学中,我们优化波函数ansatz的参数为了获得最低(即最准确)的能量。能量通过以下方式评估:
VQE只是意味着我们使用量子计算机来评估该能量,而经典计算机则选择如何改进参数。 因此在下一次量子迭代中能量会降低。
因此,当 很大”完全不取决于我们使用的是VQE(在量子计算机上)还是在经典计算机上运行标准的量子化学程序(例如Gaussian)。量子化学家通常会以高达 在参数 ,而我们不做不到的唯一原因是因为我们用完了RAM,而不是因为能源格局开始趋于平坦。在本文中,您可以看到摘要的结尾处,他们计算出的波函数的能量约为parameters,其中参数是Slater行列式的系数。众所周知,即使存在一万亿甚至更多的参数,能源格局也不是那么平坦(就像梯度几乎到处都是0一样)。
结论:Levy Lemma的应用将取决于您所拥有的特定能源格局,这取决于两者 和你的ansatz 。对于QNN的特定实现,他们发现Levy的引理的应用是适当的。对于VQE,我们有一个反例,声称Levy的引理“始终”适用。Levy的引理不适用的反例是是分子哈密顿量,是CI波函数。