深度学习神经网络会在量子计算机上运行吗?


15

深度学习(在有监督和无监督的机器学习任务中使用的多层人工神经网络)对于许多最困难的机器学习任务(图像识别,视频识别,语音识别等)来说,是一种功能非常强大的工具。作为最强大的机器学习算法的一部分,而量子计算通常被视为某些非常困难的计算任务的改变者,我想知道将两者结合起来是否有任何进展。

  • 深度学习算法可以在量子计算机上运行吗?
  • 尝试有意义吗?
  • 还有其他与深度学习无关的量子算法吗?

1
我不是专家,但是我认为HHL算法在这种情况下会很有用。
DaftWullie

Answers:


8
  1. 是的,所有经典算法都可以在量子计算机上运行,​​而且,任何涉及搜索的经典算法都可以通过使用grovers算法来提高。我想到的一个例子是将神经网络参数的微调视为“搜索系数”问题。original time

  2. 事实是,在某些过程中有明显的计算收益:是的。

  3. 从来没听说过。但是,如果您愿意的话,拥有更多专业知识的人可以在这里打电话。我想到的一件事:由于仿真昂贵或不切实际,我们经常可能会使用深度学习和其他形式的人工智能来研究化学和物理问题。在这一领域,鉴于量子计算机能够有效地实时或更快速地本地模拟量子系统(如核化学中的那些系统),他们可能会杀掉其经典祖先。

上次我与他交谈时,马里奥·塞格迪(Mario Szegedy)对此很感兴趣,现在可能还有很多其他研究人员也在为此工作。


6
我不认为格罗弗的算法在这里有用。Grover的算法找到一个唯一的输入该输入恰好产生给定的输出。OTOH,神经网络本质上是非常独特的,它们也不是完全精确的-最好是渐近精确的。
左右左转

通过查看权重可能位于的所有状态的超位置,可以将其视为数据库搜索问题。如果权重在标准输入上的神经网络导数范数为,则让搜索函数返回1小于某些所需的公差。
frogeyedpeas

1
那将完全没有用。对于任何非平凡的问题,将有许多权重组合,梯度为零;即使Grover的算法为您提供了其中一种,通常也不会是最小值,更不用说全局最小值了。
大约

我不同意考虑以下协议:香草梯度下降到某个阈值,然后在非常有限的权重空间中应用Grover搜索,以在某个误差范围内获得一个硬最小值,该部分是梯度下降通常收敛的地方慢慢地达到当地的最佳状态,我很好奇这是否是诉诸格罗弗搜索的有趣之处
frogeyedpeas 18-3-28

1
嗯,那可能行得通;但是在那部分的最后,我相信您也可以比经典方法的梯度下降做得更好。双共轭梯度是显而易见的候选者。
左右左转

13

这是一个悬而未决的问题,但是是的,在这方面正在做大量的工作。

一些澄清

首先要注意的是,将机器学习(尤其是深度学习)与量子力学/量子计算相结合有两种主要方法:

1)ML QM

应用经典的机器学习技术来解决在量子力学/量子信息/量子计算的背景下出现的问题。这个领域的增长速度太快了,我什至无法尝试一个像样的参考文献列表,因此我只链接到这个方向上的一些最新著作:在 1803.04114中,作者使用机器学习方法来查找电路来计算重叠在两个状态之间(在同一方向上有许多其他工作),作者在 1803.05193中研究了如何使用深度神经网络来找到量子控制校正方案。

2)QM ML

研究用于分析大数据的量子算法,这通常相当于寻找经典机器学习算法的“量子概括 ”。您可以查看我的其他答案,以获得有关该主题的一些基本参考。更具体地说,对于深度学习的情况,作者在 1412.3489(适当地称为量子深度学习)中提出了一种方法(有效地是一种量子算法)来总体上加快深度受限的Boltzmann机器的训练速度。这里的另一个相关参考文献是 1712.05304,作者在其中开发了一种低深度量子算法来训练量子玻尔兹曼机。参见 1708.09757以及链接的答案中的参考资料,以找到更多与此相关的作品。请注意,这些工作中要求的加速可以从指数加速到多项式加速变化很大。

有时,加速来自使用量子算法来解决特定的线性代数问题(例如,参见(1707.08561)中的表1 ,有时来自于基本上等于使用Grover搜索的(变式),有时来自其他事物(但多数是这两个事物)。这里引自Dunjko和Briegel :

机器学习量子增强的思想大致可分为两类:a)依靠格罗弗的搜索和振幅放大来获得高达二次加速的方法,b)将相关信息编码为量子振幅的方法,并且有可能实现指数级的改进。第二组方法可能构成了量子ML中最发达的研究路线,并收集了许多用于量子ML提案的量子工具-最著名的是量子线性代数。

更直接回答这三个问题

综上所述,让我更直接地回答您提出的三点:

  1. 深度学习算法可以在量子计算机上运行吗?绝对可以肯定:如果您可以在经典计算机上运行某些程序,那么您可以在量子计算机上运行它。但是,应该问的一个问题是,量子(深度)机器学习算法是否可以比传统的算法更有效这个问题的答案比较棘手。可能是的,在这个方向上有很多建议,但是现在说什么行得通或行不通还为时过早。

  2. 尝试有意义吗?是!

  3. 还有其他与深度学习无关的量子算法吗?这在很大程度上取决于您所说的“ 无关 ”。我的意思是,就目前所知,很可能会有经典算法使深度学习“无关紧要”。

3
在这个答案的背景下,我想提及这篇最近的论文,该论文展示了如何通过在通用量子计算机上采用近似吉布斯采样,将量子近似优化算法用于训练神经网络(受限的玻尔兹曼机器)。
Mark Fingerhuth

1
@MarkFingerhuth我将其添加到了答案中,谢谢您的指导(并欢迎访问该网站!)
glS

2

是Xanadu的最新开发成果,Xanadu是一种模仿神经网络的光子量子电路。这是在量子计算机上运行的神经网络的示例。

该光子电路包含模仿NN称量功能的干涉仪和挤压门,充当偏置的位移门以及类似于NN的ReLU功能的非线性变换。

他们还使用该电路训练网络以生成量子态并实现量子门。

这是它们的出版物用于训练电路的代码。这是一篇介绍其电路的中型文章


2

这里的所有答案似乎都忽略了一个基本的实际限制:

深度学习特别适用于大数据。MNIST是60000张图像,ImageNet是1400万张图像。

同时,目前最大的量子计算机具有50〜72 Qbits。

即使在最乐观的情况下,能够处理需要深度学习算法而不是更传统的建模方法的大量数据的量子计算机也不会很快出现。

因此,将QC应用于深度学习可能是一个很好的理论上的好奇心,但并不是很快就会实用的东西。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.