Questions tagged «ne.neural-evol»

10
关于遗传算法的可行陈述
遗传算法在理论界没有太大的吸引力,但是它们是一种合理使用的元启发式方法(通过元启发式,我指的是一种普遍适用于许多问题的技术,例如退火,梯度下降等)。实际上,在实践中,类似于GA的技术对于欧几里得TSP相当有效。 从理论上对一些启发式方法进行了合理的研究:存在有关局部搜索和退火的工作。我们对交替优化(如k-means)如何工作有很好的认识。但是据我所知,遗传算法并没有真正有用的信息。 关于遗传算法的行为,是否有任何可靠的算法/复杂性理论,无论是形状还是形式?虽然我已经听说过诸如模式理论之类的东西,但由于我目前对该领域的理解不是特别的算法,因此我将其排除在讨论之外(但我可能会在这里误解)。

2
通用逼近定理—神经网络
我早些时候在MSE上发布了此内容,但有人建议在这里问个更好的地方。 通用逼近定理指出:“具有单个隐藏层的标准多层前馈网络,其中包含有限数量的隐藏神经元,是对Rn紧凑子集上连续函数中激活函数的轻微假设下的通用逼近器。” 我理解这意味着什么,但是相关论文超出了我的数学理解水平,无法理解为什么它是真实的或隐藏层如何近似非线性函数。 那么,用比基本演算和线性代数更高级的术语来说,具有一个隐藏层的前馈网络如何近似非线性函数?答案不一定完全是具体的。

1
一立方厘米适合多少计算能力?
这个问题是Aadita Mehra提出的有关DNA算法的问题的后续。 Joe Fitzsimmons在评论中说: 为了避免这种情况,系统的半径必须与质量成比例。计算能力在质量上最多呈线性比例。因此,您的机械的指数数量具有指数半径。由于您无法以比光更快的速度发出信号,因此从一侧到另一侧的信号要花费指数级的时间才能到达另一侧,因此,如果所有的机械都有助于解决问题,那么不可能以小于指数的速度解决问题时间。 我的问题分为两个部分。 (1)形式化诸如“计算能力在质量上至多呈线性比例”之类的陈述的最佳方式是什么?这句话真的不值得辩论吗? (2)假设陈述为真。即使这样,自然界是否已经进行了我们可能能够利用的指数级预处理,例如通过“蛮力随机化”的进化过程创建视觉系统。 我已经听到并阅读了许多此类问题的软(伪科学)答案,对于在此给出的任何答案,我将不胜感激,但我对如何重铸(1)和(2)最为感兴趣。在TCS严格要求下。

2
量子PAC学习
背景 中的函数可以使用经典算法在准多项式时间内通过PAC学习,该经典算法需要随机选择O (2 l o g (n )O (d ))查询来学习深度为d的电路[1]。如果没有分解算法,那么这是最佳的[2]。当然,在量子计算机上,我们知道如何分解,因此该下限无济于事。此外,最佳经典算法使用函数的傅立叶频谱,因此大喊“量化我!”一ç0一种C0AC^0O (2升Ò 克(n )Ø (d))Ø(2升ØG(ñ)Ø(d))O(2^{log(n)^{O(d)}})2ño (1 )2ñØ(1个)2^{n^{o(1)}} [1] N. Linial,Y。Mansour和N. Nisan。[1993]“恒定深度电路,傅立叶变换和可学习性”,ACM杂志40(3):607-620。 [2]哈里托诺夫(M. Kharitonov)。[1993]“分布特定学习的密码学硬度”,ACM STOC'93会议录,第372-381页。 实际上,六年前,斯科特·亚伦森(Scott Aaronson)将的可学习性作为他的十个量子计算理论的半大挑战之一。一ç0一种C0AC^0 题 我的问题有三点: 1)在密码学假设的前提下,是否存在自然函数族的示例,量子计算机可以比传统计算机更快地学习? 2)特别是在的可学习性方面是否有任何进展?(或更具雄心的T C 0)一ç0一种C0AC^0ŤC0ŤC0TC^0 3)关于的可学习性,Aaronson评论说:“那么,在学习神经网络的接近最佳权重方面,量子计算机将比传统计算机具有巨大优势。” 有人可以为神经网络和T C 0电路的权重更新之间的关系提供参考吗?(除了阈门看起来像是乙状神经元的事实之外)ŤC0ŤC0TC^0ŤC0ŤC0TC^0(这个问题已经被问及回答了)

1
神经网络的计算能力?
假设我们有一个具有k个输入和一个输出的单层前馈神经网络。它计算从函数 ,这也很容易地看到,这具有至少相同的计算能力如甲Ç 0。只是为了好玩,我们将由单层神经网络可计算的函数集称为“ N e u r a l ”。{ 0 ,1 }ñ→ { 0 ,1 }{0,1}n→{0,1}\lbrace 0,1\rbrace ^{n}\rightarrow\lbrace 0,1\rbrace 一ç0AC0AC^0ñË ú [R 一升NeuralNeural 但是,似乎它可能比单独的具有更多的计算能力。一ç0AC0AC^0 因此...是或ñ é ù ř 一升= 甲Ç 0?以前也研究过这种复杂性类吗?一ç0⊆ ñË ú [R 一升AC0⊆NeuralAC^0 \subseteq Neuralñè ù ř 一升= 甲Ç0Neural=AC0Neural = AC^0


5
神经网络可以用来设计算法吗?
在玩棋盘游戏中神经网络获得越来越多的成功之后,人们感到我们设定的下一个目标可能比在Starcraft中击败人类更有用。更确切地说,我想知道是否 可以训练神经网络解决经典算法问题吗? 在这里,我的意思是,例如,网络将获得带有加权边的输入图,并指定了两个顶点和,我们要求它尽快找到最短的路径。然后我猜想神经网络会发现并训练自己使用Dijkstra或类似的东西。GGGssstttststst 一方面,我们知道神经网络TC0TC0TC^0的计算能力为。另一方面,我不知道这是否一定与我的问题有关。即使这样,对于大多数问题,我们仍然不知道是否可以在解决它们。看看神经网络是否可以训练自己,可能很好地指示了是否有快速的算法。例如,如果神经网络无法训练自己快速求解SAT,那么(甚至更多)可能。我想知道神经网络将如何处理图形化或工厂化。TC0TC0TC^0NP⊄TC0NP⊄TC0NP\not\subset TC^0 当然,提取算法是一个完全不同的问题。我怀疑专家们知道该怎么做,但是讨论不是这个问题的主题。 两天后添加:在看到答案后,让我指定如果您的答案是否定的,那么我想知道 为什么下棋比Dijkstra或Graphisomorphism更容易?

2
目的和确定何时使用隐藏层
跟进这个问题 ... 我正在尝试学习如何使用和创建神经网络来进行我的研究,但有一点是在逃避我。我意识到隐藏层是其中的必要部分,但是我只停留在两点上,我的参考文献并未对此做出满意的解释: 隐藏层的确切目的是什么? 如何确定要使用多少个隐藏层? 据我所知,它是“模拟”现实世界的功能,但如果可能的话,我想更多地解释一下。
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.