11 我读过,大多数问题可以通过1-2个隐藏层来解决。 您怎么知道您需要两个以上?对于哪种问题,您将需要它们(给我举个例子)? deep-network hidden-layers — Kenorb source
11 形式上,单个隐藏层足以将连续函数近似为任何所需的精度,因此从这个意义上讲,您永远不需要超过1。这称为通用近似定理。 为给定问题找到最佳拓扑是一个开放的研究问题。据我所知,很少有通用的“经验法则”。 对于给定的问题,一种选择是应用神经进化方法(例如NEAT),该方法试图找到一种适合当前问题的拓扑。 — 尼采 source