因此,在查看径向基函数神经网络时,我注意到人们只建议使用1个隐藏层,而对于多层感知器神经网络,则认为多层更好。
鉴于可以用反向传播的版本训练RBF网络,是否有任何原因为什么较深的RBF网络不起作用,或者RBF层不能用作深度MLP网络中的倒数第二层或第一层?(我一直在考虑倒数第二层,因此基本上可以对之前的MLP层学习的功能进行训练)
我不是NN专家,但我的印象是,使用标准前馈NN时,多个隐藏层通常不会增加太多。
—
gung-恢复莫妮卡
那是在NN研究的早期,但是现在通常更多的层是提高性能(深度学习)的秘诀。我认为当前最喜欢的方法是智能初始化,尽可能多地进行分层,通过dropout和softmax进行正则化,而不是通过S型激活来避免饱和。(但是我可能在技术上是错误的)。我认为有些人还使用迭代加深来获得更好的结果。此外,Google在2014年通过100层网络在imageNet上获得了最先进的技术。
—
user1646196 2015年