我目前正在准备有关神经网络的考试。在以前考试的一些协议中,我读到(多层感知器中)神经元的激活功能必须是单调的。
我知道激活函数应该是可微的,在大多数点上具有不为0的导数,并且是非线性的。我不明白为什么单调很重要/有帮助。
我知道以下激活函数,它们是单调的:
- ReLU
- 乙状结肠
- h
- Softmax:我不确定单调性的定义是否适用于函数,
- 软加
- (身份)
但是,我仍然看不到为什么任何原因。
为什么激活函数必须是单调的?
(相关的侧面问题:对数/指数函数不用作激活函数有任何原因吗?)
                
                3
              
                  仅供参考:带有优缺点的神经网络中激活函数的完整列表
                
                
                  
                    —
                    Franck Dernoncourt,2015年
                    
                  
                
              
                  @MartinThoma您确定softmax是单调的吗?
                
                
                  
                    —
                    媒体
                    
                  
                
              
                  @MartinThoma谢谢,实际上这也是我的问题。我不知道,现在仍然不知道,在具有多个输出的函数中是否存在单调的扩展。数学的东西,你知道的!
                
                
                  
                    —
                    媒体