我目前正在准备有关神经网络的考试。在以前考试的一些协议中,我读到(多层感知器中)神经元的激活功能必须是单调的。
我知道激活函数应该是可微的,在大多数点上具有不为0的导数,并且是非线性的。我不明白为什么单调很重要/有帮助。
我知道以下激活函数,它们是单调的:
- ReLU
- 乙状结肠
- h
- Softmax:我不确定单调性的定义是否适用于函数,
- 软加
- (身份)
但是,我仍然看不到为什么任何原因。
为什么激活函数必须是单调的?
(相关的侧面问题:对数/指数函数不用作激活函数有任何原因吗?)
3
仅供参考:带有优缺点的神经网络中激活函数的完整列表
—
Franck Dernoncourt,2015年
@MartinThoma您确定softmax是单调的吗?
—
媒体
@MartinThoma谢谢,实际上这也是我的问题。我不知道,现在仍然不知道,在具有多个输出的函数中是否存在单调的扩展。数学的东西,你知道的!
—
媒体