Questions tagged «activation-function»

2
如何选择激活功能?
我根据需要的输出和已知的激活函数的属性为输出层选择激活函数。例如,当我处理概率时,我选择了S型函数;当我处理正值时,我选择了一个ReLU;当我处理一般值时,我选择了一个线性函数。 在隐藏层中,我使用泄漏的ReLU来避免死亡的神经元,而不是ReLU和tanh而不是乙状结肠。当然,我不会在隐藏单位中使用线性函数。 但是,在隐藏层中对它们的选择主要是由于反复试验。 在某些情况下,哪种激活功能可能会起作用,是否有任何经验法则?尽可能将情况称为“ 情境”:它可能是指该层的深度,NN的深度,该层的神经元数量,我们选择的优化程序,其输入特征的数量。到该NN的应用等 在他/她的答案中,cantordust指的是我未提及的其他激活功能,例如ELU和SELU。此信息非常受欢迎。但是,我发现激活功能越多,对于在隐藏层中使用的功能的选择我就越感到困惑。而且我不认为掷硬币是选择激活功能的好方法。



By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.