我一直在思考,实施和使用极限学习机(ELM)范例已有一年多了,而且我做的时间越长,就越怀疑这确实是一件好事。但是,我的观点似乎与科学界形成鲜明对比,在科学界,当使用引文和新出版物作为衡量标准时,这似乎是一个热门话题。
ELM已由Huang等人介绍。等 大概在2003年左右。基本思想很简单:从2层人工神经网络开始,并在第一层随机分配系数。这将通常通过反向传播处理的非线性优化问题转换为简单的线性回归问题。更详细的,用于,该模型是
现在,仅对进行调整(以使平方误差损失最小),而对均进行随机选择。作为对自由度损失的补偿,通常的建议是使用大量隐藏节点(即自由参数)。
从另一个角度看(而不是一个通常在文献中推广,这是从神经网络侧),整个过程是简单的线性回归,而是一个你选择你的基础函数随机,例如
(对于S形函数,除了S形函数外,还有许多其他选择。例如,使用径向基函数也应用了相同的原理。)
从这个角度来看,整个方法变得过于简单了,这也是我开始怀疑该方法确实是一种好的方法的观点(...而科学营销肯定是这样)。所以,这是我的问题:
在我看来,使用随机基函数对输入空间进行栅格化的想法对于低尺寸而言是有益的。在高维中,我认为使用具有合理数量基函数的随机选择是不可能找到好的选择的。因此,ELM是否会在高维度上退化(由于维数的诅咒)?
您是否知道实验结果支持/矛盾这一观点?在链接的论文中,只有一个27维回归数据集(PYRIM),其中该方法的执行效果与SVM类似(而我希望与反向传播ANN进行比较)
更笼统地说,我想在这里发表您对ELM方法的评论。