Answers:
堆叠式自动编码器与多层神经网络不同。实际上,您将使两个网络共享权重,并可能共享内存缓冲区。因此,在您的实施中,两个网络相互交织。
通常,自动编码器以无监督,贪婪的分层方式进行训练。(没有标签,仅从网络的第一层开始训练,然后随便添加新层。)权重可以使用多种技术来学习,例如“批量”梯度下降(请不要这样做),进行小批量随机梯度下降(SGD),类似L-BFGS的准牛顿法。
这个想法是,以无监督的方式学习的权重可以最小化表示学习任务的重构误差,这为初始化监督的分类任务(例如分类或相似性)的网络提供了一个很好的起点。即,网络通过查看未标记的数据来了解有关基础分布的信息,从而可以区分标记的数据。但是,对于此新任务,权重仍然需要“微调”。因此,在网络顶部添加逻辑回归层,然后使用标记的数据集进行监督学习。微调步骤将进行梯度下降,并同时调整网络中所有层的权重。
这种训练神经网络的方式的优点是:
对于本文,请参阅堆叠式去噪自动编码器:使用局部去噪标准在深度网络中学习有用的表示形式。