为什么用于降维的自动编码器是对称的?
无论如何我都不是自动编码器或神经网络的专家,所以如果这是一个愚蠢的问题,请原谅我。 为了降维或可视化高维数据中的群集,我们可以使用自动编码器通过检查具有2个节点的网络层的输出来创建(有损)2维表示。例如,使用以下架构,我们将检查第三层的输出 [ X] → N1个= 100 → N2= 25 → (N3= 2 )→ N4= 25 → N5= 100 → [ X][X]→N1=100→N2=25→(N3=2)→N4=25→N5=100→[X][X] \rightarrow N_1=100 \rightarrow N_2=25 \rightarrow (N_3=2) \rightarrow N_4=25 \rightarrow N_5=100 \rightarrow [X] 其中是输入数据,N l是第l层中的节点数。XXXñ升NlN_l升ll 现在,我的问题是,为什么我们要一个对称的架构?难道不是深层“压缩”阶段的镜像,这意味着我们可能会有类似复杂的“解压缩”阶段,导致2节点输出不是很直观吗?换句话说,难道没有更简单的解码阶段会导致具有2个节点的层的输出也必然变得更简单吗? 我的想法是,减压阶段越简单,二维表示就必须越简单(越线性?)。更复杂的减压阶段将允许更复杂的2D表示。