据我所知,神经网络在输入层中具有固定数量的神经元。
如果在类似NLP的上下文中使用神经网络,则大小不同的句子或文本块将被馈送到网络。如何将变化的输入大小与网络输入层的固定大小相协调?换句话说,如何使这种网络具有足够的灵活性以处理可能从一个单词到多页文本的输入?
如果我对输入神经元数量固定的假设是错误的,并且将新的输入神经元添加到网络中或从网络中删除以匹配输入大小,那么我将看不到如何训练它们。
我以NLP为例,但是许多问题本质上是不可预测的输入大小。我对处理此问题的一般方法感兴趣。
对于图像,很明显,您可以将上/下采样到固定大小,但是对于文本,这似乎是不可能的方法,因为添加/删除文本会更改原始输入的含义。