想象一下,您向神经网络展示了100张狮子的图片,并标有“危险”标签,因此得知狮子是危险的。
现在想象一下,以前您已经向它展示了数百万张狮子的图像,或者将其标记为“危险”和“不危险”,这样狮子发生危险的可能性为50%。
但是,这最后100次使神经网络对将狮子视为“危险”非常积极,因此忽略了最后一百万堂课。
因此,神经网络似乎存在一个缺陷,即基于最近的证据,它们可能会很快改变主意。特别是如果以前的证据在中间。
是否存在一个神经网络模型来跟踪已看到的证据数量?(或者这等于让学习率降低,其中是试验次数?)