CIFAR-10不能达到60%以上的精度,带有Tensorflow后端的Keras [关闭]
关闭。这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新问题,使它成为交叉验证的主题。 去年关闭。 在CIFAR-10数据集上经过15个纪元后的训练似乎使验证损失不再减少,大约为1.4(验证准确度为60%)。我重新整理了训练集,将其除以255,然后导入为float32。我已经尝试了许多体系结构,在Conv2D层中有或没有辍学,似乎没有任何效果。相同的体系结构在MNIST的测试集上实现了99.7%的准确性。请查看以下架构: (注意:我曾尝试增加Adam优化器的辍学率和提高/降低学习率,以防止过度拟合,所有这些操作都是为了防止过度拟合,但是现在训练和测试集的准确性都低至60%左右)。 with tf.device('/gpu:0'): tf.placeholder(tf.float32, shape=(None, 20, 64)) #placeholder initialized (pick /cpu:0 or /gpu:0) seed = 6 np.random.seed(seed) modelnn = Sequential() neurons = x_train_reduced.shape[1:] modelnn.add(Convolution2D(32, 3, 3, input_shape=neurons, activation='relu', border_mode='same')) modelnn.add(Convolution2D(32, 3, 3, activation='relu', border_mode='same')) modelnn.add(MaxPooling2D(pool_size=(2, 2))) modelnn.add(Dropout(0.2)) modelnn.add(Convolution2D(64, 3, 3, activation='relu', border_mode='same')) modelnn.add(Convolution2D(64, 3, 3, …