Questions tagged «theano»

5
Keras,训练模型后如何预测?
我正在使用路透社示例数据集,它运行良好(我的模型已经过训练)。我阅读了有关如何保存模型的信息,因此以后可以加载它以再次使用。但是,如何使用此保存的模型来预测新文本?我用models.predict()吗? 我是否需要以特殊方式准备此文本? 我尝试过 import keras.preprocessing.text text = np.array(['this is just some random, stupid text']) print(text.shape) tk = keras.preprocessing.text.Tokenizer( nb_words=2000, filters=keras.preprocessing.text.base_filter(), lower=True, split=" ") tk.fit_on_texts(text) pred = tk.texts_to_sequences(text) print(pred) model.predict(pred) 但是我总是 (1L,) [[2, 4, 1, 6, 5, 7, 3]] --------------------------------------------------------------------------- AttributeError Traceback (most recent call last) <ipython-input-83-42d744d811fb> in <module>() 7 print(pred) …

10
如何在keras中获得可复制的结果
每次我imdb_lstm.py从Keras框架(https://github.com/fchollet/keras/blob/master/examples/imdb_lstm.py)运行示例时,我都会得到不同的结果(测试准确性)。代码包含np.random.seed(1337)在顶部,而不是任何keras进口。应该防止它为每次运行生成不同的数字。我想念什么? 更新:如何复制: 安装Keras(http://keras.io/) 多次执行https://github.com/fchollet/keras/blob/master/examples/imdb_lstm.py。它将训练模型并输出测试精度。 预期结果:每次运行的测试准确性均相同。 实际结果:每次运行的测试准确性都不同。 UPDATE2:我正在Windows 8.1和MinGW / msys上运行它,模块版本: theano 0.7.0 numpy 1.8.1 scipy 0.14.0c1 UPDATE3:我将问题缩小了一点。如果我在GPU上运行示例(设置theano标志device = gpu0),则每次都会获得不同的测试准确性,但是如果我在CPU上运行,那么一切都会按预期进行。我的显卡:NVIDIA GeForce GT 635)
78 python  numpy  theano  keras 

9
深度学习难的原因
也许这个问题太笼统,但是谁能解释导致卷积神经网络发散的原因是什么? 细节: 我正在使用Tensorflow的iris_training模型处理一些自己的数据,并不断获取 错误:张量流:模型因损失= NaN而发散。 追溯... tensorflow.contrib.learn.python.learn.monitors.NanLossDuringTrainingError:训练期间NaN丢失。 回溯源于以下行: tf.contrib.learn.DNNClassifier(feature_columns=feature_columns, hidden_units=[300, 300, 300], #optimizer=tf.train.ProximalAdagradOptimizer(learning_rate=0.001, l1_regularization_strength=0.00001), n_classes=11, model_dir="/tmp/iris_model") 我尝试过调整优化器,将学习率设置为零,并且不使用优化器。任何对网络层,数据大小等的见解都将受到赞赏。

18
训练回归网络时NaN损失
我有一个“一键编码”(全1和全0)的数据矩阵,具有260,000行和35列。我正在使用Keras训练简单的神经网络来预测连续变量。组成网络的代码如下: model = Sequential() model.add(Dense(1024, input_shape=(n_train,))) model.add(Activation('relu')) model.add(Dropout(0.1)) model.add(Dense(512)) model.add(Activation('relu')) model.add(Dropout(0.1)) model.add(Dense(256)) model.add(Activation('relu')) model.add(Dropout(0.1)) model.add(Dense(1)) sgd = SGD(lr=0.01, nesterov=True); #rms = RMSprop() #model.compile(loss='categorical_crossentropy', optimizer=rms, metrics=['accuracy']) model.compile(loss='mean_absolute_error', optimizer=sgd) model.fit(X_train, Y_train, batch_size=32, nb_epoch=3, verbose=1, validation_data=(X_test,Y_test), callbacks=[EarlyStopping(monitor='val_loss', patience=4)] ) 但是,在训练过程中,我看到损失下降得很好,但是在第二个时期的中间,它就变成了nan: Train on 260000 samples, validate on 64905 samples Epoch 1/3 260000/260000 [==============================] - …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.