Questions tagged «machine-learning»

有关机器学习算法的实现问题。有关机器学习的一般问题应发布到其特定社区。


13
如何建立模型以区分关于Apple(Inc.)的推文和关于Apple(fruit)的推文?
请参阅以下有关“苹果”的50条推文。我亲手写了有关Apple Inc.的正面匹配。它们在下面标记为1。 以下是几行: 1|“@chrisgilmer: Apple targets big business with new iOS 7 features http://bit.ly/15F9JeF ”. Finally.. A corp iTunes account! 0|“@Zach_Paull: When did green skittles change from lime to green apple? #notafan” @Skittles 1|@dtfcdvEric: @MaroneyFan11 apple inc is searching for people to help and tryout all their upcoming tablet within …

5
训练期间难治的常见原因
我注意到在培训期间经常发生这种情况NAN。 通常,它似乎是通过权重引入内部产品/完全连接或卷积层中的。 这是因为梯度计算正在爆炸吗?还是因为权重初始化(如果是这样,为什么权重初始化会产生这种效果)?还是可能是由于输入数据的性质引起的? 这里的首要问题很简单:在训练过程中发生NAN的最常见原因是什么?其次,有什么方法可以解决这个问题(为什么它们起作用)?


6
如何使用Python找到Wally?
无耻地跳上了潮流:-) 受我如何通过Mathematica查找Waldo以及后续如何使用R查找Waldo的启发,作为一个新的python用户,我很想知道如何做到这一点。似乎python比R更适合于此,并且我们不必像Mathematica或Matlab那样担心许可证。 在下面的示例中,显然仅使用条纹将不起作用。如果可以使基于简单规则的方法适用于诸如此类的困难示例,那将很有趣。 我添加了[machine-learning]标签,因为我认为正确的答案必须使用ML技术,例如Gregory Klopper在原始线程中倡导的Restricted Boltzmann Machine(RBM)方法。有一些在python中RBM代码可能是一个不错的起点,但是显然该方法需要训练数据。 在2009 IEEE信号处理机器学习国际研讨会上(MLSP 2009),他们举办了数据分析竞赛:Wally在哪里?。训练数据以matlab格式提供。请注意,该网站上的链接已失效,但数据(以及Sean McLoone和同事采用的方法的来源都可以在此处找到(请参阅SCM链接)。似乎是一个起点。

4
get_dummies(Pandas)和OneHotEncoder(Scikit-learn)之间的优缺点是什么?
我正在学习将机器学习分类器将分类变量转换为数字的不同方法。我遇到了这种pd.get_dummies方法,sklearn.preprocessing.OneHotEncoder()我想看看它们在性能和用法上有何不同。 我发现关于如何使用教程OneHotEncoder()上https://xgdgsc.wordpress.com/2015/03/20/note-on-using-onehotencoder-in-scikit-learn-to-work-on-categorical-features/自该sklearn文档对该功能的帮助不是很大。我有一种感觉,我做得不正确...但是 有人能解释一下使用pd.dummiesover的利弊sklearn.preprocessing.OneHotEncoder()吗?我知道这OneHotEncoder()为您提供了一个稀疏矩阵,但除此之外,我不确定该如何使用以及该pandas方法有什么好处。我使用效率低下吗? import pandas as pd import numpy as np from sklearn.datasets import load_iris sns.set() %matplotlib inline #Iris Plot iris = load_iris() n_samples, m_features = iris.data.shape #Load Data X, y = iris.data, iris.target D_target_dummy = dict(zip(np.arange(iris.target_names.shape[0]), iris.target_names)) DF_data = pd.DataFrame(X,columns=iris.feature_names) DF_data["target"] = pd.Series(y).map(D_target_dummy) #sepal length (cm) sepal width (cm) …

7
如何根据损失值告诉Keras停止训练?
目前,我使用以下代码: callbacks = [ EarlyStopping(monitor='val_loss', patience=2, verbose=0), ModelCheckpoint(kfold_weights_path, monitor='val_loss', save_best_only=True, verbose=0), ] model.fit(X_train.astype('float32'), Y_train, batch_size=batch_size, nb_epoch=nb_epoch, shuffle=True, verbose=1, validation_data=(X_valid, Y_valid), callbacks=callbacks) 它告诉Keras,如果损失在2个时期内没有改善,就停止训练。但是我要在损失小于某个恒定的“ THR”后停止训练: if val_loss < THR: break 我已经在文档中看到有可能进行自己的回调:http : //keras.io/callbacks/ 但没有发现如何停止训练过程。我需要个建议。


1
在Keras中,TimeDistributed层的作用是什么?
我试图了解TimeDistributed包装器在Keras中的作用。 我得到了TimeDistributed“将层应用于输入的每个时间片”。 但是我做了一些实验,却得到了我无法理解的结果。 简而言之,对于LSTM层,TimeDistributed和Just Dense层的结果相同。 model = Sequential() model.add(LSTM(5, input_shape = (10, 20), return_sequences = True)) model.add(TimeDistributed(Dense(1))) print(model.output_shape) model = Sequential() model.add(LSTM(5, input_shape = (10, 20), return_sequences = True)) model.add((Dense(1))) print(model.output_shape) 对于这两个模型,我得到的输出形状为(None,10,1)。 在RNN层之后,谁能解释TimeDistributed和Dense层之间的区别?


6
集群数量未知的无监督集群
我在3维中有大量的向量。我需要基于欧几里得距离对它们进行聚类,以使任何特定聚类中的所有向量之间的欧几里得距离均小于阈值“ T”。 我不知道有多少集群。最后,可能存在不属于任何群集的单个矢量,因为对于空间中的任何矢量,其欧氏距离均不小于“ T”。 在此应使用哪些现有算法/方法?

13
检测波浪中的图案
我正在尝试从心电图读取图像并检测其中的每个主要波(P波,QRS复波和T波)。现在,我可以读取图像并得到一个代表(4.2; 4.4; 4.9; 4.7; ...)的矢量,代表心电图中的值,这是问题的一半。我需要一种算法,该算法可以遍历此向量并检测何时每个波开始和结束。 这是其中一个图表的示例: 如果它们始终具有相同的大小,则很容易,但是它不起作用,或者我知道心电图会产生多少波,但它也可以变化。有人有想法吗? 谢谢! 更新中 我要实现的示例: 鉴于浪潮 我可以提取向量 [0; 0; 20; 20; 20; 19; 18; 17; 17; 17; 17; 17; 16; 16; 16; 16; 16; 16; 16; 17; 17; 18; 19; 20; 21; 22; 23; 23; 23; 25; 25; 23; 22; 20; 19; 17; 16; 16; …

5
使用sklearn在PCA中恢复解释名称_variance_ratio_的特征名称
我正在尝试从使用scikit-learn完成的PCA中恢复,这些功能被选择为相关。 IRIS数据集的经典示例。 import pandas as pd import pylab as pl from sklearn import datasets from sklearn.decomposition import PCA # load dataset iris = datasets.load_iris() df = pd.DataFrame(iris.data, columns=iris.feature_names) # normalize data df_norm = (df - df.mean()) / df.std() # PCA pca = PCA(n_components=2) pca.fit_transform(df_norm.values) print pca.explained_variance_ratio_ 这返回 In [42]: pca.explained_variance_ratio_ …

9
深度学习难的原因
也许这个问题太笼统,但是谁能解释导致卷积神经网络发散的原因是什么? 细节: 我正在使用Tensorflow的iris_training模型处理一些自己的数据,并不断获取 错误:张量流:模型因损失= NaN而发散。 追溯... tensorflow.contrib.learn.python.learn.monitors.NanLossDuringTrainingError:训练期间NaN丢失。 回溯源于以下行: tf.contrib.learn.DNNClassifier(feature_columns=feature_columns, hidden_units=[300, 300, 300], #optimizer=tf.train.ProximalAdagradOptimizer(learning_rate=0.001, l1_regularization_strength=0.00001), n_classes=11, model_dir="/tmp/iris_model") 我尝试过调整优化器,将学习率设置为零,并且不使用优化器。任何对网络层,数据大小等的见解都将受到赞赏。

5
了解scikit CountVectorizer中的min_df和max_df
我有五个输入到CountVectorizer的文本文件。为CountVectorizer实例指定min_df和max_df时,最小/最大文档频率到底是什么意思?是某个单词在其特定文本文件中的出现频率,还是整个整体语料库(5个txt文件)中该单词的出现频率? 当min_df和max_df作为整数或浮点数提供时有何不同? 该文档似乎没有提供详尽的解释,也没有提供示例来演示min_df和/或max_df的用法。有人可以提供说明min_df或max_df的说明或示例。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.