Questions tagged «machine-learning»

有关机器学习算法的实现问题。有关机器学习的一般问题应发布到其特定社区。

3
估计人工神经网络的神经元数量和层数[关闭]
关闭。此问题不符合堆栈溢出准则。它当前不接受答案。 想改善这个问题吗?更新问题,使其成为Stack Overflow的主题。 2年前关闭。 改善这个问题 我正在寻找一种有关如何计算层数和每层神经元数的方法。作为输入,我只有输入向量的大小,输出向量的大小和训练集的大小。 通常,最好的网络是通过尝试不同的网络拓扑并选择误差最小的网络来确定的。不幸的是我不能那样做。

5
支持向量的数量与训练数据和分类器性能之间的关系是什么?[关闭]
关闭。此问题不符合堆栈溢出准则。它当前不接受答案。 想改善这个问题吗?更新问题,使其成为Stack Overflow的主题。 3个月前关闭。 改善这个问题 我正在使用LibSVM对一些文档进行分类。正如最终结果所示,这些文档似乎很难归类。但是,在训练模型时,我注意到了一些东西。就是说:如果我的训练集例如是1000,那么大约有800个被选为支持向量。我到处都在寻找这是好事还是坏事。我的意思是支持向量的数量和分类器的性能之间有关系吗?我已经阅读了上一篇文章,但是我正在执行参数选择,而且我还确定特征向量中的属性都是有序的。我只需要知道这种关系。谢谢。ps:我使用线性内核。

5
scikit-learn .predict()默认阈值
我正在处理不平衡类(5%1)的分类问题。我想预测班级,而不是概率。 在二进制分类问题中,默认情况下是否classifier.predict()使用scikit 0.5?如果没有,默认方法是什么?如果可以,该如何更改? 在scikit中,某些分类器可以class_weight='auto'选择,但并非全部都可以。使用class_weight='auto',是否.predict()将实际人口比例用作阈值? 在MultinomialNB不支持的分类器中执行此操作的方式是什么class_weight?除了predict_proba()自己使用然后计算类之外。


4
卷积神经网络中的批量归一化
我是卷积神经网络的新手,只是对特征图以及如何在图像上进行卷积以提取特征有所了解。我很高兴知道在CNN中应用批处理规范化的一些细节。 我阅读了https://arxiv.org/pdf/1502.03167v3.pdf这篇论文,可以理解对数据应用的BN算法,但最后他们提到在对CNN进行应用时需要稍作修改: 对于卷积层,我们还希望归一化服从卷积属性-以便以相同的方式对同一要素图的不同元素在不同位置进行归一化。为了实现这一目标,我们在所有位置上以小批量的方式联合标准化了所有激活。在Alg。在图1中,我们将B作为特征图上所有小批量和空间位置的所有值的集合–因此,对于大小为m的小批量和大小为p×q的特征图,我们使用effec -大小为m'= | B |的小批量生产 = m·pq。我们每个特征图而不是每个激活都学习一对参数γ(k)和β(k)。海藻 对图2进行类似的修改,以便在推理期间BN变换将相同的线性变换应用于给定特征图中的每个激活。 当他们说“要以相同的方式对同一要素图的不同元素在不同位置进行标准化时,我完全感到困惑 ” 我知道要素地图的含义,每个要素地图中的权重都是不同的元素。但是我不明白什么是位置或空间位置。 我根本无法理解下面的句子 “在Alg。1中,我们让B为跨越小批量和空间位置的要素的要素图中所有值的集合” 如果有人能用更简单的方式详细阐述并向我解释,我将感到非常高兴


9
准确性得分ValueError:无法处理二进制目标和连续目标的混合
我正在使用linear_model.LinearRegressionscikit-learn作为预测模型。它有效且完美。我在使用accuracy_score度量标准评估预测结果时遇到问题。 这是我的真实数据: array([1, 1, 0, 0, 0, 0, 1, 1, 0, 0, 1, 1, 0, 0, 0, 0, 0]) 我的预测数据: array([ 0.07094605, 0.1994941 , 0.19270157, 0.13379635, 0.04654469, 0.09212494, 0.19952108, 0.12884365, 0.15685076, -0.01274453, 0.32167554, 0.32167554, -0.10023553, 0.09819648, -0.06755516, 0.25390082, 0.17248324]) 我的代码: accuracy_score(y_true, y_pred, normalize=False) 错误信息: ValueError:无法处理二进制目标和连续目标的混合 救命 ?谢谢。





6
如何提高朴素贝叶斯分类器的准确性?
我正在使用朴素贝叶斯分类器将数千个文档分类为30个不同的类别。我已经实现了朴素贝叶斯分类器,并且通过一些功能选择(主要是过滤无用的单词),我获得了大约30%的测试准确度和45%的训练准确度。这明显好于随机,但我希望它会更好。 我已经尝试过用NB实现AdaBoost,但是它似乎并没有给出明显更好的结果(关于这方面的文献似乎有些分歧,有些论文说使用NB的AdaBoost不会给出更好的结果,另一些则给出了)。您是否知道对NB的其他扩展可能会带来更高的准确性?

1
了解渐变策略派生
我正在尝试从原始资源Andrej Karpathy Blog中重新创建非常简单的Policy Gradient示例。在该文章中,您将找到带有CartPole和Policy Gradient以及重量和Softmax激活列表的示例。这是我重新创建的非常简单的CartPole政策梯度示例,效果很好。 import gym import numpy as np import matplotlib.pyplot as plt from sklearn.preprocessing import PolynomialFeatures import copy NUM_EPISODES = 4000 LEARNING_RATE = 0.000025 GAMMA = 0.99 # noinspection PyMethodMayBeStatic class Agent: def __init__(self): self.poly = PolynomialFeatures(1) self.w = np.random.rand(5, 2) def policy(self, state): z = state.dot(self.w) …

3
使用YOLO或其他图像识别技术来识别图像中存在的所有字母数字文本
我有多个图像图,所有图像图都包含字母数字字符标签,而不仅仅是文本标签本身。我希望我的YOLO模型能够识别其中存在的所有数字和字母数字字符。 我该如何训练我的YOLO模型做同样的事情。数据集可以在这里找到。https://drive.google.com/open?id=1iEkGcreFaBIJqUdAADDXJbUrSj99bvoi 例如:请参阅边界框。我希望YOLO可以检测出文本的任何位置。但是,当前无需识别其中的文本。 这些类型的图像也需要做同样的事情 图像可以在这里下载 这是我使用opencv尝试过的方法,但不适用于数据集中的所有图像。 import cv2 import numpy as np import pytesseract pytesseract.pytesseract.tesseract_cmd = r"C:\Users\HPO2KOR\AppData\Local\Tesseract-OCR\tesseract.exe" image = cv2.imread(r'C:\Users\HPO2KOR\Desktop\Work\venv\Patent\PARTICULATE DETECTOR\PD4.png') gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY) thresh = cv2.threshold(gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)[1] clean = thresh.copy() horizontal_kernel = cv2.getStructuringElement(cv2.MORPH_RECT, (15,1)) detect_horizontal = cv2.morphologyEx(thresh, cv2.MORPH_OPEN, horizontal_kernel, iterations=2) cnts = cv2.findContours(detect_horizontal, cv2.RETR_EXTERNAL, …

6
为什么神经网络会根据自己的训练数据预测错误?
的恩惠到期在19小时。这个问题的答案有资格获得+150声望奖励。 sirjay正在寻找信誉良好的答案。 我制作了带有监督学习的LSTM(RNN)神经网络,用于数据库存预测。问题是为什么它会根据自己的训练数据预测错误?(注意:可复制的示例以下可) 我创建了一个简单的模型来预测未来5天的股价: model = Sequential() model.add(LSTM(32, activation='sigmoid', input_shape=(x_train.shape[1], x_train.shape[2]))) model.add(Dense(y_train.shape[1])) model.compile(optimizer='adam', loss='mse') es = EarlyStopping(monitor='val_loss', patience=3, restore_best_weights=True) model.fit(x_train, y_train, batch_size=64, epochs=25, validation_data=(x_test, y_test), callbacks=[es]) 正确的结果以y_test(5个值)表示,因此对模型进行训练,可以回顾90天的前几天,然后使用以下方法从最佳(val_loss=0.0030)结果中恢复权重patience=3: Train on 396 samples, validate on 1 samples Epoch 1/25 396/396 [==============================] - 1s 2ms/step - loss: 0.1322 - val_loss: 0.0299 Epoch 2/25 …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.