Questions tagged «image-classification»

有关图像分类的问题:一个决策问题,算法必须确定输入图像属于哪个类别(“猫”,“椅子”,“树”)。

2
如何为神经网络准备/增强图像?
我想使用神经网络进行图像分类。我将从训练有素的CaffeNet开始,然后为我的应用程序对其进行训练。 我应该如何准备输入图像? 在这种情况下,所有图像都属于同一物体,但具有变化(请考虑:质量控制)。它们的比例/分辨率/距离/照明条件略有不同(很多情况下我不知道比例)。同样,在每个图像中,目标对象周围都有一个区域(已知),网络应该忽略该区域。 我可以(例如)裁剪每个图像的中心,以确保其中包含感兴趣对象的一部分而没有忽略区域。但这似乎会浪费掉信息,而且结果的范围也不尽相同(可能是1.5倍的变化)。 数据集扩充 我听说过通过随机裁剪/镜像/等方式创建更多训练数据,是否有标准方法?它对分类器的准确性有何改善?



3
ImageNet中是否有人类?有没有与人类有关的课程?
如果我查看Internet上Imagenet类的众多资源之一,就找不到一个与人类有关的类(不,收割者不是一个收割者,但这就是我所知的爸爸长腿,一种蜘蛛:-)。那怎么可能?我想至少有预期person类,甚至更具体的东西,例如man,woman,toddler等之类的没有。为什么?难道飞翡丽和她的团队有意识地选择不具有人的图像数据库?我看错文件了吗?为了解决这个问题,我们可以考虑ImageNet2014年以后的版本。

3
CNN的图像大小调整和填充
我想训练CNN进行图像识别。用于训练的图像尺寸不固定。例如,我希望CNN的输入大小为50x100(高x宽)。当我将一些较小尺寸的图像(例如32x32)调整为输入尺寸时,图像的内容在水平方向上拉伸得太多,但是对于某些中等尺寸的图像而言,它看起来还不错。 在避免内容被破坏的同时调整图像大小的正确方法是什么? (我正在考虑将图像的大小调整到一定程度并保持宽度和高度的比率后,将图像以0s填充为完整大小。这种方法可以吗?)

1
深度学习中出现正方形图像的原因
大多数高级深度学习模型(例如VGG,ResNet等)都需要正方形图像作为输入,通常像素大小为224 x 224224X224224x224。 输入的形状必须相等是有原因的,还是可以建立一个100 x 200100X200100x200的convnet模型(例如,如果要进行面部识别并且有人像图像)? 更大的像素尺寸(例如512 x 512512X512512x512是否会增加收益?


1
我应该使用多少个LSTM细胞?
是否有关于我应使用的LSTM电池的最小,最大和“合理”数量的经验法则(或实际规则)?具体来说,我与TensorFlow和property 有关的BasicLSTMCell有关num_units。 请假设我有以下定义的分类问题: t - number of time steps n - length of input vector in each time step m - length of output vector (number of classes) i - number of training examples 例如,训练示例的数量应该大于: 4*((n+1)*m + m*m)*c c单元数在哪里?我基于此:如何计算LSTM网络的参数数量?据我了解,这应该给出参数的总数,该总数应少于训练示例的数量。
12 rnn  machine-learning  r  predictive-modeling  random-forest  python  language-model  sentiment-analysis  encoding  machine-learning  deep-learning  neural-network  dataset  caffe  classification  xgboost  multiclass-classification  unbalanced-classes  time-series  descriptive-statistics  python  r  clustering  machine-learning  python  deep-learning  tensorflow  machine-learning  python  predictive-modeling  probability  scikit-learn  svm  machine-learning  python  classification  gradient-descent  regression  research  python  neural-network  deep-learning  convnet  keras  python  tensorflow  machine-learning  deep-learning  tensorflow  python  r  bigdata  visualization  rstudio  pandas  pyspark  dataset  time-series  multilabel-classification  machine-learning  neural-network  ensemble-modeling  kaggle  machine-learning  linear-regression  cnn  convnet  machine-learning  tensorflow  association-rules  machine-learning  predictive-modeling  training  model-selection  neural-network  keras  deep-learning  deep-learning  convnet  image-classification  predictive-modeling  prediction  machine-learning  python  classification  predictive-modeling  scikit-learn  machine-learning  python  random-forest  sampling  training  recommender-system  books  python  neural-network  nlp  deep-learning  tensorflow  python  matlab  information-retrieval  search  search-engine  deep-learning  convnet  keras  machine-learning  python  cross-validation  sampling  machine-learning 

3
是否有适用于python的好的即用型语言模型?
我正在为一个应用程序制作原型,我需要一个语言模型来计算一些生成的句子的困惑度。 我可以随时使用经过训练的python语言模型吗?简单的东西 model = LanguageModel('en') p1 = model.perplexity('This is a well constructed sentence') p2 = model.perplexity('Bunny lamp robert junior pancake') assert p1 < p2 我看过一些框架,但找不到我想要的。我知道我可以使用类似: from nltk.model.ngram import NgramModel lm = NgramModel(3, brown.words(categories='news')) 这在Brown Corpus上使用了很好的图林概率分布,但是我正在一些大型数据集(例如1b单词数据集)上寻找精心设计的模型。我可以真正相信一般领域的结果(不仅是新闻)
11 python  nlp  language-model  r  statistics  linear-regression  machine-learning  classification  random-forest  xgboost  python  sampling  data-mining  orange  predictive-modeling  recommender-system  statistics  dimensionality-reduction  pca  machine-learning  python  deep-learning  keras  reinforcement-learning  neural-network  image-classification  r  dplyr  deep-learning  keras  tensorflow  lstm  dropout  machine-learning  sampling  categorical-data  data-imputation  machine-learning  deep-learning  machine-learning-model  dropout  deep-network  pandas  data-cleaning  data-science-model  aggregation  python  neural-network  reinforcement-learning  policy-gradients  r  dataframe  dataset  statistics  prediction  forecasting  r  k-means  python  scikit-learn  labels  python  orange  cloud-computing  machine-learning  neural-network  deep-learning  rnn  recurrent-neural-net  logistic-regression  missing-data  deep-learning  autoencoder  apache-hadoop  time-series  data  preprocessing  classification  predictive-modeling  time-series  machine-learning  python  feature-selection  autoencoder  deep-learning  keras  tensorflow  lstm  word-embeddings  predictive-modeling  prediction  machine-learning-model  machine-learning  classification  binary  theory  machine-learning  neural-network  time-series  lstm  rnn  neural-network  deep-learning  keras  tensorflow  convnet  computer-vision 

3
为什么在经典的简历模板匹配上使用卷积神经网络进行视觉检查任务?
基于我们正在研究的项目,我进行了有趣的讨论:为什么在模板匹配算法上使用CNN视觉检查系统? 背景:我展示了一个简单的CNN视觉系统(网络摄像头和笔记本电脑)的演示,该系统检测特定类型的对象是否“损坏” /有缺陷-在这种情况下,是PCB电路板。我的CNN模型显示了在静态背景下正确和断裂的电路板(每个电路板大约100张图像)的示例。我们的模型使用了预先训练的VGG16的前几个conv / maxpool层(在imagenet上),然后我们添加了一些可训练的conv / pool,并带有一些密度,从而得到了dim-3一个热编码的矢量输出用于分类:(is_empty,has_good_product,has_defective_product)。 该模型非常容易训练,并且达到99%的验证准确无误;由于我们知道我们的数据集很小,因此我们还进行了各种数据扩充方面的培训。实际上,它的工作效率约为10的9倍,但是同一块电路板的几次随机平移/旋转有时会使其处于相反的类别。也许更积极的数据增强会有所帮助。无论如何,对于原型概念项目,我们感到很高兴。 现在我们正在向另一位工程师和他的同事介绍,他提出了这样的论点,即NN对于此而言是过大的,应该只使用模板匹配,为什么要做CNN? 对于为什么我们的方法在某些应用程序(例如要检查的其他零件)中会更好,我们没有一个很好的答案。我们提出了一些要点: 1)对不变性更健壮(例如通过数据增强) 2)可以进行在线学习以改进系统(例如,人可以告诉软件哪个示例出错了) 3)不需要像传统计算机视觉算法中那样设置阈值,您认为呢,对于这种类型的检查任务,CNN系统还有更多优势吗?在什么情况下会比模板匹配更好? 对于何时将深度NN用作工作的技术,还有一些随机的想法:对于需要3D深度感测作为输入一部分的系统,或者可以变形/拉伸/挤压但仍然“好”的任何类型的对象,以及没有缺陷(例如毛绒动物,电线等)。很好奇听到您的想法:)
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.