Questions tagged «machine-learning»

对于与机器学习(ML)有关的问题,机器学习(ML)是可以自动检测数据中的模式,然后使用发现的模式来预测未来数据或在不确定性下执行其他类型的决策(例如计划如何收集更多数据)。机器学习通常分为有监督学习,无监督学习和强化学习。深度学习是使用深度人工神经网络的ML子领域。

2
为什么交叉熵成为分类标准损失函数而不是Kullbeck Leibler散度?
交叉熵等于KL发散加目标分布的熵。当两个分布相同时,KL等于零,这在我看来比目标分布的熵更直观,后者是匹配项上的交叉熵。 我并不是说其中有更多的信息,除了人的观点可能比肯定的观点更直观的发现零。当然,通常使用一种评估方法来真正了解分类的发生情况。但是,在KL上选择交叉熵是否具有历史性?




3
置换不变神经网络
给定一个将n个数据点作为输入的神经网络FFf:x 1,… ,x n。我们说˚F就是排列不变,如果ññnX1个,… ,xñX1个,…,Xñx_1, \dots, x_nFFf F(x1个。。。Xñ)= f(p 我(X1个。。。Xñ))F(X1个。。。Xñ)=F(p一世(X1个。。。Xñ))f(x_1 ... x_n) = f(pi(x_1 ... x_n)) p 我p一世pi 有人可以为置换不变神经网络推荐一个起点(文章,示例或其他论文)吗?

1
格式塔心理学的信息处理规则是否仍在当今的计算机视觉中使用?
数十年前,机器视觉方面的书籍已经出现,并且通过使用格式塔心理学中的各种信息处理规则,以很少的代码或特殊的硬件在图像识别和视觉处理中获得了令人印象深刻的结果。 今天是否正在使用或使用这种方法?在这方面有什么进展吗?还是该研究计划被放弃?今天,我的意思是2016年,而不是1995年或2005年。

4
人脑使用什么激活功能?
人脑是否使用特定的激活功能?我已经尝试做一些研究,因为这是信号是否通过神经元发送的门槛,所以听起来很像ReLU。但是,我找不到一篇证实这一点的文章。或者它更像是步进函数(如果高于阈值,则发送1而不是输入值)。

2
如何选择激活功能?
我根据需要的输出和已知的激活函数的属性为输出层选择激活函数。例如,当我处理概率时,我选择了S型函数;当我处理正值时,我选择了一个ReLU;当我处理一般值时,我选择了一个线性函数。 在隐藏层中,我使用泄漏的ReLU来避免死亡的神经元,而不是ReLU和tanh而不是乙状结肠。当然,我不会在隐藏单位中使用线性函数。 但是,在隐藏层中对它们的选择主要是由于反复试验。 在某些情况下,哪种激活功能可能会起作用,是否有任何经验法则?尽可能将情况称为“ 情境”:它可能是指该层的深度,NN的深度,该层的神经元数量,我们选择的优化程序,其输入特征的数量。到该NN的应用等 在他/她的答案中,cantordust指的是我未提及的其他激活功能,例如ELU和SELU。此信息非常受欢迎。但是,我发现激活功能越多,对于在隐藏层中使用的功能的选择我就越感到困惑。而且我不认为掷硬币是选择激活功能的好方法。

1
为什么在强化学习示例中看不到辍学层?
我一直在研究强化学习,尤其是在创建自己的环境以与OpenAI Gym AI配合使用的过程中。我正在使用stable_baselines项目中的代理进行测试。 我在几乎所有RL示例中都注意到的一件事是,在任何网络中似乎都没有任何丢失层。为什么是这样? 我创建了一个模拟货币价格的环境,并使用DQN创建了一个简单的代理商,该代理商试图了解何时进行买卖。从一组包含一个月的5分钟价格数据的特定数据中进行训练的时间跨度将近一百万,这似乎过于适合了。如果我随后评估代理商,并针对不同月份的数据模型进行评估,那就太糟糕了。所以听起来像经典的过拟合。 但是,为什么没有在RL网络中看到缺失层?是否有其他机制可以解决过度拟合问题?还是在许多RL实例中都没关系?例如,在“突破”游戏中可能只有一种真正的方法来获得最终的高分,所以您不妨一口气地学到它,而不必一概而论? 还是认为环境本身的混乱性质应该提供足够多的不同结果组合,而您无需具有辍学层?

4
识别人工制作的媒体有哪些策略?
随着廉价地创建假图片,假声音和假视频的能力不断增强,识别真实和不真实的问题变得越来越严重。甚至现在,我们仍然看到了一些应用程序示例,这些应用程序以很少的成本创建了伪媒体(请参阅Deepfake,FaceApp等)。 显然,如果以错误的方式使用这些应用程序,它们可能会被用于损害他人的形象。Deepfake可以使一个人对伴侣不忠。可以使用另一个应用程序来使它看起来像政客所说的那样。 有哪些可用于识别和保护人造介质的技术?

2
生成对抗网络如何工作?
我正在阅读有关生成对抗网络(GAN)的信息,对此我有些怀疑。到目前为止,我了解到,在GAN中,有两种不同类型的神经网络:一种是生成型(GGG),另一种是判别型(DDD)。生成神经网络生成一些数据,这些数据由判别神经网络判断正确性。GAN通过将损失函数传递给两个网络来学习。 区分性(DDD)神经网络最初如何知道GGG生成的数据是否正确?我们是否必须先训练DDD然后将其与GGG一起添加到GAN中? 让我们考虑我训练有素的DDD网,它可以将图片分类的准确率达到90%。如果我们将此DDD网添加到GAN,则有10%的概率会将图像分类为错误。如果我们用这个DDD网络训练GAN,那么在分类图像时,它也会有同样的10%错误吗?如果是,那么GAN为何显示出令人满意的结果?

1
设计用于日志文件分析的AI
我正在开发一种AI工具,以查找已知设备的错误并查找新的故障模式。这个日志文件是基于时间的,并且具有已知消息(信息和错误)。我正在使用JavaScript库Event drop以一种柔软的方式显示数据,但是我的实际工作和怀疑是如何训练AI来找到已知的模式并找到新的可能模式。我有一些要求: 1-工具应a。不依赖于额外的环境安装或b。越少越好(完美的方案是在独立模式下完全在浏览器上运行该工具); 2-可能使模式分析器碎片化,一种模块化,每个错误一个模块; 推荐使用哪种算法(神经网络,遗传算法等)?存在使用JavaScript工作的东西吗?如果不是,那么制作此AI的最佳语言是什么?

2
深度残差网络是否应被视为网络的整体?
问题是关于深度残留网络(ResNets)的体系结构。该模型在所有五个主要方面均赢得了“ 2015年大规模视觉识别挑战赛”(ILSVRC2015)的第一名: ImageNet分类:“超深”(Yann引用)152层网 ImageNet检测:比第二个好16% ImageNet本地化:比第二名好27% COCO检测:比第二名好11% COCO细分:比第二名好12% 资料来源: MSRA @ ILSVRC和COCO 2015竞赛(演示,第二张幻灯片) 下一篇文章中描述了这项工作: 用于图像识别的深度残差学习(2015,PDF) Microsoft研究团队(ResNets的开发人员:何凯明,张向宇,任少清,孙健)在其文章中: “ 深度残留网络中的身份映射(2016年) ” 指出深度起着关键作用: “ 我们通过一个简单但必不可少的概念获得这些结果-更深入。这些结果证明了突破深度极限的潜力。 ” 他们的演讲中也强调了这一点(更深-更好): -“更深层次的模型不应具有更高的训练误差。” -“更深的ResNet具有较低的训练误差,也具有较低的测试误差。” -“更深的ResNet具有更低的错误。” -“所有人都将从更深的功能中受益–累积收益!” -“更深的更好。” 这是34层残差的结构(供参考): 但是最近,我发现了一种理论,该理论引入了对残差网络的新颖解释,从而表明它们是指数集合。 残留网络是相对浅网络的指数集合(2016) Deep Resnet被描述为许多浅层网络,其输出集中在不同的深度。文章中有一张图片。我附上解释: 残留网络通常显示为(a),它是等式(1)的自然表示。当我们将此公式扩展为方程式(6)时,我们获得了3块残差网络(b)的分解图。从这个角度来看,很明显,残余网络具有连接输入和输出的O(2 ^ n)个隐式路径,添加一个块会使路径数量加倍。 在文章的结尾指出: 不是深度,而是使残留网络强大的整体。残留网络推动了网络多样性的极限,而不是网络深度的极限。我们提出的未分解视图和病灶研究表明,残差网络是指数级许多网络的隐含集合。如果大多数造成梯度的路径与网络的整体深度相比都非常短,那么深度增加 本身并不是残余网络的关键特征。我们现在认为,多重性(即网络在路径数方面的可表达性)起着关键作用。 但是,只有最近的理论可以得到证实或反驳。有时会发生一些理论被驳回而文章被撤回的情况。 我们到底应该把ResNets视为一个整体吗?集合还是深度使残差网络如此强大?甚至开发人员自己也可能不太了解自己的模型代表什么以及模型中的关键概念是什么?



By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.