Questions tagged «machine-learning»

对于与机器学习(ML)有关的问题,机器学习(ML)是可以自动检测数据中的模式,然后使用发现的模式来预测未来数据或在不确定性下执行其他类型的决策(例如计划如何收集更多数据)。机器学习通常分为有监督学习,无监督学习和强化学习。深度学习是使用深度人工神经网络的ML子领域。


8
为什么Python在AI领域如此受欢迎?
首先,我是学习AI的初学者,这不是一个以观点为导向的问题,也不是比较编程语言的问题。我并不是说那是最好的语言。但是事实是,大多数著名的AI框架都主要支持Python。它们甚至可以是多语言支持的,例如,TensorFlow支持Microsoft的Python,C ++或CNTK,支持C#和C ++,但是使用最多的是Python(我的意思是更多的文档,示例,更大的社区,支持等)。即使选择C#(由Microsoft和我的主要编程语言开发),也必须设置Python环境。 我在其他论坛上读到,Python是AI的首选,因为它既简化又简洁,适合快速原型开发。 我当时正在看AI主题电影(Ex_Machina)。在某个场景中,主角入侵房屋自动化的界面。猜猜现场使用哪种语言?蟒蛇。 那么,什么是Python与AI之间的关系呢?

3
神经网络如何处理变化的输入大小?
据我所知,神经网络在输入层中具有固定数量的神经元。 如果在类似NLP的上下文中使用神经网络,则大小不同的句子或文本块将被馈送到网络。如何将变化的输入大小与网络输入层的固定大小相协调?换句话说,如何使这种网络具有足够的灵活性以处理可能从一个单词到多页文本的输入? 如果我对输入神经元数量固定的假设是错误的,并且将新的输入神经元添加到网络中或从网络中删除以匹配输入大小,那么我将看不到如何训练它们。 我以NLP为例,但是许多问题本质上是不可预测的输入大小。我对处理此问题的一般方法感兴趣。 对于图像,很明显,您可以将上/下采样到固定大小,但是对于文本,这似乎是不可能的方法,因为添加/删除文本会更改原始输入的含义。

4
神经网络容易发生灾难性的遗忘吗?
想象一下,您向神经网络展示了100张狮子的图片,并标有“危险”标签,因此得知狮子是危险的。 现在想象一下,以前您已经向它展示了数百万张狮子的图像,或者将其标记为“危险”和“不危险”,这样狮子发生危险的可能性为50%。 但是,这最后100次使神经网络对将狮子视为“危险”非常积极,因此忽略了最后一百万堂课。 因此,神经网络似乎存在一个缺陷,即基于最近的证据,它们可能会很快改变主意。特别是如果以前的证据在中间。 是否存在一个神经网络模型来跟踪已看到的证据数量?(或者这等于让学习率降低,其中是试验次数?)1/T1/T1/TTTT






4
在强化学习中如何处理无效动作?
我想创建一个可以玩五行/五子棋的AI。正如我在标题中提到的那样,我想为此使用强化学习。 我将策略渐变方法(即REINFORCE)与基线一起使用。对于价值和政策函数的近似,我使用了神经网络。它具有卷积和完全连接的层。除输出外,所有层都是共享的。该策略的输出层具有8 × 8 = 648×8=648 \times 8=64(单板的大小)输出单元,并在其上具有softmax。因此它是随机的。但是,如果网络产生无效移动的可能性很高,该怎么办?无效的举动是当代理要检查其中有一个“ X”或“ O”的正方形时。我认为它可能会停留在该游戏状态中。 您能为这个问题推荐任何解决方案吗? 我的猜测是使用演员批评方法。对于无效的举动,我们应该给予负奖励,并将转牌转移给对手。

7
如果数字值仅是估计值,为什么不为AI返回模拟?
二十世纪从模拟电路向数字电路过渡的动力来自对更高精度和更低噪声的渴望。现在,我们正在开发结果近似且噪声为正值的软件。 在人工网络中,我们使用梯度(Jacobian)或二级模型(Hessian)来估计收敛算法中的下一步,并定义可接受的不准确度和不确定性水平。1个 在收敛策略中,我们有意通过注入随机或伪随机扰动来添加噪声,以通过在收敛过程中实质上跳出优化表面中的局部最小值来提高可靠性。2 我们在当前的AI系统中接受并故意引入的东西与将电子设备推向数字电路的事物相同。 为什么不回到神经网络的模拟电路,并用运算放大器矩阵而不是数字信号处理元件矩阵来实现呢? 可以使用通过D-A转换器充电的集成电容器来维持人工网络学习参数的值,从而使学习状态可以受益于数字准确性和便利性,而正向传播则受益于模拟优势。 更高的速度3 代表网络单元的晶体管数量减少了几个数量级 自然热噪声4 在过去的四十年中,关于模拟人工网络的学术文章或专利搜索揭示了许多工作,并且研究趋势得以保持。计算模拟电路已经很好地开发,并为神经阵列提供了基础。 当前对数字计算的痴迷会否笼罩AI架构选择的普遍看法? 混合模拟是人工网络的高级架构吗? 脚注 [1] PAC(可能近似正确)学习框架将可接受的误差ϵϵ\epsilon和可接受的疑问δδ\delta与特定模型类型的学习所需的样本量相关联。(注意1 − ϵ1个-ϵ1 - \epsilon表示准确性和1 - δ1个-δ1 - \delta代表在这个框架的信心。) [2]显示了随机梯度下降,当使用适当的策略和超参数时,可以在学习过程中更快地收敛,并且正在成为典型的人工网络实际应用中的最佳实践。 [3]英特尔酷睿i9-7960X处理器以4.2 GHz的加速速度运行,而标准的固定卫星广播为41 GHz。 [4]通过放大和过滤在雪崩点处反向偏置的齐纳二极管两端的电子泄漏,可以在硅上获得热噪声。量子现象的根源是约翰逊·奈奎斯特热噪声。Sanguinetti等。等 在“移动电话上的量子随机数生成”(2014年)中指出,“可以将检测器建模为具有传输概率η的有损通道,然后将其建模为具有单位效率的光子电子转换器...测量的分布将是量子不确定性和技术噪声的结合”,还有加州理工学院的JTWPA工作。这两个都可能成为在集成电路中产生真正不确定的量子噪声的标准。 参考文献 使用卷积神经网络的STDP学习图像补丁,Saunders等。等 2018,U Mass和HAS 具有有限精度模拟计算的通用代码加速,Amant等。等,2014年 新的MIT编译器推动了模拟计算和生物学仿真的发展,作者:Devin Coldewey,2016年 模拟计算收益,拉里·哈迪斯蒂(Larry Hardesty),2016年* 为什么要进行模拟计算?,NSA解密文件 回到模拟计算:Columbia研究人员将模拟和数字计算融合在一个芯片上,Columbia U,2016年 可重构计算的现场可编程纵横制阵列(FPCA),Zidan等。等,IEEE,2017年 FPAA /忆阻器混合计算基础架构,Laiho等。等,IEEE,2015年 活细胞计算的基础和新兴范例,Ma,Perli,Lu,哈佛大学,2016 面向硬件发展的CMOS现场可编程晶体管阵列的灵活模型Zebulum,Stoica,Keymeulen,NASA / JPL,2000年(FPAA) 定制线性阵列每个芯片可集成多达48个精密运算放大器,Ashok Bindra,2001年,电子设计 …

3
了解GAN损失函数
我正在努力理解GAN损失功能,这在理解生成对抗网络(由Daniel Seita撰写的博客文章)中提供。 在标准的交叉熵损失中,我们有一个通过S型函数进行的输出以及所得的二进制分类。 西埃塔州 因此,对于[每个]数据点x1x1个x_1及其标签,我们得到以下损失函数... H((x1,y1),D)=−y1logD(x1)−(1−y1)log(1−D(x1))H((x1,y1),D)=−y1log⁡D(x1)−(1−y1)log⁡(1−D(x1)) H((x_1, y_1), D) = -y_1 \log D(x_1) - (1 - y_1) \log (1 - D(x_1)) 这只是期望的对数,这是有道理的,但是在GAN损失函数中,我们如何在同一迭代中处理来自真实分布的数据和来自生成模型的数据呢?

1
反向传播技术之间的差异
只是为了好玩,我正在尝试开发一个神经网络。 现在,对于反向传播,我看到了两种技术。 第一个是用在这里和其他许多地方。 它的作用是: 它计算每个输出神经元的误差。 它将其反向传播到网络中(计算每个内部神经元的错误)。 它使用以下公式更新权重:(其中权重的变化,学习速度,神经元从突触接收输入并作为在突触上发送的输出的错误)。 对于数据集的每个条目,它会重复多次。 但是,本教程中提出的神经网络(也可以在GitHub上获得)使用另一种技术: 它使用错误函数(另一种方法确实具有错误函数,但未将其用于训练)。 它具有另一个功能,可以从权重开始计算最终误差。 它将功能最小化(通过梯度下降)。 现在,应该使用哪种方法? 我认为第一个是最常用的(因为我看到了使用它的不同示例),但是它也能正常工作吗? 特别是,我不知道: 它不是更受局部最小值约束(因为它不使用二次函数)吗? 由于每个权重的变化都受其输出神经元的输出值的影响,因此恰好在神经元中产生较高值的数据集的条目(不仅仅是输出的)不比其他条目对权重的影响更大吗? 现在,我确实更喜欢第一种技术,因为我发现它更易于实现且更易于考虑。 但是,如果确实存在我提到的问题(我希望没有),那么是否有实际理由在第二种方法上使用它?

3
使用反向传播训练神经网络的时间复杂度是多少?
假设一个NN包含nnn隐藏层,mmm训练实例中,xxx的功能,和ninin_i在每个层中的节点。使用反向传播训练该NN的时间复杂度是多少? 我对它们如何找到算法的时间复杂度有一个基本的想法,但是这里有4个不同的因素需要考虑,即迭代,层,每层中的节点,训练示例,也许还有更多因素。我在这里找到了答案,但还不够清楚。 除了上文所述,还有其他因素会影响NN训练算法的时间复杂度吗?


By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.