2 为什么交叉熵成为分类标准损失函数而不是Kullbeck Leibler散度? 交叉熵等于KL发散加目标分布的熵。当两个分布相同时,KL等于零,这在我看来比目标分布的熵更直观,后者是匹配项上的交叉熵。 我并不是说其中有更多的信息,除了人的观点可能比肯定的观点更直观的发现零。当然,通常使用一种评估方法来真正了解分类的发生情况。但是,在KL上选择交叉熵是否具有历史性? 15 machine-learning classification
2 深度学习何时会过度矫kill过正? 例如,将电子邮件归类为垃圾邮件,从时间/准确性角度来看,是否值得(如果可能)应用深度学习而不是另一种机器学习算法?深度学习是否会使其他机器学习算法(如朴素贝叶斯)变得不必要? 15 machine-learning deep-learning classification applications comparison
3 是否需要分类或回归来预测给定某些功能的用户的可用性? 在研究数据挖掘方法时,我已经了解到有两个主要类别: 预测方法: 分类 回归 描述方法: 聚类 关联规则 由于我想根据位置,活动,电池电量(培训模型的输入)来预测用户的可用性(输出),因此我认为很明显我会选择“预测方法”,但是现在我似乎无法选择分类和回归。从到目前为止的理解,分类可以解决我的问题,因为输出是“可用”或“不可用”。 分类能否为我提供用户可用或不可用的概率(或可能性)? 在输出中,不仅仅是0(不可用)或1(可用),还可以是: 80%80%80\%可用 20%20%20\%不可用 也可以使用回归来解决此问题吗? 我知道回归用于连续输出(不仅是0或1个输出),但是输出不能是用户可用性的连续值(例如输出为表示用户为可用,则用户是无法使用)。80808080%80%80\%20%20%20\% 9 machine-learning ai-design classification prediction regression
5 如何对螺旋形数据进行分类? 我一直在Tensorflow游乐场四处乱逛。输入数据集之一是螺旋线。无论我选择什么输入参数,无论我建立的神经网络有多宽和深,我都无法适应螺旋。数据科学家如何拟合这种形状的数据? 9 neural-networks classification tensorflow