机器学习(ML)大量使用线性和逻辑回归技术。这也依赖于功能工程技术(feature transform
,kernel
,等)。
为什么没有任何关于variable transformation
(例如power transformation
)在ML提到?(例如,我从没听说过使用根或登录要素,它们通常仅使用多项式或RBF。)同样,为什么ML专家不关心因变量的要素转换?(例如,我从没听说过对y进行对数转换;他们只是不对y进行转换。)
编辑:也许不是肯定的问题,我真正的问题是“对变量的幂转换在ML中不重要吗?”
4
我想知道为什么这被否决了。这实际上是一个有趣的问题。
—
shadowtalker,2015年
我认为大多数人会在他们的第一门机器学习课程之前修过线性回归课程。毫无疑问,股票LR课程将包含有关这些内容(转换)的章节。顺便说一句,我没有反对这个问题。
—
user603 2015年