假设,我有一个分类器(可以是任何标准分类器,例如决策树,随机森林,逻辑回归等),可以使用以下代码进行欺诈检测
library(randomForest)
rfFit = randomForest(Y ~ ., data = myData, ntree = 400) # A very basic classifier
Say, Y is a binary outcome - Fraud/Not-Fraud
现在,我已经预测了一个看不见的数据集。
pred = predict(rfFit, newData)
然后,我从调查团队获得了有关我的分类的反馈,发现我犯了一个错误,将欺诈分类为“非欺诈”(即“ 一个假阴性”)。无论如何,我是否可以让我的算法理解它已经犯了一个错误?即是否可以在算法中添加反馈环,以便纠正错误?
我可以想到的一个选择就是构建一个,adaboost classifier
以便新的分类器纠正旧分类器的错误。或我听到了Incremental Learning
或的声音Online learning
。中有任何现有的实现(包)R
吗?
这是正确的方法吗?还是有其他方法可以调整模型而不是从头开始构建模型?