Questions tagged «precision-recall»

P&R是一种衡量一组检索实例相关性的方法。精度是所有检索到的实例中正确实例的百分比。相关性是检索到的真实实例的百分比。P&R的谐波平均值是F1分数。P&R用于数据挖掘以评估分类器。

3
精度可调的分类器与召回率
我正在研究二进制分类问题,在这个问题上更重要的是不要出现误报。相当多的假阴性是可以的。例如,我在sklearn中使用了一堆分类器,但我认为它们都不具有显式调整精确度调用权衡的能力(它们确实产生了很好的结果,但无法调整)。 哪些分类器的精度/召回率可调?有什么方法可以影响标准分类器(例如,Random Forest或AdaBoost)的精度/召回权衡吗?

3
什么是精确召回曲线的良好AUC?
因为我的数据集非常不平衡(9%的积极结果),所以我决定精确召回曲线比ROC曲线更合适。我获得了PR曲线下面积的类似汇总度量值(如果您有兴趣,则为.49),但是不确定如何解释它。我听说.8或以上才是ROC的一个好AUC,但是对于精确召回曲线而言,AUC的一般截止点会是一样的吗?

5
为什么f beta分数可以这样定义beta?
这是F beta得分: Fβ= (1 + β2)⋅ p - [R È Ç 我小号我ö Ñ ⋅ ř Ë Ç 一升升(β2⋅ p - [R È Ç 我小号我Ò Ñ)+ [R Ë Ç 一升升Fβ=(1个+β2)⋅p[RËC一世s一世Øñ⋅[RËC一个升升(β2⋅p[RËC一世s一世Øñ)+[RËC一个升升F_\beta = (1 + \beta^2) \cdot \frac{\mathrm{precision} \cdot \mathrm{recall}}{(\beta^2 \cdot \mathrm{precision}) + \mathrm{recall}} 维基百科文章指出。FβFβF_\beta "measures the effectiveness of retrieval with respect to …

1
解释PR曲线下的面积
我目前正在比较三种方法,并且我以Accuracy,auROC和auPR作为指标。我有以下结果: 方法A-acc:0.75,auROC:0.75,auPR:0.45 方法B-acc:0.65,auROC:0.55,auPR:0.40 方法C-acc:0.55,auROC:0.70,auPR:0.65 我对准确性和auROC有很好的理解(要记得很好,我经常想出一个句子,例如“ auROC =很好地表征预测阳性学生的能力”,而并非完全正确的话可以帮助我记住)。我从来没有过auPR数据,而在我了解它是如何构建的时,我无法理解它的背后。 实际上,我无法理解为什么方法C的auPR得分非常高,而准确性和auPR却差/平均。 如果有人能通过简单的解释帮助我更好地理解它,那将是非常不错的。谢谢。


1
RandomForest-sklearn中的分类阈值
1)如何更改sklearn中RandomForest中的分类阈值(我认为默认值为0.5)? 2)如何在sklearn中进行欠采样? 3)我从RandomForest分类器中得到以下结果:[[1635 1297] [520 3624]] precision recall f1-score support class 0 0.76 0.56 0.64 2932 class 1 0.74 0.87 0.80 4144 平均/总计0.75 0.74 0.73 7076 首先,数据是不平衡的(0级为30%,1级为70%)。因此,我认为分类器更倾向于偏向于类别1,这意味着将类别从类别0转移到类别1(类别0的分类错误为1297,类别1的分类错误为520)。我怎样才能解决这个问题?缩减采样是否有帮助?或更改分类阈值? 更新:0级人口占40%,而1级人口占60%。但是,从0级到1级(1297)的漂移很高,而我希望它变低。
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.