Questions tagged «object-recognition»

2
如何为PASCAL VOC挑战计算检测任务的mAP?
如何为Pascal VOC排行榜的检测任务计算mAP(平均平均精度)?http://host.robots.ox.ac.uk:8080/leaderboard/displaylb.php?challengeid=11&compid=4 那里说-在第11页:http : //homepages.inf.ed.ac.uk/ckiw/postscript/ijcv_voc09.pdf 平均精度(AP)。对于VOC2007挑战,使用插值平均精度(Salton和Mcgill 1986)来评估分类和检测。对于给定的任务和类别,从方法的排序输出中计算出精度/召回曲线。召回率定义为排名高于给定等级的所有阳性示例的比例。精确度是高于该等级的所有示例中来自肯定类别的比例。AP汇总了精度/召回曲线的形状,并定义为一组11个等距召回级别[0,0.1,...,1]的平均精度: AP = 1/11 ∑ r∈{0,0.1,...,1} pinterp(r) 通过采用针对相应召回率超过r:的方法测得的最大精度来内插每个召回级别r的精度pinterp(r) = max p(r˜),其中p(r〜)是在召回〜r时测得的精度 有关地图:http://0agr.ru/wiki/index.php/Precision_and_Recall#Average_Precision 这是否意味着: 我们计算精度和召回率: A)对于许多不同的值,IoU > {0, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1}我们计算真/假正/负值 其中True positive = Number_of_detection with IoU > {0, 0.1,..., 1},这里说:/datascience//a/16813/37736然后我们计算: Precision = True positive / (True positive …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.