有一种标准的近似理论,其中近似比率为(针对MIN目标的问题),A-某些算法A返回的值,OPT-最佳值。另一种理论是微分逼近,其中逼近率为\ inf \ frac {\ Omega-A} {\ Omega-OPT},\ Omega-给定实例的可行解的最差值。该理论的作者声称,与经典理论相比,它具有一定的优势。例如:
- 对于已知为同一问题的不同实现的“最小顶点覆盖”和“最大独立集”等问题,它给出了相同的近似率;
- 对于相同问题的最大版本和最小版本,它给出相同的比率。同时,在标准理论中我们知道MIN TSP和MAX TSP的比率非常不同。
- 它不仅可以测量到最佳距离,还可以测量到最接近\ Omega的距离。因此,在“顶点覆盖”的情况下,标准近似理论认为是最佳上限。但是要点是悲观者与最优者之间的最大比率。因此,保证了该算法输出具有最差值的解。
我的论据是:在渐近分析中,我们不考虑常数和低阶项(在这里,我记得Avi Widgerson的话:“我们成功是因为我们使用了正确的抽象级别。”)比较算法资源使用情况的抽象级别。但是,当我们研究近似值时,出于某种原因,我们在可以避免近似值的地方引入了差异。
我的问题是
为什么微分逼近理论研究得这么差。还是所涉及的论点不够充分?