我正在观看一家大型零售商的ML专家的演讲,他们在那里开发了一种模型来预测缺货事件。
让我们假设一下,随着时间的流逝,他们的模型变得非常精确,这是否会以某种方式“自欺欺人”?也就是说,如果模型确实运行良好,那么他们将能够预见缺货事件并避免它们,最终达到一点点,甚至根本没有缺货事件。但是,如果是这样的话,将没有足够的历史数据来运行他们的模型,或者他们的模型出轨,因为过去用来指示缺货事件的因果关系不再起作用。
处理这种情况有哪些策略?
此外,可以预见相反的情况:例如,推荐系统可能会变成“自我实现的预言”,即使推荐项系统的输出确实驱动了这两个项目,但它们对的销量却有所增长有关。
在我看来,这两者都是某种反馈回路的结果,该回路发生在预测变量的输出与基于该反馈变量采取的操作之间。如何处理这种情况?