底线是,我对统计知识了解的越多,对本领域发表的论文的信任就越低;我只是认为研究人员的统计数据不够好。
我是一个外行,可以这么说。我接受了生物学方面的培训,但没有接受过统计学或数学方面的正规教育。我喜欢R,并且经常努力阅读(并理解...)进行研究时所用方法的一些理论基础。如果今天进行分析的大多数人实际上没有经过正式培训,这也不会令我感到惊讶。我发表了大约20篇原始论文,其中一些已被知名期刊所接受,而统计学家经常参与到审阅过程中。我的分析通常包括生存分析,线性回归,逻辑回归,混合模型。审阅者从未询问过模型假设,拟合或评估。
因此,我从未真正对模型假设,拟合和评估感到困扰。我从一个假设开始,执行回归,然后给出结果。在某些情况下,我努力评估了这些情况,但最终我总是以“ 好吧,它并不能满足所有假设,但是我相信结果(“主题知识”),并且它们是合理的,所以很好 ”和在咨询统计学家时,他们似乎总是同意。
现在,我已经与其他自己进行分析的统计学家和非统计学家(化学家,医师和生物学家)进行了交谈。似乎人们对所有这些假设和正式评估并没有太在意。但是在简历上,有很多人在询问残差,模型拟合,评估残差的方法,特征值,向量,等等。让我这样说,当lme4警告大型特征值时,我真的怀疑它的许多用户是否在意解决这个问题。
值得付出额外的努力吗?是否所有发表的结果中的大多数都不遵守这些假设,甚至可能没有对它们进行评估?这可能是一个日益严重的问题,因为数据库每天都在增长,并且有一种观念认为,数据越大,假设和评估就越不重要。
我可能是完全错误的,但这就是我对此的看法。
更新: 引自StasK的引用(如下):http : //www.nature.com/news/science-joins-push-to-screen-statistics-in-papers-1.15509