Questions tagged «likelihood-ratio»

似然比是两个模型(或单个模型中的空值和替代参数值)的似然比,可用于比较或测试模型。如果未完全指定任何一个模型,则使用其在所有自由参数上的最大似然-有时称为广义似然比。

2
非嵌套模型选择
似然比检验和AIC都是在两种模型之间进行选择的工具,并且两者均基于对数似然法。 但是,为什么AIC不能使用似然比检验在两个非嵌套模型之间进行选择?

1
为什么高斯线性模型中的F检验功能最强大?
对于高斯线性模型,其中μ,假定为位于某些向量空间W ^和ģ对标准正态分布ř Ñ,所述的统计˚F -test为ħ 0:{ μ ∈ ù }其中ü ⊂ w ^是一个向量空间,是的增加一到一个功能偏差统计: ˚F = φ ( 2 日志SUP μ ∈ w ^ÿ= μ + σGY=μ+σGY=\mu+\sigma Gμμ\muw ^WWGGG[RñRn\mathbb{R}^nFFFH0:{ μ ∈ û}H0:{μ∈U}H_0\colon\{\mu \in U\}ü⊂ w ^U⊂WU \subset W 我们怎么知道这个统计数据为H0提供了最有力的检验(也许在丢弃了异常情况之后)?因为这个定理断言,似然比测试是最有力的对点的假设这并不奈曼皮尔森定理干ħ0:{μ=μ0,σ=σ0}和ħ1:{F= ϕ ( 2 对数SUPμ ∈ w ^,σ> 0L (μ ,σ| ÿ)SUPμ ∈ û,σ> …




1
似然比检验的“理想”统计特性是什么?
我正在阅读一篇文章,其方法完全基于似然比检验。作者说,针对单方面选择的LR测试是UMP。他继续声称 “ ...即使无法证明[LR测试]的功能最强大,LR测试通常也具有理想的统计特性。“ 我想知道这里的统计属性是什么意思。鉴于作者提到的是顺带一提,我认为它们是统计学家中的常识。 到目前为止,我设法找到的唯一理想的属性是(在某些规则性条件下)的渐近卡方分布,其中是LR比率。λλ− 2 日志λ−2log⁡λ-2 \log \lambdaλλ\lambda 我还要感谢对经典文本的引用,在该文本中可以阅读有关这些所需属性的信息。

3
比较计数数据上的回归模型
我最近将4个多元回归模型用于相同的预测因子/响应数据。我适合泊松回归的两个模型。 model.pois <- glm(Response ~ P1 + P2 +...+ P5, family=poisson(), ...) model.pois.inter <- glm(Response ~ (P1 + P2 +...+ P5)^2, family=poisson(), ...) 我使用负二项式回归拟合的两个模型。 library(MASS) model.nb <- glm.nb(Response ~ P1 + P2 +...+ P5, ...) model.nb.inter <- glm.nb(Response ~ (P1 + P2 +...+ P5)^2, ...) 我可以使用统计检验来比较这些模型吗?我一直在使用AIC来衡量合身程度,但AFAIK并不代表实际测试。

1
似然比检验和Wald检验为R中的glm提供了不同的结论
我正在从通用模型,线性模型和混合模型复制示例。我的MWE如下: Dilution <- c(1/128, 1/64, 1/32, 1/16, 1/8, 1/4, 1/2, 1, 2, 4) NoofPlates <- rep(x=5, times=10) NoPositive <- c(0, 0, 2, 2, 3, 4, 5, 5, 5, 5) Data <- data.frame(Dilution, NoofPlates, NoPositive) fm1 <- glm(formula=NoPositive/NoofPlates~log(Dilution), family=binomial("logit"), data=Data) summary(object=fm1) 输出量 Call: glm(formula = NoPositive/NoofPlates ~ log(Dilution), family = binomial("logit"), …

2
非嵌套模型的广义对数似然比检验
我知道如果我有两个模型A和B,并且A嵌套在B中,那么在给定一些数据的情况下,我可以使用MLE拟合A和B的参数,并应用广义对数似然比检验。特别地,测试的分布应为具有个自由度,其中是和具有的参数数量之差。χ2χ2\chi^2ññnññn一个一个A乙乙B 但是,如果和具有相同数量的参数,但模型未嵌套,会发生什么情况?那就是他们只是不同的模型。有什么方法可以应用似然比检验,还是可以做其他事情?一个一个A乙乙B

1
如何在ARIMA模型的观察值48中加入创新的离群值?
我正在处理数据集。使用一些模型识别技术后,我得出了一个ARIMA(0,2,1)模型。 我使用R detectIO包TSA中的函数在对原始数据集进行第48次观察时检测到创新的离群值(IO)。 如何将这个离群值合并到模型中,以便将其用于预测?我不想使用ARIMAX模型,因为我可能无法根据R中的模型做出任何预测。还有其他方法可以做到吗? 以下是我的价值观: VALUE <- scan() 4.6 4.5 4.4 4.5 4.4 4.6 4.7 4.6 4.7 4.7 4.7 5.0 5.0 4.9 5.1 5.0 5.4 5.6 5.8 6.1 6.1 6.5 6.8 7.3 7.8 8.3 8.7 9.0 9.4 9.5 9.5 9.6 9.8 10.0 9.9 9.9 9.8 9.8 9.9 9.9 9.6 9.4 …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

1
我刚刚进行了200万次回归-综合可能性
我目前正在努力实现一种流行的论文中使用的方法,该论文的标题为“ I Just Ran 200万Regressions”。其背后的基本思想是,在某些情况下,不清楚应在模型中包括哪些控件。在这种情况下,您可以做的一件事是随机绘制控件,运行数百万种不同的回归,然后查看您感兴趣的变量如何反应。如果它在所有规范中通常都具有相同的符号,那么我们可以认为它比符号总是变化的变量更可靠。 大部分论文非常清楚。但是,本文通过以下方式对所有这些不同的回归进行加权:给定规范的综合可能性除以所有规范的所有综合可能性之和。 我遇到的麻烦是,我不确定积分的可能性与我想运行的OLS回归(在Stata中)如何相关。在我不断碰到诸如混合效应逻辑回归之类的问题时,诸如“状态综合可能性”之类的谷歌搜索主题一直是死胡同。我承认这些模型太复杂了,我无法掌握。 我目前的工作是,我确实(有点)理解文献中使用了不同的加权方案。例如,可以基于似然比指数对每个回归进行加权。甚至有一个使用lri作为权重的R包。当然,我也想实施原始版本。 有什么建议吗? 论文链接:http : //down.cenet.org.cn/upfile/34/2009112141315178.pdf

2
Benjamini-Hochberg依赖性假设是否成立?
我有一个数据集,用于测试三个总体之间在大约50个不同变量方面的显着差异。一方面,我使用Kruskal-Wallis检验,另一方面,通过嵌套GLM模型拟合的似然比检验(具有和不具有总体作为自变量)进行此操作。 结果,一方面,我列出了Kruskal-Wallis,另一方面,我认为是LRT比较中的卡方p值。pppppp 我需要做某种形式的多重测试校正,因为有50多种不同的测试,Benjamini-Hochberg FDR似乎是最明智的选择。 但是,变量可能不是独立的,它们中的几个“氏族”是相关的。然后的问题是:我如何确定我的p值的基础统计信息集是否ppp满足Benjamini-Hochberg过程仍然要绑定到FDR所需的正相关性要求? 2001年的Benjamini-Hochberg-Yekutieli论文指出,PRDS条件适用于多元正态分布和学生分布。对于模型比较,我的似然比检验卡方值怎么样?对于Kruskal-Wallis检验,我的ppp如何? 我可以使用Benjamini-Hochberg-Yekutieli最坏情况的FDR校正,该校正在假设依赖项时不做任何假设,但我认为在这种情况下,它可能过于保守,并且会丢失一些相关信号。

1
泊松/对数线性模型的似然比检验是否需要调整零计数?
如果列联表中的数字为0,并且我们正在对嵌套的泊松/对数线性模型(使用R glm函数)进行似然比检验,那么在拟合glm模型之前是否需要调整数据(例如,将1/2加到所有计数)?显然,如果不进行一些调整就无法估计某些参数,但是调整/缺少调整对LR测试有何影响?

2
在结合了两个分布的模型中测量拟合优度
我有要建模的双峰数据,并且峰之间有足够的重叠,因此无法独立对待它们。数据的直方图可能看起来像这样: 为此,我创建了两个模型:一个模型使用两个Poisson分布,另一个模型使用两个负二项式分布(以解决过度分散问题)。哪种模型可以更准确地确定适合数据的合适方法是什么? 我最初的想法是,我可以使用Kolmogorov-Smirnov检验将每个模型与数据进行比较,然后进行似然比检验,看是否一个模型更合适。这有意义吗?如果是这样,我不确定如何执行似然比测试。卡方是否合适,我有多少自由度? 如果有帮助,这些模型的一些(非常简化的)R代码可能看起来像这样: ## inital data points a <- read.table("data") #create model data model.pois = c(rpois(1000000,200),rpois(500000,250)) model.nb = c(rnbinom(1000000,200,0.5),rnbinom(500000,275,0.5) #Kolmogorov-Smirnov test #use ks.boot, since it's count data that may contain duplicate values kpois = ks.boot(model.pois,a) knb = ks.boot(model.nb,a) #here's where I'd do some sort of likelihood ratio test # …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.