Questions tagged «estimation»

这个标签太笼统了。请提供更具体的标签。对于有关特定估计量属性的问题,请改用[estimators]标签。

2
估计具有独立变量的标准偏差缩放的速率
我有在我以正态分布变量的测量实验,YYY Y∼N(μ,σ)Y∼N(μ,σ)Y \sim N(\mu,\sigma) 但是,先前的实验提供了一些证据,表明标准偏差是自变量的仿射函数,即Xσσ\sigmaXXX σ=a|X|+bσ=a|X|+b\sigma = a|X| + b Y∼N(μ,a|X|+b)Y∼N(μ,a|X|+b)Y \sim N(\mu,a|X| + b) 我想估计参数和通过取样在的多个值。此外,由于实验的限制,我只能采集有限数量(大约30-40)的样本,并且出于与实验无关的原因,我更愿意以X的多个值进行采样。给定这些约束,可以使用哪些方法来估计a和b?b Y XaaabbbYYYXXXYYYXXXaaabbb 实验说明 如果您对我为什么要问上述问题感兴趣,这是额外的信息。我的实验测量听觉和视觉空间知觉。我有一个实验设置,其中我可以显示来自不同位置X的听觉或视觉目标XXX,并且被摄对象指示目标Y的感知位置YYY。随着偏心率的增加(即| X |增大|X||X||X|),视觉*和听觉都变得不太精确,我在上面将其建模为σσ\sigma。最终,我想估计aaa和bbb对于视觉和听觉来说,所以我知道在空间中一系列位置上每种感觉的精度。这些估计值将用于预测同时显示的视觉和听觉目标的相对权重(类似于此处提出的多感官融合理论:http://www.ncbi.nlm.nih.gov/pubmed/12868643)。 *我知道,当比较中央凹与中央凹空间时,该模型的视觉不准确,但是我的测量仅限于中央凹空间,这是一个不错的近似值。

1
具有不等方差的James-Stein估计量
我发现的James-Stein估计量的每条陈述均假设所估计的随机变量具有相同(和单位)的方差。 但是所有这些示例还提到,可以使用JS估计器来估计彼此无关的数量。在维基百科的例子是台湾光,茶叶消费,并在蒙大拿州生猪重量的速度。但是,假设您对这三个量的测量将具有不同的“真实”方差。这会带来问题吗? 这与一个我不理解的,与这个问题有关的更大的概念问题联系在一起:James-Stein估计量:埃夫隆和莫里斯是如何计算棒球范例中的收缩因子的?σ2σ2\sigma^2我们计算收缩率如下:ccc c=1−(k−3)σ2∑(y−y¯)2c=1−(k−3)σ2∑(y−y¯)2 c = 1 - \frac{(k-3) \sigma^2} {\sum (y - \bar{y})^2} 直觉,我认为项实际上是-对于每个估计的数量而言都是不同的。但是该问题的讨论仅涉及使用合并方差...σ2σ2\sigma^2σ2iσi2\sigma^2_i 如果有人能消除这种混乱,我将不胜感激!

2
估计中心删失正态样本的方差
我已经正态分布从中我得到小样本(进程ñ通常为10-30),我想用估计方差。但是,这些样本之间的距离常常如此之近,以至于我们无法测量中心附近的各个点。 我有一个模糊的理解,我们应该能够使用有序样本构建一个有效的估算器:例如,如果我知道样本包含20个点,并且10个点过于靠近中心而无法单独进行测量,但是我有离散的测量值尾巴上是否有5个,是否有一种标准/公式化的方法来估算最佳利用此类样本的过程差异? (请注意,我认为我不能加权中心平均值。例如,可能有7个样本紧密聚类,而另外3个样本不对称地偏向一侧,但足够接近,如果没有更繁琐的单次抽样,我们就无法断定) 如果答案很复杂,那么我应该研究的任何技巧都将不胜感激。例如,这是一个订单统计问题吗?可能会有一个公式化的答案,或者这是一个计算问题? 更新的详细信息:该应用程序是对射击目标的分析。单个基础样本是单个镜头对目标的影响点(x,y)。基本过程具有对称的双变量正态分布,但轴之间没有相关性,因此我们能够将{ x }和{ y }样本视为来自相同正态分布的独立绘制。(我们也可以说底层过程是瑞利分布的,但是我们无法测量样本瑞利变量,因为我们无法确定过程的“真实”中心的坐标,对于小n来说,这可以是显着的远离样品中心(,))。X¯x¯\bar{x}ÿ¯y¯\bar{y} 给我们一个目标和射入其中的镜头数量。问题在于,对于n >> 3支精确的枪,通常会发射出一个“参差不齐的孔”,周围是不同的射击。我们可以观察到孔的x-和y-宽度,但是我们不知道未区分的镜头在孔中的哪个位置受到了影响。 以下是一些有问题的目标的示例: (当然,在理想情况下,我们会在每次拍摄后更改/切换目标,然后汇总样本进行分析。尽管有可能,但有很多原因通常是不切实际的。) 注释中经过WHuber澄清后的其他说明:子弹产生的目标孔直径均匀且已知。当射击不在任何“参差不齐的群”之外时,我们知道了射弹半径,因此我们可以测量精确的中心。在每个“参差不齐的组”中,我们可以识别出一定数量的外围“球”,并根据已知的射弹半径再次标记这些外部射击的精确中心。这是剩下的 “中心审查”的镜头,我们只知道影响地方的“破烂组”的内部(通常是-如果有必要,让我们假设-一个目标一个)。X一世xix_i 为了简化求解,我相信将其最简单地从法线简化为一组一维样本,其中心间隔为w > d,其中d为弹丸直径,包含c < n个 “被检举”样本。

1
估计S型曲线笔直部分的斜率
我被赋予了这项任务,并感到沮丧。一位同事让我估算下图的和:Xü p p è [RXüppË[Rx_{upper}X升ø 瓦特Ë řX升ØwË[Rx_{lower} 曲线实际上是累积分布,而x是某种度量。他很想知道当累积函数开始变得笔直并偏离笔直时,x上对应的值是多少。 我知道我们可以使用微分来找到某个点的斜率,但是我不太确定如何确定何时可以将该直线称为直线。任何对某些已经存在的方法/文学的微调将不胜感激。 如果您碰巧知道此类调查的任何相关软件包或示例,我也知道R。 非常感谢。 更新 多亏了Flounderer,我得以进一步扩展工作,建立框架并在这里和那里修改参数。为了学习,这里是我当前的代码和图形输出。 library(ESPRESSO) x <- skew.rnorm(800, 150, 5, 3) x <- sort(x) meanX <- mean(x) sdX <- sd(x) stdX <- (x-meanX)/sdX y <- pnorm(stdX) par(mfrow=c(2,2), mai=c(1,1,0.3,0.3)) hist(x, col="#03718750", border="white", main="") nq <- diff(y)/diff(x) plot.ts(nq, col="#6dc03480") log.nq <- log(nq) low …

1
最大后验估计的示例
我一直在阅读有关最大似然估计和最大后验估计的信息,到目前为止,我仅遇到了有关最大似然估计的具体示例。我已经找到了一些最大后验估计的抽象示例,但是还没有具体的数字:S 它可能非常庞大,只使用抽象变量和函数,并且为了不被这种抽象淹没,不时将事物与现实世界联系起来是很好的。但是,当然,这只是我(和其他一些人)的观察:) 因此,有谁能给我一个简单但具体的例子,即关于最大后验估计的数字?那会很有帮助:) 谢谢! 我最初在MSE上发布了此问题,但无法在此处得到答案: /math/449386/example-of-maximum-a-posteriori-estimation 我已按照交叉发布此处的指示进行操作: http://meta.math.stackexchange.com/questions/5028/how-do-i-move-a-post-to-another-forum-like-cv-stats

1
如何仅通过5到7个数据点来估计逻辑回归的上限?
我有。对于到的估计,我使用本文的公式:John非线性回归和非线性最小二乘法 在本文中,通过查看数据来估计。如果我这样做,即使我只有三点,它也能正常工作。由此我可以计算出另外两个。我用R中的nls()和C#中的LevenbergMarquardt测试了我的参数。他们返回的模型令人满意。 β1β3y=β11+exp(β2+β3∗x)y=β11+exp⁡(β2+β3∗x)y = \frac{\beta_1}{1 + \exp(\beta_2 + \beta_3 * x)}β1β1\beta_1β3β3\beta_3β1β1\beta_1 问题是我不想查看数据来获得的良好估计量,而是希望我的程序对其进行计算。一段时间以来,我使用的值比我的最大值(在\ max * 1.1和\ max * 1.5之间的值)高一点。只要这些点覆盖了函数的大部分,此方法就可以正常工作。数据点位于曲线“顶部”的某个位置,但是当它们全部来自拐点“下方”时,此估计量肯定低于应有的水平,因此我无法拟合模型。绝对高于最高点(通过将其乘以高得离谱的值),模型无法以任何有用的方式拟合。β1β1\beta_1max∗1.1max∗1.1\max * 1.1max∗1.5max∗1.5\max * 1.5 测量可能如下所示: x =(40,50,60,70),y =(1000,950,400,200)->易于估计 x =(40,50,60,70),y =(1000,950,800,100)->易于估计 x =(40,50,60,70),y =(500,200,100,50)->估计起来不太容易 我想我可以通过计算给定点的增量并根据其计算上限来找出我在函数中的位置(在“底部”,在“顶部”,在坡度中)。有没有人暗示有更好的解决方案?附加信息:如果无法完成,对我来说,更重要的一点是,可以拟合的测量结果要尽可能地好,并且我接受某些测量结果根本无法拟合的问题。 (尽管我想要在这里发布的C#实现,但我认为问题不取决于语言) 更新(此应用): x是温度值,y是相应的测量值。从本质上讲,它应该看起来像逻辑曲线,在较低温度下具有较高的y值,反之亦然。熔点等于曲线的拐点,随着模型参数的微小变化,其变化很大。 更新(一些由7个数据点组成的数据,已知拐点为60): //first I made up some data without any noise and enough (13) points …

2
参考为
@Erik P.在回答我的上一个问题时,给出了表达式 其中Var[s2]=σ4(2n−1+κn),Var[s2]=σ4(2n−1+κn), \mathrm{Var}[s^2]=\sigma^4 \left(\frac{2}{n-1} + \frac{\kappa}{n}\right) \>, 是分布的峰度。给出了有关样本方差分布的Wikipedia条目的引用,但是Wikipedia页面上显示“需要引用”。κκ\kappa 我的主要问题是,此公式是否有参考?推导是否“琐碎”?如果是的话,可以在教科书中找到它吗?(@Erik P.在数学统计和数据分析中找不到,在Casella和Berger的统计推断中也找不到。尽管涵盖了该主题。 拥有教科书参考书会很好,但是拥有(主要)参考书会更有用。 (一个相关的问题是:样本分布与未知分布的方差分布是什么?) 更新:@cardinal指出了另一个方程math.SE: 其中,μ4是第四中心矩。Var(S2)=μ4n−σ4(n−3)n(n−1)Var(S2)=μ4n−σ4(n−3)n(n−1) \mathrm{Var}(S^2)={\mu_4\over n}-{\sigma^4\,(n-3)\over n\,(n-1)} μ4μ4\mu_4 是否可以通过某种方式重新排列方程式并解决这两个问题,还是标题中的方程式错误?


1
R / mgcv:为什么te()和ti()张量积产生不同的曲面?
的mgcv软件包R具有两个功能,用于拟合张量积相互作用:te()和ti()。我了解两者之间的基本分工(拟合非线性交互与将这种交互分解为主要效果和交互)。我不明白的是为什么te(x1, x2)而ti(x1) + ti(x2) + ti(x1, x2)可能产生(略)不同的结果。 MWE(改编自?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f + rnorm(n)*0.2 par(mfrow = c(2,2)) # …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 


2
如何估算积分的精度?
在计算机图形学中,一种非常普遍的情况是某些像素的颜色等于某些实值函数的积分。函数通常过于复杂而无法解析求解,因此我们只需要进行数值逼近即可。但是该函数的计算量通常也非常昂贵,因此我们在可计算的样本数量上受到极大的限制。(例如,您不能只是决定抽取一百万个样本并留在此处。) 通常,您要做的是在随机选择的点上评估函数,直到估计的积分变得“足够精确”为止。这使我想到了一个实际的问题:您如何估算积分的“准确性”? 更具体地说,我们有,它是由一些复杂的,缓慢的计算机算法实现的。我们要估计f:R→Rf:R→Rf : \mathbb{R} \rightarrow \mathbb{R} k=∫baf(x) dxk=∫abf(x) dxk = \int_a^b f(x) \ dx 我们可以为所需的任何x计算,但这很昂贵。因此,我们想随机选择几个x值,并在k的估计变得可接受的准确时停止。当然,要做到这一点,我们需要知道当前估计的实际准确性。f(x)f(x)f(x)xxxxxxkkk 我什至不确定哪种统计工具适合此类问题。但是在我看来,如果我们对f绝对一无所知,那么这个问题就无法解决。例如,如果您计算f (x )一千次且始终为零,则估计积分将为零。但是,一无所知约˚F,它仍然可能是˚F (X )= 1 ,000 ,000处处除非你碰巧样本点,因此您的估计是错得离谱!ffff(x)f(x)f(x)ffff(x)=1,000,000f(x)=1,000,000f(x) = 1,000,000 也许,那么,我的问题应该从“我们需要了解以便使我们估计积分的精度成为可能fff?”开始。例如,我们经常知道不可能为负,这似乎是一个高度相关的事实...fff 编辑:好的,所以这似乎产生了很多响应,这很好。与其单独回答每个问题,不如尝试在此处补充一些其他背景。 ffffffffffff fffffffff fff 另外,考虑到“蒙特卡洛”的出现次数,我猜这是这种集成的技术术语吗?


1
上UMVUE的存在和选择的估计的在人口
让是从绘制的随机样本人口其中。(X1,X2,⋯,Xn)(X1,X2,⋯,Xn)(X_1,X_2,\cdots,X_n)N(θ,θ2)N(θ,θ2)\mathcal N(\theta,\theta^2)θ∈Rθ∈R\theta\in\mathbb R 我正在寻找的UMVUE 。θθ\theta 联合密度为(X1,X2,⋯,Xn)(X1,X2,⋯,Xn)(X_1,X_2,\cdots,X_n) fθ(x1,x2,⋯,xn)=∏i=1n1θ2π−−√exp[−12θ2(xi−θ)2]=1(θ2π−−√)nexp[−12θ2∑i=1n(xi−θ)2]=1(θ2π−−√)nexp[1θ∑i=1nxi−12θ2∑i=1nx2i−n2]=g(θ,T(x))h(x)∀(x1,⋯,xn)∈Rn,∀θ∈Rfθ(x1,x2,⋯,xn)=∏i=1n1θ2πexp⁡[−12θ2(xi−θ)2]=1(θ2π)nexp⁡[−12θ2∑i=1n(xi−θ)2]=1(θ2π)nexp⁡[1θ∑i=1nxi−12θ2∑i=1nxi2−n2]=g(θ,T(x))h(x)∀(x1,⋯,xn)∈Rn,∀θ∈R\begin{align} f_{\theta}(x_1,x_2,\cdots,x_n)&=\prod_{i=1}^n\frac{1}{\theta\sqrt{2\pi}}\exp\left[-\frac{1}{2\theta^2}(x_i-\theta)^2\right] \\&=\frac{1}{(\theta\sqrt{2\pi})^n}\exp\left[-\frac{1}{2\theta^2}\sum_{i=1}^n(x_i-\theta)^2\right] \\&=\frac{1}{(\theta\sqrt{2\pi})^n}\exp\left[\frac{1}{\theta}\sum_{i=1}^n x_i-\frac{1}{2\theta^2}\sum_{i=1}^nx_i^2-\frac{n}{2}\right] \\&=g(\theta,T(\mathbf x))h(\mathbf x)\qquad\forall\,(x_1,\cdots,x_n)\in\mathbb R^n\,,\forall\,\theta\in\mathbb R \end{align} ,其中和h(\ mathbf x)= 1。h(x)=1g(θ,T(x))=1(θ2π√)nexp[1θ∑ni=1xi−12θ2∑ni=1x2i−n2]g(θ,T(x))=1(θ2π)nexp⁡[1θ∑i=1nxi−12θ2∑i=1nxi2−n2]g(\theta, T(\mathbf x))=\frac{1}{(\theta\sqrt{2\pi})^n}\exp\left[\frac{1}{\theta}\sum_{i=1}^n x_i-\frac{1}{2\theta^2}\sum_{i=1}^nx_i^2-\frac{n}{2}\right]h(x)=1h(x)=1h(\mathbf x)=1 在这里,ggg取决于θθ\theta和x1,⋯,xnx1,⋯,xnx_1,\cdots,x_n到T(x)=(∑ni=1xi,∑ni=1x2i)T(x)=(∑i=1nxi,∑i=1nxi2)T(\mathbf x)=\left(\sum_{i=1}^nx_i,\sum_{i=1}^nx_i^2\right)并且hhh独立于θθ\theta。因此,通过Fisher-Neyman分解定理,二维统计量T(X)=(∑ni=1Xi,∑ni=1X2i)T(X)=(∑i=1nXi,∑i=1nXi2)T(\mathbf X)=\left(\sum_{i=1}^nX_i,\sum_{i=1}^nX_i^2\right)足以满足θθ\theta。 但是,TTT不是一个完整的统计信息。这是因为Ëθ⎡⎣2 (∑我= 1ñX一世)2− (n + 1 )∑我= 1ñX2一世⎤⎦= 2 n (1 + n )θ2- (Ñ + 1 )2 Ñ θ2= 0∀θEθ[2(∑i=1nXi)2−(n+1)∑i=1nXi2]=2n(1+n)θ2−(n+1)2nθ2=0∀θE_{\theta}\left[2\left(\sum_{i=1}^n X_i\right)^2-(n+1)\sum_{i=1}^nX_i^2\right]=2n(1+n)\theta^2-(n+1)2n\theta^2=0\qquad\forall\,\theta …

2
UMVUE
让(X1,X2,…,Xn)(X1,X2,…,Xn)(X_1,X_2,\ldots,X_n)是从密度的随机样本fθ(x)=θxθ−110&lt;x&lt;1,θ&gt;0fθ(x)=θxθ−110&lt;x&lt;1,θ&gt;0f_{\theta}(x)=\theta x^{\theta-1}\mathbf1_{00 我正在尝试找到θ的UMVUEθ1+θθ1+θ\frac{\theta}{1+\theta}。 (X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)的联合密度为 fθ(x1,⋯,xn)=θn(∏i=1nxi)θ−110&lt;x1,…,xn&lt;1=exp[(θ−1)∑i=1nlnxi+nlnθ+ln(10&lt;x1,…,xn&lt;1)],θ&gt;0fθ(x1,⋯,xn)=θn(∏i=1nxi)θ−110&lt;x1,…,xn&lt;1=exp⁡[(θ−1)∑i=1nln⁡xi+nln⁡θ+ln⁡(10&lt;x1,…,xn&lt;1)],θ&gt;0\begin{align} f_{\theta}(x_1,\cdots,x_n)&=\theta^n\left(\prod_{i=1}^n x_i\right)^{\theta-1}\mathbf1_{00 \end{align} 随着人口的PDF fθfθf_{\theta}属于单参数指数族,这表明,对于一个完整的充分统计量θθ\theta是T(X1,…,Xn)=∑i=1nlnXiT(X1,…,Xn)=∑i=1nln⁡XiT(X_1,\ldots,X_n)=\sum_{i=1}^n\ln X_i 由于E(X1)=θ1+θE(X1)=θ1+θE(X_1)=\frac{\theta}{1+\theta},首先想到E(X1∣T)E(X1∣T)E(X_1\mid T)将给我θ的UMVUEθ1+θθ1+θ\frac{\theta}{1+\theta}根据Lehmann-Scheffe定理, 1 + θ。不确定是否可以直接找到该条件期望,还是必须找到条件分布 X1∣∑ni=1lnXiX1∣∑i=1nln⁡XiX_1\mid \sum_{i=1}^n\ln X_i。 另一方面,我考虑了以下方法: 我们有Xi∼i.i.dBeta(θ,1)⟹−2θlnXi∼i.i.dχ22Xi∼i.i.dBeta(θ,1)⟹−2θln⁡Xi∼i.i.dχ22X_i\stackrel{\text{i.i.d}}{\sim}\text{Beta}(\theta,1)\implies -2\theta\ln X_i\stackrel{\text{i.i.d}}{\sim}\chi^2_2,使−2θT∼χ22n−2θT∼χ2n2-2\theta\, T\sim\chi^2_{2n}。 所以,rrr的阶原时刻−2θT−2θT-2\theta\,T大约为零,作为使用卡方PDF计算是E(−2θT)r=2rΓ(n+r)Γ(n),n+r&gt;0E(−2θT)r=2rΓ(n+r)Γ(n),n+r&gt;0E(-2\theta\,T)^r=2^r\frac{\Gamma\left(n+r\right)}{\Gamma\left(n\right)}\qquad ,\,n+r>0 因此,似乎对于rrr不同整数选择,我将获得θθ\theta的不同整数幂的无偏估计量(和UMVUE)。例如,E(−Tn)=1θE(−Tn)=1θE\left(-\frac{T}{n}\right)=\frac{1}{\theta}和E(1−nT)=θE(1−nT)=θE\left(\frac{1-n}{T}\right)=\theta直接给我1的UMVUE1θ1θ\frac{1}{\theta}和θθ\theta。 现在,当θ&gt;1θ&gt;1\theta>1我们有θ1+θ=(1+1θ)−1=1−1θ+1θ2−1θ3+⋯θ1+θ=(1+1θ)−1=1−1θ+1θ2−1θ3+⋯\frac{\theta}{1+\theta}=\left(1+\frac{1}{\theta}\right)^{-1}=1-\frac{1}{\theta}+\frac{1}{\theta^2}-\frac{1}{\theta^3}+\cdots。 我绝对可以得到1的UMVUE1θ,1θ2,1θ31θ,1θ2,1θ3\frac{1}{\theta},\frac{1}{\theta^2},\frac{1}{\theta^3}等。所以结合这些UMVUE是我能得到所需的UMVUEθ1+θθ1+θ\frac{\theta}{1+\theta}。此方法有效吗?还是我应该继续第一种方法?由于UMVUE存在时是唯一的,因此两者都应给我相同的答案。 明确地说,我得到E(1+Tn+T2n(n+1)+T3n(n+1)(n+2)+⋯)=1−1θ+1θ2−1θ3+⋯E(1+Tn+T2n(n+1)+T3n(n+1)(n+2)+⋯)=1−1θ+1θ2−1θ3+⋯E\left(1+\frac{T}{n}+\frac{T^2}{n(n+1)}+\frac{T^3}{n(n+1)(n+2)}+\cdots\right)=1-\frac{1}{\theta}+\frac{1}{\theta^2}-\frac{1}{\theta^3}+\cdots 即,E(∑r=0∞Trn(n+1)...(n+r−1))=θ1+θE(∑r=0∞Trn(n+1)...(n+r−1))=θ1+θE\left(\sum_{r=0}^\infty \frac{T^r}{n(n+1)...(n+r-1)}\right)=\frac{\theta}{1+\theta} 有没有可能是我需要的是UMVUE ∑r=0∞Trn(n+1)...(n+r−1)∑r=0∞Trn(n+1)...(n+r−1)\displaystyle\sum_{r=0}^\infty \frac{T^r}{n(n+1)...(n+r-1)}当θ&gt;1θ&gt;1\theta>1? 为0&lt;θ&lt;10&lt;θ&lt;10<\theta<1,我会得到g(θ)=θ(1+θ+θ2+⋯)g(θ)=θ(1+θ+θ2+⋯)g(\theta)=\theta(1+\theta+\theta^2+\cdots),因此将UMVUE不同。 已经确信的是,在第一种方法的条件期望值不能直接找到,因为E(X1∣∑lnXi=t)=E(X1∣∏Xi=et)E(X1∣∑ln⁡Xi=t)=E(X1∣∏Xi=et)E(X_1\mid \sum\ln X_i=t)=E(X_1\mid \prod X_i=e^t),我已经着手寻找条件分布X1∣∏XiX1∣∏XiX_1\mid \prod X_i。为此,我需要(X1,∏Xi)(X1,∏Xi)(X_1,\prod X_i)的联合密度。 我用了变数(X1,⋯,Xn)→(Y1,⋯,Yn)(X1,⋯,Xn)→(Y1,⋯,Yn)(X_1,\cdots,X_n)\to (Y_1,\cdots,Y_n)使得Yi=∏ij=1XjYi=∏j=1iXjY_i=\prod_{j=1}^i X_j所有i=1,2,⋯,ni=1,2,⋯,ni=1,2,\cdots,n。这导致关节支承的(Y1,⋯,Yn)(Y1,⋯,Yn)(Y_1,\cdots,Y_n)是S={(y1,⋯,yn):0&lt;y1&lt;1,0&lt;yj&lt;yj−1 for j=2,3,⋯,n}S={(y1,⋯,yn):0&lt;y1&lt;1,0&lt;yj&lt;yj−1 for …

2
两个样本的Kullback-Leibler散度
我尝试对两个样本实施Kullback-Leibler散度的数值估计。要调试的执行从两个正态分布绘制样品N(0,1)N(0,1)\mathcal N (0,1)和N(1,2)N(1,2)\mathcal N (1,2)。 为了进行简单的估算,我生成了两个直方图,并尝试在数值上近似积分。我不得不处理直方图的那些部分,其中直方图之一的bin为零,这样我要么以零除或以零的对数结束。我该如何处理? 我想到一个相关的问题:如何精确计算两个不同均匀分布之间的KL散度?我是否必须将积分限制为两个分布的支持的并集?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.