Questions tagged «particle-filter»


1
汉密尔顿蒙特卡洛vs.顺序蒙特卡洛
我试图了解这两种MCMC方案的相对优缺点以及不同的应用领域。 什么时候使用,为什么? 当一个可能失败而另一个不失败时(例如,HMC在哪里适用,但SMC不适用,反之亦然) 一个天真地被授予的方法,能否将一种方法的实用性与另一种方法相比(即,一种方法通常更好)? 我目前正在阅读Betancourt关于HMC的出色论文。

1
隐马尔可夫模型与粒子滤波器(和卡尔曼滤波器)之间的区别
这是我的老问题 我想问问是否有人知道隐马尔可夫模型(HMM)和粒子滤波器(PF)之间的区别(如果有区别),并因此得知卡尔曼滤波器,或者在什么情况下我们使用哪种算法。我是学生,必须做一个项目,但首先我必须了解一些事情。 因此,根据书目,这两个都是状态空间模型,包括隐藏(或潜在或不可观察)状态。根据Wikipedia(Hidden_​​Markov_model), “在HMM中,隐藏变量的状态空间是离散的,而观察值本身可以是离散的(通常从分类分布生成)或连续的(通常从高斯分布生成)。隐藏的马尔可夫模型也可以泛化为允许连续的状态空间。这样的模型的例子是那些对隐变量的马尔可夫过程是线性动力学系统,在相关变量之间具有线性关系,并且所有隐变量和观测变量都遵循高斯分布的模型。在简单的情况下,例如刚才提到的线性动力系统,精确推断是很容易的(在这种情况下,使用卡尔曼滤波器);但是,通常,在具有连续潜在变量的HMM中进行精确推断是不可行的,必须使用近似方法,” 但是对我而言,这有点令人困惑……简而言之,这是否意味着关注(也基于我所做的更多研究): 在HMM中,状态空间可以是离散的或连续的。还观测本身可以是离散的或连续的。HMM也是线性和高斯或非高斯动力系统。 在PF,状态空间可以是离散的或连续的。还观测本身可以是离散的或连续的。但是PF是一个非线性(非高斯?)动力系统(它们有区别吗?)。 当我们具有线性和高斯动力系统时,将使用卡尔曼滤波器(在我看来也像HMM一样)。 另外,我怎么知道该选择哪种算法,因为在我看来,所有这些似乎都是相同的...我还发现了一篇论文(不是英文),其中说PF虽然可以具有线性数据(例如来自传感器结点的原始数据)识别运动),则动力学系统可以是非线性的。这会发生吗?它是否正确?怎么样? 对于手势识别,研究人员可以使用HMM或PF,但是他们没有解释为什么选择每种算法……有人知道我可以如何帮助您区分这些算法,了解它们的差异以及如何选择最佳算法吗? 很抱歉,如果我的问题太大,或者某些部分还很幼稚,但我没有找到令人信服的科学答案。非常感谢您抽出宝贵的时间! 这是我的新问题(根据@conjugateprior的帮助) 因此,通过进一步阅读,我想更新我以前的评论的某些部分,并确保我对所发生的事情有更多的了解。 再次简单地说,保护伞是动态贝叶斯网络,其中包含HMM和状态空间的模型(子类)(http://mlg.eng.cam.ac.uk/zoubin/papers/ijprai.pdf)。 此外,这两个模型之间的初始差异在于,在HMM中,隐藏状态变量是离散的,而观测值可以是离散的或连续的。在PF中,隐藏状态变量是连续的(实值隐藏状态向量),并且观测值具有高斯分布。 此外,根据@conjugateprior,每个模型都有以下3个任务:滤波,平滑和预测。在滤波中,模型HMM将离散的隐藏状态变量用于正向算法,将状态空间用于连续变量并将线性动态系统用于卡尔曼滤波器,等等。 但是,HMM也可以泛化为允许连续的状态空间。 通过HMM的这些扩展,这两个模型在概念上似乎是相同的(正如在“ 隐马尔可夫模型”,“马尔可夫过渡模型”与“状态空间模型...”中提到的一样)。 我认为我使用的术语更加准确,但对我来说一切仍然很模糊。谁能向我解释HMM和State Space模型有什么区别? 因为我真的找不到适合我需求的答案。 再次谢谢你!

1
自举过滤器/粒子过滤器算法(理解)
我对引导过滤器的工作原理确实缺乏了解。我大致了解这些概念,但无法掌握某些细节。这个问题对我来说很清楚。在这里,我将从doucet的参考中使用这种流行的过滤算法(到目前为止,我认为这是最简单的参考)。首先让我告诉你,我的问题是了解哪些分布是已知的,哪些分布是未知的。 这些是我的问题: p(xt|x(i)t−1)p(xt|xt−1(i))p(x_t|x^{(i)}_{t-1})ttt p(yt|x~(i)t)p(yt|x~t(i))p(y_t|\tilde{x}^{(i)}_{t})w(i)t=w~(i)t∑Ni=1w~(i)twt(i)=w~t(i)∑i=1Nw~t(i)w^{(i)}_{t}=\frac{\tilde{w}^{(i)}_{t}}{\sum_{i=1}^{N}\tilde{w}^{(i)}_{t}}xxxwww 如果有人可以使用众所周知的发行版来使用此引导过滤器,给出一个简单的玩具示例,我将不胜感激。引导过滤器的最终目标对我来说并不明确。

1
顺序蒙特卡洛滤波器的Rao-Blackwellization
在开创性论文“动态贝叶斯网络的Rao-Blackwellised粒子滤波”中,A。Doucet等人。等 提出了一种顺序蒙特卡洛滤波器(粒子滤波器),它在马尔可夫过程利用线性子结构。通过边缘化此线性结构,可以将滤波器分为两部分:使用粒子滤波器的非线性部分,以及可以由卡尔曼滤波器处理的一个线性部分(以非线性部分)。X大号ķxkLx^L_kXķ= (x大号ķ,Xñķ)xk=(xkL,xkN)x_k = (x^L_k, x^N_k)XñķxkNx^N_k 我了解边缘化部分​​(有时所描述的过滤器也称为边缘化过滤器)。我的直觉为何称其为Rao-Blackwellized粒子滤波器(RBPF),是因为高斯参数对于底层线性过程是足够的统计量,并且根据Rao-Blackwell定理,以这些参数为条件的估计量至少可以达到作为采样估计量。 Rao-Blackwell估计量定义为。在这种情况下,我猜想是蒙特卡洛估计器,是,而是高斯参数化。我的问题是我看不到本文中实际应用的位置。Ë(δ(X)| Ť(X))= δ1个(X)E(δ(X)|T(X))=δ1(X)E(\delta(X)|T(X)) = \delta_1(X)δ(X)δ(X)\delta(X)δ1个(X)δ1(X)\delta_1(X)Ť(X)T(X)T(X) 那么为什么将其称为Rao-Blackwellized粒子滤波器,Rao-Blackwellization实际发生在什么地方?

3
估计动态线性模型的参数
我要实现(在R中)以下非常简单的动态线性模型,对于该模型,我有2个未知的时变参数(观察误差的方差和状态误差的方差\ epsilon ^ 2_t)。ϵ1tϵt1\epsilon^1_tϵ2tϵt2\epsilon^2_t ÿŤθt + 1==θŤ+ ϵ1个ŤθŤ+ ϵ2ŤYt=θt+ϵt1θt+1=θt+ϵt2 \begin{matrix} Y_t & = & \theta_t + \epsilon^1_t\\ \theta_{t+1} & = & \theta_{t}+\epsilon^2_t \end{matrix} 我想在每个时间点估计这些参数,而不会产生任何前瞻性偏差。据我了解,我可以使用MCMC(在滚动窗口上避免向前看的偏差),也可以使用粒子滤波器(或顺序蒙特卡洛-SMC)。 哪种方法你使用,和 什么是这两种方法的利弊? 奖励问题:在这些方法中,如何选择参数的变化速度?我猜我们必须在这里输入信息,因为在使用大量数据估算参数与使用较少数据对参数更改做出更快反应之间存在讨价还价?
11 r  mcmc  dlm  particle-filter 

2
了解粒子过滤器的数学和统计学先决条件?
我目前正在尝试了解粒子过滤器及其在金融中的可能用途,并且我在相当努力。为了(i)使粒子过滤器的基础变得易于使用,以及(ii)以后再全面理解它们,我应该重新讨论哪些数学和统计先决条件(来自定量金融的背景)?除了状态空间模型(我尚未介绍)以外,我对研究生级时间序列计量经济学有扎实的知识。 任何提示都非常感谢!

2
计算数据的ROC曲线
因此,我进行了16次试验,试图使用汉明距离从生物特征中鉴定一个人。我的阈值设置为3.5。我的数据如下,只有试验1为“真阳性”: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 10 0.45 11 0.42 12 0.37 13 0.66 14 0.39 15 0.44 16 0.39 我的困惑是,我真的不确定如何根据此数据制作ROC曲线(FPR与TPR或FAR与FRR)。哪一个都不重要,但是我只是对如何进行计算感到困惑。任何帮助,将不胜感激。
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.