Questions tagged «cdf»

累积分布函数。PDF给出了随机变量每个值的概率密度,而CDF(通常表示为F(x))给出随机变量小于或等于指定值的可能性。

1
参考:逆cdf的尾巴
我几乎可以肯定,我已经在统计数据中看到以下结果,但是我不记得在哪里。 如果是一个正随机变量,并且则到,其中是 cdf 。È(X )&lt; ∞ ε ˚F - 1(1 - ε )→ 0 ε → 0 + ˚F XXXXE(X)&lt;∞E(X)&lt;∞\mathbb{E}(X)<\inftyεF−1(1−ε)→0εF−1(1−ε)→0\varepsilon F^{-1}(1-\varepsilon) \to 0ε→0+ε→0+\varepsilon\to 0^+FFFXXX 通过使用等式并通过考虑在被积体曲线下的区域的处的水平切口,可以很容易地从几何上看出这一点。ε 1 - ˚FE(X)=∫1−FE(X)=∫1−F\mathbb{E}(X)=\int 1-Fεε\varepsilon1−F1−F1-F 您知道此结果的参考以及它是否有名称吗?

2
将随机变量插入自己的pdf或cdf背后的直观含义是什么?
pdf通常写为,其中小写字母被视为具有该pdf 的随机变量的实现或结果。类似地,cdf被写为,其含义为。但是,在某些情况下,例如评分函数的定义以及cdf是均匀分布的推导,似乎随机变量插入了它自己的pdf / cdf中。这样,我们得到一个新的随机变量或x X F X(x )P (X &lt; x )X Y = f (X | θ )Z = F X(X )F X(X )= P (X &lt; X )F(x | θ )f(x|θ)f(x|\theta)XxxXXXFX(x )FX(x)F_X(x)P(X&lt; x )P(X&lt;x)P(X<x)XXX ÿ= f(X| θ)Y=f(X|θ)Y=f(X|\theta)ž= FX(X)Z=FX(X)Z=F_X(X)。我不认为我们可以再称它为pdf或cdf,因为它现在本身就是一个随机变量,在后一种情况下,“解释”对我来说似乎是胡说八道。FX(X)= P(X&lt; X)FX(X)=P(X&lt;X)F_X(X)=P(X<X) 此外,在上述后一种情况下,我不确定我是否理解“随机变量的cdf遵循均匀分布”的说法。cdf是函数,不是随机变量,因此没有分布。相反,具有均匀分布的是使用代表其自己的cdf的函数转换的随机变量,但是我不明白为什么这种转换有意义。评分函数也是如此,在评分函数中,我们将一个随机变量插入表示其自己的对数似然性的函数中。 数周以来,我一直在拼搏,试图在这些转变背后找到一种直观的含义,但我被困住了。任何见识将不胜感激!

1
哪种深度学习模型可以对不互斥的类别进行分类
示例:我的职位描述中有一句话:“英国Java高级工程师”。 我想使用深度学习模型将其预测为2类:English 和IT jobs。如果我使用传统的分类模型,则只能预测softmax最后一层具有功能的标签。因此,我可以使用2个模型神经网络来预测两个类别的“是” /“否”,但是如果我们有更多类别,那就太贵了。那么,我们是否有任何深度学习或机器学习模型可以同时预测2个或更多类别? “编辑”:使用传统方法使用3个标签,它将由[1,0,0]编码,但在我的情况下,它将由[1,1,0]或[1,1,1]编码 示例:如果我们有3个标签,并且所有这些标签都适合一个句子。因此,如果softmax函数的输出为[0.45,0.35,0.2],我们应该将其分类为3个标签或2个标签,或者可以是一个?我们这样做的主要问题是:分类为1个,2个或3个标签的最佳阈值是多少?
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

1
来自单面Kolmogorov-Smirnov检验的和的两个样本CDF是多少?
我想了解如何获得 -值对片面柯尔莫哥洛夫-斯米尔诺夫检验,以及我在努力寻找的CDF和(在两个样本的情况下)。在一个示例中,以下几处被引用为的CDF :pppD+n1,n2Dn1,n2+D^{+}_{n_{1},n_{2}}D−n1,n2Dn1,n2−D^{-}_{n_{1},n_{2}}D+nDn+D^{+}_{n} p+n(x)=P(D+n≥x|H0)=x∑j=0⌊n(1−x)⌋(nj)(jn+x)j−1(1−x−jn)n−jpn+(x)=P(Dn+≥x|H0)=x∑j=0⌊n(1−x)⌋(nj)(jn+x)j−1(1−x−jn)n−jp^{+}_{n}\left(x\right) = \text{P}\left(D^{+}_{n} \ge x | \text{H}_{0}\right) = x\sum_{j=0}^{\lfloor n\left(1-x\right)\rfloor}{ \binom{n}{j} \left(\frac{j}{n}+x\right)^{j-1}\left(1 - x - \frac{j}{n}\right)^{n-j}} 另外,whuber sez对此单样本CDF的表示形式略有不同(我将x替换xxx为ttt,以与此处的符号保持一致): 使用概率积分变换,唐纳德·努斯推导了它们在p上的(公共)分布。TAoCP第2卷的第57页和练习17。 (D+n≤xn−−√)=xnn∑c≤k≤x(nk)(k−x)k(x+n−k)n−k−1(Dn+≤xn)=xnn∑c≤k≤x(nk)(k−x)k(x+n−k)n−k−1\left(D^{+}_{n}\le \frac{x}{\sqrt{n}}\right)=\frac{x}{n^{n}}\sum_{c\le k\le x}\binom{n}{k}\left(k-x\right)^{k}\left(x+n-k\right)^{n-k-1} 这将适用于单样本情况下的单边假设,例如:H 0: F(x)−F0≤00: F(x)−F0≤0_{0}\text{: }F(x)-F_{0} \le 0,其中F(x)F(x)F(x)是经验CDF的xxx,和F0F0F_{0}是一些CDF。 我认为这种情况下的xxx是一个人的样本中D+nDn+D^{+}_{n}的值,⌊n(1−x)⌋⌊n(1−x)⌋\lfloor n\left(1-x\right)\rfloor是n-nx中最大的整数n−nxn−nxn-nx。(那正确吗?) 但是当一个具有两个样本时,(或的CDF是多少?例如,对于和的经验CDF ,当H?如何获得?D+n1,n2Dn1,n2+D^{+}_{n_{1},n_{2}}D−n1,n2Dn1,n2−D^{-}_{n_{1},n_{2}}0: FA(x)−FB(x)≤00: FA(x)−FB(x)≤0_{0}\text{: }F_{A}(x)-F_{B}(x) \le 0AAABBBp+n1,n2pn1,n2+p^{+}_{n_{1},n_{2}}

2
自举样本的样本均值方差
令为不同的观察值(无联系)。令表示引导程序样本(来自经验CDF的样本),并令。找到E(\ bar {X} _ {n} ^ {*})和\ mathrm {Var}(\ bar {X} _ {n} ^ {*})。X1,...,XnX1,...,XnX_{1},...,X_{n}X∗1,...,X∗nX1∗,...,Xn∗X_{1}^{*},...,X_{n}^{*}X¯∗n=1n∑ni=1X∗iX¯n∗=1n∑i=1nXi∗\bar{X}_{n}^{*}=\frac{1}{n}\sum_{i=1}^{n}X_{i}^{*}E(X¯∗n)E(X¯n∗)E(\bar{X}_{n}^{*})Var(X¯∗n)Var(X¯n∗)\mathrm{Var}(\bar{X}_{n}^{*}) 到目前为止,我得到的是X∗iXi∗X_{i}^{*}是X1个,。。。,XñX1,...,XnX_{1},...,X_{n}每个概率为1个ñ1n\frac{1}{n}所以 Ë(X∗一世)=1个ñË(X1个)+ 。。。+1个ñË(Xñ)=ñ μñ= μË(X一世∗)=1个ñË(X1个)+。。。+1个ñË(Xñ)=ñμñ=μ E(X_{i}^{*})=\frac{1}{n}E(X_{1})+...+\frac{1}{n}E(X_{n})=\frac{n\mu}{n}=\mu 和 Ë(X* 2一世)=1个ñË(X21个)+ 。。。+1个ñË(X2ñ)=n (μ2+σ2)ñ=μ2+σ2,Ë(X一世∗2)=1个ñË(X1个2)+。。。+1个ñË(Xñ2)=ñ(μ2+σ2)ñ=μ2+σ2,E(X_{i}^{*2})=\frac{1}{n}E(X_{1}^{2})+...+\frac{1}{n}E(X_{n}^{2})=\frac{n(\mu^{2}+\sigma^{2})}{n}=\mu^{2}+\sigma^{2}\>, 给出 V 一[R (X∗一世)= E(X* 2一世)- (E(X∗一世))2=μ2+σ2-μ2=σ2。V一个[R(X一世∗)=Ë(X一世∗2)-(Ë(X一世∗))2=μ2+σ2-μ2=σ2。 \mathrm{Var}(X_{i}^{*})=E(X_{i}^{*2})-(E(X_{i}^{*}))^{2}=\mu^{2}+\sigma^{2}-\mu^{2}=\sigma^{2} \>. 然后, Ë(X¯∗ñ)= E(1个ñ∑我= 1ñX∗一世)=1个ñ∑我= 1ñË(X∗一世)=ñ μñ= μË(X¯ñ∗)=Ë(1个ñ∑一世=1个ñX一世∗)=1个ñ∑一世=1个ñË(X一世∗)=ñμñ=μE(\bar{X}_{n}^{*})=E(\frac{1}{n}\sum_{i=1}^{n}X_{i}^{*})=\frac{1}{n}\sum_{i=1}^{n}E(X_{i}^{*})=\frac{n\mu}{n}=\mu 和 V 一[R (X¯∗ñ)= V a r(1个ñ∑我= 1ñX∗一世)=1个ñ2∑我= …

2
计算带漂移的随机游走最大回撤的累积分布
我对随机游走的最大跌幅的分布感兴趣:令,其中。周期后的最大为。由A纸张Magdon-伊斯梅尔等。等 给出具有漂移的布朗运动的最大衰减的分布。该表达式涉及一个无限和,其中包括一些仅隐式定义的术语。我在编写收敛的实现时遇到问题。有谁知道CDF的替代表达或代码中的参考实现?X0=0,Xi+1=Xi+Yi+1X0=0,Xi+1=Xi+Yi+1X_0 = 0, X_{i+1} = X_i + Y_{i+1}Yi∼N(μ,1)Yi∼N(μ,1)Y_i \sim \mathcal{N}(\mu,1)nnnmax0≤i≤j≤n(Xi−Xj)max0≤i≤j≤n(Xi−Xj)\max_{0 \le i \le j \le n} (X_i - X_j)
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.