假设您要选择n,p(n)的分布,则可以应用贝叶斯定律。
您知道给定n实际发生的k个事件发生的概率是由二项分布决定的
p(k|n)=(nk)pk(1−p)(n−k)
假设您观察到k,那么您真正想知道的是实际发生n个事件的概率。由贝叶斯奠定:
p(n|k)=p(k|n)p(n)p(k)
通过应用总概率定理,我们可以写:
p(n|k)=p(k|n)p(n)∑n′p(k|n′)p(n′)
因此,如果没有进一步的信息,关于的分布就无法进行进一步的研究。p(n)
然而,如果要挑选一个分布针对其存在的值大于其中,或非常接近零,那么你可以做一个好一点。例如,假设的分布在范围内是均匀的。这个案例:p(n)np(n)=0n[0,nmax]
p(n)=1nmax
贝叶斯公式简化为:
p(n|k)=p(k|n)∑n′p(k|n′)
至于问题的最后一部分,我同意最好的方法是对进行累积求和,以生成累积概率分布函数,然后迭代直到达到0.95的极限。p(n|k)
鉴于此问题是从SO迁移过来的,因此下面附有python中的玩具示例代码
import numpy.random
p = 0.8
nmax = 200
def factorial(n):
if n == 0:
return 1
return reduce( lambda a,b : a*b, xrange(1,n+1), 1 )
def ncr(n,r):
return factorial(n) / (factorial(r) * factorial(n-r))
def binomProbability(n, k, p):
p1 = ncr(n,k)
p2 = p**k
p3 = (1-p)**(n-k)
return p1*p2*p3
def posterior( n, k, p ):
def p_k_given_n( n, k ):
return binomProbability(n, k, p)
def p_n( n ):
return 1./nmax
def p_k( k ):
return sum( [ p_n(nd)*p_k_given_n(nd,k) for nd in range(k,nmax) ] )
return (p_k_given_n(n,k) * p_n(n)) / p_k(k)
observed_k = 80
p_n_given_k = [ posterior( n, observed_k, p ) for n in range(0,nmax) ]
cp_n_given_k = numpy.cumsum(p_n_given_k)
for n in xrange(0,nmax):
print n, p_n_given_k[n], cp_n_given_k[n]