Questions tagged «function»

2
Logistic回归如何产生非传统函数的曲线?
我认为我对Logistic回归中的功能如何工作(或者可能只是整体功能)有一些根本的困惑。 函数h(x)如何产生在图像左侧看到的曲线? 我看到这是两个变量的图,但是这两个变量(x1和x2)也是函数本身的参数。我知道一个变量的标准函数映射到一个输出,但是此函数显然没有做到这一点-我不确定为什么。 我的直觉是,蓝色/粉红色曲线并没有真正绘制在该图上,而是一种表示形式(圆圈和X),它们映射到该图的下一个维度(第3个)中的值。这是错误的推理吗,我只是错过了什么吗?感谢您的任何见解/直觉。



3
神经网络可以学习功能及其功能派生吗?
我了解到,在某些假设下(在网络和要近似的函数上),神经网络(NN)可以视为函数及其派生类的通用逼近器。实际上,我已经对简单但非平凡的函数(例如多项式)进行了许多测试,似乎我确实可以很好地近似它们和它们的一阶导数(下面显示一个示例)。 然而,我不清楚的是,导致上述结论的定理是否扩展到(或可能扩展到)泛函及其函数导数。例如,考虑以下函数: ,其中函数导数: 其中,完全而不是完全取决于。NN可以学习上面的映射及其功能派生吗?更具体地说,如果一个离散化的域比和提供(在离散点)作为输入和F[ f((x )] = ∫b一个dX ˚F (x )克(x )F[F(X)]=∫一个bdX F(X)G(X)\begin{equation} F[f(x)] = \int_a^b dx ~ f(x) g(x) \end{equation}δF[ f(x )]δF(x )=g(x )δF[F(X)]δF(X)=G(X)\begin{equation} \frac{\delta F[f(x)]}{\delta f(x)} = g(x) \end{equation}F(x )F(X)f(x)G(x )G(X)g(x)XXx[ a ,b ][一个,b][a,b]F(x )F(X)f(x)F[ f(x )]F[F(X)]F[f(x)]作为输出,NN能否正确(至少在理论上)正确学习此映射?如果是这样,它还能学习映射的功能导数吗? 我已经做过许多测试,似乎NN确实可以在某种程度上学习映射。但是,虽然此映射的准确性尚可,但并不理想。麻烦的是计算出的函数导数是完全垃圾(尽管这两个都可能与训练等有关)。一个例子如下所示。F[ f(x )]F[F(X)]F[f(x)] 如果NN不适合学习某个函数及其函数导数,那么还有另一种机器学习方法吗? 例子: (1)以下是近似函数及其衍生物的一个例子:一个NN被训练学习函数在范围[-3,2]: 从该合理得到与近似值: 请注意,正如预期的那样,对的NN近似值及其一阶导数随训练点数,NN体系结构的改善而提高,因为在训练过程中发现了更好的最小值等。F(x )= x3+ x …

2
如何估算积分的精度?
在计算机图形学中,一种非常普遍的情况是某些像素的颜色等于某些实值函数的积分。函数通常过于复杂而无法解析求解,因此我们只需要进行数值逼近即可。但是该函数的计算量通常也非常昂贵,因此我们在可计算的样本数量上受到极大的限制。(例如,您不能只是决定抽取一百万个样本并留在此处。) 通常,您要做的是在随机选择的点上评估函数,直到估计的积分变得“足够精确”为止。这使我想到了一个实际的问题:您如何估算积分的“准确性”? 更具体地说,我们有,它是由一些复杂的,缓慢的计算机算法实现的。我们要估计f:R→Rf:R→Rf : \mathbb{R} \rightarrow \mathbb{R} k=∫baf(x) dxk=∫abf(x) dxk = \int_a^b f(x) \ dx 我们可以为所需的任何x计算,但这很昂贵。因此,我们想随机选择几个x值,并在k的估计变得可接受的准确时停止。当然,要做到这一点,我们需要知道当前估计的实际准确性。f(x)f(x)f(x)xxxxxxkkk 我什至不确定哪种统计工具适合此类问题。但是在我看来,如果我们对f绝对一无所知,那么这个问题就无法解决。例如,如果您计算f (x )一千次且始终为零,则估计积分将为零。但是,一无所知约˚F,它仍然可能是˚F (X )= 1 ,000 ,000处处除非你碰巧样本点,因此您的估计是错得离谱!ffff(x)f(x)f(x)ffff(x)=1,000,000f(x)=1,000,000f(x) = 1,000,000 也许,那么,我的问题应该从“我们需要了解以便使我们估计积分的精度成为可能fff?”开始。例如,我们经常知道不可能为负,这似乎是一个高度相关的事实...fff 编辑:好的,所以这似乎产生了很多响应,这很好。与其单独回答每个问题,不如尝试在此处补充一些其他背景。 ffffffffffff fffffffff fff 另外,考虑到“蒙特卡洛”的出现次数,我猜这是这种集成的技术术语吗?

1
R线性回归分类变量“隐藏”值
这只是我多次遇到的示例,因此我没有任何示例数据。在R中运行线性回归模型: a.lm = lm(Y ~ x1 + x2) x1是一个连续变量。x2是分类的,具有三个值,例如“低”,“中”和“高”。但是,R给出的输出将类似于: summary(a.lm) Estimate Std. Error t value Pr(>|t|) (Intercept) 0.521 0.20 1.446 0.19 x1 -0.61 0.11 1.451 0.17 x2Low -0.78 0.22 -2.34 0.005 x2Medium -0.56 0.45 -2.34 0.005 我知道R在这种因素(x2是一个因素)上引入了某种虚拟编码。我只是想知道,如何解释x2“高”值?例如,x2在此处给出的示例中,“ High” 对响应变量有什么影响? 我在其他地方(例如这里)已经看到了这样的示例,但是还没有找到我能理解的解释。
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
证明序列减少(通过绘制大量点来支持)
上个月我在SE上发布的许多问题都是为了帮助我解决这一特定问题。问题均已回答,但我仍然无法提出解决方案。因此,我认为我应该直接问我要解决的问题。 让 Xn∼FnXn∼FnX_n \sim F_n,在哪里 Fn= (1 − (1 −Fn − 1)C)CFn=(1−(1−Fn−1)c)cF_n = (1-(1-F_{n-1})^c)^c, F0= xF0=xF_0 = x, Ç ≥ 2c≥2c\geq 2 (整数),以及每个 FñFnF_n 超过CDF (0 ,1 )(0,1)(0,1)。 我想证明 EXnEXn\mathbb{E}X_n 减少 nnn 对所有人 ccc (甚至对于任何特定 ccc)!我可以证明FnFnF_n 以独特的解收敛到狄拉克质量 xc=(1−(1−x)c)c)xc=(1−(1−x)c)c)x_c = (1-(1-x)^c)^c) 对于 c=2c=2c=2, x2=(3−5–√)/2≈.38x2=(3−5)/2≈.38x_2 = (3-\sqrt{5})/2 \approx .38。当看CDFS增加时nnn都是一样的 ccc,所有cdf交叉在 xnxnx_n。的价值F(x)F(x)F(x) 减少值 …

2
通过制定可全局优化的成本函数来解决问题的优势
这是一个相当普遍的问题(即不一定特定于统计),但是我注意到机器学习和统计文献中的一种趋势,作者更喜欢采用以下方法: 方法1:通过制定可能(例如从计算的角度来看)找到全局最优解决方案的成本函数(例如通过制定凸成本函数)来获得对实际问题的解决方案。 而不是: 方法2:通过公式化成本函数来获得相同问题的解决方案,而对于该函数,我们可能无法获得全局最优解(例如,我们只能为其获得局部最优解)。 请注意,严格地说,这两个问题是不同的。假设我们可以为第一个找到全局最优解,而第二个找不到。 除了其他考虑因素(例如速度,易于实施等),我正在寻找: 对这种趋势的解释(例如数学或历史论证) 解决实际问题时,采用方法1而不是方法2带来的收益(实际和/或理论上)。
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.