Questions tagged «psychology»

心理学是一门学术和应用学科,涉及对心理功能和行为的科学研究。

4
心理学杂志禁止使用p值和置信区间;停止使用它们确实明智吗?
2015年2月25日,《基本与应用社会心理学》杂志 发表社论,禁止所有未来论文发表和置信区间。ppp 他们具体说(格式和重点是我的): [...]在发表之前,作者将必须删除NHSTP [无效假设重要性检验程序]的所有痕迹(,,,有关“重大”差异的陈述或缺乏它们的陈述) , 等等)。ppptttFFF 类似于NHSTP如何无法提供原假设的概率(需要为原假设提供强有力的条件来拒绝它),置信区间并不能为推断所关注的总体参数可能在规定范围内提供强有力的条件。间隔。因此,BASP也禁止置信区间。 [...]关于贝叶斯程序,我们保留根据具体情况做出判断的权利,因此,BASP也不要求也不禁止贝叶斯程序。 [...]是否需要任何推论统计程序?- 否,但是,BASP将需要强大的描述性统计数据,包括效应量。 让我们在这里不讨论问题和滥用。浏览p值标记可以找到很多有关CV的精彩讨论。对的批判常常与建议一起报告感兴趣参数的置信区间有关。例如,在这个非常有争议的答案中, @ gung建议以周围的置信区间来报告效果大小。但是该杂志也禁止置信区间。pppppp 与采用,置信区间和显着/无关紧要的二分法的“传统”方法相比,这种呈现数据和实验结果的方法的优缺点是什么?对该禁令的反应似乎主要是消极的。那有什么缺点呢?美国统计协会甚至对该禁令发表了简短的令人沮丧的评论,称“该政策可能有其自身的负面影响”。这些负面后果可能是什么?ppp 还是正如@whuber建议的那样,这种方法是否应该被普遍提倡为定量研究的范例?如果没有,为什么不呢? PS。请注意,我的问题与禁令本身无关;这是关于建议的方法。我也不是在问频率论者和贝叶斯论者。《社论》对贝叶斯方法也相当否定。因此本质上是关于使用统计信息与根本不使用统计信息。 其他讨论:reddit,Gelman。

4
如何将新向量投影到PCA空间上?
执行主成分分析(PCA)之后,我想将一个新向量投影到PCA空间上(即在PCA坐标系中找到其坐标)。 我已经使用R计算了R语言的PCA prcomp。现在,我应该可以将向量乘以PCA旋转矩阵。该矩阵中的主要成分应该按行还是按列排列?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

3
利克特项目构成的问卷的因子分析
我曾经从心理学的角度分析项目。但是现在我正在尝试分析关于动机和其他主题的其他类型的问题。这些问题都是在李克特量表上。我最初的想法是使用因子分析,因为假设这些问题可以反映一些潜在的方面。 但是因子分析是否合适? 是否有必要验证每个问题的维度? 对李克特项目进行因子分析是否存在问题? 是否有关于如何对李克特和其他分类项目进行因子分析的好的论文和方法?


2
如何使用测量工具处理天花板效应?
我收集了心理生理数据,这些数据测量了受试者(两组)感知振动的能力。振动探针在皮肤上移动的位置越来越小,被摄对象指示他们何时感到振动。不幸的是,在高频率下,探头只能移动很短的距离,有时探头可以移动的最大距离仍然不足以使对象感知。因此,对于某些对象,我具有准确的阈值,但是对于一些从未感觉到振动的对象,我只是拥有一个我知道其阈值大于的值。有什么办法让我仍然包括这些数据吗?最好的分析方法是什么?

6
将n点李克特量表数据视为来自二项式过程的n次试验是否合适?
我从来没有喜欢过人们通常如何分析李克特量表的数据,就像人们有合理的期望至少在量表的极端情况下违反了这些假设一样,误差是连续的和高斯的。您如何看待以下替代方案: 如果响应在n点尺度上取值为,则将该数据扩展到n个试验,其中k 个试验的值为1,n - k其试验的值为0。因此,我们将李克特量表的响应视为如果它是一系列二项式试验的秘密集合(实际上,从认知科学的角度来看,这实际上是此类决策场景中所涉及机制的吸引人模型)。使用扩展的数据,您现在可以使用混合效应模型,将响应者指定为随机效应(如果有多个问题,还可以将问题指定为随机效应),并使用二项式链接函数指定误差分布。ķkkñnnñnnķkkn − kn−kn-k 任何人都可以看到这种方法的任何假设违规或其他有害方面吗?

1
为什么Anova()和drop1()为GLMM提供了不同的答案?
我有以下形式的GLMM: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) 当我使用时drop1(model, test="Chi"),我得到的结果与Anova(model, type="III")从汽车包装或汽车上获得的结果不同summary(model)。后两个给出相同的答案。 通过使用大量虚构数据,我发现这两种方法通常没有区别。对于平衡线性模型,不平衡线性模型(不同组中的n不相等)和平衡广义线性模型,它们给出相同的答案,但对于平衡广义线性混合模型,它们给出相同的答案。因此看来,只有在包括随机因素的情况下,这种矛盾才会显现出来。 为什么这两种方法之间存在差异? 使用GLMM时应使用Anova()还是drop1()应使用? 至少就我的数据而言,两者之间的差异很小。哪一个使用都重要吗?
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

3
非随机样本的随机化
我总是对参加实验研究的心理广告感到惊讶。可以肯定的是,对这些广告做出回应的人们并不是随机抽样的,因此是一个自我选择的人群。 因为众所周知,随机化解决了自选问题,所以我想知道非随机样本的随机化是否真的改变了一切。 你怎么看 ?而且,我们应该基于大量自选样本对所有这些心理实验做些什么?

1
EFA显然支持单一因素,措施在内部是一致的,但是CFA是否适合?
我正在探索一项10项自我报告测评的心理测量特性。我有两个独立样本中的大约400个案例。这些项目以4点李克特量表完成。全民教育显然支持单因素解决方案(例如,第一特征值超过6,所有其他本征值低于1),而克朗巴赫的alpha值很好(例如.90)。没有项目具有较低的项目-总相关性。 我最初想做一个CFA(EFA只是我发现CFA不好之后的后续工作),测试一个单因素模型。令我惊讶的是,该模型的适用性相对较差: CFI=.91 TLI=.88 RMSEA=.13 此外,每个项目的负载都非常好(.65+)。 奇怪的是SRMR=.05,这是可以接受的/很好。 修改索引建议我将各地的错误相关联。如果有明确的理由这样做(例如,某些项目的措词非常相似),我会这样做;但是,所有度量的措词都类似,并且将所有错误术语关联起来将是奇怪而痛苦的。 我从未见过这样的情况。这项措施在内部是一致的,显然是全民教育中的一个因素,但在CFA中显示不佳。在两个独立的样本(来自不同大陆)中,结果是一致的。我尝试了两因素CFA(将5个随机项目分组),拟合度相同,甚至略胜一筹。 这是我的问题: 考虑到EFA / Cronbach alpha /因子负荷,为什么CFI / TLI / RMSEA的拟合度如此差? 为什么SRMR好,而其他指数却不好?我知道他们会衡量不同的事物,但以我的经验,他们几乎总是会聚在一起。 我应该关联一些错误吗? 示例项目: 你有缺点的想法 您的想法很难忘记 你一直在想情况
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.