seo站点,新型建站技术,wordpress 微信商城,wordpress怎么禁止更新相关性分析和假设检验 相关性系数的作用Pearson相关系数判断线性关系插播#xff1a;spss中的描述性统计计算相关性对皮尔逊系数进行假设检验条件步骤 MATLAB获取P#xff08;没用#xff09;SPSS自动生成 正态分布判定偏度和峰度 J B JB JB检验#xff08;大样本30spss中的描述性统计计算相关性对皮尔逊系数进行假设检验条件步骤 MATLAB获取P没用SPSS自动生成 正态分布判定偏度和峰度 J B JB JB检验大样本30Shapiro‐wilk夏皮洛‐威尔克检验(小样本3≤n≤50)Q-Q图 斯皮尔曼spearman相关系数定义含义假设检验方法 两种假设检验的选择 相关性系数的作用
相关性系数是研究变量之间线性相关程度的量。
我的理解
在分析数据时我们往往想知道我们的结果量和什么指标相关性较强例如假设身高和饮食运动相关倒是如果我们想知道这两个变量和哪个和对于身高更有影响力我们就需要使用一个评价指标进行判段若运动正相关系数大那么我们就应该更加关注运动量来达到我们张身高的需求。
Pearson相关系数
对于两个数据样本 X : { X 1 , X 2 . . . X n } , Y : { Y 1 , Y 2 , . . . Y n } X:\{X_1,X_2...X_n\},Y:\{Y_1,Y_2,...Y_n\} X:{X1,X2...Xn},Y:{Y1,Y2,...Yn}
总体均值 E ( X ) ∑ i 1 n X i n , E ( Y ) ∑ i 1 n Y i n E(X)\frac{\sum_{i1}^{n} X_{i}}{n}, E(Y)\frac{\sum_{i1}^{n} Y_{i}}{n} E(X)n∑i1nXi,E(Y)n∑i1nYi
总体样本标准差衡量数据之间的离散程度 σ X ∑ i 1 n ( X i − E ( X ) ) 2 n , σ Y ∑ i 1 n ( Y i − E ( Y ) ) 2 n \sigma_{X}\sqrt{\frac{\sum_{i1}^{n}\left(X_{i}-E(X)\right)^{2}}{n}}, \sigma_{Y}\sqrt{\frac{\sum_{i1}^{n}\left(Y_{i}-E(Y)\right)^{2}}{n}} σXn∑i1n(Xi−E(X))2 ,σYn∑i1n(Yi−E(Y))2
总体协方差当关系为线性关系时衡量参数之间的变化方向值的大小受标准差影响。 Cov ( X , Y ) ∑ i 1 n ( X i − E ( X ) ) ( Y i − E ( Y ) ) n \operatorname{Cov}(X, Y)\frac{\sum_{i1}^{n}\left(X_{i}-E(X)\right)\left(Y_{i}-E(Y)\right)}{n} Cov(X,Y)n∑i1n(Xi−E(X))(Yi−E(Y))
总体Pearson相关系数在协方差基础之上除以方差相当于归一化 ρ X Y Cov ( X , Y ) σ X σ Y ∑ i 1 n ( X i − E ( X ) ) σ X ( Y i − E ( Y ) ) σ Y n \rho_{X Y}\frac{\operatorname{Cov}(X, Y)}{\sigma_{X} \sigma_{Y}}\frac{\sum_{i1}^{n} \frac{\left(X_{i}-E(X)\right)}{\sigma_{X}} \frac{\left(Y_{i}-E(Y)\right)}{\sigma_{Y}}}{n} ρXYσXσYCov(X,Y)n∑i1nσX(Xi−E(X))σY(Yi−E(Y))
Pearson相关系数性质也就是说当 ρ X Y \rho_{X Y} ρXY正就是正相关负就是负相关。根据值不同相关程度也不同 可以证明, ∣ ρ X Y ∣ ≤ 1 , 且当 Y a X b 时, ρ X Y { 1 , a 0 − 1 , a 0 \text { 可以证明, }\left|\rho_{X Y}\right| \leq 1, \text { 且当 } Ya Xb \text { 时, } \rho_{X Y}\left\{\begin{array}{cc} 1, a0 \\ -1, a0 \end{array}\right. 可以证明, ∣ρXY∣≤1, 且当 YaXb 时, ρXY{1,−1,a0a0
实际上对于样本协方差和总体样本协方差有一些不同标准差相差 n − 1 n \frac{n-1}{n} nn−1倍不在解释属于概率论基础知识。
判断线性关系
我们知道只有在两个变量之间存在线性关系时才能使用Pearson系数所以说数据是否为线性关系非常重要。 为什么非要线性关系呢直观的看一下 当数据非线性时虽然Pearson相关系数较大但是我们的线性关系并未很好的解释两个变量之间的关系出现Pearson相关系数虚高的情况我们的Pearson相关系数仅仅是为了解释线性关系变量之间的线性程度所以说我们必须首先知道它们的关系是线性的。
另外并不是Pearson相关系数低就代表数据之间没有联系而是可能存在其他关系比如下图存在二次关系 所以说我们如何判断数据之间是否存在线性关系可以使用画图的方式大致查看 在spss中导入数据然后如下点击然后选择矩阵散点图就可以生成每个关系之间的数据散点图了 右点图片可以进行编辑图片操作。 插播spss中的描述性统计 计算相关性
数据A是
Rcorrcoef(A);
name{身高,体重,肺活量,50米跑,立定跳远,坐位体前屈};
heatmap(name,name,R,Colormap,parula);对皮尔逊系数进行假设检验
条件
第一 实验数据通常假设是成对的来自于正态分布的总体。 第二 实验数据之间的差距不能太大。皮尔逊相关性系数受异常值的影响比较 大。 第三每组样本之间是独立抽样的。构造t统计量时需要用到。
步骤
第一步提出原假设 H 0 H_{0} H0 和备择假设 H 1 H_{1} H1 两个假设是截然相反的哦 假设我们计算出了一个皮尔逊相关系数 r r r , 我们想检验它是否显著的异于 0 .那么我们可以这样设定原假设和备择假设: H 0 : r 0 , H 1 : r ≠ 0 H_{0}: r0, H_{1}: r \neq 0 H0:r0,H1:r0 第二步: 在原假设成立的条件下, 利用我们要检验的量构造出一个符合某一分布的统计量 (注 1: 统计量相当于我们要检验的量的一个函数, 里面不能有其他的随机变量) (注 2 : 这里的分布一般有四种: 标准正态分布、 t 分布、 χ 2 \chi^{2} χ2 分布和 F 分布) 对于皮尔逊相关系数 r 而言, 在满足一定条件下, 我们可以构造统计量: t r n − 2 1 − r 2 tr \sqrt{\frac{n-2}{1-r^{2}}} tr1−r2n−2 , 可以证明 t t t 是服从自由度为 n − 2 n-2 n−2 的 t t t 分布
第三步将我们要检验的这个值带入这个统计量中, 可以得到一个特定的值检验值。 假设我们现在计算出来的相关系数为 0.5 , 样本为 30 , 那么我们可以得到 t ∗ 0.5 30 − 2 1 − 0. 5 2 3.05505 t^{*}0.5 \sqrt{\frac{30-2}{1-0.5^{2}}}3.05505 t∗0.51−0.5230−2 3.05505 第四步: 由于我们知道统计量的分布情况, 因此我们可以画出该分布的概率密度函数 p d f p d f pdf , 并给定 一个置信水平, 根据这个置信水平查表找到临界值, 并画出检验统计量的接受域和拒绝域。 例如, 我们知道上述统计量服从自由度为 28 的 t 28 的 t 28的t 分布, 其概率密度函数图形如下: 第五步看我们计算出来的检验值是落在了拒绝域还是接受域, 并下结论。 因为我们得到的 t ∗ 3.05505 2.048 t^{*}3.055052.048 t∗3.055052.048 , 因此我们可以下结论: 在 95 % 95 \% 95% 的置信水平上, 我们拒绝原假设 H 0 : r 0 H_{0}: r0 H0:r0 因此 r r r 是显著的不为 0 0 0 的。
MATLAB获取P没用
[R,P]corrcoef(A);P就是我们的p值对应于在正太分布外的概率。
拒绝原假设就是在正太分布外围 SPSS自动生成
在spss中分析–相关–双变量中存在显著性相关性 相关性结果星号标出
正态分布判定
偏度和峰度 J B JB JB检验大样本30 [h,p] jbtest(A(:,1),0.05)
% 用循环检验所有列的数据
n_c size(A,2); % number of column 数据的列数
H zeros(1,n_c);
P zeros(1,n_c);
for i 1:n_c[h,p] jbtest(A(:,i),0.05);H(i)h;P(i)p;
end
disp(H);% [1 1 1 1 1 1]
disp(P);% [0.0110 0.0010 0.0136 0.0010 0.0010 0.0393]均为1表示接受了原假设,满足正态分布
Shapiro‐wilk夏皮洛‐威尔克检验(小样本3≤n≤50)Q-Q图
不找数据了直接用大样本
直接输出统计栏情况也输出Q-Q图判断正态性 Q-Q图
斯皮尔曼spearman相关系数
定义含义
定义: X 和 Y 为两组数据, 其斯皮尔曼 (等级) 相关系数: 1 − 6 ∑ i 1 n d i 2 n ( n 2 − 1 ) 1-\frac{6\sum_{i1}^{n} d_{i}^{2}}{n\left(n^{2}-1\right)} 1−n(n2−1)6∑i1ndi2
其中, d i d_{i} di 为 X i X_{i} Xi 和 Y i Y_{i} Yi 之间的等级差。(一个数的等级, 就是将它所在的一列数按照从小到大排序后, 这个数所在的位置) 可以证明: r s r_{s} rs 位于 − 1 和 1 -1 和 1 −1和1 之间。 注如果有的数值相同则将它们所在的位置取算术平均。 MATLAB代码
[R,P]corr(A,type,Spearman)这个和皮尔逊相关系数相似不过没有正态分布的限制条件。
假设检验方法
样本系数必须大于表中值才能得出显著结论 r s r_s rs就是斯皮尔曼相关系数 r s n − 1 r_s\sqrt{n-1} rsn−1 就是z值根据z值可以根据正态分布表算出p值。
1 - normcdf(z) * 2就是 p p p 值, p p p值大于0.05,因此我们无法拒绝原假设。
实际上可以自动生成p值
[R,P]corr(A,type,Spearman)R 是 相 关 系 数 P 是 p 值 R是相关系数P是p值 R是相关系数P是p值
两种假设检验的选择