基本调用方法:
>> [b, bint, r, rint, s] = regress(y, xdata); % 调用regress函数作一元线性回归
>> yhat = xdata*b; % 计算y的估计值
B = REGRESS(Y,X)
返回值为线性模型Y = X*B的回归系数向量
X :n-by-p 矩阵,行对应于观测值,列对应于预测变量
Y :n-by-1 向量,观测值的响应(即因变量,译者注)
[B,BINT] = REGRESS(Y,X)
BINT:B的95%的置信区间矩阵。Bint 置信区间不大,说明有效性较好;若含零点,说明结果无效。
[B,BINT,R] = REGRESS(Y,X)
R:残差向量(因变量的真实值减去估计值)
[B,BINT,R,RINT] = REGRESS(Y,X)
RINT:返回残差的95%置信区间,它是一个2×n的矩阵,第1列为置信下限,第2列为置信上限。该矩阵可以用来诊断异常(即发现奇异观测值,译者注)。
如果第i组观测的残差的置信区间RINT(i,:)所定区间没有包含0,则第i个残差在默认的5%的显著性水平比我们所预期的要大,这可说明第i个观测值是个奇异点(即说明该点可能是错误而无意义的,如记录错误等,译者注)
[B,BINT,R,RINT,STATS] = REGRESS(Y,X)
STATS:向量,STATS中的4个值分别为:R2(判定系数),F(总模型的F测验值),P(总模型F的概率值P(F>Fz)),MSq(离回归方差或误差方差的估计值)。
判定系数(the Coefficient of the Determination)R2:是判断回归模型拟合程度的一个指标,其取值范围为[0, 1];判定系数越大说明回归模型的拟合程度越高,回归方程越显著。
F>F(1-α)(k, n-k-1)时拒绝H0,F越大,说明回归方程越显著。
与F对应的概率P<α时拒绝H0,回归模型成立。
MSq:由于最小二乘法中不求误差方差σ2,其误差平方和Msq定义为SSR/自由度,其中SSR为Regression Sum of Squares。
[B,BINT,R,RINT,STATS]=regress(Y,X, ALPHA)
用100*(1-ALPHA)%的置信水平来计算BINT,用(100*ALPHA)%的显著性水平来计算RINT。
PS. X应该包含一个全“1”的列,这样则该模型包含常数项。利用它实现X=[ones(size(x,1)) x]
Fz(总模型的F测验值)和p(总模型F的概率值P(F>Fz))是在模型有常数项的假设下计算的,如果模型没有常数项,则计算得的F统计量和p值是不正确的。
若模型没有常数项,则这个值可以为负值,这也表明这个模型对数据是不合适的。(即数据不适合用多元线性模型,译者注)
如果X的列是线性相关的,则REGRESS将使B的元素中“0”的数量尽量多,以此获得一个“基本解”,并且使B中元素“0”所对应的BINT元素为“0”。
REGRESS 将X或者Y中的NaNs当作缺失值处理,并且移除它们。
PPS. rcoplot(r,rint)
这是个画残差的函数,红色的表示超出期望值的数据。圆圈代表残差的值,竖线代表置信区间的范围。下载本文