误差平方和和回归平方和是统计学中用于衡量预测模型性能的两个指标,它们的区别如下:
误差平方和(Sum of Squares of Residuals, SSR):误差平方和衡量了预测值与实际观测值之间的差异程度。在回归分析中,预测模型的目标是尽可能减小观测值与预测值之间的误差,而误差平方和就是衡量这种误差差异的平方和。它的计算公式为:
SSR = Σ(观测值 - 预测值)²
回归平方和(Sum of Squares Total, SST):回归平方和衡量了因变量的总变异程度。它衡量了因变量的总方差,并与误差平方和一起用于计算拟合优度。回归平方和可以分解为两部分,即回归平方和与误差平方和之和。其计算公式为:
SST = SSR + SSE
其中,SSE代表误差平方和(Sum of Squares of Errors),表示观测值与其对应的回归模型预测值之间的误差的平方和。
回归平方和与误差平方和的比值被称为拟合优度(或决定系数),它表示了回归模型对因变量变异性的解释程度。拟合优度越接近1,说明回归模型能够较好地解释因变量的变异性。
总而言之,误差平方和衡量了模型预测值与实际观测值之间的差异,而回归平方和衡量了因变量的总变异程度,并与误差平方和一起用于计算拟合优度。
版权声明:本文来源于互联网,不代表本站立场与观点,吉贵常识网无任何盈利行为和商业用途,如有错误或侵犯利益请联系我们。