回归分析的目的

回归分析的目的是确定两个变量之间的变动关系和用自变量推算因变量 。只有当变量与因变量确实存在某种关系时,建立的回归方程才有意义 。因此,作为自变量的因素与作为因变量的预测对象是否有关,相关程度如何,以及判断这种相关程度的把握性多大,就成为进行回归分析必须要解决的问题 。进行相关分析,一般要求出相关关系,以相关系数的大小来判断自变量和因变量的相关的程度 。
本视频由、、录制


【回归分析的目的】

回归分析的目的

文章插图
回归分析的目的是确定两个变量之间的变动关系和用自变量推算因变量 。只有当变量与因变量确实存在某种关系时,建立的回归方程才有意义 。因此,作为自变量的因素与作为因变量的预测对象是否有关,相关程度如何,以及判断这种相关程度的把握性多大,就成为进行回归分析必须要解决的问题 。进行相关分析,一般要求出相关关系,以相关系数的大小来判断自变量和因变量的相关的程度 。
按照自变量和因变量之间的关系类型,可分为线性回归分析和非线性回归分析 。
线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛 。其表达形式为y = w'x+e,e为误差服从均值为0的正态分布 。回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析 。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析 。
非线性回归是回归函数关于未知回归系数具有非线性结构的回归 。常用的处理方法有回归函数的线性迭代法、分段回归法、迭代最小二乘法等 。非线性回归分析的主要内容与线性回归分析相似 。