线性回归怎么求解

2024-05-12 10:11

1. 线性回归怎么求解

1、r=∑(Xi-X)(Yi-Y)/根号[∑(Xi-X)²×∑(Yi-Y)²]
上式中”∑”表示从i=1到i=n求和;X,Y分别表示Xi,Yi的平均数。
2、简单线性回归用于计算两个连续型变量(如X,Y)之间的线性关系,
具体地说就是计算下面公式中的α和βα和β。
Y=α+βX+εY=α+βX+ε
其中εε称为残差,服从从N(0,σ2)N(0,σ2)的正态分布,自由度为(n-1) - (2-1) = n-2 为了找到这条直线的位置,我们使用最小二乘法(least squares approach)。
最小二乘法确保所有点处的残差的平方和最小时计算α和βα和β,即下面示意图中∑4i=1ε2i=ε21+ε22+ε23+ε24∑i=14εi2=ε12+ε22+ε32+ε42有最小值。

扩展资料:
线性回归有很多实际用途。分为以下两大类:
1、如果目标是预测或者映射,线性回归可以用来对观测数据集的和X的值拟合出一个预测模型。当完成这样一个模型以后,对于一个新增的X值,在没有给定与它相配对的y的情况下,可以用这个拟合过的模型预测出一个y值。
给定一个变量y和一些变量X1,...,Xp,这些变量有可能与y相关,线性回归分析可以用来量化y与Xj之间相关性的强度,评估出与y不相关的Xj,并识别出哪些Xj的子集包含了关于y的冗余信息。
2、趋势线
一条趋势线代表着时间序列数据的长期走势。它告诉我们一组特定数据(如GDP、石油价格和股票价格)是否在一段时期内增长或下降。虽然我们可以用肉眼观察数据点在坐标系的位置大体画出趋势线,更恰当的方法是利用线性回归计算出趋势线的位置和斜率。
参考资料来源:百度百科—线性回归

线性回归怎么求解

2. 线性回归解决什么问题

问题一:线性回归方程需要注意哪些问题,如何处理  建立回归方程应注意以下几点: 
  (1)讨论的问题要有意义,回归方程的选择要符合实际需要。 
  (2)拟合都是在一定范围内进行的,即在我们处理的数据的范围内。不能把我们得到的回归方程任意扩大范围。比如,我们处理人的身高和体重,其身高在1.6―1.9米。它们的关系可以近似是一条直线,但是超出这个范围,例如身高2米以上,就可能就是一条曲线。 
  (3)由最小二乘法的解法,不难看出,x关于y的回归方程,与y关于x的回归方程不是互为反函数的关系。这在中学无需讨论,但教师应该有所了解。 (4)得到了回归方程bxay??后,可以用它来作预报和控制。预报是指给定x的值代入回归方程,得到y的预报值。控制是指,要求y达到某一确定的值,利用回归方程确定x的值 
  
   问题二:回归分析能解决哪些问题?  找出各数据之间的不确定关系,大致预测事物发展,模拟各种因素对因变量的影响等等最重要的用途是:高考要考!!!!!!! 
  
   问题三:多元线性回归分析要解决的主要问题是什么  主要解决的是两组变量之间的因果关系 
  
   问题四:多元线性回归分析的优缺点  
  
   问题五:统计学 回归分析解决的问题有哪些  回归分析研究的主要问题是: 
  (1)确定Y与X间的定量关系表达式,这种表达式称为回归方程; 
  (2)对求得的回归方程的可信度进行检验; 
  (3)判断自变量X对因变量Y有无影响; 
  (4)利用所求得的回归方程进行预测和控制。 
  回归分析的主要内容为: 
  ①从一组数据出发,确定某些变量之间的定量关系式,即建立数学模型并估计其中的未知参数。估计参数的常用方法是最小二乘法。 
  ②对这些关系式的可信程度进行检验。 
  ③在许多自变量共同影响着一个因变量的关系中,判断哪个(或哪些)自变量的影响是显著的,哪些自变量的影响是不显著的,将影响显著的自变量入模型中,而剔除影响不显著的变量,通常用逐步回归、向前回归和向后回归等方法。 
  ④利用所求的关系式对某一生产过程进行预测或控制。回归分析的应用是非常广泛的,统计软件包使各种回归方法计算十分方便。 
  在回归分析中,把变量分为两类。一类是因变量,它们通常是实际问题中所关心的一类指标,通常用Y表示;而影响因变量取值的的另一类变量称为自变量,用X来表示。 
  
   问题六:应用直线相关与回归时应注意哪些问题  1、作回归分析要有实际意义,不能把毫无关联的两种现象,随意进行回归分析,忽视事物现象间的内在联系和规律;如对儿童身高与小树的生长数据进行回归分析既无道理也无用途。另外,即使两个变量间存在回归关系时,也不一定是因果关系,必须结合专业知识作出合理解释和结论。 
  2、直线回归分析的资料,一般要求应变量Y是来自正态总体的随机变量,自变量X可以是正态随机变量,也可以是精确测量和严密控制的值。若稍偏离要求时,一般对回归方程中参数的估计影响不大,但可能影响到标准差的估计,也会影响假设检验时P值的真实性。 
  3、进行回归分析时,应先绘制散点图(scatter plot)。若提示有直线趋势存在时,可作直线回归分析;若提示无明显线性趋势,则应根据散点分布类型,选择合适的曲线模型(curvilinear modal),经数据变换后,化为线性回归来解决。一般说,不满足线性条件的情形下去计算回归方程会毫无意义,最好采用非线性回归方程的方法进行分析。 
  4、绘制散点图后,若出现一些特大特小的离群值(异常点),则应及时复核检查,对由于测定、记录或计算机录入的错误数据,应予以修正和剔除。否则,异常点的存在会对回归方程中的系数a、b的估计产生较大影响。 
  5、回归直线不要外延。直线回归的适用范围一般以自变量取值范围为限,在此范围内求出的估计值称为内插(interpolation);超过自变量取值范围所计算的称为外延(extrapolation)。若无充足理由证明,超出自变量取值范围后直线回归关系仍成立时,应该避免随意外延。 
  
   问题七:一元线性回归能解决什么样的问题  也就能解决书上习题 
  
   问题八:请问,【线性拟合】与【线性回归】的区别是什么??  线性回归就是线性拟合,在统计的意义上是等价的。拟合就是为了找到那条,对所有点来说,残差平方和最小的直线,线性回归也是。 
  回归是国外的讲法叫regression,命名的统计学家是想说,这些点都围绕在一条看不见的直线,直线周围的点若偏离的大了感觉就有回归直线,向直线靠拢的趋势。 
  拟合是国内的传统讲法,用一条直线代替样本点,以达到预测的作用。 
  最后说一下线性这个概念,比如拟合每天学习时间和高考成绩,可能就是线性的。 
  但若拟合收入高低和幸福指数,那很可能就不是了,因为不是说赚的越高越高兴,而且可能到了很高的水平,收入增加了很多,却幸福不起来,数据有可能是指数,有可能是二次函数,这些都归为非线性。主要是线性这个性质非常友好,大家喜闻乐见,所以有了很多转换公式,把非线性的数据变换成线性,拟合出来再反变换回去。 
  
   问题九:下面哪些问题是回归分析要解决的问题  如果散点图中点的分布从整体看大致在一条直线附近,我们就称这两个变量之间具有线性相关关系,这条直线叫做回归直线.当所有数据点都分布在一条直线附近,显然这样的直线还可以画出许多条,而我们希望找出其中的一条,它能最好地反映x与Y的关系,换言之,我们要找出一条直线,使这条直线“最贴近”已知的数据点. 
  解:根据线性相关的意义知,当所有的数据在一条直线附近排列时,这些事件具有很强的线性相关关系. 
  ∵从人体脂肪含量与年龄散点图中,能比较清楚的表示人体脂肪含量与年龄的相关性的回归直线是:l1, 
  由于图中的散点大都分布在此直线两边.

3. 线性回归计算问题

y(x) = 0.3x + 30.7                              (1)
y(400) = 0.3×400+30.7 = 150.7          (2) 
既然已有回归方程(1)了,直接代入就可以了。
如果没有回归方程(1),但给出了数据,那么可以
找出回归方程:Y = 0.3055X + 27.3     (3)
                         R=0.9994
                         Y(400)=149.5             (4)   
与(2)相差无几。看图:

线性回归计算问题

4. 线性回归怎么解

线性回归方程公式:b=(x1y1+x2y2+...xnyn-nXY)/(x1+x2+...xn-nX)。线性回归方程是利用数理统计中的回归分析,来确定两种或两种以上变数间相互依赖的定量关系的一种统计分析方法之一,应用十分广泛。
一、概念
线性回归方程中变量的相关关系最为简单的是线性相关关系,设随机变量与变量之间存在线性相关关系,则由试验数据得到的点,将散布在某一直线周围。因此,可以认为关于的回归函数的类型为线性函数。
分析按照自变量和因变量之间的关系类型,可分为线性回归分析和非线性回归分析。如果在回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。

二、计算方法
线性回归方程公式求法:
第一:用所给样本求出两个相关变量的(算术)平均值:
x_=(x1+x2+x3+...+xn)/n
y_=(y1+y2+y3+...+yn)/n
第二:分别计算分子和分母:(两个公式任选其一)
分子=(x1y1+x2y2+x3y3+...+xnyn)-nx_Y_
分母=(x1^2+x2^2+x3^2+...+xn^2)-n*x_^2
第三:计算b:b=分子/分母
用最小二乘法估计参数b,设服从正态分布,分别求对a、b的偏导数并令它们等于零,得方程组解为

其中,且为观测值的样本方差.线性方程称为关于的线性回归方程,称为回归系数,对应的直线称为回归直线.顺便指出,将来还需用到,其中为观测值的样本方差。
先求x,y的平均值X,Y
再用公式代入求解:b=(x1y1+x2y2+...xnyn-nXY)/(x1+x2+...xn-nX)
后把x,y的平均数X,Y代入a=Y-bX
求出a并代入总的公式y=bx+a得到线性回归方程
(X为xi的平均数,Y为yi的平均数)
三、应用
线性回归方程是回归分析中第一种经过严格研究并在实际应用中广泛使用的类型。这是因为线性依赖于其未知参数的模型比非线性依赖于其位置参数的模型更容易拟合,而且产生的估计的统计特性也更容易确定。
线性回归有很多实际用途。分为以下两大类:
如果目标是预测或者映射,线性回归可以用来对观测数据集的和X的值拟合出一个预测模型。当完成这样一个模型以后,对于一个新增的X值,在没有给定与它相配对的y的情况下,可以用这个拟合过的模型预测出一个y值。
给定一个变量y和一些变量X1,...,Xp,这些变量有可能与y相关,线性回归分析可以用来量化y与Xj之间相关性的强度,评估出与y不相关的Xj,并识别出哪些Xj的子集包含了关于y的冗余信息。

在线性回归中,数据使用线性预测函数来建模,并且未知的模型参数也是通过数据来估计。这些模型被叫做线性模型。最常用的线性回归建模是给定X值的y的条件均值是X的仿射函数。
不太一般的情况,线性回归模型可以是一个中位数或一些其他的给定X的条件下y的条件分布的分位数作为X的线性函数表示。像所有形式的回归分析一样,线性回归也把焦点放在给定X值的y的条件概率分布,而不是X和y的联合概率分布。

5. 关于线性回归

你对解题有误解。这里只是在讲解如何做线性回归的解题方法,并没有讲不是线性相关的变量减去中位数就变成了线性相关了。
 
问题中要求(指定)的是用“线性回归​”归纳(预测)出2012年的需求量,给出了过去10年(每隔两年)的实际需求的量,并没有讲过去隔年的量之间有什么相关性。如果直接用原始数据去用线性回归时,计算比较繁杂,所以推荐用“增量”来做回归计算。
 
作为增量的计算,需要有一个参考基准值,为了使计算数据尽可能的小(一位数的计算要比两位,多位数的计算方便),所以采用“中间数”作为基准,前后年的数用相对“中间数”的增量来表示,意义不变,但实际的计算就方便了很多。
 
讲解的只是一种技巧而以.

关于线性回归

6. 线性回归

 

7. 线性回归

回归得y(万元)=48*x(年)-95516
当x=2005时 y=724万元

线性回归

8. 线性回归法

在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。(这反过来又应当由多个相关的因变量预测的多元线性回归区别,而不是一个单一的标量变量。)
回归分析中有多个自变量:这里有一个原则问题,这些自变量的重要性,究竟谁是最重要,谁是比较重要,谁是不重要。所以,spss线性回归有一个和逐步判别分析的等价的设置。
原理:是F检验。spss中的操作是“分析”~“回归”~“线性”主对话框方法框中需先选定“逐步”方法~“选项”子对话框
如果是选择“用F检验的概率值”,越小代表这个变量越容易进入方程。原因是这个变量的F检验的概率小,说明它显著,也就是这个变量对回归方程的贡献越大,进一步说就是该变量被引入回归方程的资格越大。究其根本,就是零假设分水岭,例如要是把进入设为0.05,大于它说明接受零假设,这个变量对回归方程没有什么重要性,但是一旦小于0.05,说明,这个变量很重要应该引起注意。这个0.05就是进入回归方程的通行证。
下一步:“移除”选项:如果一个自变量F检验的P值也就是概率值大于移除中所设置的值,这个变量就要被移除回归方程。spss回归分析也就是把自变量作为一组待选的商品,高于这个价就不要,低于一个比这个价小一些的就买来。所以“移除”中的值要大于“进入”中的值,默认“进入”值为0.05,“移除”值为0.10
如果,使用“采用F值”作为判据,整个情况就颠倒了,“进入”值大于“移除”值,并且是自变量的进入值需要大于设定值才能进入回归方程。这里的原因就是F检验原理的计算公式。所以才有这样的差别。
结果:如同判别分析的逐步方法,表格中给出所有自变量进入回归方程情况。这个表格的标志是,第一列写着拟合步骤编号,第二列写着每步进入回归方程的编号,第三列写着从回归方程中剔除的自变量。第四列写着自变量引入或者剔除的判据,下面跟着一堆文字。