欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 汽车 > 时评 > 【数据分析】线性及逻辑回归模型和Python实现

【数据分析】线性及逻辑回归模型和Python实现

2025/2/23 7:15:06 来源:https://blog.csdn.net/2301_81874719/article/details/139723267  浏览:    关键词:【数据分析】线性及逻辑回归模型和Python实现
各位大佬好 ,这里是阿川的博客,祝您变得更强

在这里插入图片描述 个人主页:在线OJ的阿川

大佬的支持和鼓励,将是我成长路上最大的动力在这里插入图片描述

阿川水平有限,如有错误,欢迎大佬指正在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

Python 初阶
Python–语言基础与由来介绍
Python–注意事项
Python–语句与众所周知
数据清洗前 基本技能
数据分析—技术栈和开发环境搭建
数据分析—Numpy和Pandas库基本用法及实例
回归模型前 必看
数据分析—三前奏:获取/ 读取/ 评估数据
数据分析—数据清洗操作及众所周知
数据分析—数据整理操作及众所周知
数据分析—统计学基础及Python具体实现
数据分析—数据可视化Python实现超详解
数据分析—推断统计学及Python实现

目录

  • 线性回归模型简介
    • 相关关系
    • 相关系数r
    • 共线性问题
    • 回归线
    • 残差
    • 拟合目标
    • 线性回归模型预测拟合度
    • 虚拟变量
  • 逻辑回归模型简介
    • 拟合程度
    • 最优参数值
  • 线性回归Python具体实现
  • 逻辑回归Python具体实现

回归模型机器学习中很重要的一个数学模型
机器学习

  • 简单线性回归
  • 多元线性回归
  • 逻辑回归

在这里插入图片描述

线性回归模型简介

相关关系

  • 正相关
  • 负相关
  • 不相关

在这里插入图片描述

相关系数r

  • 研究变量之间 线性关系相关程度
    • 即衡量已知数据相关性
  • 接近1,表示越接近线性正相关
  • 接近-1,表示越接近线性负相关
  • 接近0,表示越接近线性不相关

在这里插入图片描述

r = n ∑ x y − ( ∑ x ) ( ∑ y ) [ n ∑ x 2 − ( ∑ x ) 2 ] [ n ∑ y 2 − ( ∑ y ) 2 ] r=\frac{n\sum xy-(\sum x)(\sum y)}{\sqrt{[n\sum x^2-(\sum x)^2][n\sum y^2-(\sum y)^2]}} r=[nx2(x)2][ny2(y)2] nxy(x)(y)
r皮尔逊积矩相关系数,表示两个变量间的线性关系强度方向,其阈值为[-1,1]
x:通常作为自变量
y:通常作为因变量
∑ \sum 求和符号,表示加和一系列数值

多元线性回归中发现两个自变量相关系数r绝对值大去除其中的一个自变量
例如:超过0.8或0.9可以考虑移除其中一个

  • 因为一般认为相关系数大于0.8及以上,会导致严重共线性问题

共线性问题

  • 若本身两个变量间高度相关的,而处理过程中将两个变量认为不相关/相互独立的,会导致 系数估计不准确,从而对预测产生影响
    例如:若男性和女性两个变量分别设置两个虚拟变量,会导致共线性问题
    • 因为男和女这两个变量本身是高度相关的,所以设置一个虚拟变量(1设成男,0设成女或者1设成男,0设成女),且当知道N-1虚拟变量值时,可以直接推导出第n个值说明他们之间存在相关联设第n个虚拟变量是没必要的,会导致共线性问题

回归线

  • 拟合图中的数据点,尽可能的去靠近图中每个数据点的直线

在这里插入图片描述

残差

  • 回归线的实际观测值与估计值(拟合值)之间的

在这里插入图片描述

拟合目标

  • 所有残差平方和最小

更专业的术语

  • 最小二乘法
    • 通过最小化残差平方和来找到最好的模型参数

除了相关系数r 也要关注 p值
独立双样本t/z检验中有一个叫做p值
p值小拒绝原假设

  • 自变量对因变量有统计显著性影响
    • 自变量对因变量有显著预测作用

p值大接受原假设

  • 自变量对因变量无统计显著性影响
    • 自变量对因变量无显著预测作用

在这里插入图片描述

p值大的自变量可选择剔除(因为该自变量对因变量无显著预测作用),再进行多轮拟合,再反复调整去求截距和系数,可以降低对预测值的干扰误导

线性回归模型预测拟合度

R2 衡量线性回归模型整体预测拟合度

  • R2范围值 [0,1]
    • 接近 1,说明模型的预测值与实际观察值相差越小,使得线性回归模型整体和实际高拟合
    • 接近 0,说明模型的预测值与实际观察值相差越大,使得线性回归模型整体和实际低拟合

在这里插入图片描述

R 2 = 1 − ∑ i = 1 n ( y i − y ^ i ) 2 ∑ i = 1 n ( y i − y ˉ ) 2 R^2=1-\frac{\sum_{i=1}^{n} (y_i-\hat{y}_i)^2} {\sum_{i=1}^{n}(y_i-\bar{y})^2} R2=1i=1n(yiyˉ)2i=1n(yiy^i)2
y i y_i yi第i个观测因变量值
y ˉ \bar{y} yˉ所有观测因变量值的平均值
y ^ i \hat{y}_i y^i:由模型给出第i个观测的观测因变量值

虚拟变量

在线性回归模型中表示分类变量引入虚拟变量

  • 只取0和1这两个值的变量

根据分类的类别,若有n种类型,则引入n-1个虚拟变量

  • 引入n个虚拟变量,则会引起共线性问题

pd.get_dummies(DataFrame名, columns=[" 分类变量"], dtype=int, drop_first)分类变量 转化虚拟变量0/1,且删除 第1个引用的虚拟变量(从而保持 n-1个虚拟变量
在这里插入图片描述

逻辑回归模型简介

逻辑回归

  • 处理二分类问题在零和一之间
    • 设置阈值,一般为0.5,但可以根据具体情况来调整阈值

在这里插入图片描述

拟合程度

最大似然估计

  • 需要用到数值优化算法(例如其中的梯度下降等)来寻找最优参数值

在这里插入图片描述

需要排除 高度相关的变量否则导致数值优化算法无法收敛的问题,无法计算模型参数值

最优参数值

  • 在这参数值下观察到的样本出现概率是最大的,从而让模型预测和样本之间差距越小

求出最优参数值看p值
自变量系数值,然后自然常数e 求系数的那个值的次方反映的是自变量对因变量的倍数影响
在这里插入图片描述

线性回归Python具体实现

简单线性回归 y=b0+mx

  • 预测未知数据 自变量值预测因变量值
    • 因变量受到一个自变量影响

在这里插入图片描述

多元线性回归 y=b0+b1x+b2x+…+bnxn

  • 因变量 受到 多个自变量影响
    • 自变量应该相互独立不应该高度相关
      • 否则导致系数估计不准确

在这里插入图片描述

y = b 0 + m x y= b_{0}+mx y=b0+mx
或者
y = b 0 + b 1 x + + b 2 x + . . + b n x n y= b_{0}+b_1x++b_2x+..+b_nx_n y=b0+b1x++b2x+..+bnxn
b = ∑ y i − m ( ∑ x i ) n b=\frac{\sum y_i-m(\sum x_i)}{n} b=nyim(xi)
m = n ( ∑ x i y i ) − ( ∑ x i ) n ( ∑ x i 2 ) − ( ∑ x i ) 2 m=\frac{n(\sum x_iy_i)-(\sum x_i)}{ n(\sum x_i^2)-(\sum x_i)^2} m=n(xi2)(xi)2n(xiyi)(xi)
y因变量
b 0 b_0 b0y轴截距,可以视为 与常量1相乘

m, b 1 b_1 b1, b 2 b_2 b2 b n b_n bn斜率也称系数
x自变量
x i x_i xi第i个观测自变量值
y i y_i yi第i个观测因变量值

安装 statsmodels库,并引入模块import statsmodels.api as sm

在这里插入图片描述

在这里插入图片描述

y=DataFrame名[" "] 提取因变量
x=DataFrame名.drop[" ",axis=1] 删除掉因变量从而提取自变量
或者
x=DataFrame名[[" "]] 选择提取自变量

在这里插入图片描述

自变量1.corr(自变量2) 验证自变量间相关性

  • 结果越接近1 说明越相关
  • 结果越接近0 说明越不相关
    或者

DataFrame名.corr() 自动对各变量之间找相关系数

在这里插入图片描述

.abs() 得到所有元素绝对值

  • 还可以搭配热力图heatmap,一眼看出颜色深浅

在这里插入图片描述

相关系数0.8作为阈值,进行筛选相关自变量确保不会导致共线性问题然后开始求截距
sm.add_constant(参数) 将截距常量1纳入模型

在这里插入图片描述

sm.OLS(因变量,自变量) 最小二乘法
.fit() 对数据进行拟合并生成一个实例
.summery() 对实例进行展示
在这里插入图片描述
当得到线性回归模型后进行预测

pd.Categorical(DataFrame[分类变量], categories=[" "])分类变量 转化为category类型

  • categories 该参数可以告诉系统虚拟变量的全部类型

get_dummies()分类变量转化虚拟变量

在这里插入图片描述

线性回归模型.predict(传入包含所有自变量的DataFrame) 预测模型

  • 要求每列都是 模型中的自变量(不多不少),这样每行才是一个要预测的观测值

在这里插入图片描述

结构流程图
在这里插入图片描述

在模型中没有标准答案,去尝试调整验证模型

逻辑回归Python具体实现

逻辑回归 l o g ( p 1 − p ) = b 0 + b 1 x + b 2 x + . . + b n x n log(\frac{p}{1-p})=b_0+b_1x+b_2x+..+b_nx_n log(1pp)=b0+b1x+b2x+..+bnxn

在这里插入图片描述

l o g ( p 1 − p ) = b 0 + b 1 x + b 2 x + . . + b n x n log(\frac{p}{1-p})=b_0+b_1x+b_2x+..+b_nx_n log(1pp)=b0+b1x+b2x+..+bnxn
p = 1 1 + e − ( b 0 + b 1 x + b 2 x + . . + b n x n ) p=\frac{1}{1+e^{-(b_0+b_1x+b_2x+..+b_nx_n)}} p=1+e(b0+b1x+b2x+..+bnxn)1
p因变量y=1的概率( y是二元变量,只能取0或1
x 1 x_1 x1, x 2 x_2 x2, x 3 x_3 x3,… x n x_n xn预测变量
b 0 b_0 b0, b 1 b_1 b1, b 2 b_2 b2,…, b n b_n bn回归系数
先导入模板import statsmodels.api as sm

在这里插入图片描述

pd.get_dummiesDataFrame, columns=[" 分类变量"], dtype=int, drop_first)将分类变量转化为虚拟变量
.corr() 排除共线性问题
.abs() 转化为绝对值
sm.add_constant() 截距常量1纳入模型

在这里插入图片描述

sm.Logit(因变量,自变量) 最大似然估计
.fit() 对数据进行拟合并生成实例
.summary() 查看输出
先看p值看哪些变量没有显著预测作用,一般设置阈值0.05再看 codf系数,要将该系数翻译成自然语言e的倍数
np.exp() 计算e的多少次方
.predict() 预测模型
在这里插入图片描述

在这里插入图片描述

好的,到此为止啦,祝您变得更强

在这里插入图片描述
想说的话

实不相瞒,这篇博客写了9个小时以上(加上自己学习了三遍和纸质笔记,共十一小时吧),很累希望大佬支持

在这里插入图片描述

道阻且长 行则将至

个人主页:在线OJ的阿川大佬的支持和鼓励,将是我成长路上最大的动力 在这里插入图片描述

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词