欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 房产 > 建筑 > 《GBDT 算法的原理推导》 11-12计算损失函数的负梯度 公式解析

《GBDT 算法的原理推导》 11-12计算损失函数的负梯度 公式解析

2025/2/3 4:33:36 来源:https://blog.csdn.net/u013172930/article/details/143453503  浏览:    关键词:《GBDT 算法的原理推导》 11-12计算损失函数的负梯度 公式解析

本文是将文章《GBDT 算法的原理推导》中的公式单独拿出来做一个详细的解析,便于初学者更好的理解。


公式(11-12)是GBDT算法中非常关键的一步,它表示了如何通过计算损失函数的负梯度来指导下一棵树的生长。

公式(11-12)如下:

r m i = − [ ∂ L ( y i , f ( x i ) ) ∂ f ( x i ) ] f ( x ) = f m − 1 ( x ) r_{mi} = - \left[ \frac{\partial L(y_i, f(x_i))}{\partial f(x_i)} \right]_{f(x) = f_{m-1}(x)} rmi=[f(xi)L(yi,f(xi))]f(x)=fm1(x)

1. 公式的背景

在GBDT中,我们的目标是最小化一个损失函数 L ( y , f ( x ) ) L(y, f(x)) L(y,f(x)),其中:

  • y y y 是真实值,
  • f ( x ) f(x) f(x) 是模型的预测值。

每一轮 m m m 的模型 f m ( x ) f_m(x) fm(x) 是在前一轮的基础上进行改进的,即:

f m ( x ) = f m − 1 ( x ) + T ( x ; Θ m ) f_m(x) = f_{m-1}(x) + T(x; \Theta_m) fm(x)=fm1(x)+T(x;Θm)

这里的 T ( x ; Θ m ) T(x; \Theta_m) T(x;Θm) 是新增的树,我们希望它能纠正前一轮模型 f m − 1 ( x ) f_{m-1}(x) fm1(x) 的误差。

2. 负梯度的意义

为了指导新树的构建,我们需要让新树 T ( x ; Θ m ) T(x; \Theta_m) T(x;Θm) 能够减少当前模型 f m − 1 ( x ) f_{m-1}(x) fm1(x) 的误差。GBDT使用了一个关键的技巧:用损失函数的负梯度来近似每个样本的残差,即误差。

  • 损失函数的负梯度表示模型需要改进的方向。通过沿着负梯度的方向优化,我们可以使得损失逐步减小。
  • 具体来说,公式(11-12)中的 r m i r_{mi} rmi 是第 m m m 轮中第 i i i 个样本的负梯度,它表示当前模型对该样本的误差方向和大小。

3. 公式(11-12)的含义

公式(11-12)中的 r m i r_{mi} rmi 是针对第 m m m 轮中第 i i i 个样本计算的负梯度:

r m i = − [ ∂ L ( y i , f ( x i ) ) ∂ f ( x i ) ] f ( x ) = f m − 1 ( x ) r_{mi} = - \left[ \frac{\partial L(y_i, f(x_i))}{\partial f(x_i)} \right]_{f(x) = f_{m-1}(x)} rmi=[f(xi)L(yi,f(xi))]f(x)=fm1(x)

其中:

  • L ( y i , f ( x i ) ) L(y_i, f(x_i)) L(yi,f(xi)) 是损失函数,表示模型预测 f ( x i ) f(x_i) f(xi) 与真实值 y i y_i yi 之间的误差。
  • ∂ L ( y i , f ( x i ) ) ∂ f ( x i ) \frac{\partial L(y_i, f(x_i))}{\partial f(x_i)} f(xi)L(yi,f(xi)) 是损失函数关于模型输出 f ( x i ) f(x_i) f(xi) 的偏导数。偏导数表示的是损失函数在 f ( x i ) f(x_i) f(xi) 处的变化趋势。
  • 负号 − - 表示我们要沿着负梯度方向去优化,即在模型的当前输出基础上减少误差。

因此, r m i r_{mi} rmi 表示的是在第 m m m 轮中,第 i i i 个样本的当前模型预测值与真实值之间的差异(残差)的一个估计,并且这个估计是基于损失函数的梯度计算的。

4. 负梯度用于训练新树

在GBDT的第 m m m 轮中,新树 T ( x ; Θ m ) T(x; \Theta_m) T(x;Θm) 是通过拟合所有样本的负梯度 r m i r_{mi} rmi 来生成的。也就是说,这棵新树的任务是尽可能准确地拟合当前模型的“误差”部分,从而在下一轮更新中进一步减少总损失。

5. 举个例子

假设我们使用的是平方损失函数:

L ( y i , f ( x i ) ) = 1 2 ( y i − f ( x i ) ) 2 L(y_i, f(x_i)) = \frac{1}{2} (y_i - f(x_i))^2 L(yi,f(xi))=21(yif(xi))2

那么,损失函数对于 f ( x i ) f(x_i) f(xi) 的导数是:

∂ L ( y i , f ( x i ) ) ∂ f ( x i ) = f ( x i ) − y i \frac{\partial L(y_i, f(x_i))}{\partial f(x_i)} = f(x_i) - y_i f(xi)L(yi,f(xi))=f(xi)yi

因此,在平方损失的情况下,公式(11-12)中的负梯度就是:

r m i = − ( f m − 1 ( x i ) − y i ) = y i − f m − 1 ( x i ) r_{mi} = - (f_{m-1}(x_i) - y_i) = y_i - f_{m-1}(x_i) rmi=(fm1(xi)yi)=yifm1(xi)

这表示负梯度等于当前模型的残差 y i − f m − 1 ( x i ) y_i - f_{m-1}(x_i) yifm1(xi),即真实值和预测值的差值。因此,新的树会拟合这个残差,从而在下一轮更新时使模型预测值更接近真实值。

总结

公式(11-12)表示,GBDT中的每一轮迭代都使用当前模型的损失函数负梯度作为新的目标值,以此指导下一棵树的生成。这种方法使得每一棵新树都在不断纠正前面模型的不足,逐步提升整体模型的性能。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com