Gradient Descent for Logistic Regression|逻辑回归梯度下降

bolin
发布于 2025-06-26 / 5 阅读
0
0

Gradient Descent for Logistic Regression|逻辑回归梯度下降

一、逻辑回归梯度下降的定义

逻辑回归梯度下降是一种优化算法,通过迭代调整模型参数(权重 ww 和偏置 bb),最小化交叉熵损失函数,使预测概率逼近真实标签。其核心是计算损失函数的梯度,并沿梯度反方向更新参数,逐步降低预测误差。

通俗理解

想象蒙眼下山:

  1. 梯度就像你用脚试探出的“最陡方向”,告诉你往哪走能最快降低预测错误。

  2. 学习率是“步长”,步子太大会跨过最低点,太小则下山太慢。

  3. 每次更新相当于根据当前“踩点”(误差)调整下一步方向,直到踩到谷底(最优解)。


二、逻辑回归梯度下降实现

E9E692EF-4D2E-4CA0-BE1C-5E09F2F68098.png

642D29A6-B705-43D3-8FB4-31B6B7B6C429.png

  1. 代价函数
    图片顶部展示了逻辑回归的代价函数(交叉熵损失):

    C790BD27-85EC-4B46-9E62-706B4E09F154.png

  2. 梯度下降更新规则

    • 对参数 wj 和 b 的同步更新:

      B335449C-9EB5-4EB1-9055-E61E0735D049.png

    • 其中 α 是学习率,控制更新步长。

  3. 偏导数计算

    • 权重 wj 的梯度:

      ADD114EC-514B-4F43-B5E3-BF371715A71F.png

    • 偏置 b 的梯度:

      D229411A-E54E-4B2A-A605-150A6D2DCD7E.png

  4. 核心点

    • 梯度方向指向代价函数增长最快的方向,因此通过减去梯度来最小化代价。

    • 更新公式与线性回归形式相似,但 fw,b(x) 是逻辑回归的Sigmoid输出。

  1. 逻辑回归与线性回归的对比

  • 线性回归:fw⃗,b(x⃗)=w⃗⋅x⃗+b(直接输出连续值)。

  • 逻辑回归:fw⃗,b(x⃗)=1 /(1+e−(w⃗⋅x⃗+b)(Sigmoid 输出概率)。

  • 相同点:梯度下降公式形式一致(均基于预测误差 f(x)−y),但逻辑回归的 f(x) 为概率值。

  1. 优化注意事项

  • 监控学习曲线(learning curve)。

  • 使用向量化实现(vectorized implementation)提升效率。

  • 特征缩放(feature scaling)可加速收敛。



评论