Softmax Regression|Softmax回归

bolin
发布于 2025-07-07 / 1 阅读
0
0

Softmax Regression|Softmax回归

一、Softmax回归简介

Softmax回归是一种用于多分类任务的机器学习模型,它通过Softmax函数将输入特征的线性组合转化为概率分布,使得每个类别的预测概率之和为1。它是逻辑回归(Logistic Regression)在多分类问题上的自然推广。

通俗理解

想象你在给一组照片分类(猫、狗、鸟),Softmax回归就像一个“公平打分员”:

  1. 先给每个类别算一个“原始分数”(基于图片特征)。

  2. 然后用Softmax函数把这些分数转换成“概率”——比如猫70%、狗20%、鸟10%,告诉你“最可能是猫”。

  3. 关键点:所有类别的概率加一起一定是100%,而且分数高的类别会“压倒性”胜出(指数放大差异)。


二、逻辑回归 与 Softmax回归 区别

82865BC9-A0F4-4370-B469-02B3921E6AEC.png

  1. 逻辑回归(Logistic Regression)

    • 适用场景:二分类问题(2个可能的输出值)。

    • 计算方式

      • 线性部分:z=w⃗⋅x⃗+b

      • 概率输出:

      • 3A21F0BC-69C0-42D1-8C56-BB97BA66CA89.png

  2. Softmax回归(Softmax Regression)

    • 适用场景:多分类问题(N个可能的输出值)。

    • 计算方式

      • 对每个类别 jj 计算线性得分:zj=w⃗j⋅x⃗+bj

      • 通过Softmax函数转换为概率:
        ED96EF1B-0B04-40FC-B844-6AF12406AD05.png
        且所有概率之和为1(a1+a2+⋯+aN=1)。

  3. 具体示例(4分类)

    • 计算4个类别的得分 z1,z2,z3,z4

    • 对应的概率输出:

      • a1=0.30a2=0.20a3=0.15a4=0.35

    • 最终预测会选择概率最大的类别(此处为类别4,概率0.35)。

图片通过对比逻辑回归和Softmax回归,清晰展示了从二分类到多分类的推广形式。


三、逻辑回归 与 Softmax回归 损失函数对比

AE53C611-655F-468B-B4F7-370B5AD26EB9.png

  1. 逻辑回归(Logistic Regression)

    • 模型输出

      • 线性部分:z=w⃗⋅x⃗+bz=wx+b

      • 概率输出:

      • 3A21F0BC-69C0-42D1-8C56-BB97BA66CA89.png

    • 损失函数

      • 二元交叉熵(Binary Cross-Entropy):
        8BBC7851-F371-498D-8CD3-60AAFEC4DF7D.png

      • 代价函数 J(w⃗,b) 为所有样本损失的平均值。

  2. Softmax回归(Softmax Regression)

    • 模型输出

      • 对每个类别 j 计算概率:
        ED96EF1B-0B04-40FC-B844-6AF12406AD05.png

      • 所有概率满足

    700DCCD9-6742-4ABE-A85B-C0305181B9F4.png

    • 损失函数


1976135C-E540-4D71-B573-8F8814E7E0B2.png

图片通过公式对比,展示了逻辑回归(二分类)与Softmax回归(多分类)在概率输出和损失函数设计上的核心区别。


评论