Algorithm Refinement: ε-Greedy Policy|算法改进:ε-贪婪策略

bolin
发布于 2025-09-10 / 7 阅读
0
0

Algorithm Refinement: ε-Greedy Policy|算法改进:ε-贪婪策略

一、为什么需要探索

在强化学习的训练过程中,智能体需要不断地与环境交互,
通过观察状态、采取动作、获得奖励,逐渐学会什么是“好”的决策。
但这里有一个核心问题:

如果智能体总是选择当前看起来最优的动作,会怎样?

它可能会陷入局部最优——
也就是说,它学到的策略在局部区域看起来很好,
但在整个任务范围内,其实存在更高的奖励路径却被忽略了。

因此,学习过程不能只“利用”(Exploitation)当前最优动作,
还必须保留一定比例的“探索”(Exploration)。
探索让模型尝试未知的可能,
哪怕短期内得到较低奖励,长期却能帮助找到全局最优解。

64993F2C-8058-4D88-B2EE-7BDB1D881484.png

这张图(Learning Algorithm)展示了训练流程的基础逻辑:

  1. 初始化神经网络作为 Q(s,a) 的估计器。

  2. 智能体在 Lunar Lander 环境 中执行动作。

  3. 将收集到的状态、动作、奖励和下一个状态 (s,a,R(s),s’)存储起来。

  4. 从这些经验中采样,用于更新神经网络的参数。

这意味着智能体并非一次就学会,而是通过大量的探索与试错逐渐改进。
探索,是强化学习智能体“发现更好世界”的唯一途径。


二、ε-贪婪策略的核心思想

强化学习中的一个核心挑战是:
如何在“探索”(尝试新动作)与“利用”(执行当前最优动作)之间取得平衡?

ε-Greedy 策略提供了一个简单而高效的答案。
它通过一个参数 ε(epsilon) 来控制随机性:

  • 概率 1−ε 选择当前 Q 值最高的动作(Exploitation,利用)。

  • 概率 ε 随机选择一个动作(Exploration,探索)。

也就是说,智能体大多数时候会根据当前经验选择最优动作,
但仍会有少部分时间“冒险”尝试其它动作。
这种受控的随机性让模型在学习过程中不会停滞在局部最优。

3102492E-409D-4126-8E9A-15AEA54177EE.png

在图中可以看到两种选择方式(Option 1 与 Option 2):

  • Option 1(贪婪选择):永远选择当前看起来最优的动作。

    优点是收敛快,但缺点是容易陷入局部最优。

  • Option 2(ε-Greedy):以 95% 的概率选择最优动作,以 5% 的概率随机探索。

    优点是能保持适度探索,提高整体策略质量。

这就是 ε-Greedy 策略的核心哲学:

不盲目贪婪,也不完全随机,在理性中保留好奇心。

通过这种方式,智能体在训练早期可以广泛探索环境,
随着经验积累,它会逐渐减少探索比例,从而聚焦于稳定的高收益策略。


三、ε 的动态调整

在 ε-Greedy 策略中,ε 的数值决定了智能体的探索倾向。
但一个固定的 ε 无法适应整个学习过程:
训练初期需要更多探索,而后期则需要稳定收敛。

因此,ε 应该是动态变化的

1. 训练初期:高 ε 值(High Exploration)

在初期,智能体几乎不了解环境,
此时应当增加探索,例如将 ε 设为 1.0。
这意味着智能体几乎随机选择动作,
帮助它积累多样化的经验,了解各种状态—动作组合的后果。

2. 训练中期:平衡探索与利用

当智能体开始形成对环境的理解后,
ε 会逐步减小(例如从 1.0 降到 0.1)。
此阶段智能体仍有一定的探索行为,
但更多地倾向于选择那些过去表现较好的动作。

3. 训练后期:低 ε 值(High Exploitation)

到了后期,智能体已经掌握了主要规律,
ε 逐渐降至 0.01 或更低,
此时基本不再随机行动,而是“专注执行”最优策略。


数学上常见的 ε 变化方式包括:

  • 线性衰减(Linear decay)

    EBEC89E5-9417-4862-B5EA-8740EA877C22.png

    简单直接,训练越久探索越少。

  • 指数衰减(Exponential decay)

    079DCC1A-5064-470B-991D-D62904AC3400.png

    前期下降快,后期平稳,有助于模型稳定收敛。


通过这种逐步收缩 ε 的机制,
智能体能够在学习早期“勇于尝试”
而在学习后期
“稳健执行”。
这种自然过渡,是强化学习算法从混乱走向精确的关键。


四、Lunar Lander 中的实践与效果

Lunar Lander 环境中,智能体需要控制飞船安全降落到目标区域。
每个动作都对应不同的推力方向:

  • nothing:不点火;

  • left / right:使用左右推进器;

  • main:启动主推进器。

智能体的目标是根据状态 s(飞船位置、角度、速度等)
选择动作 a,最大化未来累计奖励 Q(s,a)。

1. ε-Greedy 的执行方式

在这个任务中,智能体会基于当前网络预测的 Q 值决定动作:

  • 大多数时候(例如 95% 概率)选择当前最优动作;

  • 其余时间随机选择动作,尝试不同策略。

这种随机探索使飞船能在早期“乱飞”时积累多样经验,
逐渐形成更准确的 Q 值估计。

2. 学习曲线的变化

训练初期,飞船的表现往往混乱——
它可能频繁坠毁、偏离目标、甚至点火过度。
但随着训练进行,Q 网络的预测更精准,ε 逐步下降,
智能体开始表现出显著改进:

  • 学会提前调整姿态;

  • 学会在接近地面时减速;

  • 学会在不必要时节省燃料。

3. 策略稳定阶段

当 ε 接近 0.01 时,智能体已几乎停止探索。
此时它执行的是接近最优的落地策略,
飞船能平稳降落在两面旗帜之间,并且动作流畅。

最终结果表明:

ε-Greedy 并非只是“随机”,而是一种有意识的学习节奏控制。
它让神经网络在“混乱试探”中积累经验,
在“理性执行”中提炼出最优策略。



评论