翁真如 发表于 2025-6-1 20:42:53

强化学习--基于策略的强化学习(03)

基于策略的强化学习

1. 策略函数近似(Policy Function Approximation)

策略函数 π(a∣s)


[*]策略函数是一个概率密度函数,它根据当前状态 s 输出在该状态下采取每个可能动作 a 的概率。
[*]在有限的状态和动作空间中,可以直接学习这个函数。但在连续动作空间或状态空间非常大时,直接学习变得不切实际。
策略网络 π(a∣s;θ)


[*]使用神经网络来近似策略函数,其中 θ 是网络的可训练参数。
[*]网络输入是状态 s,输出是所有可能动作的概率分布。
[*]使用Softmax激活函数确保输出的概率和为1。
2. 状态价值函数近似(State-Value Function Approximation)

动作价值函数 Q(s,a)


[*]定义为从状态 s 开始并采取动作 a 的预期折扣回报。
[*]动作价值函数依赖于策略函数和状态转移概率。
状态价值函数 V(s)


[*]定义为在状态 s 下,按照策略 π 采取动作的预期折扣回报。
[*]可以通过对动作价值函数 Q(s,a) 进行期望计算得到。
3. 基于策略的强化学习(Policy-Based Reinforcement Learning)

策略梯度(Policy Gradient)


[*]目标是学习参数 θ,以最大化期望回报 J(θ)=E[V(S;θ)]。
[*]使用策略梯度上升法来更新参数 θ。
策略梯度的计算


[*]策略梯度是状态价值函数 V(s;θ) 关于 θ 的导数。
[*]通过链式法则和期望,可以推导出策略梯度的表达式:

[*]这个表达式表明,策略梯度可以通过对每个动作的概率的对数梯度与该动作的价值的乘积的期望来计算。
4. 离散和连续动作空间中的策略梯度计算

离散动作空间


[*]使用策略梯度的第一种形式,直接对每个动作的概率进行求和。
连续动作空间


[*]使用策略梯度的第二种形式,通过期望来计算梯度。
[*]通过从策略分布中采样动作,并计算这些动作的梯度,可以得到策略梯度的无偏估计。
5. 使用策略梯度更新策略网络

算法步骤


[*]观察状态 s。
[*]根据策略网络 π(a∣s;θ) 随机采样动作 a。
[*]计算 Q(s,a) 的估计值(可以通过某种方法得到)。
[*]对策略网络进行微分,得到
[*]计算(随机)策略梯度:
[*]更新策略网络:θnew=θ+β⋅gθ。
具体方法


[*]REINFORCE:通过玩完整个游戏来生成轨迹,并使用折扣回报来近似 Q(s,a)。
[*]Actor-Critic方法:使用一个神经网络来近似 Q(s,a),这将在文件4中详细讨论。
6. 总结


[*]基于策略的学习:如果已知一个好的策略函数 π,智能体可以根据该策略随机采样动作 a∼π(s)。
[*]策略网络:通过策略梯度算法学习策略网络,以最大化期望回报。
[*]策略梯度算法:学习参数 θ,以最大化 E[V(S;θ)]。

来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

喙审 发表于 2025-10-16 22:55:23

感谢分享,下载保存了,貌似很强大

林鱼 发表于 2025-11-19 11:17:59

yyds。多谢分享

娄静曼 发表于 2026-1-13 21:32:08

前排留名,哈哈哈

呈步 发表于 2026-1-18 07:25:34

鼓励转贴优秀软件安全工具和文档!

湛恶 发表于 2026-1-24 02:03:23

谢谢楼主提供!

寥唏 发表于 2026-1-24 02:25:34

谢谢分享,辛苦了

告陕无 发表于 2026-1-25 04:40:02

很好很强大我过来先占个楼 待编辑

夔新梅 发表于 2026-1-26 12:29:20

懂技术并乐意极积无私分享的人越来越少。珍惜

孟清妍 发表于 2026-1-28 05:00:41

感谢分享

裴竹悦 发表于 2026-1-28 08:08:42

过来提前占个楼

簑威龙 发表于 2026-1-29 02:26:12

过来提前占个楼

梨恐 发表于 2026-1-29 05:49:29

谢谢分享,试用一下

况雪柳 发表于 2026-1-30 06:25:53

谢谢分享,辛苦了

佴莘莘 发表于 2026-2-3 04:16:09

很好很强大我过来先占个楼 待编辑

殷罗绮 发表于 2026-2-3 10:26:56

新版吗?好像是停更了吧。

喳谍 发表于 2026-2-5 07:44:09

喜欢鼓捣这些软件,现在用得少,谢谢分享!

事确 发表于 2026-2-7 21:03:14

收藏一下   不知道什么时候能用到

泠邸 发表于 2026-2-8 04:15:48

过来提前占个楼

碛物 发表于 2026-2-8 09:38:58

这个好,看起来很实用
页: [1] 2
查看完整版本: 强化学习--基于策略的强化学习(03)