目录
第1章强化学习导论
1.1强化学习概述
1.2机器学习分类
1.2.1监督学习
1.2.2无监督学习
1.2.3强化学习
1.2.4核心元素
1.3基于强化学习的深度学习
1.4实例和案例研究
1.4.1自动驾驶汽车
1.4.2机器人
1.4.3推荐系统
1.4.4金融和贸易
1.4.5医疗保健
1.4.6游戏
1.5库与环境设置
1.6总结
第2章马尔可夫决策
2.1强化学习的定义
2.2智能体和环境
2.3奖励
2.4马尔可夫过程
2.4.1马尔可夫链
2.4.2马尔可夫奖励
过程
2.4.3马尔可夫决策
过程
2.5策略和价值函数
2.6贝尔曼方程
2.6.1贝尔曼最优方程
2.6.2解决方法类型的
思维导图
2.7总结
第3章基于模型的算法
3.1OpenAI Gym
3.2动态规划
3.3策略评估/预测
3.4策略改进和迭代
3.5价值迭代
3.6广义策略迭代
3.7异步回溯
3.8总结
第4章无模型方法
4.1蒙特卡洛估计/预测
4.2蒙特卡洛控制
4.3离线策略MC控制
4.4TD学习方法
4.5TD控制
4.6在线策略SARSA
4.7Q学习: 离线策略
TD控制
4.8最大偏差和双重学习
4.9期望SARSA控制
4.10回放池和离线策略学习
4.11连续状态空间的Q学习
4.12n步回报
4.13资格迹和TD(λ)
4.14DP、MC和TD之间
的关系
4.15总结
第5章函数逼近
5.1概述
5.2逼近理论
5.2.1粗编码
5.2.2瓦片编码
5.2.3逼近中的挑战
5.3增量预测: MC、TD和
TD(λ)
5.4增量控制
5.4.1n步半梯度SARSA
控制
5.4.2半梯度SARSA(λ)
控制
5.5函数逼近的收敛性
5.6梯度时序差分学习
5.7批处理方法
5.8线性最小二乘法
5.9深度学习库
5.10总结
第6章深度Q学习
6.1DQN
6.2优先回放
6.3双Q学习
6.4竞争DQN
6.5噪声网DQN
6.6C51
6.7分位数回归DQN
6.8事后经验回放
6.9总结
第7章策略梯度算法
7.1引言
7.1.1基于策略的方法的
利弊
7.1.2策略表征
7.2策略梯度推导
7.2.1目标函数
7.2.2导数更新规则
7.2.3更新规则的运算
原理
7.3强化算法
7.3.1带奖励因子的
方差减少
7.3.2进一步减少基线
差异
7.4演员评论家方法
7.4.1定义优势
7.4.2优势演员评论家
7.4.3A2C算法的
实现
7.4.4异步优势演员
评论家
7.5信赖域策略优化算法
7.6近似策略优化算法
7.7总结
第8章结合策略梯度和Q学习
8.1策略梯度与Q学习
的权衡
8.2结合策略梯度与Q学习的
一般框架
8.3深度确定性策略梯度
8.3.1Q学习在DDPG中的
应用(评论家)
8.3.2DDPG中的策略
学习(演员)
8.3.3伪代码和实现
8.3.4代码实现
8.4双延迟DDPG
8.4.1目标策略平滑
8.4.2Q损失(评论家)
8.4.3策略损失(演员)
8.4.4延迟更新
8.4.5伪代码和实现
8.4.6代码实现
8.5重参数化技巧
8.5.1分数/强化方法
8.5.2重参数化技巧与
路径导数
8.5.3实验
8.6熵解释
8.7软演员评论家
8.7.1SAC与TD3
8.7.2熵正则化下的
Q损失
8.7.3具有重参数技巧的
策略损失
8.7.4伪代码及其实现
8.7.5代码实现
8.8总结
第9章综合规划与学习
9.1基于模型的强化学习
9.1.1使用学习的模型
进行规划
9.1.2集成学习与规划
9.1.3Dyna Q和变化
的环境
9.1.4Dyna Q+
9.1.5期望与示例更新
9.2探索vs利用
9.2.1多臂强盗
9.2.2后悔值: 探索质量的
衡量标准
9.3决策时间规划和蒙特
卡洛树搜索
9.4AlphaGo模拟实验
9.5总结
第10章进一步的探索与后续
工作
10.1基于模型的强化学习:
其他方法
10.1.1世界模型
10.1.2想象力增强智
能体
10.1.3基于模型的强化
学习和无模型
微调
10.1.4基于模型的价值
扩展
10.2模仿学习和逆强化
学习
10.3无导数方法
10.4迁移学习和多任务
学习
10.5元学习
10.6流行的强化学习库
10.7如何继续学习
10.8总结
术语
温馨提示:请使用泸西县图书馆的读者帐号和密码进行登录