強(qiáng)化學(xué)入門(mén) 基于Pytho
鏈接:https://pan.baidu.com/s/17jukU1FJpy0FpJnsmRDi9Q?pwd=kd5p?
提取碼:kd5p

強(qiáng)化學(xué)是機(jī)器學(xué)的重要組成分。本書(shū)采用理論與實(shí)踐相結(jié)合的寫(xiě)法,從強(qiáng)化學(xué)的基本概念開(kāi)始,詳細(xì)介紹了強(qiáng)化學(xué)的算法理論和實(shí)踐作,配有Python代碼實(shí)現(xiàn),完整呈現(xiàn)強(qiáng)化學(xué)算法的實(shí)踐細(xì)節(jié)。通過(guò)這本書(shū)你將會(huì):
(1)理解強(qiáng)化學(xué)關(guān)鍵方面的問(wèn)題。
(2)探索馬爾可夫決策過(guò)程及動(dòng)態(tài)規(guī)劃的過(guò)程。
(3)深入理解強(qiáng)化學(xué)的各種方法,括MC方法,TD方法,深度學(xué)Q方法,SARSA方法等。
(4)通過(guò)大量的現(xiàn)實(shí)例子及Python實(shí)現(xiàn)程序,不斷地實(shí)踐,成為強(qiáng)化學(xué)的高手。

第分 強(qiáng)化學(xué)基礎(chǔ)與實(shí)踐
第1章引 言
1.1 從迷宮問(wèn)題談起
1.1.1 人類(lèi)和動(dòng)物所面對(duì)的迷宮問(wèn)題
1.1.2 迷宮的說(shuō)明性例子
1.1.3 例1.1: 獎(jiǎng)勵(lì)矩陣
1.1.4 例1.1: 訓(xùn)練以得到關(guān)于狀態(tài)和行動(dòng)的獎(jiǎng)勵(lì): Q矩陣
1.1.5 例1.1: 使用Q矩陣來(lái)得到行動(dòng)(路徑)
1.1.6 例1.1: 把代碼組合成 class
1.2 熱身: 井字游戲*
1.2.1 兩個(gè)的簡(jiǎn)單井字游戲
1.2.2 人和機(jī)器的井字游戲的強(qiáng)化學(xué)實(shí)踐
1.2.3 井字游戲的強(qiáng)化學(xué)代碼解釋
1.2.4 整個(gè)訓(xùn)練過(guò)程
1.2.5 使用訓(xùn)練后的模型做人機(jī)游戲
1.2.6 1.2.1節(jié)代碼
1.2.7 附錄: 1.2.3節(jié)人和機(jī)器的井字游戲代碼
1.3 強(qiáng)化學(xué)的基本概念
1.4 馬爾可夫決策過(guò)程的要素
1.5 作為目標(biāo)的獎(jiǎng)勵(lì)
1.6 探索與開(kāi)發(fā)的權(quán)衡
1.6.1 探索與開(kāi)發(fā)
1.6.2 強(qiáng)化學(xué)中的化和其他學(xué)科的區(qū)別
1.7 本書(shū)將會(huì)討論和運(yùn)算的些例子
1.7.1 例1.3格子路徑問(wèn)題
1.7.2 例1.4出租車(chē)問(wèn)題
1.7.3 例1.5推車(chē)桿問(wèn)題
1.7.4 例1.6倒立擺問(wèn)題
1.7.5 例1.7多臂老虎機(jī)問(wèn)題
1.7.6 例1.7和其他例子(例1.3、例1.5及例1.6)的區(qū)別
第2章馬爾可夫決策過(guò)程和動(dòng)態(tài)規(guī)劃
2.1 馬爾可夫決策過(guò)程簡(jiǎn)介
2.1.1 馬爾可夫性
2.1.2 策略
2.1.3 作為回報(bào)期望的值函數(shù)
2.1.4 通過(guò)例 1.3 格子路徑問(wèn)題理解本節(jié)概念
2.2 動(dòng)態(tài)規(guī)劃
2.2.1 動(dòng)態(tài)規(guī)劃簡(jiǎn)介
2.2.2 Bellman方程
2.2.3 策略和值函數(shù)
2.3 強(qiáng)化學(xué)基本方法概述
2.3.1 代理與環(huán)境的互動(dòng)
2.3.2 策略迭代: 策略評(píng)估和策略改進(jìn)
2.3.3 值迭代
2.3.4 策略迭代與值迭代比較
2.3.5 異步動(dòng)態(tài)規(guī)劃
2.3.6 廣義策略迭代
2.3.7 策略梯度
2.3.8 off-policy, on-policy和offline RL
2.4 蒙卡羅抽樣
2.4.1 MC策略評(píng)估
2.4.2 MC狀態(tài)-行動(dòng)值的估計(jì)
2.4.3 on-policy: Q值的MC估計(jì)
2.4.4 off-policy: MC預(yù)測(cè)
2.4.5 MC的策略梯度
2.5 和本章概念相關(guān)的例子
2.5.1 例1.3格子路徑問(wèn)題使用Bellman方程做值迭代
2.5.2 例1.3格子路徑問(wèn)題的TD函數(shù)
第3章各種機(jī)器學(xué)算法及實(shí)例
3.1 暫時(shí)差(TD)簡(jiǎn)介
3.1.1 TD、DP和MC算法的比較
3.1.2 TD方法的點(diǎn)
3.1.3 TD(0)方法的延伸
3.2 TD評(píng)估及策略改進(jìn)
3.2.1 SARSA (on-policy)
3.2.2 Q學(xué) (off-policy)
3.2.3 加倍Q學(xué) (off-policy)
3.3 函數(shù)逼近及深度學(xué)算法
3.3.1 基于值和策略的函數(shù)逼近
3.3.2 深度Q學(xué)
3.3.3 TD: 演員-批評(píng)者(AC)架構(gòu)
3.3.4 A2C算法步驟
3.3.5 A3C 算法
3.3.6 DDPG 算法
3.3.7 ES 算法
3.3.8 PPO 算法
3.3.9 SAC 算法
3.4 用第1章的例子理解本章算法
3.4.1 例1.3格子路徑問(wèn)題: SARSA
3.4.2 例1.4出租車(chē)問(wèn)題: SARSA
3.4.3 例1.3格子路徑問(wèn)題: 加倍Q學(xué)
3.4.4 例1.5推車(chē)桿問(wèn)題: 深度Q學(xué)
3.4.5 例1.5推車(chē)桿問(wèn)題: A3C
3.4.6 例1.6倒立擺問(wèn)題: DDPG
3.4.7 例1.5推車(chē)桿問(wèn)題: ES
3.4.8 例1.5推車(chē)桿問(wèn)題: PPO-Clip
3.4.9 例1.6 倒立擺問(wèn)題: SAC
第二分: 軟件及些數(shù)學(xué)知識(shí)
第4章 Python基礎(chǔ)
4.1 引言
4.2 安裝
4.2.1 安裝及開(kāi)始體驗(yàn)
4.2.2 運(yùn)行Notebook
4.3 基本模塊的編程
4.4 Numpy模塊
4.5 Pandas模塊
4.6 Matplotlib模塊
4.7 Python 的類(lèi)――面向?qū)ο缶幊毯?jiǎn)介
4.7.1 類(lèi)的基本結(jié)構(gòu)
4.7.2 計(jì)算小二乘回歸的例子
4.7.3 子類(lèi)
第5章 PyTorch與深度學(xué)
5.1 作為機(jī)器學(xué)分的深度學(xué)
5.2 PyTorch 簡(jiǎn)介
5.3 經(jīng)網(wǎng)絡(luò)簡(jiǎn)介
5.3.1 經(jīng)網(wǎng)絡(luò)概述
5.3.2 梯度下降法
5.3.3 深度經(jīng)網(wǎng)絡(luò)的PyTorch表示
5.4 深度學(xué)的步驟
5.4.1 定義經(jīng)網(wǎng)絡(luò)
5.4.2 轉(zhuǎn)換數(shù)據(jù)成訓(xùn)練需要的格式
5.4.3 訓(xùn)練并評(píng)估結(jié)果
第6章 回顧些數(shù)學(xué)知識(shí)*
6.1 條件概率和條件期望
6.2 范數(shù)和收縮
6.3 線性代數(shù)
6.3.1 征值和征向量
6.3.2 隨機(jī)矩陣
6.4 馬爾可夫決策過(guò)程
6.4.1 馬爾可夫鏈和馬爾可夫決策過(guò)程
6.4.2 策略
6.4.3 關(guān)于時(shí)間視界的化
6.5 Bellman 方程
6.5.1 有折扣無(wú)限視界問(wèn)題的Bellman問(wèn)題
6.5.2 無(wú)折扣無(wú)限視界問(wèn)題的Bellman問(wèn)題
6.6 動(dòng)態(tài)規(guī)劃
6.6.1 值迭代
6.6.2 策略迭代