人工智能
姚期智
相關主題
商品描述
目錄大綱
目錄
第0章緒論
第1章數學基礎
1.1導數
1.1.1導數的定義
1.1.2高階導數與偏導數
1.1.3導數與函數極值
1.2概率論基礎
1.2.1事件與概率
1.2.2隨機變量與概率分佈
1.2.3期望、方差與協方差
1.3矩陣基礎
習題
第2章搜索
引言
2.1搜索問題的定義
2.2搜索算法基礎
2.3盲目搜索
2.3.1圖搜索
2.3.2深度優先搜索
2.3.3寬度優先搜索
2.3.4復雜度分析及算法改進
2.4啟發式搜索
2.4.1貪婪搜索
2.4.2A*搜索算法
2.4.3A*搜索算法的最優性
2.4.4啟發函數的設計
2.4.5雙向搜索
2.5局部搜索
2.5.1爬山法
2.5.2模擬退火
2.5.3遺傳算法
2.6對抗搜索
2.6.1極小極大搜索
2.6.2AlphaBeta剪枝搜索
2.6.3蒙特卡羅樹搜索
本章總結
歷史回顧
習題
第3章機器學習
引言
3.1監督學習的概念
3.2數據集與損失函數
3.3泛化
3.4過擬合與欠擬合
3.5創建數據集
3.6無監督學習與半監督學習
3.6.1K平均算法
3.6.2譜聚類算法
本章總結
歷史回顧
習題
參考文獻
第4章線性回歸
引言
4.1線性回歸
4.2優化方法
4.3二分類問題
4.4多分類問題
4.5嶺回歸
4.6套索回歸
4.7支持向量機算法
本章總結
習題
第5章決策樹模型
引言
5.1決策樹的例子
5.2決策樹的定義
5.3決策樹的訓練算法
5.3.1葉子預測值的計算
5.3.2分割條件的選取
5.3.3決策樹結構的選擇
5.3.4防止過擬合
5.3.5偽代碼
5.3.6缺失值處理
5.3.7離散型特徵處理方法與特徵工程
本章總結
歷史回顧
習題
參考文獻
第6章集成學習
引言
6.1集成學習
6.1.1一個理想化模型
6.1.2引導聚集方法
6.1.3提升算法
6.2隨機森林
6.2.1隨機森林的算法描述
6.2.2關於隨機性的探討
6.3梯度提升
6.3.1梯度提升的概念
6.3.2梯度提升樹
6.3.3GBDT中的防過擬合方法
6.3.4GBDT的高效開源實現
本章總結
歷史回顧
習題
參考文獻
第7章神經網絡初步
引言
7.1深度線性網絡
7.2非線性神經網絡
7.3反向傳播計算導數
7.4優化器
7.5權值初始化
7.5.1Xavier初始化
7.5.2Kaiming初始化
7.6權值衰減
7.7權值共享與捲積
7.8循環神經網絡
本章總結
歷史回顧
習題
第8章電腦視覺
引言
8.1什麽是電腦視覺
8.2圖像的形成
8.2.1小孔相機模型
8.2.2數字圖像
8.3線性濾波器
8.4邊緣檢測
8.5立體視覺
8.6捲積神經網絡
8.7物體檢測
8.8語義分割
本章總結
歷史回顧
習題
參考文獻
第9章自然語言處理
引言
9.1語言模型
9.1.1為什麽需要語言模型?什麽是語言模型?
9.1.2ngram模型
9.1.3最大似然估計
9.1.4困惑度
9.1.5實用技巧
9.1.6語言模型的應用
9.1.7字模型與詞模型
9.1.8中文與英文的差別
9.2向量語義
9.2.1語義
9.2.2詞向量
9.2.3Word2vec
9.2.4可視化示例
9.3基於神經網絡的語言模型處理
9.3.1基於神經網絡的bigram模型
9.3.2訓練神經網絡
9.3.3基於神經網絡的ngram模型
9.3.4基於LSTM的語言模型
9.4基於神經網絡的機器翻譯
9.4.1Seq2Seq模型
9.4.2生成最佳的輸出語句: Beam Search
9.4.3基於註意力機制的Seq2Seq模型
9.4.4Transformer模型
9.5語言模型預訓練
9.5.1GPT: generative pretrained Transformer
9.5.2BERT: bidirectional encoder representations from
Transformers
9.5.3判別式與生成式建模方式的討論
本章總結
歷史回顧
習題
第10章馬爾可夫決策過程與強化學習
引言
10.1馬爾可夫鏈
10.1.1例子
10.1.2馬爾可夫鏈定義
10.1.3馬爾可夫鏈穩態分佈
10.2馬爾可夫決策過程
10.2.1路線規劃
10.2.2馬爾可夫決策過程的定義
10.3馬爾可夫決策過程的求解算法及分析
10.3.1馬爾可夫決策過程算法
10.3.2算法收斂性分析
10.4強化學習
10.4.1QLearning
10.4.2深度強化學習
本章總結
歷史回顧
參考文獻
習題
附錄A數學基礎
A.1導數
A.2概率
A.3矩陣