Python貝葉斯深度學習 Enhancing Deep Learning with Bayesian Inference: Create more powerful, robust deep learning systems with Bayesian deep learning in Python
[英] 馬特·貝納坦(Matt Benatan) 約赫姆·吉特馬(Jochem Gietema) 瑪麗安·施耐德(Marian Schneider)著 郭濤 譯
- 出版商: 清華大學
- 出版日期: 2024-10-01
- 售價: $479
- 貴賓價: 9.5 折 $455
- 語言: 簡體中文
- ISBN: 7302672164
- ISBN-13: 9787302672166
-
相關分類:
DeepLearning
- 此書翻譯自: Enhancing Deep Learning with Bayesian Inference: Create more powerful, robust deep learning systems with Bayesian deep learning in Python
立即出貨
買這商品的人也買了...
-
$403大數據計算系統 原理 技術與應用
-
$611Python 時間序列預測
-
$354$336 -
$390$371
相關主題
商品描述
"深度學習正日益深刻地滲入我們的生活,從建議內容到在任務關鍵型和安全關鍵型應用中發揮核心作用,其影響無所不在。然而,隨著這些算法影響力的逐漸擴大,人們對於依賴這些算法的系統安全性和魯棒性的擔憂也日益加劇。簡言之,傳統的深度學習方法往往難以察覺自身的知識邊界,即它們“不知其所不知”。 貝葉斯深度學習(Bayesian Deep Learning,BDL)領域包含一系列利用深度網絡進行近似貝葉斯推理的方法。這些方法通過揭示模型對其預測結果的置信度,增強了深度學習系統的魯棒性,使我們能夠更謹慎地將模型預測融入實際應用中。 《Python貝葉斯深度學習》將引領你踏入迅速發展的不確定性感知深度學習領域,助你深入理解不確定性估計在構建魯棒性的機器學習系統中的重要價值。你將學習多種流行的BDL方法,並通過涵蓋多種應用場景的Python實用示例來掌握這些方法的實現技巧。 讀完本書後,你將深刻理解BDL及其優勢,並能夠為更安全、更魯棒的深度學習系統開發貝葉斯深度學習模型。 主要內容: ● 瞭解貝葉斯推理和深度學習的優缺點 ● 瞭解貝葉斯神經網絡(Bayesian Neural Network,BNN)的基本原理 ● 瞭解主要貝葉斯神經網絡實現/近似之間的差異 ● 瞭解生產環境中概率深度神經網絡的優勢 ● 在Python代碼中實現各種貝葉斯深度學習方法 ● 運用貝葉斯深度學習方法解決實際問題 ● 學習如何評估貝葉斯深度學習方法並為特定任務選擇**方法 ● 在實際深度學習應用中處理“分佈外”數據 "
目錄大綱
目 錄
第1章 深度學習時代的貝葉斯推理 1
1.1 技術要求 2
1.2 深度學習時代的奇跡 2
1.3 瞭解深度學習的局限性 4
1.3.1 深度學習系統中的偏見 4
1.3.2 過高置信預測導致危險 5
1.3.3 變化趨勢 6
1.4 核心主題 7
1.5 設置工作環境 8
1.6 小結 9
第2章 貝葉斯推理基礎 11
2.1 重溫貝葉斯建模知識 11
2.2 通過採樣進行貝葉斯推理 14
2.2.1 近似分佈 14
2.2.2 利用貝葉斯線性回歸實現概率推理 17
2.3 探討高斯過程 20
2.3.1 用核定義先驗信念 22
2.3.2 高斯過程的局限性 27
2.4 小結 28
2.5 延伸閱讀 28
第3章 深度學習基礎 29
3.1 技術要求 29
3.2 多層感知器 29
3.3 回顧神經網絡架構 32
3.3.1 探索捲積神經網絡 32
3.3.2 探索循環神經網絡 35
3.3.3 註意力機制 37
3.4 理解典型神經網絡存在的問題 38
3.4.1 未經校準和過高置信的預測 39
3.4.2 預測分佈外數據 41
3.4.3 置信度高的分佈外預測示例 44
3.4.4 易受對抗性操縱的影響 48
3.5 小結 52
3.6 延伸閱讀 52
第4章 貝葉斯深度學習介紹 55
4.1 技術要求 56
4.2 理想的貝葉斯神經網絡 56
4.3 貝葉斯深度學習基本原理 58
4.3.1 高斯假設 58
4.3.2 不確定性的來源 60
4.3.3 超越極大似然:似然的重要性 63
4.4 貝葉斯深度學習工具 66
4.5 小結 69
4.6 延伸閱讀 69
第5章 貝葉斯深度學習原理方法 71
5.1 技術要求 71
5.2 解釋符號 72
5.3 深度學習中熟悉的概率概念 72
5.4 通過反向傳播進行貝葉斯推理 75
5.5 使用TensorFlow實現貝葉斯反向傳播 78
5.6 使用概率反向傳播擴展貝葉斯深度學習 82
5.7 實現概率反向傳播 85
5.8 小結 94
5.9 延伸閱讀 95
第6章 使用標準工具箱進行貝葉斯深度學習 97
6.1 技術要求 98
6.2 通過舍棄引入近似貝葉斯推理 98
6.2.1 利用舍棄進行近似貝葉斯推理 99
6.2.2 實現MC舍棄 100
6.3 使用集成學習進行模型不確定性估計 101
6.3.1 集成學習介紹 101
6.3.2 引入深度集成學習 101
6.3.3 實現深度集成學習 103
6.3.4 深度集成學習的實際局限性 106
6.4 探索用貝葉斯最後一層方法增強神經網絡 106
6.4.1 貝葉斯推理的最後一層方法 107
6.4.2 最後一層MC舍棄 113
6.4.3 最後一層方法小結 115
6.5 小結 115
第7章 貝葉斯深度學習的實際考慮因素 117
7.1 技術要求 117
7.2 平衡不確定性質量和計算考慮因素 118
7.2.1 設置實驗 118
7.2.2 分析模型性能 121
7.2.3 貝葉斯深度學習模型的計算考慮因素 124
7.2.4 選擇正確的模型 126
7.3 貝葉斯深度學習和不確定性來源 127
7.4 小結 143
7.5 延伸閱讀 143
第8章 貝葉斯深度學習應用 145
8.1 技術要求 145
8.2 檢測分佈外數據 145
8.2.1 探討分佈外檢測問題 146
8.2.2 系統評估分佈外檢測性能 150
8.2.3 無需重新訓練的簡單分佈外檢測 151
8.3 應對數據集漂移的魯棒方法 153
8.3.1 測量模型對數據集漂移的響應 153
8.3.2 用貝葉斯方法揭示數據集漂移 154
8.4 通過不確定性選擇數據來保持模型的新鮮度 169
8.5 利用不確定性估計進行更智能的強化學習 179
8.6 對對抗性輸入的敏感性 197
8.7 小結 201
8.8 延伸閱讀 201
第9章 貝葉斯深度學習的發展趨勢 203
9.1 貝葉斯深度學習的當前趨勢 203
9.2 如何應用貝葉斯深度學習方法解決現實世界中的問題 206
9.3 貝葉斯深度學習的最新方法 207
9.3.1 結合MC舍棄和深度集成學習 207
9.3.2 通過促進多樣性改進深度集成學習 208
9.3.3 超大網絡中的不確定性 209
9.4 貝葉斯深度學習的替代方案 211
9.4.1 可擴展的高斯過程 211
9.4.2 深度高斯過程 213
9.5 貝葉斯深度學習的下一步工作 213
9.6 延伸閱讀 214