深度學習模式與實踐 Deep Learning Patterns and Practices
[美] 安德魯·費利奇(Andrew Ferlitsch)著 李軒涯 盧苗苗 劉安安 譯
- 出版商: 清華大學
- 出版日期: 2023-06-01
- 定價: $768
- 售價: 7.9 折 $607
- 語言: 簡體中文
- 頁數: 376
- 裝訂: 平裝
- ISBN: 7302630631
- ISBN-13: 9787302630630
-
相關分類:
DeepLearning
- 此書翻譯自: Deep Learning Patterns and Practices (Paperback)
立即出貨
買這商品的人也買了...
-
$1,000$790 -
$800$624 -
$650$455 -
$520$411 -
$780$616 -
$880$695 -
$780$616 -
$580$458
相關主題
商品描述
《深度學習模式與實踐》通過介紹**實踐、設計模式和可復制的架構,指導讀者的深度學習項目從實驗室走向應用。本書收集並闡明瞭近十年來真實世界中深度學習最緊密的洞察。讀者將通過每個有趣的例子學習相關技能,並建立信心。 《深度學習模式與實踐》深入研究瞭如何構建成功的深度學習應用程序。通過將經過驗證的模式和實踐應用到自身項目中,讀者將節省數小時的試錯時間。本書通過測試的代碼示例、真實世界示例和出色的敘事風格,使復雜的概念變得簡單和有趣。在此過程中,讀者將學會相關技巧來部署、測試和維護項目。 本書的內容包括: 現代捲積神經網絡 CNN架構的設計模式 移動和物聯網設備模型 大規模模型部署 電腦視覺示例
目錄大綱
目 錄
第Ⅰ部分 深度學習基礎知識
第1章 現代機器學習的設計 3
1.1 關註適應性 4
1.1.1 電腦視覺引領潮流 4
1.1.2 超越電腦視覺:NLP、NLU和結構化數據 5
1.2 機器學習方法的演變 6
1.2.1 經典人工智能與狹義人工智能 6
1.2.2 電腦學習的未來 8
1.3 設計模式的好處 13
1.4 本章小結 14
第2章 深度神經網絡 15
2.1 神經網絡基礎 15
2.1.1 輸入層 15
2.1.2 深度神經網絡簡介 17
2.1.3 前饋網絡 18
2.1.4 序貫式API方法 18
2.1.5 函數式API方法 19
2.1.6 輸入形狀與輸入層 19
2.1.7 緻密層 20
2.1.8 激活函數 21
2.1.9 速記語法 24
2.1.10 使用優化器提高準確度 25
2.2 DNN二元分類器 26
2.3 DNN多類分類器 28
2.4 DNN多標簽多類分類器 29
2.5 簡單圖像分類器 31
2.5.1 展平 32
2.5.2 過擬合和丟棄 33
2.6 本章小結 35
第3章 捲積神經網絡和殘差神經網絡 37
3.1 捲積神經網絡 37
3.1.1 為什麽在DNN的基礎上對圖像模型使用CNN 38
3.1.2 下採樣(調整大小) 38
3.1.3 特徵檢測 39
3.1.4 池化 41
3.1.5 展平 42
3.2 CNN的ConvNet設計 43
3.3 VGG網絡 46
3.4 ResNet網絡 49
3.4.1 架構 49
3.4.2 批標準化 54
3.4.3 ResNet50 55
3.5 本章小結 59
第4章 訓練基礎知識 61
4.1 前饋和反向傳播 61
4.1.1 饋送 62
4.1.2 反向傳播 62
4.2 拆分數據集 64
4.2.1 訓練集和測試集 64
4.2.2 獨熱編碼 65
4.3 數據歸一化 67
4.3.1 歸一化 67
4.3.2 標準化 69
4.4 驗證和過擬合 69
4.4.1 驗證 69
4.4.2 損失監控 73
4.4.3 深入層中 73
4.5 收斂 74
4.6 設置檢查點和早停法 77
4.6.1 設置檢查點 77
4.6.2 早停法 78
4.7 超參數 79
4.7.1 時期數 80
4.7.2 步數 80
4.7.3 批大小 81
4.7.4 學習率 82
4.8 不變性 84
4.8.1 平移不變性 85
4.8.2 尺度不變性 91
4.8.3 TF.Keras的ImageDataGenerator類 93
4.9 初始(磁盤)數據集 94
4.9.1 目錄結構 95
4.9.2 CSV文件 97
4.9.3 JSON文件 98
4.9.4 讀取圖像 98
4.9.5 調整大小 101
4.10 模型保存/恢復 102
4.10.1 保存 103
4.10.2 恢復 103
4.11 本章小結 104
第Ⅱ部分 基本設計模式
第5章 過程設計模式 107
5.1 基本的神經網絡架構 108
5.2 stem組件 110
5.2.1 VGG 110
5.2.2 ResNet 111
5.2.3 ResNeXt 115
5.2.4 Xception 116
5.3 預stem 117
5.4 學習器組件 118
5.4.1 ResNet 119
5.4.2 DenseNet 121
5.5 任務組件 123
5.5.1 ResNet 124
5.5.2 多層輸出 125
5.5.3 SqueezeNet 127
5.6 超越電腦視覺:自然語言處理 128
5.6.1 自然語言理解 128
5.6.2 Transformer架構 129
5.7 本章小結 130
第6章 寬捲積神經網絡 131
6.1 Inception v1 132
6.1.1 原生inception模塊 132
6.1.2 Inception v1模塊 134
6.1.3 stem 136
6.1.4 學習器 137
6.1.5 輔助分類器 137
6.1.6 分類器 139
6.2 Inception v2:捲積分解 140
6.3 Inception v3:重新設計架構 142
6.3.1 Inception組和塊 143
6.3.2 普通捲積 146
6.3.3 空間可分離捲積 147
6.3.4 stem重設計和實現 148
6.3.5 輔助分類器 149
6.4 ResNeXt:寬殘差神經網絡 150
6.4.1 ResNeXt塊 150
6.4.2 ResNeXt架構 152
6.5 寬殘差網絡 153
6.5.1 WRN-50-2架構 154
6.5.2 寬殘差塊 154
6.6 超越電腦視覺:結構化數據 155
6.7 本章小結 157
第7章 可替代連接模式 159
7.1 DenseNet:緻密連接的捲積神經網絡 160
7.1.1 緻密組 160
7.1.2 緻密塊 162
7.1.3 DenseNet宏觀架構 164
7.1.4 緻密過渡塊 165
7.2 Xception 166
7.2.1 Xception架構 167
7.2.2 Xception的入口流 169
7.2.3 Xception的中間流 171
7.2.4 Xception的出口流 173
7.2.5 深度可分離捲積 175
7.2.6 逐深度捲積 175
7.2.7 逐點捲積 175
7.3 SE-Net 176
7.3.1 SE-Net架構 177
7.3.2 SE-Net的組和塊 177
7.3.3 SE鏈接 179
7.4 本章小結 180
第8章 移動捲積神經網絡 181
8.1 MobileNet v1 182
8.1.1 架構 182
8.1.2 寬度乘數 183
8.1.3 分辨率乘數 184
8.1.4 stem 185
8.1.5 學習器 186
8.1.6 分類器 188
8.2 MobileNet v2 189
8.2.1 架構 189
8.2.2 stem 190
8.2.3 學習器 191
8.2.4 分類器 194
8.3 SqueezeNet 195
8.3.1 架構 196
8.3.2 stem 197
8.3.3 學習器 197
8.3.4 分類器 200
8.3.5 旁路連接 202
8.4 ShuffleNet v1 205
8.4.1 架構 205
8.4.2 stem 206
8.4.3 學習器 206
8.5 部署 213
8.5.1 量化 213
8.5.2 TF Lite轉換和預測 214
8.6 本章小結 216
第9章 自動編碼器 217
9.1 深度神經網絡自動編碼器 217
9.1.1 自動編碼器架構 218
9.1.2 編碼器 219
9.1.3 解碼器 219
9.1.4 訓練 220
9.2 捲積自動編碼器 221
9.2.1 架構 222
9.2.2 編碼器 222
9.2.3 解碼器 223
9.3 稀疏自動編碼器 225
9.4 去噪自動編碼器 226
9.5 超分辨率 226
9.5.1 預上採樣SR 227
9.5.2 後上採樣SR 229
9.6 前置任務 232
9.7 超越電腦視覺:Seq2Seq模型 234
9.8 本章小結 235
第Ⅲ部分 使用管線
第10章 超參數調優 239
10.1 權重初始化 240
10.1.1 權重分佈 241
10.1.2 彩票假設 241
10.1.3 預熱(數值穩定性) 243
10.2 超參數搜索基礎知識 246
10.2.1 超參數搜索的手動方法 246
10.2.2 網格搜索 248
10.2.3 隨機搜索 248
10.2.4 KerasTuner 250
10.3 學習率調度器 252
10.3.1 Keras衰減參數 253
10.3.2 Keras學習率調度器 253
10.3.3 Ramp 254
10.3.4 恆定步長 255
10.3.5 餘弦退火 256
10.4 正則化 258
10.4.1 權重正則化 258
10.4.2 標簽平滑 259
10.5 超越電腦視覺 260
10.6 本章小結 261
第11章 遷移學習 263
11.1 TF.Keras預構建模型 264
11.1.1 基礎模型 265
11.1.2 用於預測的預訓練ImageNet模型 266
11.1.3 新分類器 267
11.2 TF Hub預構建模型 271
11.2.1 使用TF Hub預訓練模型 271
11.2.2 新分類器 273
11.3 域間的遷移學習 274
11.3.1 類似的任務 274
11.3.2 不同的任務 275
11.3.3 特定域權重 278
11.3.4 域遷移權重初始化 279
11.3.5 負遷移 281
11.4 超越電腦視覺 281
11.5 本章小結 281
第12章 數據分佈 283
12.1 分佈類型 284
12.1.1 總體分佈 284
12.1.2 抽樣分佈 285
12.1.3 子總體分佈 286
12.2 分佈外樣本 286
12.2.1 MNIST精選數據集 287
12.2.2 建立環境 287
12.2.3 挑戰分佈外數據 288
12.2.4 作為DNN進行訓練 289
12.2.5 作為CNN進行訓練 294
12.2.6 圖像增強 297
12.2.7 最終測試 299
12.3 本章小結 299
第13章 數據管線 301
13.1 數據格式和存儲 303
13.1.1 壓縮圖像格式和原始圖像格式 303
13.1.2 HDF5格式 306
13.1.3 DICOM格式 310
13.1.4 TFRecord格式 311
13.2 數據饋送 316
13.2.1 NumPy 316
13.2.2 TFRecord 318
13.3 數據預處理 320
13.3.1 使用預stem進行預處理 320
13.3.2 使用TF Extended進行預處理 327
13.4 數據增強 332
13.4.1 不變性 332
13.4.2 使用tf.data進行增強 334
13.4.3 預stem 335
13.5 本章小結 335
第14章 訓練和部署管線 337
14.1 模型饋送 338
14.1.1 使用tf.data.Dataset進行模型饋送 342
14.1.2 使用tf.Strategy進行分佈式饋送 345
14.1.3 使用TFX進行模型饋送 346
14.2 訓練調度器 352
14.2.1 管線版本控制 354
14.2.2 元數據 355
14.2.3 歷史記錄 357
14.3 模型評估 358
14.3.1 候選模型與幸運模型 358
14.3.2 TFX評估 361
14.4 預測服務 364
14.4.1 按需(實時)服務 364
14.4.2 批預測服務 367
14.4.3 用於部署的TFX管線組件 368
14.4.4 A/B測試 369
14.4.5 負載平衡 370
14.4.6 持續評估 372
14.5 生產管線設計的演變 373
14.5.1 機器學習作為管線 373
14.5.2 機器學習作為CI/CD生產流程 374
14.5.3 生產中的模型合並 375
14.6 本章小結 376