圖說深度學習 用視覺化方法理解複雜概念 Deep learning a visual approach

Glassner, Andrew 譯 趙鳴//曾小健//任玉柱//李現偉//李達莉

相關主題

商品描述

本書適合任何想要深入了解深度學習這個迷人領域的人,
您不需要具備高級數學和程式設計知識就可以掌握其根本原理。
如果您想知道這些工具是如何運作的,並學會自己使用它們,答案盡在書中。
而且,如果您已經準備好編寫自己的程序,那麼隨附的Github存儲庫中還有大量補充的Python筆記本可以幫助您。
本書講解語言通俗易懂,包含大量的彩色插圖和具有啟發性的類比,以及豐富的現實世界的例子,深入地地解釋了深度學習的關鍵概念,包括:
•文字產生器如何創建新穎的故事和文章。
•深度學習系統如何在人類遊戲中學習遊戲並獲勝。
•影像分類系統如何辨識照片中的物體或人。
•如何以對日常生活有用的方式思考機率。
•如何使用構成現代人工智慧核心的機器學習技術。
各種各樣的智力冒險家都可以使用本書中涵蓋的強大思想來建立智慧系統,幫助我們更好地理解世界和生活在其中的每個人。
這就是人工智慧的未來,這本書可以讓你充分想像它的未來。

目錄大綱

致謝
前言
這本書是為誰準備的
這本書沒有複雜的數學和程式碼
如果你想要的話,這裡有程式碼
圖片也可以找到!
勘誤
關於本書
第1部分:基礎理論
第2部分:初級機器學習
第3部分:深度學習的基礎
第4部分:進階知識
最後的話
第一部分 基礎理論
第1章 機器學習技術概述
1.1 專家系統
1.2 監督學習
1.3 無監督學習
1.4 強化學習
1.5 深度學習
1.6 本章總結
第2章 統計學基礎
2.1 描述隨機性
2.2 隨機變數與機率分佈
2.3 常見的分佈
2.3.1 連續分佈
2.3.2 離散分佈
2.4 隨機值的集合
2.4.1 期望值
2.4.2 依賴
2.4.3 獨立同分佈變量
2.5 採樣與替換
2.5.1 替換採樣法
2.5.2 無替換採樣法
2.6 自採樣法
2.7 協方差和相關性
2.7.1 協方差
2.7.2 相關性
2.8 統計資料的局限性
2.9 高維空間
2.10 本章總結
第3章 效能度量
3.1 不同類型的機率
3.1.1 投擲飛鏢
3.1.2 簡單機率
3.1.3 條件機率
3.1.4 聯合機率
3.1.5 邊緣機率
3.2 評價正確性
3.2.1 樣本分類
3.2.2 混淆矩陣
3.2.3 錯誤的特徵
3.2.4 評價正確與否
3.2.5 準確率
3.2.6 精度
3.2.7 召回率
3.2.8 精準度與召回率的權衡
3.2.9 誤導性結果
3.2.10 F1分數
3.2.11 關於這些指標
3.2.12 其他評價方式
3.3 正確構造混淆矩陣
3.4 本章總結
第4章 貝葉斯方法
4.1 頻率法與貝葉斯機率
4.1.1 頻率法
4.1.2 貝葉斯方法
4.1.3 頻率派與貝葉斯派
4.2 頻率法拋擲硬幣
4.3 貝葉斯方法拋擲硬幣
4.3.1 啟發性的例子
4.3.2 繪製拋擲硬幣的機率
4.3.3 用機率表示拋擲硬幣
4.3.4 貝葉斯公式
4.3.5 關於貝葉斯公式的討論
4.4 貝葉斯公式與混淆矩陣
4.5 再說貝葉斯公式
4.5.1 後驗-先驗循環
4.5.2 貝葉斯循環實戰
4.6 多重假設
4.7 本章總結
第5章 曲線和曲面
5.1 函數的性質
5.2 導數
5.2.1 優選值和最小值
5.2.2 切線
5.2.3 用導數求最小值和優選值
5.3 梯度
5.3.1 水、重力和梯度
5.3.2 用梯度求優選值和最小值
5.3.3 鞍點
5.4 本章總結
第6章 資訊理論
6.1 訊息帶給我們的驚訝感
6.1.1 為什麼會驚訝
6.1.2 資訊解密
6.2 衡量資訊量
6.3 自適應碼
6.3.1 摩斯電碼
6.3.2 調整摩斯電碼
6.4 熵
6.5 交叉熵
6.5.1 兩種自適應碼
6.5.2 使用編碼
6.5.3 實踐中的交叉熵
6.6 KL散度
6.7 本章總結
第二部分 初級機器學習
第7章 分類
7.1 二維空間的二元分類問題
7.2 二維空間的多重分類問題
7.3 多元分類
7.3.1 一對多
7.3.2 一對一
7.4 聚類
7.5 維度詛咒
7.5.1 維度和密度
7.5.2 高維奇異性
7.6 本章總結
第8章 訓練和測​​試
8.1 訓練
8.2 測試
8.2.1 測試集
8.2.2 驗證集
8.3 交叉驗證
8.4 k-Fold交叉驗證法
8.5 本章總結
第9章 過擬合與欠擬合
9.1 找到一個好的擬合
9.1.1 過擬合
9.1.2 欠擬合
9.2 檢測並解決過擬合
9.2.1 提前停止
9.2.2 正規化
9.3 偏差和方差
9.3.1 匹配基礎數據
9.3.2 高偏差與低方差
9.3.3 低偏差與高方差
9.3.4 比較曲線
9.4 用貝葉斯方法擬合直線
9.5 本章總結
第10章 資料預處理
10.1 基本資料清洗
10.2 數據一致性
10.3 資料型
10.4 獨熱編碼
10.5 歸一化與標準化
10.5.1 歸一化
10.5.2 標準化
10.5.3 記錄轉換過程
10.6 其他轉換方式
10.6.1 切片處理
10.6.2 樣本切片
10.6.3 特徵切片
10.6.4 元素切片
10.7 逆變換
10.8 交叉驗證中資訊的洩露
10.9 收縮資料集
10.9.1 特徵選擇
10.9.2 降維
10.10 主成分分析
10.10.1 簡單影像的PCA處理
10.10.2 真實影像的主成分分析
10.11 本章總結
第11章 分類器
11.1 常見分類器
11.2 k-最近鄰演算法
11.3 決策樹
11.3.1 決策樹概覽
11.3.2 決策樹構建
11.3.3 過擬合樹
11.3.4 拆分節點
11.4 支援向量機
11.4.1 基礎演算法
11.4.2 支援向量機核函數
11.5 樸素貝葉斯
11.6 分類器的對比
11.7 本章總結
第12章 整合學習
12.1 投票
12.2 決策樹的集成
12.2.1 裝袋演算法
12.2.2 隨機森林
12.2.3 特別隨機樹集成
12.3 助推法
12.4 本章總結
第三部分 深度學習的基礎
第13章 神經網絡
13.1 生物神經元
13.2 人工神經元
13.2.1 感知器
13.2.2 現代人工神經元
13.3 繪製神經元
13.4 前饋網絡
13.5 神經網路圖
13.6 初始化權重
13.7 深度神經網絡
13.8 全連接層
13.9 張量
13.10 防止坍縮
13.11 激活函數
13.11.1 直線函數
13.11.2 階躍函數
13.11.3 分段線性函數
13.11.4 平滑函數
13.11.5 激活函數影像總結
13.11.6 比較激活函數
13.12 Softmax函數
13.13 本章總結
第14章 反向傳播演算法
14.1 訓練過程概述
14.1.1 降低誤差
14.1.2 一種緩慢的學習演算法
14.1.3 梯度下降
14.2 快速開始
14.3 微型神經網路中的反向傳播
14.3.1 尋找輸出神經元的增量
14.3.2 使用δ來調整權重
14.3.3 其他神經元的δ值
14.4 大型神經網路中的反向傳播演算法
14.5 學習率
14.5.1 建構二分類器
14.5.2 選擇學習率
14.5.3 更小的學習率
14.6 本章總結
第15章 優化器
15.1 用二維曲線表示誤差
15.2 調整學習率
15.2.1 恆定大小的更新
15.2.2 隨著時間的推移改變學習率
15.2.3 衰減調整策略
15.3 更新策略
15.3.1 批量梯度下降法
15.3.2 隨機梯度下降法
15.3.3 小批次梯度下降法
15.4 梯度下降的變體
15.4.1 動量
15.4.2 內斯特羅夫動量
15.4.3 AdaGrad演算法
15.4.4 Adadelta和RMSProp演算法
15.4.5 Adam演算法
15.5 優化器的選擇
15.6 正規化
15.6.1 Dropout
15.6.2 BatchNorm
15.7 本章總結
第四部分 進階知識
第16章 卷積神經網絡
16.1 初識卷積
16.1.1 顏色檢測
16.1.2 權重共享
16.1.3 大一點的捲積核
16.1.4 卷積核和特徵
16.1.5 填充
16.2 多維卷積
16.3 多重卷積核
16.4 卷積層
16.4.1 一維卷積
16.4.2 1×1卷積
16.5 更改輸出大小
16.5.1 池化
16.5.2 跨步前進
16.5.3 轉置卷積
16.6 卷積核的層次結構
16.6.1 簡化假設
16.6.2 尋找面具
16.6.3 尋找眼睛、鼻子和嘴巴
16.6.4 應用卷積核
16.7 本章總結
第17章 卷積網路實踐
17.1 手寫數字分類
17.2 VGG16
17.3 圖解卷積核(1)
17.4 圖解卷積核(2)
17.5 對抗樣本
17.6 本章總結
第18章 自編碼器
18.1 編碼簡介
18.2 混合表示
18.3 最簡單的自編碼器
18.4 更好的自編碼器
18.5 探索自編碼器
18.5.1 探索潛在變數
18.5.2 參數空間
18.5.3 混合潛在變量
18.5.4 基於新輸入的預測
18.6 卷積自編碼器
18.6.1 混合潛在變數
18.6.2 基於新輸入的預測
18.7 去噪
18.8 可變自編碼器
18.8.1 潛在變數的分佈
18.8.2 可變自編碼器結構
18.9 探索VAE
18.9.1 使用MNIST樣本
18.9.2 使用兩個潛在變量
18.9.3 產生新的輸入
18.10 本章總結
第19章 循環神經網絡
19.1 處理語言
19.1.1 常見的NLP任務
19.1.2 文本數值化
19.1.3 微調與下游網絡
19.2 全連接預測
19.2.1 測試網絡
19.2.2 失敗的原因
19.3 循環神經網絡
19.3.1 狀態
19.3.2 捲起圖表
19.3.3 實踐循環單元
19.3.4 訓練循環神經網絡
19.3.5 長短期記憶與門控循環網絡
19.4 使用循環神經網絡
19.4.1 處理太陽黑子數據
19.4.2 生成文本
19.4.3 其他架構
19.5 Seq2Seq
19.6 本章總結
第20章 注意力機制與Transformer模型
20.1 嵌入
20.1.1 詞嵌入技術
20.1.2 ELMo模型
20.2 注意力機制
20.2.1 形像比喻
20.2.2 自註意力機制
20.2.3 Q/KV注意力機制
20.2.4 多頭注意力機制
20.2.5 層圖標
20.3 Transformer模型
20.3.1 跳躍連接
20.3.2 Norm-Add
20.3.3 位置編碼
20.3.4 建置Transformer模組
20.3.5 運行Transformer模組
20.4 BERT和GPT-2
20.4.1 BERT
20.4.2 GPT-2
20.4.3 生成器討論
20.4.4 數據中毒
20.5 本章總結
第21章 強化學習
21.1 基本思想
21.2 學習新遊戲
21.3 強化學習的結構
21.3.1 步驟1:代理選擇操作
21.3.2 步驟2:環境做出反應
21.3.3 步驟3:代理自我更新
21.3.4 回到全局
21.3.5 理解回報
21.4 Flippers
21.5 L-Learning
21.5.1 基礎知識
21.5.2 L-Learning演算法
21.5.3 性能測試
21.5.4 不可預測性
21.6 Q-Learning
21.6.1 Q值和更新
21.6.2 Q-Learning策略
21.6.3 策略總覽
21.6.4 房間裡的大象
21.6.5 Q-Learning的作用
21.7 SARSA
21.7.1 SARSA演算法
21.7.2 SARSA的作用
21.7.3 Q-Learning與SARSA的比較
21.8 綜觀全局
21.9 本章總結
第22章 生成對抗網絡
22.1 偽造籌碼
22.1.1 從經驗中學習
22.1.2 訓練生成器網絡
22.1.3 學習過程
22.1.4 理解對抗性
22.2 實現生成對抗網絡
22.2.1 鑑別器
22.2.2 生成器
22.2.3 訓練生成對抗網絡
22.3 生成對抗網路的作用
22.3.1 建構鑑別器和生成器
22.3.2 訓練網絡
22.3.3 測試網絡
22.4 深度卷積生成對抗網絡
22.5 挑戰
22.5.1 大樣本訓練
22.5.2 模態崩潰
22.5.3 使用產生的資料訓練
22.6 本章總結
第23章 創意應用
23.1 深夢系統
23.1.1 刺激卷積核
23.1.2 測試我們的演算法
23.2 神經風格遷移
23.2.1 表現風格
23.2.2 表現內容
23.2.3 風格與內容
23.2.4 測試演算法
23.3 產生本書更多內容
23.4 本章總結
23.5 最後的思考
參考文獻
圖片來源
索引