從神經網絡到深度學習揭秘
聞新、許磊、董翔、徐一方、王慧琴
- 出版商: 清華大學
- 出版日期: 2026-03-01
- 售價: $270
- 語言: 簡體中文
- ISBN: 7302711976
- ISBN-13: 9787302711971
-
相關分類:
DeepLearning
下單後立即進貨 (約4週~6週)
商品描述
作者簡介
目錄大綱
目錄
第1章 緒論 / 1
1.1 什麼是神經網絡 / 1
1.2 人工神經網絡的階段與劃分 / 1
1.3 神經網絡的研究內容 / 3
1.4 人腦 / 3
1.5 人工神經元的概念 / 6
1.6 神經網絡的計算能力 / 7
1.7 深度學習與神經網絡的關系 / 8
1.8 機器學習及其類型 / 8
1.9 如何理解人工智能、機器學習和深度學習之間的差異 / 9
1.10 深度學習與傳統機器學習的對比 / 10
1.11 人工智能包含的主要分支 / 11
1.12 神經網絡的類型 / 12
1.13 TensorFlow 與 Keras 的比較 / 13
1.13.1 Keras 概述 / 13
1.13.2 TensorFlow 概述 / 14
1.13.3 TensorFlow 與 Keras 的顯著區別 / 14
1.13.4 總結 / 16
1.14 什麼是PyTorch / 17
1.15 人工智能中的端到端學習 / 18
1.16 人工智能的三大流派 / 18
1.17 神經網絡與深度學習的發展歷程 / 19
1.18 探索與思考 / 21
第2章 多層感知器的結構與意義 / 23
2.1 多層感知器的作用 / 23
2.1.1 多層結構實現復雜功能 / 23
2.1.2 層次結構與計算過程 / 24
2.1.3 輸入層、隱藏層與輸出層 / 24
2.1.4 輸出傳遞機制:逐層構建理解 / 25
2.1.5 隱藏層:主要的計算與學習中心 / 25
2.2 多層感知器怎樣求解問題 / 25
2.3 多層感知器的應用與實現 / 26
2.3.1 要求 / 27
2.3.2 代碼 / 27
2.3.3 代碼運行步驟的解釋 / 27
2.3.4 結論 / 28
2.4 常用於多層感知器的五種激活函數 / 29
2.4.1 為什麼要使用激活函數 / 29
2.4.2 Sigmoid 函數及其實現 / 30
2.4.3 tanh函數及其實現 / 32
2.4.4 ReLU函數及其實現 / 33
2.4.5 Softmax函數及其實現 / 35
2.4.6 Swish函數及其實現 / 37
2.4.7 結論 / 38
2.5 反向傳播算法 / 38
2.5.1 什麼是反向傳播 / 39
2.5.2 反向傳播如何工作 / 39
2.5.3 反向傳播算法的優點與缺點 / 40
2.5.4 反向傳播算法的實現 / 40
2.6 探索與思考 / 43
第3章 循環神經網絡:構建自己的循環神經網絡 / 45
3.1 循環神經網絡簡介 / 45
3.2 循環神經網絡的架構 / 46
3.2.1 霍普菲爾德網絡 / 46
3.2.2 簡單循環網絡 / 47
3.3 其他類型網絡 / 48
3.4 遺傳算法流程 / 48
3.4.1 在染色體種群中表示神經網絡 / 49
3.4.2 使用循環神經網絡進行字母預測 / 50
3.4.3 簡單的 Elman 實現 / 51
3.4.4 運行 / 57
3.5 探索與思考 / 60
第4章 玻耳茲曼機:理論、衍生模型與 PyTorch 實踐 / 62
4.1 玻耳茲曼機背後的故事 / 62
4.2 玻耳茲曼機那些事 / 62
4.2.1 什麼是玻耳茲曼機 / 62
4.2.2 玻耳茲曼機的超參數 / 63
4.2.3 玻耳茲曼機的關鍵組件的功能 / 64
4.2.4 玻耳茲曼機的能力 / 64
4.2.5 玻耳茲曼機的工作原理 / 65
4.2.6 玻耳茲曼機的應用 / 66
4.2.7 在玻耳茲曼機基礎上構建的深度信念網絡 / 67
4.2.8 玻耳茲曼機的拓展 / 67
4.2.9 玻耳茲曼機的未來 / 68
4.3 初學者指南:使用PyTorch實現受限玻耳茲曼機 / 69
4.4 探索與思考 / 73
第5章 探索核支持向量機網絡 / 75
5.1 多層感知器網絡和徑向基函數網絡 / 75
5.1.1 多層感知器網絡 / 75
5.1.2 徑向基函數網絡 / 76
5.1.3 兩種網絡應用於分類的區別 / 77
5.1.4 結論 / 79
5.2 徑向基函數網絡應用的Python實現指南 / 79
5.3 核向量機網絡功能的可視化 / 83
5.3.1 案例分析 / 84
5.3.2 徑向基核支持向量機算法的應用 / 88
5.3.3 總結 / 91
5.4 探索與思考 / 92
第6章 卷積神經網絡的核心與應用 / 94
6.1 卷積神經網絡的設計準則 / 94
6.1.1 局部性準則 / 94
6.1.2 參數共享準則 / 94
6.1.3 二次采樣準則 / 95
6.2 卷積神經網絡的整體架構 / 95
6.3 卷積神經網絡的卷積層 / 96
6.3.1 卷積運算 / 96
6.3.2 卷積層與全連接層的比較 / 100
6.4 卷積神經網絡的池化層 / 102
6.5 卷積之後的全連接層 / 103
6.6 常見的卷積神經網絡架構 / 103
6.6.1 LeNet / 104
6.6.2 AlexNet / 104
6.6.3 VGGNet / 104
6.6.4 ResNet / 105
6.6.5 GoogLeNet / 105
6.7 探索與思考 / 106
第7章 理解長短期記憶網絡和門控循環單元網絡 / 109
7.1 循環神經網絡 / 109
7.2 長距離依賴問題 / 110
7.3 長短期記憶網絡 / 110
7.4 長短期記憶網絡的核心思想 / 112
7.5 長短期記憶網絡的分析步驟 / 112
7.6 長短期記憶網絡的變體 / 114
7.6.1 窺視孔連接 / 114
7.6.2 耦合的遺忘門與輸入門 / 114
7.6.3 門控循環單元 / 115
7.7 何時選擇門控循環單元網絡而非長短期記憶網絡 / 115
7.8 使用 Python 3實現LSTM / 116
7.8.1 為什麼使用Python 3實現LSTM / 116
7.8.2 環境搭建 / 117
7.8.3 導入庫 / 117
7.8.4 選擇數據集 / 118
7.8.5 數據預處理 / 118
7.8.6 構建長短期記憶模型 / 118
7.8.7 構建訓練模型 / 119
7.8.8 評估模型 / 119
7.8.9 總結 / 120
7.9 探索與思考 / 120
第8章 Transformer架構的深度解析與應用探究 / 122
8.1 什麼是Transformer / 122
8.2 什麼是Transformer模型 / 122
8.3 歷史背景 / 122
8.4 Transformer 架構 / 123
8.4.1 概述 / 123
8.4.2 編碼器的工作流程 / 124
8.4.3 解碼器的工作流程 / 132
8.4.4 解碼器的輸出 / 135
8.5 實際應用中的 Transformer 模型 / 136
8.5.1 BERT / 136
8.5.2 LaMDA / 136
8.5.3 GPT與ChatGPT / 136
8.5.4 其他變體 / 136
8.6 基準測試與性能 / 137
8.6.1 機器翻譯任務 / 137
8.6.2 問答基準測試 / 137
8.6.3 自然語言推理基準測試 / 137
8.7 與其他架構的對比 / 138
8.7.1 循環層 / 138
8.7.2 卷積層 / 138
8.8 結論 / 139
8.9 探索與思考 / 139
附錄 一日精通Python編程 / 141
參考文獻 / 172



