TensorFlow 自然語言處理 Natural Language Processing with TensorFlow
Thushan Ganegedara
- 出版商: 機械工業
- 出版日期: 2019-06-01
- 定價: $594
- 售價: 7.9 折 $469
- 語言: 簡體中文
- 頁數: 320
- 裝訂: 平裝
- ISBN: 7111629140
- ISBN-13: 9787111629146
-
相關分類:
DeepLearning、TensorFlow、Text-mining
- 此書翻譯自: Natural Language Processing with TensorFlow
-
相關翻譯:
TensorFlow 自然語言處理|善用 Python 深度學習函式庫,教機器學會自然語言 (Natural Language Processing with TensorFlow) (繁中版)
立即出貨 (庫存 < 3)
買這商品的人也買了...
-
$1,200$948 -
$1,200$1,020 -
$580$493 -
$690$587 -
$1,200$1,020 -
$620$490
相關主題
商品描述
本書是一本使用深度學習算法和TensorFlow來編寫現代自然語言處理應用程序的實踐指南,內容涉及詞嵌入的各種方法、CNN/RNN/LSTM的TensorFlow實現及應用、LSTM在文本生成及圖像標題生成的應用、從統計機器翻譯到神經網絡翻譯以及自然語言處理的未來。通過閱讀本書,你將深入認識NLP(自然語言處理),並學習如何在深度學習NLP任務中應用TensorFlow,以及如何執行特定的NLP任務。
全書共11章,第1章簡要介紹NLP;第2章介紹如何編寫客戶端程序並在TensorFlow中運行它們;第3章介紹如何用神經網絡學習單詞向量或單詞表示;第4章介紹與單詞向量相關的更高級方法;第5章討論捲積神經網絡(CNN);第6章介紹遞歸神經網絡;第7章介紹長短期記憶網絡;第8章介紹LSTM的應用:文本生成;第9章介紹LSTM的應用:圖像標題生成;第10章介紹有關神經機器翻譯(NMT)模型的應用;第11章重點介紹NLP的現狀和未來趨勢。
深度學習應用所使用的大部分數據是由自然語言處理(NLP)提供的,而TensorFlow是目前比較重要的深度學習框架。面對當今巨量數據流中眾多的非結構化數據,本書詳細講解如何將TensorFlow與NLP二者結合以提供有效的工具,以及如何將這些工具應用於具體的NLP任務。
本書首先介紹NLP和TensorFlow的基礎知識,之後講解如何使用Word2vec及其高級擴展,以便通過創建詞嵌入將詞序列轉換為深度學習算法可用的向量。本書還介紹如何通過捲積神經網絡(CNN)和遞歸神經網絡(RNN)等經典深度學習算法執行句子分類和語言生成等重要的NLP任務。你將學習如何在NLP任務中應用高性能的RNN模型(比如長短期記憶單元),還將認識神經機器翻譯,並實現一個神經機器翻譯器。
通過閱讀本書,你將學到:
NLP的核心概念和各種自然語言處理方法
使用TensorFlow函數創建神經網絡以完成NLP任務
將海量數據處理成可用於深度學習應用的單詞表示
使用CNN和RNN執行句子分類和語言生成
使用最先進的RNN(如長短期記憶)執行復雜的文本生成任務
從頭開始編寫一個真正的神經機器翻譯器
未來的NLP趨勢和創新
作者簡介
圖珊加內格達拉(Thushan Ganegedara)目前是澳大利亞悉尼大學第三年的博士生。
他專注於機器學習和深度學習。
他喜歡在未經測試的數據上運行算法。
他還是澳大利亞初創公司AssessThreat的首席數據科學家。
他在斯里蘭卡莫拉圖瓦大學獲得了理學士學位。
他經常撰寫有關機器學習的技術文章和教程。
此外,他經常通過游泳來努力營造健康的生活方式。
目錄大綱
譯者序
前言
關於作者
關於審閱者
第1章 自然語言處理簡介 1
1.1 什麽是自然語言處理 1
1.2 自然語言處理的任務 2
1.3 傳統的自然語言處理方法 3
1.3.1 理解傳統方法 4
1.3.2 傳統方法的缺點 7
1.4 自然語言處理的深度學習方法? 8
1.4.1 深度學習的歷史 8
1.4.2 深度學習和NLP的當前狀況 9
1.4.3 理解一個簡單的深層模型—全連接神經網絡 10
1.5 本章之外的學習路線 12
1.6 技術工具簡介 14
1.6.1 工具說明 15
1.6.2 安裝Python和scikit-learn 15
1.6.3 安裝Jupyter Notebook 15
1.6.4 安裝TensorFlow 16
1.7 總結 17
第2章 理解TensorFlow 18
2.1 TensorFlow是什麽 18
2.1.1 TensorFlow入門 19
2.1.2 TensorFlow客戶端詳細介紹 21
2.1.3 TensorFlow架構:當你執行客戶端時發生了什麽 21
2.1.4 Cafe Le TensorFlow:使用類比理解TensorFlow 23
2.2 輸入、變量、輸出和操作 24
2.2.1 在TensorFlow中定義輸入 25
2.2.2 在TensorFlow中定義變量 30
2.2.3 定義TensorFlow輸出 31
2.2.4 定義TensorFlow操作 31
2.3 使用作用域重用變量 40
2.4 實現我們的第一個神經網絡 42
2.4.1 準備數據 43
2.4.2 定義TensorFLow圖 43
2.4.3 運行神經網絡 45
2.5 總結 46
第3章 Word2vec——學習詞嵌入 48
3.1 單詞的表示或含義是什麽 49
3.2 學習單詞表示的經典方法 49
3.2.1 WordNet—使用外部詞匯知識庫來學習單詞表示 50
3.2.2 獨熱編碼表示方式 53
3.2.3 TF-IDF方法 53
3.2.4 共現矩陣 54
3.3 Word2vec—基於神經網絡學習單詞表示 55
3.3.1 練習:queen = king – he + she嗎 56
3.3.2 為學習詞嵌入定義損失函數 58
3.4 skip-gram算法 59
3.4.1 從原始文本到結構化的數據 59
3.4.2 使用神經網絡學習詞嵌入 60
3.4.3 使用TensorFlow實現skip-gram 67
3.5 連續詞袋算法 69
3.6 總結 71
第4章 高級Word2vec 72
4.1 原始skip-gram算法 72
4.1.1 實現原始skip-gram算法 73
4.1.2 比較原始skip-gram算法和改進的skip-gram算法 75
4.2 比較skip-gram算法和CBOW算法 75
4.2.1 性能比較 77
4.2.2 哪個更勝一籌:skip-gram還是CBOW 79
4.3 詞嵌入算法的擴展 81
4.3.1 使用unigram分佈進行負採樣 81
4.3.2 實現基於unigram的負採樣 81
4.3.3 降採樣:從概率上忽視常用詞 83
4.3.4 實現降採樣 84
4.3.5 比較CBOW及其擴展算法 84
4.4 最近的skip-gram和CBOW的擴展算法 85
4.4.1 skip-gram算法的限制 85
4.4.2 結構化skip-gram算法 85
4.4.3 損失函數 86
4.4.4 連續窗口模型 87
4.5 GloVe:全局向量表示 88
4.5.1 理解GloVe 88
4.5.2 實現GloVe 89
4.6 使用Word2vec進行文檔分類 90
4.6.1 數據集 91
4.6.2 用詞向量進行文檔分類 91
4.6.3 實現:學習詞嵌入 92
4.6.4 實現:詞嵌入到文檔嵌入 92
4.6.5 文本聚類以及用t-SNE可視化文檔嵌入 93
4.6.6 查看一些特異點 94
4.6.7 實現:用K-means對文檔進行分類/聚類 95
4.7 總結 96
第5章 用捲積神經網絡進行句子分類 97
5.1 介紹捲積神經網絡 97
5.1.1 CNN基礎 97
5.1.2 捲積神經網絡的力量 100
5.2 理解捲積神經網絡 100
5.2.1 捲積操作 100
5.2.2 池化操作 103
5.2.3 全連接層 104
5.2.4 組合成完整的CNN 105
5.3 練習:在MNIST數據集上用CNN進行圖片分類 105
5.3.1 關於數據 106
5.3.2 實現CNN 106
5.3.3 分析CNN產生的預測結果 108
5.4 用CNN進行句子分類 109
5.4.1 CNN結構 110
5.4.2 隨時間池化 112
5.4.3 實現:用CNN進行句子分類 112
5.5 總結 115
第6章 遞歸神經網絡 116
6.1 理解遞歸神經網絡 116
6.1.1 前饋神經網絡的問題 117
6.1.2 用遞歸神經網絡進行建模 118
6.1.3 遞歸神經網絡的技術描述 119
6.2 基於時間的反向傳播 119
6.2.1 反向傳播的工作原理 120
6.2.2 為什麽RNN不能直接使用反向傳播 120
6.2.3 基於時間的反向傳播:訓練RNN 121
6.2.4 截斷的BPTT:更有效地訓練RNN 121
6.2.5 BPTT的限制:梯度消失和梯度爆炸 122
6.3 RNN的應用 123
6.3.1 一對一RNN 123
6.3.2 一對多RNN 123
6.3.3 多對一RNN 124
6.3.4 多對多RNN 124
6.4 用RNN產生文本 125
6.4.1 定義超參數 125
6.4.2 將輸入隨時間展開用於截斷的BPTT 125
6.4.3 定義驗證數據集 126
6.4.4 定義權重和偏置 126
6.4.5 定義狀態持續變量 127
6.4.6 用展開的輸入計算隱藏狀態和輸出 127
6.4.7 計算損失 128
6.4.8 在新文本片段的開頭重置狀態 128
6.4.9 計算驗證輸出 128
6.4.10 計算梯度和優化 129
6.4.11 輸出新生成的文本塊 129
6.5 評估RNN的文本結果輸出 130
6.6 困惑度:衡量文本結果的質量 131
6.7 有上下文特徵的遞歸神經網絡:更長記憶的RNN 132
6.7.1 RNN-CF的技術描述 132
6.7.2 實現RNN-CF 133
6.7.3 RNN-CF產生的文本 138
6.8 總結 140
第7章 長短期記憶網絡 142
7.1 理解長短期記憶網絡 142
7.1.1 LSTM是什麽 143
7.1.2 更詳細的LSTM 144
7.1.3 LSTM與標準RNN的區別 149
7.2 LSTM如何解決梯度消失問題 150
7.2.1 改進LSTM 152
7.2.2 貪婪採樣 153
7.2.3 集束搜索 153
7.2.4 使用詞向量 154
7.2.5 雙向LSTM(BiLSTM) 155
7.3 其他LSTM的變體 156
7.3.1 窺孔連接 156
7.3.2 門循環單元 157
7.4 總結 159
第8章 LSTM應用:文本生成 160
8.1 數據集 160
8.1.1 關於數據集 160
8.1.2 數據預處理 162
8.2 實現LSTM 162
8.2.1 定義超參數 163
8.2.2 定義參數 163
8.2.3 定義LSTM單元及操作 165
8.2.4 定義輸入和標簽 165
8.2.5 定義處理序列數據所需的序列計算 166
8.2.6 定義優化器 167
8.2.7 隨時間衰減學習率 167
8.2.8 做預測 168
8.2.9 計算困惑度(損失) 168
8.2.10 重置狀態 169
8.2.11 貪婪採樣避免單峰 169
8.2.12 生成新文本 169
8.2.13 生成的文本樣例 170
8.3 LSTM與窺孔LSTM和GRU對比 171
8.3.1 標準LSTM 171
8.3.2 門控循環單元(GRU) 172
8.3.3 窺孔LSTM 174
8.3.4 訓練和驗證隨時間的困惑度 175
8.4 改進LSTM:集束搜索 176
8.4.1 實現集束搜索 177
8.4.2 集束搜索生成文本的示例 179
8.5 LSTM改進:用單詞替代n-gram生成文本 179
8.5.1 維度災難 179
8.5.2 Word2vec補救 180
8.5.3 使用Word2vec生成文本 180
8.5.4 使用LSTM-Word2vec和集束搜索生成的文本示例 181
8.5.5 隨時間困惑度 182
8.6 使用TensorFlow RNN API 183
8.7 總結 186
第9章 LSTM應用:圖像標題生成 188
9.1 瞭解數據 188
9.1.1 ILSVRC ImageNet數據集 189
9.1.2 MS-COCO數據集 189
9.2 圖像標題生成實現路徑 191
9.3 使用CNN提取圖像特徵 193
9.4 實現:使用VGG-16加載權重和推理 193
9.4.1 構建和更新變量 194
9.4.2 預處理輸入 195
9.4.3 VGG-16推斷 196
9.4.4 提取圖像的向量化表達 197
9.4.5 使用VGG-16預測類別概率 197
9.5 學習詞嵌入 198
9.6 準備輸入LSTM的標題 198
9.7 生成LSTM的數據 199
9.8 定義LSTM 201
9.9 定量評估結果 203
9.9.1 BLEU 203
9.9.2 ROUGE 204
9.9.3 METEOR 204
9.9.4 CIDEr 206
9.9.5 模型隨著時間變化的BLEU-4 206
9.10 為測試圖像生成標題 207
9.11 使用TensorFlow RNN API和預訓練的GloVe詞向量 210
9.11.1 加載GloVe詞向量 210
9.11.2 清洗數據 212
9.11.3 使用TensorFlow RNN API和預訓練的詞嵌入 213
9.12 總結 218
第10章 序列到序列學習:神經機器翻譯 220
10.1 機器翻譯 220
10.2 機器翻譯簡史 221
10.2.1 基於規則的翻譯 221
10.2.2 統計機器翻譯(SMT) 222
10.2.3 神經機器翻譯(NMT) 223
10.3 理解神經機器翻譯 225
10.3.1 NMT原理 225
10.3.2 NMT架構 226
10.4 為NMT系統準備數據 228
10.4.1 訓練階段 229
10.4.2 反轉源句 229
10.4.3 測試階段 230
10.5 訓練NMT 230
10.6 NMT推理 231
10.7 BLEU評分:評估機器翻譯系統 232
10.7.1 修正的精確度 232
10.7.2 簡短懲罰項 233
10.7.3 最終BLEU得分 233
10.8 從頭開始實現NMT:德語到英語的翻譯 233
10.8.1 數據介紹 234
10.8.2 處理數據 234
10.8.3 學習詞嵌入 235
10.8.4 定義編碼器和解碼器 236
10.8.5 定義端到端輸出計算 238
10.8.6 翻譯結果 239
10.9 結合詞嵌入訓練NMT 241
10.9.1 最大化數據集詞匯表和預訓練詞嵌入之間的匹配 241
10.9.2 將嵌入層定義為TensorFlow變量 243
10.10 改進NMT 245
10.10.1 教師強迫 246
10.10.2 深度LSTM 247
10.11 註意力 247
10.11.1 突破上下文向量瓶頸 247
10.11.2 註意力機制細節 248
10.11.3 註意力NMT的翻譯結果 253
10.11.4 源句子和目標句子註意力可視化 254
10.12 序列到序列模型的其他應用:聊天機器人 256
10.12.1 訓練聊天機器人 256
10.12.2 評估聊天機器人:圖靈測試 257
10.13 總結 258
第11章 自然語言處理的現狀與未來 259
11.1 NLP現狀 259
11.1.1 詞嵌入 260
11.1.2 神經機器翻譯 264
11.2 其他領域的滲透 266
11.2.1 NLP與電腦視覺結合 266
11.2.2 強化學習 268
11.2.3 NLP生成式對抗網絡 269
11.3 走向通用人工智能 270
11.3.1 一個模型學習全部 271
11.3.2 聯合多任務模型:為多個NLP任務生成神經網絡 272
11.4 社交媒體NLP 273
11.4.1 社交媒體中的謠言檢測 274
11.4.2 社交媒體中的情緒檢測 274
11.4.3 分析推特中的政治框架 274
11.5 涌現的新任務 275
11.5.1 諷刺檢測 275
11.5.2 語言基礎 276
11.5.3 使用LSTM略讀文本 276
11.6 新興的機器學習模型 277
11.6.1 階段LSTM 277
11.6.2 擴張RNN(DRNN) 278
11.7 總結 278
11.8 參考文獻 279
附錄 數學基礎與高級TensorFlow 282