基於 TensorFlow 的深度學習:神經網路、電腦視覺和 NLP 的理論與實踐 Learning Deep Learning: Theory and Practice of Neural Networks, Computer Vision, Nlp, and Transformers Using Tensorflow

Magnus Ekman 譯者 週翊民

買這商品的人也買了...

商品描述

本書介紹了深度學習核心概念和實際程式技術,闡述了深層神經網路中人工神經元、
全連接層、卷積層和循環層等模組,也展示如何使用它們來建構高階體系結構。
本書特色在於利用這些概念來建立現代的電腦視覺和自然語言處理網絡,包括mask-CNN、
GPT和BERT,也介紹了自然語言翻譯和生成圖像的自然語言描述。
本書涵蓋了工業界和學術界使用的兩個主要的PythonDL庫,探討了重要的倫理問題。

目錄大綱

推薦序一
推薦序二
前言
第1章Rosenblatt感知器
1.1 雙輸入感知器範例
1.2 感知器學習演算法
1.3 感知器的限制
1.4 組合多個感知器
1.5 感知器的幾何解釋
1.6 理解偏差項
第2章基於梯度的學習
2.1 感知器學習演算法的直觀解釋
2.2 用梯度下降法解決學習問題
2.3 網路中的常數與變數
2.4 感知器學習演算法的解析
2.5 感知器學習演算法的幾何描述
2.6 重新檢視不同類型的感知器
2.7使用感知器進行模式識別
第3章Sigmoid神經元與反向傳播
3.1 改進的神經元實現多層網路的梯度下降
3.2 激活函數的選擇
3.3 複合函數和鍊式法則
3.4 利用反向傳播計算梯度
3.4.1前向傳播階段
3.4.2 後向傳播階段
3.4.3 權重調整
3.5 每層具有多個神經元的反向傳播
3.6 程式設計範例:學習XOR函數
3.7 網路結構
第4章用於多分類的全連結網路
4.1訓練網路時所用資料集簡介
4.1.1 探索資料集
4.1.2 資料集中的人為偏見
4.1.3 訓練集、測試集與泛化
4.1.4 超參數調優與測試集資訊外洩
4.2 訓練與推理
4.3 擴展網路和學習演算法以進行多分類
4.4 用於數字分類的網路
4.5 多分類的損失函數
4.6 程式範例:手寫數字分類
4.7 小批量梯度下降
第5章走向DL:框架和網路調整
5.1 程式設計範例:轉移到DL架構

第6章全連結網路在迴歸的應用
第7章卷積神經網路在影像分類的應用
第8章深度卷積神經網路與預訓練模型
第9章以循環神經網路預測時間序列
第10章長短期記憶
第11章使用LSTM和集束搜尋自動補全文本
第12章神經語言模型和詞嵌入
第13章Word2vec和GloVe的詞嵌入
第14章序列到序列網絡和自然語言翻譯
第15章註意力機制和Transformer架構
第16章用於圖像字幕的一對多網絡
第17章其他主題
第18章總結和未來展望
附錄A 線性回歸和線性分類
附錄B 目標檢測和分割
附錄C Word2vec和GloVe之外的詞嵌入
附錄D GPT、BERT與RoBERTa
附錄E Newton-Raphson法與梯度下降法
附錄F 數位分類網路的矩陣實現
附錄G 卷積層與數學卷積的關係
附錄H 門控循環單元
附錄I 建構開發環境
附錄J 備忘清單
參考文獻