Python 深度學習:模型、方法與實現 Advanced Deep Learning with Python

Ivan Vasilev 冀振燕//趙子涵//劉偉//劉冀瑞//董為

  • 出版商: 機械工業
  • 出版日期: 2021-09-01
  • 定價: $774
  • 售價: 8.5$658
  • 語言: 簡體中文
  • 頁數: 314
  • 裝訂: 平裝
  • ISBN: 7111688457
  • ISBN-13: 9787111688457
  • 相關分類: DeepLearning
  • 立即出貨 (庫存 < 3)

買這商品的人也買了...

商品描述

本書集合了基於應用領域的高級深度學習的模型、方法和實現。
本書分為四部分。
第1部分介紹了深度學習的構建和神經網絡背後的數學知識。
第二部分討論深度學習在計算機視覺領域的應用。
第三部分闡述了自然語言和序列處理。
講解了使用神經網絡提取複雜的單詞向量表示。
討論了各種類型的循環網絡,如長短期記憶網絡和門控循環單元網絡。
第四部分介紹一些雖然還沒有被廣泛採用但有前途的深度學習技術,
包括如何在自動駕駛上應用深度學習。
學完本書,讀者將掌握與深度學習相關的關鍵概念,
學會如何使用TensorFlow和PyTorch實現相應的AI解決方案。

作者簡介

Ivan Vasilev

索菲亞大學的人工智能碩士。
他是深度神經網絡的醫學圖像分類和分割領域的機器學習工程師和研究員。
自2017年以來,他一直專注於金融機器學習。
他正在開發一個基於Python的平台,該平台為快速試驗用於算法交易的不同機器學習算法提供基礎。

目錄大綱

譯者序
前言
作者簡介
審校者簡介
第一部分 核心概念
第1章 神經網絡的具體細節
1.1 神經網絡的數學基礎
1.1.1 線性代數
1.1.2 概率介紹
1.1.3 微分學
1.2 神經網絡的簡單介紹
1.2.1 神經元
1.2.2 層的運算
1.2.3 神經網絡
1.2.4 激活函數
1.2.5 通用逼近定理
1.3 訓練神經網絡
1.3.1 梯度下降
1.3.2 代價函數
1.3.3 反向傳播
1.3.4 權重初始化
1.3.5 SGD改進
1.4 總結

第二部 分計算機視覺
第2章 理解卷積網絡
2.1 理解CNN
2.1.1 卷積類型
2.1.2 提高CNN的效率
2.1.3 可視化CNN
2.1.4 CNN正則化
2.2 遷移學習介紹
2.2.1 使用PyTorch實現遷移學習
2.2.2 使用TensorFlow 2.0實現遷移學習
2.3 總結

第3章 高級卷積網絡
3.1 AlexNet介紹
3.2 VGG介紹
3.3 理解殘差網絡
3.4 理解Inception網絡
3.4.1 Inception v
3.4.2 Inception v2和v
3.4.3 Inception v4和Inception-ResNet
3.5 Xception介紹
3.6 MobileNet介紹
3.7 DenseNet介紹
3.8 神經架構搜索的工作原理
3.9 膠囊網絡介紹
3.9.1 卷積網絡的局限性
3.9.2 膠囊
3.9.3 膠囊網絡的結構
3.10 總結

第4章 對象檢測與圖像分割
4.1 對象檢測介紹
4.1.1 對象檢測的方法
4.1.2 使用YOLO v3進行對象檢測
4.1.3 使用Faster R-CNN進行對象檢測
4.2 圖像分割介紹
4.2.1 使用U-Net進行語義分割
4.2.2 使用Mask R-CNN進行實例分割
4.3 總結

第5章 生成模型
5.1 生成模型的直覺和證明
5.2 VAE介紹
5.3 GAN介紹
5.3.1 訓練GAN
5.3.2 實現GAN
5.3.3 訓練GAN的缺陷
5.4 GAN的類型
5.4.1 DCGAN
5.4.2 CGAN
5.4.3 WGAN
5.4.4 使用CycleGAN實現圖像到圖像的轉換
5.5 藝術風格遷移介紹
5.6 總結

第三部分 自然語言和序列處理
第6章 語言建模
6.1 理解n-gram
6.2 神經語言模型介紹
6.2.1 神經概率語言模型
6.2.2 word2vec
6.2.3 GloVe模型
6.3 實現語言模型
6.3.1 訓練嵌入模型
6.3.2 可視化嵌入向量
6.4 總結

第7章 理解RNN
7.1 RNN介紹
7.2 長短期記憶介紹
7.3 門控循環單元介紹
7.4 實現文本分類
7.5 總結

第8章 seq2seq模型和注意力機制
8.1 seq2seq模型介紹
8.2 使用注意力的seq2seq
8.2.1 Bahdanau Attention
8.2.2 Luong Attention
8.2.3 一般注意力
8.2.4 使用注意力實現seq2seq
8.3 理解transformer
8.3.1 transformer注意力
8.3.2 transformer模型
8.3.3 實現transformer
8.4 transformer語言模型
8.4.1 基於transformer的雙向編碼器表示
8.4.2 transformer-XL
8.4.3 XLNet
8.4.4 使用transformer語言模型生成文本
8.5 總結

第四部分 展望未來
第9章 新興的神經網絡設計
9.1 GNN介紹
9.1.1 循環GNN
9.1.2 卷積圖神經網絡
9.1.3 圖自編碼器
9.1.4 神經圖學習
9.2 記憶增強神經網絡介紹
9.2.1 神經圖靈機
9.2.2 MANN
9.3 總結

第10章 元學習
10.1 元學習介紹
10.1.1 零樣本學習
10.1.2 單樣本學習
10.1.3 元訓練和元測試
10.2 基於度量的元學習
10.2.1 為單樣本學習匹配網絡
10.2.2 孿生網絡
10.2.3 原型網絡
10.3 基於優化的元學習
10.4 總結

第11章 自動駕駛汽車的深度學習
11.1 自動駕駛汽車介紹
11.1.1 自動駕駛汽車研究簡史
11.1.2 自動化的級別
11.2 自動駕駛汽車系統的組件
11.2.1 環境感知
11.2.2 路徑規劃
11.33 D數據處理介紹
11.4 模仿駕駛策略
11.5 ChauffeurNet駕駛策略
11.5.1 輸入/輸出表示
11.5.2 模型架構
11.5.3 訓練
11.6 總結