全格局使用 PyTorch -- 深度學習和圖神經網路 -- 基礎篇

李金洪

  • 全格局使用 PyTorch -- 深度學習和圖神經網路 -- 基礎篇-preview-1
  • 全格局使用 PyTorch -- 深度學習和圖神經網路 -- 基礎篇-preview-2
  • 全格局使用 PyTorch -- 深度學習和圖神經網路 -- 基礎篇-preview-3
  • 全格局使用 PyTorch -- 深度學習和圖神經網路 -- 基礎篇-preview-4
  • 全格局使用 PyTorch -- 深度學習和圖神經網路 -- 基礎篇-preview-5
  • 全格局使用 PyTorch -- 深度學習和圖神經網路 -- 基礎篇-preview-6
  • 全格局使用 PyTorch -- 深度學習和圖神經網路 -- 基礎篇-preview-7
  • 全格局使用 PyTorch -- 深度學習和圖神經網路 -- 基礎篇-preview-8
  • 全格局使用 PyTorch -- 深度學習和圖神經網路 -- 基礎篇-preview-9
  • 全格局使用 PyTorch -- 深度學習和圖神經網路 -- 基礎篇-preview-10
  • 全格局使用 PyTorch -- 深度學習和圖神經網路 -- 基礎篇-preview-11
  • 全格局使用 PyTorch -- 深度學習和圖神經網路 -- 基礎篇-preview-12
  • 全格局使用 PyTorch -- 深度學習和圖神經網路 -- 基礎篇-preview-13
全格局使用 PyTorch -- 深度學習和圖神經網路 -- 基礎篇-preview-1

買這商品的人也買了...

商品描述

深度學習擅長處理結構規則的多維資料(歐氏空間),但現實生活中,很多不規則的資料如:社群、電子商務、交通領域,多是之間的關聯資料。彼此間以龐大的節點基礎與複雜的互動關係形成了特有的圖結構(或稱拓撲結構資料),這些資料稱為「非歐氏空間資料」,並不適合用深度學習的模型去分析。

 

圖神經網路(Graph Neural Networks, GNN)是為了處理結構不規則資料而產生的,主要利用圖結構的資料,透過機器學習的方法進行擬合、預測等。


〇 在結構化場景中,GNN 被廣泛應用在社群網站、推薦系統、物理系統、化學分子預測、知識圖譜等領域。
〇 在非結構化領域,GNN 可以用在圖型和文字等領域。
〇 在其他領域,還有圖生成模型和使用 GNN 來解決組合最佳化問題的場景。


市面上充滿 NN 的書,但卻沒有一本完整說明 GNN,倘若不快點學這個新一代的神經網路,你會用的普通神經網路馬上就會落伍了!非歐氏空間才是最貼近人類生活的世界,而要真正掌握非歐氏空間的問題解決,GNN 是你一定要學的技術,就由本書一步步帶領你完全攻略!

 

〇 使用 Graph 概念取代傳統的歐氏空間神經元
〇 最好用的 PyTorch + Anaconda + Jupyter
〇 從基礎的 CNN、RNN、GAN 開始上手神經網路
〇 了解基礎的啟動函數、損失函數、L1/L2、交叉熵、Softmax 等概念
〇 NLP 使用神經網路處理 + 多頭注意力機制
〇 Few-shot/Zero-shot 的神經網路設計
〇 空間域的使用,使用 DGL、Networkx
〇 利用 GNN 進行論文分類

 

本書特色

~GNN 最強入門參考書~

● 以初學者角度從零開始講解,消除讀者學習過程跳躍感
● 理論和程式結合,便於讀者學以致用
● 知識系統,逐層遞進
● 內容貼近技術趨勢
● 圖文結合,化繁為簡
● 在基礎原理之上,注重通用規律

作者簡介

李金洪

精通 C、Python、Java 語言,擅長神經網路、演算、協定分析、移動互聯網安全架構等技術,先後擔任過 CAD 演算工程師、架構師、專案經理、部門經理等職位。參與過深度學習領域某移動互聯網後臺的 OCR 項目,某娛樂節目機器人的語音辨識、聲紋識別專案,金融領域的若干分類專案。

目錄大綱

【第一篇 入門 – PyTorch 基礎】

第 1 章 快速了解人工智慧與 PyTorch

1.1 圖神經網路與深度學習

1.2 PyTorch 是做什麼的

1.3 PyTorch 的特點

1.4 PyTorch 與 TensorFlow 各有所長

1.5 如何使用本書學好深度學習

 

第 2 章 架設開發環境

2.1 下載及安裝 Anaconda

2.2 安裝 PyTorch

2.3 熟悉 Anaconda 3 的開發工具

2.4 測試開發環境

 

第 3 章 PyTorch 基本開發步驟 -- 用邏輯回歸擬合二維資料

3.1 實例 1:從一組看似混亂的資料中找出規律

3.2 模型是如何訓練出來的

3.3 複習

 

第 4 章 快速上手 PyTorch

4.1 神經網路中的幾個基底資料型態

4.2 張量類別的基

4.3 張量與 NumPy

4.4 在 CPU 和 GPU 控制的記憶體中定義張量

4.5 生成隨機值張

4.6 張量間的數學運算

4.7 張量間的資料操作

4.8 Variable 類型與自動微分模組

4.9 定義模型結構的步驟與方法

4.10 模型的網路層

 

第 5 章 神經網路的基本原理與實現

5.1 了解深度學習中的神經網路與神經元

5.2 深度學習中的基礎神經網路模型

5.3 什麼是全連接神經網路

5.4 啟動函數--加入非線性因素,彌補線性模型缺陷

5.5 啟動函數複習

5.6 訓練模型的步驟與方法

5.7 神經網路模組 (nn) 中的損失函數

5.8 Softmax 演算法 -- 處理分類問題

5.9 最佳化器模組

5.10 學習率衰減 -- 在訓練的速度與精度之間找到平衡

5.11 實例 4:預測鐵達尼號船上的生存乘客

 

【第二篇 基礎 -- 神經網路的監督訓練與無監督訓練】

第 6 章 實例 5:辨識黑白圖中的服裝圖案

6.1 熟悉樣本:了解 Fashion-MNIST 資料集

6.2 製作批次資料集

6.3 建構並訓練模型

6.4 載入模型,並用其進行預測

6.5 評估模型

6.6 擴充:多顯示卡平行訓練

 

第 7 章 監督學習中的神經網路

7.1 從視覺的角度了解卷積神經網路

7.2 卷積神經網路的結構

7.3 卷積神經網路的實現

7.4 深層卷積神經網路

7.5 循環神經網路結構

7.6 常見的循環神經網路單元及結構

7.7 實例 11:用循環神經網路訓練語言模型

7.8 過擬合問題及最佳化技巧

7.9 神經網路中的注意力機制

7.10 實例 18:利用注意力循環神經網路對圖片分類

 

第 8 章 無監督學習中的神經網路

8.1 快速了解資訊熵

8.2 通用的無監督模型 -- 自編碼神經網路與對抗神經網路

8.3 自編碼神經網路

8.4 實例 19:用變分自編碼神經網路模型生成模擬資料

8.5 實例 20:用條件變分自編碼神經網路生成可控模擬資料

8.6 對抗神經網路

8.7 實例 21:用 WGAN-gp 模型生成模擬資料

8.8 實例 22:用條件 GAN 生成可控模擬資料

8.9 實例 23:實現帶有 W 散度的 GAN -- WGAN-div 模型

8.10 散度在神經網路中的應用

8.11 實例 25:用最大化深度相互資訊模型執行圖片搜索器

 

第 9 章 快速了解圖神經網路 -- 少量樣本也可以訓練模型

9.1 圖神經網路的相關基礎知識

9.2 矩陣的基礎

9.3 鄰接矩陣的幾種操作

9.4 實例 26:用圖卷積神經網路為論文分類

9.5 圖卷積神經網路

9.6 擴充實例:用 Multi-sample Dropout 最佳化模型的訓練速度

9.7 從圖神經網路的角度看待深度學習

9.8 圖神經網路使用拉普拉斯矩陣的原因

 

第 10 章 基於空間域的圖神經網路實現

10.1 重新認識圖卷積神經網路

10.2 實例 27:用圖注意力神經網路為論文分類

10.3 圖神經網路常用函數庫 – DGL 函數庫

10.4 DGLGraph 圖的基本操作

10.5 實例 28:用帶有殘差結構的多層 GAT 模型實現論文分類

10.6 圖卷積模型的缺陷

10.7 實例 29:用簡化圖卷積模型實現論文分類

10.8 實例 30:用圖濾波神經網路模型實現論文分類

10.9 實例 31:用深度圖相互資訊模型實現論文分類

10.10 實例 32:用圖同構網路模型實現論文分類

10.11 實例 33:用APPNP模型實現論文分類

10.12 實例 34:用JKNet模型實現論文分類

10.13 複習