PyTorch 高級機器學習實戰

王宇龍

  • 出版商: 機械工業
  • 出版日期: 2023-02-20
  • 售價: $654
  • 貴賓價: 9.5$621
  • 語言: 簡體中文
  • 頁數: 312
  • 裝訂: 平裝
  • ISBN: 7111719964
  • ISBN-13: 9787111719960
  • 相關分類: DeepLearningMachine Learning
  • 立即出貨

買這商品的人也買了...

商品描述

本書講解了經典的高級機器學習算法原理與知識,包括常見的監督學習、無監督學習、
概率圖模型、核方法、深度神經網絡,以及強化學習等內容,同時更強調動手實踐。
所有算法均利用PyTorch計算框架進行實現,並且在各章節配備實戰環節,內容涵蓋點擊率預估、異常檢測、
概率圖模型變分推斷、高斯過程超參數優化、深度強化學習智能體訓練等內容。
本書附贈所有案例的源代碼及各類學習資料來源,
適合具有一定編程基礎的人工智能愛好者學習,也是相關從業者和研究人員的學習指南。

作者簡介

王宇龍
清華大學計算機博士,大型互聯網公司算法專家,在國際學術會議及期刊發表過多篇論文。
曾出版書籍《PyTorch深度學習入門與實戰》,知乎“機器學習”話題優秀回答者(@Young)。

目錄大綱

前言
第1章機器學習概述/
1.1 機器學習簡介/
1.1.1 機器學習的含義/
1.1.2 機器學習概述/
1.1.3 不同類型的機器學習算法/
1.2 數據處理/
1.2.1 數據特徵分類及表示/
1.2.2 數據預處理/
1.2.3 數據缺失處理/
1.2.4 特徵衍生和交叉/
1.2.5 特徵篩選/
1.3 衡量標準/
1.3.1 模型評估指標/
1.3.2 數據集劃分/
1.3.3 超參數優化/
1.4 優化目標/
1.4.1 損失函數/
1.4.2 梯度下降優化/
1.4.3 受約束優化:Lagrange函數/
1.5 實戰:簡單模型實現Titanic乘客生存概率預測/
1.5.1 問題描述與數據特徵/
1.5.2 簡單屬性分類模型實現預測/
第2章PyTorch基本操作介紹/
2.1 PyTorch簡介/
2.2 核心概念:Tensor/
2.2.1 Tensor基本操作/
2.2.2 基本數學運算/
2.2.3 索引分片操作/
2.2.4 類成員方法/
2.3 自動求導(Autograd)/
2.3.1 可微分張量/
2.3.2 Function:實現自動微分的基礎/
2.4 神經網絡核心模塊:torch.nn/
2.4.1 nn.Module概述/
2.4.2 函數式操作nn.functional/
2.5 優化器(optimizer)/
2.5.1 optimizer概述/
2.5.2 學習率調節/
2.5.3 經典優化器介紹/
2.6 數據加載/
2.6.1 Dataset與DataLoader介紹/
2.6.2 預處理變換torchvision.transforms/
2.7 高級操作/
2.7.1 GPU運算/
2.7.2 利用C 實現自定義算子/
2.8 實戰:Wide & Deep模型實現Criteo點擊率預估/
2.8.1 問題定義與數據特徵/
2.8.2 Wide & Deep模型介紹/
2.8.3 完整實驗流程/
第3章監督學習/
3.1 線性回歸(Linear Regression)/
3.1.1 小二乘法(Least Square Method)/
3.1.2 嶺回歸(Ridge Regression)/
3.1.3 貝葉斯線性回歸(Bayesian Linear Regression)/
3.2 邏輯回歸(Logistic Regression)/
3.2.1 二分類邏輯回歸/
3.2.2 多分類Softmax回歸/
3.2.3 貝葉斯邏輯回歸(Bayesian Logistic Regression)/
3.3 支持向量機(Support Vector Machine,SVM)/
3.3.1 線性可分下SVM的定義/
3.3.2 利用隨機梯度下降求解/
3.3.3 凸優化簡介/
3.3.4 SVM對偶問題表示/
3.3.5 梯度下降法求解對偶問題/
3.3.6 從Hard SVM擴展到Soft SVM/
3.3.7 支持向量回歸(Support Vector Regression,SVR)/
3.3.8 帶有鬆弛變量的SVR及對偶優化方法/
3.4 決策樹模型(Decision Tree)/
3.4.1 構建單個樹模型/
3.4.2 集成學習(Ensemble Learning)/
3.5 K近鄰算法(K Nearest Neighbors,KNN)/
3.6 實戰:複雜模型實現Titanic旅客生存概率預測/
3.6.1 Titanic數據集特徵處理/
3.6.2 多種模型預測性能對比/
第4章無監督學習/
4.1 聚類方法(Clustering Method)/
4.1.1 KMeans聚類/
4.1.2 譜聚類(Spectral Clustering)/
4.1.3 聚合聚類(Agglomerative Clustering)/
4.2 密度估計(Density Estimation)/
4.2.1 高斯混合模型(Gaussian Mixture Model)/
4.2.2 期望大化算法(Expectation Maximization,EM)/
4.3 降維與嵌入(Dimension Reduction & Embedding)/
4.3.1 主成分分析(Principal Component Analysis,PCA)/
4.3.2 局部線性嵌入(Locally Linear Embedding,LLE)/
4.3.3 隨機鄰居嵌入算法(tSNE)/
4.4 實戰:無監督方法實現異常檢測(Anomaly Detection)/
4.4.1 異常檢測問題與應用/
4.4.2 實現基於PCA的異常檢測方法/
4.4.3 實現基於Mahalanobis距離的異常檢測方法/
4.4.4 實現基於聚類的局部異常因子檢測方法/
第5章PyTorch高級機器學習實戰概率圖模型/
5.1 有向圖:貝葉斯網絡(Bayesian Network)/
5.1.1 有向圖的概率分解/
5.1.2 條件獨立性(Conditional Independence)/
5.2 無向圖:馬爾可夫隨機場(Markov Random Field,MRF)/
5.2.1 無向圖的概率分解/
5.2.2 具體應用:圖像去噪(Image Denoising)/
5.3 隱馬爾可夫模型(Hidden Markov Model,HMM)/
5.3.1 隱馬爾可夫模型介紹/
5.3.2 前向後向算法(ForwardBackward Algorithm)/
5.3.3 放縮提昇運算穩定性/
5.3.4 代碼實現/
5.4 變分推斷(Variational Inference,VI)/
5.4.1 後驗分佈優化與ELBO/
5.4.2 黑盒變分推斷算法(BlackBox Variational Inference,BBVI)/
5.5 蒙特卡羅採樣(Monte Carlo Sampling)/
5.5.1 拒絕採樣(Rejection Sampling)/
5.5.2 馬爾可夫鏈蒙特卡羅(Markov Chain Monte Carlo)/
5.5.3 吉布斯採樣(Gibbs Sampling)/
5.5.4 哈密頓蒙特卡羅採樣(Hamiltonian Monte Carlo,HMC)/
5.6 實戰:變分高斯混合模型(Variational Gaussian Mixture Model)/
5.6.1 擴展GMM:貝葉斯高斯混合模型(Bayesian Gaussian Mixture Model)/
5.6.2 變分推斷近似/
5.6.3 代碼實現/
第6章核方法/
6.1 核函數及核技巧/
6.2核化KMeans算法(Kernel KMeans)/
6.2.1 KMeans算法回顧/
6.2.2 具體實現/
6.3 核化支持向量機(Kernel SVM)/
6.3.1 SVM對偶問題及核函數表示/
6.3.2 核化支持向量回歸(Kernel SVR)/
6.4 核化主成分分析(Kernel PCA,KPCA)/
6.4.1 回顧PCA及核化表示/
6.4.2 核中心化技巧及實現/
6.5 高斯過程(Gaussian Process,GP)/
6.5.1 高斯過程定義及基本性質/
6.5.2 核函數參數選取優化/
6.6 實戰:利用高斯過程進行超參數優化/
6.6.1 超參數優化(Hyperparameter Optimization)/
6.6.2 具體實現/
第7章深度神經網絡/
7.1 神經網絡(Neural Network)/
7.1.1 基本算子操作/
7.1.2 常見網絡結構/
7.1.3 網絡訓練/
7.2 變分自編碼器(Variational AutoEncoder,VAE)/
7.2.1 多種自編碼器介紹/
7.2.2 變分自編碼器/
7.3 深度生成模型(Deep Generative Model,DGM)/
7.3.1 受限玻爾茲曼機(Restricted Boltzmann Machine,RBM)/
7.3.2 生成式對抗網絡(Generative Adversarial Network,GAN)/
7.4 實戰:利用CycleGAN進行圖片風格轉換/
7.4.1 CycleGAN模型介紹/
7.4.2 模型實現/
第8章強化學習/
8.1 經典強化學習介紹/
8.1.1 基本概念介紹/
8.1.2 強化學習環境OpenAI Gym/
8.2 馬爾可夫決策過程(Markov Decision Process,MDP)/
8.2.1 MDP定義及貝爾曼優方程/
8.2.2 策略迭代(Policy Iteration)和價值迭代(Value Iteration)/
8.2.3 蒙特卡羅採樣學習(Monte Carlo Learning)/
8.2.4 時序差分學習(Temporal Difference Learning,TDLearning)/
8.3 基於Q價值函數的深度強化學習/
8.3.1 深度Q網絡(Deep QNetwork,DQN)/
8.3.2 其他DQN改進模型/
8.4 基於策略優化的深度強化學習/
8.4.1 策略梯度算法(Policy Gradient)/
8.4.2 Advantage ActorCritic(A2C)算法/
8.4.3 近鄰策略優化法(Proximal Policy Optimization,PPO)/
8.4.4 深度確定性策略梯度算法(Deep Deterministic Policy Gradient,DDPG)/
8.4.5 Soft Actor Critic(SAC)算法/
8.5 實戰:在Atari遊戲環境中進行深度強化學習評測/
8.5.1 Atari遊戲環境及預處理方式/
8.5.2 多種深度強化學習性能比較/
參考文獻/