機器學習 : 貝葉斯和優化方法 (英文版)(Machine Learning: A Bayesian and Optimization Perspective)

西格尔斯·西奥多里蒂斯 (Sergios Theodoridis)

買這商品的人也買了...

商品描述

本書對所有主要的機器學習方法和新研究趨勢進行了深入探索,涵蓋概率和確定性方法以及貝葉斯推斷方法。其中,經典方法包括平均/小二乘濾波、卡爾曼濾波、隨機逼近和在線學習、貝葉斯分類、決策樹、邏輯回歸和提升方法等,新趨勢包括稀疏、凸分析與優化、在線分佈式算法、RKH空間學習、貝葉斯推斷、圖模型與隱馬爾可夫模型、粒子濾波、深度學習、字典學習和潛變數建模等。

全書構建了一套明晰的機器學習知識體系,各章內容相對獨立,物理推理、數學建模和算法實現精準且細緻,並輔以應用實例和習題。本書適合該領域的科研人員和工程師閲讀,也適合學習模式識別、統計/自適應信號處理和深度學習等課程的學生參考。

商品描述(中文翻譯)

本書對所有主要的機器學習方法和新研究趨勢進行了深入探索,涵蓋概率和確定性方法以及貝葉斯推斷方法。其中,經典方法包括平均/最小二乘濾波、卡爾曼濾波、隨機逼近和在線學習、貝葉斯分類、決策樹、邏輯回歸和提升方法等,新趨勢包括稀疏、凸分析與優化、在線分佈式算法、RKH空間學習、貝葉斯推斷、圖模型與隱馬爾可夫模型、粒子濾波、深度學習、字典學習和潛變數建模等。

全書構建了一套明晰的機器學習知識體系,各章內容相對獨立,物理推理、數學建模和算法實現精準且細緻,並輔以應用實例和習題。本書適合該領域的科研人員和工程師閲讀,也適合學習模式識別、統計/自適應信號處理和深度學習等課程的學生參考。

作者簡介

Sergios Theodoridis希臘雅典大學信息系教授。主要研究方向是自適應信號處理、通信與模式識別。他是歐洲並行結構及語言協會(PARLE-95)的主席和歐洲信號處理協會(EUSIPCO-98)的常務主席、《信號處理》雜誌編委。
Konstantinos Koutroumbas 1995年在希臘雅典大學獲得博士學位。自2001年起任職於希臘雅典國家天文台空間應用研究院,是國際知名的專家。

作者簡介(中文翻譯)

Sergios Theodoridis是希臘雅典大學信息系的教授。他的主要研究領域包括自適應信號處理、通信和模式識別。他曾擔任歐洲並行結構及語言協會(PARLE-95)的主席,以及歐洲信號處理協會(EUSIPCO-98)的常務主席。此外,他還是《信號處理》雜誌的編委。

Konstantinos Koutroumbas於1995年在希臘雅典大學獲得博士學位。自2001年起,他在希臘雅典國家天文台空間應用研究院任職,是一位國際知名的專家。

目錄大綱

Preface 
Acknowledgments 
Notation 

CHAPTER 1 Introduction 
1.1 What Machine Learning is About 
1.1.1 Classification 
1.1.2 Regression 
1.2 Structure and a Road Map of the Book 
References 

CHAPTER 2 Probability and Stochastic Processes 
2.1 Introduction 
2.2 Probability and Random Variables 
2.2.1Probability 
2.2.2Discrete Random Variables 
2.2.3Continuous Random Variables 
2.2.4Meanand Variance 
2.2.5Transformation of Random Variables 
2.3 Examples of Distributions 
2.3.1Discrete Variables 
2.3.2Continuous Variables 
2.4 Stochastic Processes
2.4.1First and Second Order Statistics 
2.4.2Stationarity and Ergodicity 
2.4.3PowerSpectral Density 
2.4.4Autoregressive Models 
2.5 Information Theory 
2.5.1Discrete Random Variables 
2.5.2Continuous Random Variables 
2.6 Stochastic Convergence 
Problems 
References 

CHAPTER 3 Learning in Parametric Modeling:Basic Concepts and Directions 
3.1 Introduction 
3.2 Parameter Estimation:The Deterministic Point of View 
3.3 Linear Regression 
3.4 Classification 
3.5 Biased Versus Unbiased Estimation 
3.5.1 Biased or Unbiased Estimation?
3.6 The Cramér—Rao Lower Bound 
3.7 Sufcient Statistic 
3.8 Regularization
3.9 The Bias—Variance Dilemma 
3.9.1 Mean—Square Error Estimation 
3.9.2 Bias—Variance Tradeoff 
3.10 Maximum Likelihood Method 
3.10.1 Linear Regression:The Nonwhite Gaussian Noise Case 
3.11 Bayesian Inference 
3.11.1 The Maximum a Posteriori Probability Estimation Method 
3.12 Curse of Dimensionality 
3.13 Validation 
3.14 Expected and Empirical Loss Functions 
3.15 Nonparametric Modeling and Estimation 
Problems 
References 

CHAPTER 4 Mean—quare Error Linear Estimation 
4.1Introduction 
4.2Mean—Square Error Linear Estimation:The Normal Equations 
4.2.1The Cost Function Surface 
4.3A Geometric Viewpoint: Orthogonality Condition
4.4Extensionto Complex—Valued Variables 
4.4.1Widely Linear Complex—Valued Estimation 
4.4.2Optimizing with Respect to Complex—Valued Variables:Wirtinger Calculus 
4.5Linear Filtering 
4.6MSE Linear Filtering:A Frequency Domain Point of View 
4.7Some Typical Applications 
4.7.1Interference Cancellation 
4.7 .2System Identification 
4.7.3Deconvolution:Channel Equalization 
4.8Algorithmic Aspects:The Levinson and the Lattice—Ladder Algorithms 
4.8.1The Lattice—Ladder Scheme 
4.9Mean—Square Error Estimation of Linear Models 
4.9.1The Gauss—Markov Theorem 
4.9.2Constrained Linear Estimation: The Beamforming Case 
4.10Time—Varying Statistics:Kalman Filtering 
Problems
References 

CHAPTER 5 Stochastic Gradient Descent:The LMS Algorithm and its Family 
5.1 Introduction 
5.2 The Steepest Descent Method 
5.3 Application to the Mean—Square Error Cost Function 
5.3.1 The Complex—Valued Case 
5.4 Stochastic Approximation 
5.5 The Least—Mean—Squares Adaptive Algorithm 
5.5.1 Convergence and Steady—State Performance of the LMS in Stationary Environments 
5.5.2 Cumulative Loss Bounds 
5.6 The Affine Projection Algorithm 
5.6.1 The Normalized LMS 
5.7 The Complex—Valued Case 
5.8 Relatives of the LMS 
5.9 Simulation Examples 
5.10 Adaptive Decision Feedback Equalization 
5.11 The Linearly Constrained LMS
5.12 Tracking Performance of the LMS in Nonstationary Environments 
5.13 Distributed Learning:The Distributed LMS 
5.13.1Cooperation Strategies 
5.13.2The Diffusion LMS 
5.13.3 Convergence and Steady—State Performance:Some Highlights 
5.13.4 Consensus—Based Distributed Schemes 
5.14 A Case Study: Target Localization 
5.15 Some Concluding Remarks:Consensus Matrix 
Problems 
References 

CHAPTER 6 The Least—Squares Family 
6.1 Introduction 
6.2 Least—Squares Linear Regression:A Geometric Perspective 
6.3 Statistical Properties of the LS Estimator 
6.4 Orthogonalizing the Column Space of X:The SVD Method 
6.5 Ridge Regression 
6.6 The Recursive Least—Squares Algorithm
6.7 Newton's Iterative Minimization Method 
6.7.1 RLS and Newton's Method 
6.8 Steady—State Performance of the RLS 
6.9 Complex—Valued Data:The Widely Linear RLS 
6.10 Computational Aspects of the LS Solution 
6.11 The Coordinate and Cyclic Coordinate Descent Methods 
6.12 Simulation Examples 
6.13 Total —Least—Squares 
Problems 
References 
…… 
CHAPTER 7 Classification:A Tour of the Classics 
CHAPTER 8 Parameter Learning:A Convex Analytic Path 
CHAPTER 9 Sparsity—Aware Learning:Concepts and Theoretical Foundations 
CHAPTER 10 Sparsity—Aware Learning:Algorithms and Applications 
CHAPTER 11 Learning in Reproducirg Kernel Hilbert Spaces
CHAPTER 12 Bayesian Learning:Inference and the EM Algorithm 
CHAPTER 13 Bayesian Learning:Approximate Inference and Nonparametric Models 
CHAPTER 14 Monte Carlo Methods 
CHAPTER 15 Probabilistic Graphical Models:Part Ⅰ 
CHAPTER 16 Probabilistic Graphical Models:Part Ⅱ 
CHAPTER 17 Particle Filtering 
CHAPTER 18 Neural Networks and Deep Learning 
CHAPTER 19 Dimensionality Reduction 
APPENDIX A Linear Algebra 
APPENDIX B Probability Theory and Statistics 
APPENDIX C Hints on Constrained Optimization 
Index

目錄大綱(中文翻譯)

前言
致謝
符號說明

第一章 引言
1.1 機器學習的內容
1.1.1 分類
1.1.2 迴歸
1.2 本書的結構和路線圖
參考文獻

第二章 機率和隨機過程
2.1 引言
2.2 機率和隨機變數
2.2.1 機率
2.2.2 離散隨機變數
2.2.3 連續隨機變數
2.2.4 平均值和變異數
2.2.5 隨機變數的轉換
2.3 分布的例子
2.3.1 離散變數
2.3.2 連續變數
2.4 隨機過程
2.4.1 一階和二階統計量
2.4.2 靜態和遞歸性
2.4.3 功率譜密度
2.4.4 自回歸模型
2.5 信息理論
2.5.1 離散隨機變數
2.5.2 連續隨機變數
2.6 隨機收斂
問題
參考文獻

第三章 參數建模中的學習:基本概念和方向
3.1 引言
3.2 參數估計:確定性觀點
3.3 線性回歸
3.4 分類
3.5 有偏估計與無偏估計
3.5.1 有偏或無偏估計?
3.6 克拉美爾-勞下界
3.7 充分統計量
3.8 正則化
3.9 偏差-方差困境
3.9.1 均方誤差估計
3.9.2 偏差-方差折衷
3.10 最大似然方法
3.10.1 線性回歸:非白高斯噪聲情況
3.11 貝葉斯推斷
3.11.1 最大後驗概率估計方法
3.12 維度災難
3.13 驗證
3.14 預期和實證損失函數
3.15 非參數建模和估計
問題
參考文獻

第四章 均方誤差線性估計
4.1 引言
4.2 均方誤差線性估計:正規方程
4.2.1 成本函數曲面
4.3 幾何觀點:正交條件
4.4 複數值變量的擴展
4.4.1 寬線性複數估計
4.4.2 對複數值變量進行優化:Wirtinger微積分
4.5 線性濾波
4.6 均方誤差線性濾波:頻域觀點
4.7 一些典型的應用
4.7.1 干擾消除
4.7.2 系統識別
4.7.3 解卷積:通道均衡
4.8 算法方面:Levinson和Lattice-Ladder算法
4.8.1 Lattice-Ladder方案
4.9 線性模型的均方誤差估計
4.9.1 高斯-馬可夫定理
4.9.2 有約束的線性估計:波束成型案例
4.10 時變統計:卡爾曼濾波
問題
參考文獻

第五章 隨機梯度下降:LMS算法及其家族
5.1 引言
5.2 最速下降法
5.3 應用於均方誤差成本函數
5.3.1 複數值情況
5.4 隨機近似
5.5 最小均方自適應算法
5.5.1 LMS在穩態環境中的收斂和穩態性能
5.5.2 累積誤差