面向信號處理的機器學習 Machine Learning for Signal Processing: Data Science, Algorithms, and Computational Statistics

Max A. Little 譯 張軼

買這商品的人也買了...

商品描述

本書講述了數字信號處理是電子學、電子/電氣工程等專業的核心課程,也是多媒體、雷達、通信等領域的基礎,
同時機器學習作為數學和計算機學科當前的一個熱門研究領域,
在強大的硬件平台和軟件架構興起的背景下,逐漸成為解決多類問題的主流方法。
本書將這兩方面的內容有機結合,首先介紹了相關的數學基礎知識,
包括代數、集合、線性運算、概率論、圖論、計算複雜度、優化等。
接下來介紹信號處理的基礎知識,包括採樣、統計建模、線性時不變系統、小波變換等,
同時穿插介紹機器學習的基本概念和運算,比如回歸、支持向量機、聚類、主成分分析等。
在此基礎上有機地將二者進行結合,闡述了非參數模型和信號處理中的機器學習算法。

目錄大綱

譯者序
前言
第1章數學基礎
1.1 抽象代數
1.1.1 群
1.1.2 環
1.2 度量
1.3 向量空間
1.3.1 線性算子
1.3.2 矩陣代數
1.3.3 方陣和可逆矩陣
1.3.4 特徵值和特徵向量
1.3.5 特殊矩陣
1.4 概率與隨機過程
1.4.1 樣本空間、事件、度量和分佈
1.4.2 聯合隨機變量:獨立性、條件性和邊緣性
1.4.3 貝葉斯準則
1.4.4 期望、生成函數和特徵函數
1.4.5 經驗分佈函數和样本期望
1.4.6 變換隨機變量
1.4.7 多元高斯分佈和其他極限分佈
1.4.8 隨機過程
1.4.9 馬爾可夫鏈
1.5 數據壓縮與信息論
1.5.1 信息映射的重要性
1.5.2 互信息和KL散度
1.6 圖
1.7 凸性
1.8 計算複雜性
1.8.1 複雜性的階和大O表示法
1.8.2 可處理和難處理的問題:NP完全性
第2章優化
2.1 預備知識
2.1.1 連續可微問題與臨界點
2.1.2 等式約束下的連續優化:拉格朗日乘子
2.1.3 不等式約束:二元性和Karush-Kuhn-Tucker條件
2.1.4 迭代法的收斂性和收斂速度
2.1.5 不可微的連續問題
2.1.6 離散(組合)優化問題
2.2 連續凸問題的解析方法
2.2.1 L2範數目標函數
2.2.2 混合L2-L1範數目標函數
2.3 連續凸問題的數值方法
2.3.1 迭代重加權最小二乘法
2.3.2 梯度下降
2.3.3 調整步長:線搜索
2.3.4 牛頓方法
2.3.5 其他梯度下降方法
2.4 不可微連續凸問題
2.4.1 線性規劃
2.4.2 二次規劃
2.4.3 次梯度法
2.4.4 原始對偶內點法
2.4.5 路徑跟踪方法
2.5 連續非凸問題
2.6 離散(組合)優化的啟發式算法
2.6.1 貪婪搜索
……
第3章隨機採樣
第4章統計建模和推斷
第5章概率圖模型
第6章統計機器學習
第7章線性-高斯系統和信號處理
第8章離散信號:採樣、量化和編碼
第9章非線性和非高斯信號處理
第10章非參數貝葉斯機器學習和信號處理
參考文獻