統計學習必學的十個問題 — 理論與實踐
李軒涯、張暐
- 出版商: 清華大學
- 出版日期: 2021-06-01
- 定價: $299
- 售價: 7.9 折 $236
- 語言: 簡體中文
- 頁數: 145
- 裝訂: 平裝
- ISBN: 730257717X
- ISBN-13: 9787302577171
-
相關分類:
Machine Learning、Python
立即出貨 (庫存 < 4)
買這商品的人也買了...
-
無瑕的程式碼-敏捷軟體開發技巧守則 + 番外篇-專業程式設計師的生存之道 (雙書合購)$940$700 -
精通 Python|運用簡單的套件進行現代運算 (Introducing Python: Modern Computing in Simple Packages)$780$616 -
無瑕的程式碼-敏捷完整篇-物件導向原則、設計模式與 C# 實踐 (Agile principles, patterns, and practices in C#)$790$616 -
Soft Skills 軟實力|軟體開發人員的生存手冊 (Soft Skills: The software developer's life manual)$520$411 -
無瑕的程式碼-整潔的軟體設計與架構篇 (Clean Architecture: A Craftsman's Guide to Software Structure and Design)$580$452 -
$534稀疏統計學習及其應用 -
I'm From Taiwan / Programmer 阿喵宅造型貼紙7X7公分 (粉色)$69$60 -
阿喵宅開發順利春聯 2入$68$68 -
$270概率論與數理統計 — 基於 Excel -
$479讓工作化繁為簡: 用 Python 實現辦公自動化 -
白話演算法!培養程式設計的邏輯思考 (Grokking Algorithms: An illustrated guide for programmers and other curious people)$520$468 -
比 Docker 再高階一步:使用 Harbor 完成 Helm Chart 容器及鏡像雲端原生管理$880$695 -
資料科學的建模基礎 : 別急著 coding!你知道模型的陷阱嗎?$599$509 -
模式識別, 4/e (修訂版)(Pattern Recognition, 4/e)$588$559 -
最優化導論, 4/e (An Introduction to Optimization, 4/e)$534$507 -
$254Python 深度學習實戰 — 基於 Pytorch -
$236深度學習必學的十個問題 — 理論與實踐 -
$327Python 數據挖掘技術及應用 (微課版) -
$236數據清洗 (微課視頻版) -
$280計算方法 — 數據分析與智能計算初探, 2/e -
$654深度強化學習落地指南 -
$458Python 數據科學實戰 (Data Science with Python) -
Python 常用統計算法$900$855 -
$305深度強化學習 -
Final Cut Pro 視頻後期剪輯零基礎入門到精通$599$569
相關主題
商品描述
統計學習是機器學習的重要分支,本書兼顧了數學上的理論和代碼實踐,內容主要包括基礎知識和統計學習模型。第1章、第2章結合VC維介紹過擬合的本質,並介紹手動特徵選擇的辦法; 第3章、第4章從最簡單的線性模型出發經過概率統計的解讀而得到分類和回歸算法; 第5章討論不依賴於假設分佈的非參數模型; 第6章介紹將核方法作為一種非線性拓展的技巧,介紹如何將該方法應用到很多算法中,並引出了著名的高斯過程; 第7章以混合高斯作為軟分配聚類的代表性方法,從而引出著名的EM算法; 第8章討論了機器學習的集成算法; 第9章介紹的線性和非線性降維方法將會解決維度災難問題,並且不同於單純的特徵選擇; 第10章討論不依賴於獨立同分佈假設的時間序列算法。 本書適合對於統計學習感興趣的大學生、工程師閱讀參考。閱讀本書需要具備基礎的Python編程技術和基本的數學知識。
作者簡介
李軒涯,單位:百度公司,職務、職稱:高級工程師,性別:男,年齡:33,專業:計算機科學與技術,學歷:博士,研究成果:中國計算機學會傑出會員、常務理事,中國計算機實踐教育聯合會副理事長。現主管百度校企合作、校企聯合人才培養、校園粉絲生態圈,幫助百度技術、人才及產品品牌在高校領域的推廣與影響力傳播。
目錄大綱
第1章 防止過擬合
1.1 過擬合和欠擬合的背後
1.2 性能度量和損失函數
1.3 假設空間和VC維
1.4 偏差方差分解的意義
1.5 正則化和參數綁定
1.6 使用scikit-learn
第2章 特徵選擇
2.1 包裹法Warpper
2.2 過濾法Filter
2.3 嵌入法Embedded
2.4 使用scikit-learn
第3章 回歸算法中的貝葉斯
3.1 快速理解判別式模型和生成式模型
3.2 極大似然估計和平方損失
3.3 最大後驗估計和正則化
3.4 貝葉斯線性估計
3.5 使用scikit-learn
第4章 分類算法中的貝葉斯
4.1 廣義線性模型下的sigmoid函數和softmax函數
4.2 對數損失和交叉熵
4.3 邏輯回歸的多項式拓展和正則化
4.4 樸素貝葉斯分類器
4.5 拉普拉斯平滑和連續特徵取值的處理方法
4.6 使用scikit-learn
第5章 非參數模型
5.1 K近鄰與距離度量
5.2 K近鄰與kd樹
5.3 決策樹和條件嫡
5.4 決策樹的剪枝
5.5 連續特徵取值的處理方法和基尼指數
5.6 回歸樹
5.7 使用scikit-learn
第6章 核方法
6.1 核方法的本質
6.2 對偶表示和拉格朗日乘子法
6.3 常見算法的核化拓展
6.4 高斯過程
6.5 使用scikit-learn
第7章 混合高斯:比高斯分佈更強大
7.1 聚類的重要問題
7.2 潛變量與K均值
7.3 混合高斯和極大似然估計的失效
7.4 EM算法的核心步驟
7.5 使用scikit-learn
第8章 模型組合策略
8.1 Bagging和隨機森林
8.2 Boosting的基本框架
8.3 Adaboost
8.4 GBDT和XGBoost
8.5 使用scikit-learn
第9章 核化降維和學習流形
9.1 線性降維
9.2 核化線性降維
9.3 流形學習
9.4 使用scikit-learn
第10章 處理時間序列
10.1 概率圖模型和隱變量
10.2 高階馬爾可夫模型
10.3 隱馬爾可夫模型
10.4 隱馬爾可夫模型的EM算法
10.5 使用scikit-learn
參考文獻



