集成學習入門與實戰:原理、算法與應用
Alok Kumar,Mayank Jain 吳健鵬
- 出版商: 化學工業
- 出版日期: 2022-02-01
- 定價: $419
- 售價: 9.5 折 $398
- 語言: 簡體中文
- 頁數: 122
- 裝訂: 平裝
- ISBN: 7122401677
- ISBN-13: 9787122401670
-
相關分類:
Machine Learning
立即出貨
買這商品的人也買了...
-
$393前端工程化:體系設計與實踐
-
$245統計學習理論基礎
-
$250Python 數據挖掘方法及應用
-
$505深度學習圖解 (Grokking Deep Learning)
-
$505機器學習基礎 — 面向預測數據分析的算法、實用範例與案例研究
-
$507集成學習:基礎與算法
-
$709遷移學習 -- TRANSFER LEARNING (楊強教授新作)
-
$352Python 量化炒股入門與實戰技巧
-
$446R語言數據分析、挖掘建模與可視化
-
$327遷移學習導論
-
$337JavaScript 百煉成仙
-
$1,460$1,387 -
$580$458 -
$599$569 -
$469機器學習導論
-
$458Python 深度學習, 2/e
-
$602數據挖掘原理, 4/e (Principles of Data Mining, 4/e)
-
$347簡單有趣的金融數學
-
$450$428 -
$380$300 -
$454Pandas 入門與實戰應用 :基於 Python 的數據分析與處理
-
$607利用 Python 實現概率、統計及機器學習方法(原書第2版)
-
$509Pandas 數據分析快速上手 500招 (微課視頻版)
-
$300$237 -
$780$616
相關主題
商品描述
《集成學習入門與實戰:原理、算法與應用》
通過6章內容全面地解讀了集成學習的基礎知識、集成學習技術、集成學習庫和實踐應用。
其中集成學習技術包括採樣、Bagging、投票集成、Boosting、AdaBoost、梯度提升、XGBoost、
Stacking、隨機森林、決策樹等,從混合訓練數據到混合模型,再到混合組合,邏輯嚴謹、逐步講解;
同時也對ML-集成學習、Dask、LightGBM、AdaNet等集成學習庫相關技術進行了詳細解讀;
後通過相關實踐對集成學習進行綜合性應用。
本書配有邏輯框圖、關鍵代碼及代碼分析,使讀者在閱讀中能夠及時掌握算法含義和對應代碼。
本書適合集成學習的初學者和機器學習方向的從業者和技術人員閱讀學習,
也適合開設機器學習等算法課程的高等院校師生使用。
作者簡介
Alok Kumar
是Publicis Sapient的一位AI從業者和創新領導者。
他在領導戰略計劃和推動尖端、快節奏創新方面擁有豐富經驗,作品也獲得了多個獎項。
他熱衷於AI知識的大眾化,在印度首都的NCR管理多個非營利學習和創意團體。
Mayank Jain
是Publicis Sapient Kepler創新實驗室的技術經理和AI/ ML專家。
他在尖端項目方面擁有過十年的工作經驗,這些項目涉及深度學習、
機器學習和計算機視覺等技術,讓計算機看到和思考。
他曾為多份國際出版物撰稿,以自己的名義擁有多項專利,並因其貢獻多次獲獎。
目錄大綱
1章 為什麼需要集成學習 001
1.1 混合訓練數據 003
1.2 混合模型 004
1.3 混合組合 008
1.4 本章小結 009
2章 混合訓練數據 011
2.1 決策樹 013
2.2 數據集採樣 018
2.2.1 不替換採樣(WOR) 018
2.2.2 替換採樣(WR) 019
2.3 Bagging(裝袋算法) 021
2.3.1 k重交驗證 024
2.3.2 分層的k重交驗證 026
2.4 本章小結 028
3章 混合模型 029
3.1 投票集成 030
3.2 硬投票 031
3.3 均值法/軟投票 033
3.4 參數調試集成 036
3.5 水平投票集成 038
3.6 快照集成 044
3.7 本章小結 046
4章 混合組合 047
4.1 Boosting(提升算法) 048
4.1.1 AdaBoost(自適應提升算法) 049
4.1.2 Gradient Boosting(梯度提升算法) 051
4.1.3 XGBoost(極端梯度提升算法) 053
4.2 Stacking(堆疊算法) 055
4.3 本章小結 058
5章 集成學習庫 059
5.1 ML-集成學習 060
5.1.1 多層集成 063
5.1.2 集成模型的選擇 064
5.2 通過Dask擴展XGBoost 069
5.2.1 Dask數組與數據結構 071
5.2.2 Dask-ML 076
5.2.3 擴展XGBoost 079
5.2.4 微軟LightGBM 082
5.2.5 AdaNet 088
5.3 本章小結 090
6章 實踐指南 092
6.1 基於隨機森林的特徵選擇 093
6.2 基於集成樹的特徵轉換 096
6.3 構建隨機森林分類器預處理程序 103
6.4 孤立森林進行異常點檢測 110
6.5 使用Dask庫進行集成學習處理 114
6.5.1 預處理 115
6.5.2 參數搜索 117
6.6 本章小結 121
致謝 122