機器學習 机器学习

弗拉赫 (Peter Flach)

買這商品的人也買了...

商品描述

<內容簡介>
 
本書是全面的機器學習教材之一。書中首先介紹了機器學習的構成要素(任務、模型、特徵)和機器學習任務,接著詳細分析了邏輯模型(樹模型、規則模型)、幾何模型(線性模型和基於距離的模型)和概率模型,然後討論了特徵、模型的集成,以及被機器學習研究者稱為“實驗”的方法。作者不僅使用了已有術語,還引入了一些新的概念,同時提供了大量精選的示例和插圖解說。
本書適合具備機器學習理論基礎的理下科、信息技術類學生,以及數學、自動化、計算機科學等專業人員閱讀。

<作者簡介>

Peter Flach 布裡斯託大學人工智能教授,擁有20多年的機器學習教研經驗。在高度結構化的數據挖掘以及通過ROC分析來評估和改進機器學習模型方面,Flach是國際領先的研究人員。他還是Machine Learning期刊總編。曾擔任2009年ACM知識發現與數據挖掘國際會議、2012年歐洲機器學習與數據挖掘國際會議的程序委員會共同主席。另著有Simply Logical: Intelligent Reasoning by Example。

<目錄>

緒論機器學習概述1
第1章機器學習的構成要素9
1.1任務:可通過機器學習解決的問題9
1.1.1探尋結構11
1.1.2性能評價13
1.2模型:機器學習的輸出14
1.2.1幾何模型14
1.2.2概率模型17
1.2.3邏輯模型22
1.2.4分組模型與評分模型26
1.3特徵:機器學習的馬達26
1.3.1特徵的兩種用法28
1.3.2特徵的構造與變換29
1.3. 3特徵之間的交互32
1.4總結與展望33
第2章兩類分類及相關任務37
2.1分類39
2.1.1分類性能的評價40
2.1.2分類性能的可視化43
2.2評分與排序46
2.2.1排序性能的評價及可視化48
2.2.2將排序器轉化為分類器52
2.3類概率估計54
2.3.1類概率估計量55
2.3.2將排序器轉化為概率估計子57
2.4小結與延伸閱讀59
第3章超越兩類分類61
3.1處理多類問題61
3.1.1多類分類61
3.1.2多類得分及概率65
3.2回歸68
3.3無監督學習及描述性學習70
3.3.1預測性聚類與描述性聚類71
3.2.2其他描述性模型74
3.4小結與延伸閱讀76
第4章概念學習77
4.1假設空間78
4.1.1最小一般性79
4.1.2內部析取82
4.2通過假設空間的路徑84
4.2.1最一般相容假設86
4.2.2封閉概念87
4.3超越合取概念88
4.4可學習性92
4.5小結與延伸閱讀94
第5章樹模型97
5.1決策樹100
5.2排序與概率估計樹103
5.3作為減小方差的樹學習方法110
5.3.1回歸樹110
5.3.2聚類樹113
5.4小結與延伸閱讀115
第6章規則模型117
6.1學習有序規則列表117
6.2學習無序規則集124
6.2.1用於排序和概率估計的規則集128
6.2.2深入探究規則重疊130
6.3描述性規則學習131
6.3.1用於子群發現的規則學習131
6.3.2關聯規則挖掘135
6.4一階規則學習139
6.5小結與延伸閱讀143
第7章線性模型145
7.1最小二乘法146
7.1.1多元線性回歸150
7.1.2正則化回歸153
7.1.3利用最小二乘回歸實現分類153
7.2感知機155
7.3支持向量機158
7.4從線性分類器導出概率164
7.5超越線性的核方法168
7.6小結與延伸閱讀170
第8章基於距離的模型173
8.1距離測度的多樣性173
8.2近鄰與範例178
8.3最近鄰分類器182
8.4基於距離的聚類184
8.4.1 K均值算法186
8.4.2 K中心點聚類187
8.4.3 silhouette 188
8.5層次聚類190
8.6從核函數到距離194
8.7小結與延伸閱讀195
第9章概率模型197
9.1正態分佈及其幾何意義200
9.2屬性數據的概率模型205
9.2.1利用樸素貝葉斯模型實現分類206
9.2.2訓練樸素貝葉斯模型209
9.3通過優化條件似然實現鑑別式學習211
9.4含隱變量的概率模型214
9.4.1期望最大化算法215
9.4.2高斯混合模型216
9.5基於壓縮的模型218
9.6小結與延伸閱讀220
第10章特徵223
10.1特徵的類型223
10.1.1特徵上的計算223
10.1.2屬性特徵、有序特徵及數量特徵227
10.1.3結構化特徵228
10.2特徵變換229
10.2.1閾值化與離散化229
10.2.2歸一化與標定234
10.2.3特徵缺失239
10.3特徵的構造與選擇240
10.4小結與延伸閱讀243
第11章模型的集成245
11.1 Bagging與隨機森林246
11.2 Boosting 247
11.3集成學習進階250
11.3.1偏差、方差及裕量250
11.3.2其他集成方法251
11.3.3元學習252
11.4小結與延伸閱讀252
第12章機器學習的實驗255
12.1度量指標的選擇256
12.2量指標的獲取258
12.3如何解釋度量指標260
12.4小結與延伸閱讀264
後記路在何方267
記憶要點269
參考文獻271