在線凸優化, 2/e Introduction to Online Convex Optimization, 2/e
[美] 埃拉德·哈贊(Elad Hazan)著 羅俊仁 張萬鵬 譯
- 出版商: 清華大學
- 出版日期: 2024-06-01
- 售價: $599
- 貴賓價: 9.5 折 $569
- 語言: 簡體中文
- 頁數: 236
- 裝訂: 平裝
- ISBN: 730266112X
- ISBN-13: 9787302661122
- 此書翻譯自: Introduction to Online Convex Optimization, 2/e (Hardcover)
立即出貨 (庫存 < 4)
買這商品的人也買了...
-
$550$495 -
$774$735 -
$531機器學習測試入門與實踐
-
$441人工智能:深度學習核心算法
-
$189深度學習
-
$580$493 -
$880$695 -
$1,000$790 -
$620$484 -
$509$479 -
$880$695 -
$880$695 -
$690$587 -
$450$428 -
$580$458 -
$620$527 -
$1,200$792 -
$720$569 -
$270$257 -
$474$450 -
$719$683 -
$209$199 -
$509YOLO 目標檢測
-
$1,280$845 -
$354$336
相關主題
商品描述
《在線凸優化(第2版)》全面更新,深入探索優化和機器學習交叉領域,詳細介紹日常生活中許多系統和模型的優化過程。 ● 第2版亮點: 增加了關於提升、自適應遺憾和可接近性的章節 ● 擴大了優化和學習理論的覆蓋面 ● 應用實例包含專家建議投資組合選擇、矩陣補全推薦系統和支持向量機訓練等 ● 指導學生完成練習
目錄大綱
目 錄
第1章 導論 1
1.1 在線凸優化設置 2
1.2 可用OCO建模的問題示例 3
1.2.1 從專家建議中預測 3
1.2.2 在線垃圾郵件過濾 4
1.2.3 在線最短路徑 5
1.2.4 投資組合選擇 6
1.2.5 矩陣補全和推薦系統 7
1.3 混合的開始:從專家建議中學習 7
1.3.1 加權多數算法 9
1.3.2 隨機加權多數 10
1.3.3 Hedge 12
1.4 文獻評述 13
1.5 練習 14
第2章 凸優化基本概念 17
2.1 基本定義和設置 17
2.1.1 凸集上的投影 19
2.1.2 最優條件介紹 20
2.2 梯度下降 21
2.2.1 Polyak 步長 23
2.2.2 度量與最優值之間的距離 24
2.2.3 Polyak 步長分析 25
2.3 約束梯度/次梯度下降 27
2.4 非光滑和非強凸函數的歸約 30
2.4.1 光滑且非強凸函數的歸約 30
2.4.2 強凸非光滑函數的歸約 31
2.4.3 一般凸函數的歸約 34
2.5 示例:支持向量機訓練 34
2.6 文獻評述 37
2.7 練習 38
第3章 在線凸優化一階算法 41
3.1 在線梯度下降 42
3.2 下界 44
3.3 對數遺憾 46
3.4 應用:隨機梯度下降 48
3.5 文獻評述 51
3.6 練習 51
第4章 二階方法 53
4.1 動機:通用投資組合選擇 53
4.1.1 主流投資組合理論 53
4.1.2 通用投資組合理論 54
4.1.3 持續再平衡投資組合 55
4.2 指數凹函數 56
4.3 指數加權OCO 58
4.4 在線牛頓步算法 60
4.5 文獻評述 66
4.6 練習 67
第5章 正則化 69
5.1 正則化函數 70
5.2 RFTL算法及其分析 71
5.2.1 元算法定義 72
5.2.2 遺憾界 73
5.3 在線鏡像下降 75
5.3.1 懶惰版在線鏡像下降與RFTL的等價性 77
5.3.2 鏡像下降的遺憾界 78
5.4 應用與特例 79
5.4.1 推導在線梯度下降 79
5.4.2 推導乘法更新 80
5.5 隨機正則化 81
5.5.1 凸損失擾動 82
5.5.2 線性代價函數擾動 86
5.5.3 專家建議的FPL算法 87
5.6 自適應梯度下降 89
5.7 文獻評述 95
5.8 練習 96
第6章 賭博機凸優化 99
6.1 賭博機凸優化設置 99
6.2 多臂賭博機問題 100
6.3 從有限信息歸約至完全信息 105
6.3.1 第一部分:使用無偏估計 105
6.3.2 第二部分:逐點梯度估計 107
6.4 無需梯度在線梯度下降 110
6.5 賭博機線性優化的最優遺憾算法 112
6.5.1 自和諧勢壘 113
6.5.2 一個近似最優算法 114
6.6 文獻評述 117
6.7 練習 118
第7章 無投影算法 121
7.1 回顧:線性代數的相關概念 121
7.2 動機:推薦系統 122
7.3 條件梯度法 124
7.4 投影與線性優化 128
7.5 在線條件梯度算法 130
7.6 文獻評述 134
7.7 練習 134
第8章 博弈,對偶與遺憾 137
8.1 線性規劃與對偶 138
8.2 零和博弈與均衡 139
8.3 馮 • 諾依曼定理證明 142
8.4 近似線性規劃 144
8.5 文獻評述 146
8.6 練習 146
第9章 學習理論,泛化性與在線凸優化 149
9.1 統計學習理論 149
9.1.1 過擬合 150
9.1.2 免費午餐 151
9.1.3 學習問題示例 152
9.1.4 定義泛化性與可學習性 153
9.2 使用在線凸優化的不可知學習 155
9.2.1 餘項:度量集中和鞅 156
9.2.2 歸約的分析 158
9.3 學習與壓縮 160
9.4 文獻評述 161
9.5 練習 162
第10章 在變化的環境中學習 165
10.1 一個簡單的開始:動態遺憾 166
10.2 自適應遺憾的概念 167
10.3 跟蹤最好的專家 169
10.4 在線凸優化的有效自適應遺憾 172
10.5 計算高效的方法 174
10.6 文獻評述 179
10.7 練習 180
第11章 Boosting與遺憾 183
11.1 Boosting 的問題 184
11.2 基於在線凸優化的 Boosting 185
11.2.1 簡化設置 185
11.2.2 算法與分析 186
11.2.3 AdaBoost 188
11.2.4 補全路線圖 189
11.3 文獻評述 190
11.4 練習 191
第12章 在線Boosting 193
12.1 動機:向大量專家學習 193
12.1.1 示例:Boosting在線二進制分類 194
12.1.2 示例:個性化文章配置 195
12.2 情境學習模型 195
12.3 延拓算子 196
12.4 在線 Boosting方法 198
12.5 文獻評述 202
12.6 練習 202