買這商品的人也買了...
-
$480$432 -
$430$387 -
$352對抗機器學習:機器學習系統中的攻擊和防禦
-
$475對抗機器學習
-
$780$663 -
$811統計學習要素:機器學習中的數據挖掘、推斷與預測, 2/e (The Elements of Statistical Learning: Data Mining, Inference, and Prediction, 2/e)
-
$1,000$850 -
$700$595 -
$1,200$1,020 -
$337現代機器學習
-
$828$787 -
$708$673 -
$550$435 -
$580$458 -
$880$695 -
$600$570 -
$780$616 -
$620$490 -
$680$537 -
$600$468 -
$179$161 -
$594$564 -
$680$530 -
$179$161 -
$580$458
相關主題
商品描述
本書首先介紹AI 與AI 安全的發展起源、世界主要經濟體的AI 發展戰略規劃,給出AI 安全技術發展脈絡和框架,並從AI 安全實戰出發,重點圍繞對抗樣本、數據投毒、模型後門等攻擊技術進行案例剖析和技術講解;然後對預訓練模型中的風險和防禦、AI 數據隱私竊取攻擊技術、AI 應用失控的風險和防禦進行詳細分析,並佐以實戰案例和數據;最後對AI 安全的未來發展進行展望,探討AI 安全的風險、機遇、發展理念和產業構想。本書適合AI 和AI 安全領域的研究人員、管理人員,以及需要實戰案例輔助學習的廣大愛好者閱讀。
目錄大綱
●第1章AI安全發展概述●
1.1 AI與安全衍生
1.1.1 AI發展圖譜
1.1.2 各國AI發展戰略
1.1.3 AI行業標準
1.1.4 AI安全的衍生本質——科林格里奇困境
1.2 AI安全技術發展脈絡
●第2章對抗樣本攻擊●
2.1 對抗樣本攻擊的基本原理
2.1.1 形式化定義與理解
2.1.2 對抗樣本攻擊的分類
2.1.3 對抗樣本攻擊的常見衡量指標
2.2 對抗樣本攻擊技巧與攻擊思路
2.2.1 白盒攻擊算法
2.2.2 黑盒攻擊算法
2.3 實戰案例:語音、圖像、文本識別引擎繞過
2.3.1 語音識別引擎繞過
2.3.2 圖像識別引擎繞過
2.3.3 文本識別引擎繞過
2.4 實戰案例:物理世界中的對抗樣本攻擊
2.4.1 目標檢測原理
2.4.2 目標檢測攻擊原理
2.4.3 目標檢測攻擊實現
2.4.4 攻擊效果展示
2.5 案例總結
●第3章數據投毒攻擊●
3.1 數據投毒攻擊概念
3.2 數據投毒攻擊的基本原理
3.2.1 形式化定義與理解
3.2.2 數據投毒攻擊的範圍與思路
3.3 數據投毒攻擊技術發展
3.3.1 傳統數據投毒攻擊介紹
3.3.2 數據投毒攻擊約束
3.3.3 數據投毒攻擊效率優化
3.3.4 數據投毒攻擊遷移能力提升
3.4 實戰案例:利用數據投毒攻擊圖像分類模型
3.4.1 案例背景
3.4.2 深度圖像分類模型
3.4.3 數據投毒攻擊圖像分類模型
3.4.4 實驗結果
3.5 實戰案例:利用投毒日誌躲避異常檢測系統
3.5.1 案例背景
3.5.2 RNN異常檢測系統
3.5.3 投毒方法介紹
3.5.4 實驗結果
3.6 案例總結
●第4章模型後門攻擊●
4.1 模型後門概念
4.2 後門攻擊種類與原理
4.2.1 投毒式後門攻擊
4.2.2 非投毒式後門攻擊
4.2.3 其他數據類型的後門攻擊
4.3 實戰案例:基於數據投毒的模型後門攻擊
4.3.1 案例背景
4.3.2 後門攻擊案例
4.4 實戰案例:供應鏈攻擊
4.4.1 案例背景
4.4.2 解析APK
4.4.3 後門模型訓練
4.5 實戰案例:基於模型文件神經元修改的模型後門攻擊
4.5.1 案例背景
4.5.2 模型文件神經元修改
4.5.3 觸發器優化
4.6 案例總結
●第5章預訓練模型安全●
5.1 預訓練範式介紹
5.1.1 預訓練模型的發展歷程
5.1.2 預訓練模型的基本原理
5.2 典型風險分析和防禦措施
5.2.1 數據風險
5.2.2 敏感內容生成風險
5.2.3 供應鏈風險
5.2.4 防禦策略
5.3 實戰案例:隱私數據洩露
5.3.1 實驗概況
5.3.2 實驗細節
5.3.3 結果分析
5.4 實戰案例:敏感內容生成
5.4.1 實驗概況
5.4.2 實驗細節
5.4.3 結果分析
5.5 實戰案例:基於自診斷和自去偏的防禦
5.5.1 實驗概況
5.5.2 實驗細節
5.5.3 結果分析
5.6 案例總結
●第6 章AI數據隱私竊取●
6.1 數據隱私竊取的基本原理
6.1.1 模型訓練中數據隱私竊取
6.1.2 模型使用中數據隱私竊取
6.2 數據隱私竊取的種類與攻擊思路
6.2.1 數據竊取攻擊
6.2.2 成員推理攻擊
6.2.3 屬性推理攻擊
6.3 實戰案例:聯邦學習中的梯度數據竊取攻擊
6.3.1 案例背景
6.3.2 竊取原理介紹
6.3.3 竊取案例
6.3.4 結果分析
6.4 實戰案例:利用AI水印對抗隱私洩露
6.4.1 案例背景
6.4.2 AI保護數據隱私案例
6.4.3 AI水印介紹
6.4.4 結果分析
6.5 案例總結
●第7 章AI應用失控風險●
7.1 AI應用失控
7.1.1 深度偽造技術
7.1.2 深度偽造安全風險
7.2 AI應用失控防禦方法
7.2.1 數據集
7.2.2 技術防禦
7.2.3 內容溯源
7.2.4 行業實踐
7.2.5 面臨挑戰
7.2.6 未來工作
7.3 實戰案例:VoIP電話劫持+語音克隆攻擊
7.3.1 案例背景
7.3.2 實驗細節
7.4 實戰案例:深度偽造鑑別
7.4.1 案例背景
7.4.2 實驗細節
7.4.3 結果分析
7.5 案例總結
●後記AI安全發展展望●