可解釋人工智能導論

楊強 等

  • 出版商: 電子工業
  • 出版日期: 2022-04-01
  • 定價: $948
  • 售價: 8.5$806
  • 語言: 簡體中文
  • 頁數: 380
  • ISBN: 7121431874
  • ISBN-13: 9787121431876
  • 下單後立即進貨 (約4週~6週)

買這商品的人也買了...

商品描述

本書全面介紹可解釋人工智能的基礎知識、理論方法和行業應用。全書分為三部分,共11 章。第一部分為第1 章,揭示基於數據驅動的人工智能系統決策機制,提出一種基於人機溝通交互場景的可解釋人工智能範式。第二部分為第2~5 章,介紹各種可解釋人工智能技術方法,包括貝葉斯方法、基於因果啟發的穩定學習和反事實推理、基於與或圖模型的人機協作解釋、對深度神經網絡的解釋。第三部分為第6~10 章,分別介紹可解釋人工智能在生物醫療、金融、電腦視覺、自然語言處理、推薦系統等領域的應用案例,詳細說明可解釋性在司法、城市管理、安防和製造等實際應用中發揮的積極作用。第11 章對全書進行總結,並論述可解釋人工智能研究面臨的挑戰和未來發展趨勢。此外,本書的附錄給出可解釋人工智能相關的開源資源、中英文術語對照及索引,方便讀者進一步查閱。本書既適合高等院校電腦和信息處理相關專業的高年級本科生和研究生,以及人工智能領域的研究員和學者閱讀;也適合關註人工智能應用及其社會影響力的政策制定者、法律工作者、社會科學研究人士等閱讀。

目錄大綱

目錄 推薦序 前言 作者介紹 第1章可解釋人工智能概述 1.1為什麽人工智能需要可解釋性 1.2可解釋人工智能 1.2.1目的、定義及範式 1.2.2層次、分類及應用場景 1.2.3解釋的範疇 1.2.4解釋的評價與度量 1.3可解釋AI的歷史及發展現狀 1.3.1可解釋AI歷史回顧 1.3.2可解釋AI發展現狀 1.4本書結構及閱讀建議 第2章貝葉斯方法 2.1貝葉斯網絡 2.1.1貝葉斯網絡的表示 2.1.2貝葉斯網絡的推斷 2.1.3貝葉斯網絡的學習 2.1.4貝葉斯規劃學習 2.2貝葉斯深度學習 2.2.1深度生成模型 2.2.2貝葉斯神經網絡 2.3從貝葉斯網絡到可解釋的因果模型 2.4延伸閱讀 2.5小結 第3章基於因果啟發的穩定學習和反事實推理 3.1將因果引入機器學習的增益 3.1.1制約人工智能技術的可解釋性和穩定性問題 3.1.2關聯性和因果性 3.2挖掘數據中的因果關聯 3.2.1因果推理框架和因果效應定義 3.2.2潛在結果框架下的因果效應評估 3.3穩定學習 3.3.1二值特徵下的穩定學習 3.3.2連續特徵下的穩定學習 3.3.3從統計學習角度的解釋 3.3.4區分性變量去關聯的穩定學習 3.3.5與深度神經網絡相結合的穩定學習 3.4反事實推理 3.4.1二值類型乾預的反事實推理 3.4.2多維類型乾預下的反事實推理 3.4.3存在未觀測混淆變量的反事實推理 3.5小結 第4章基於與或圖模型的人機協作解釋 4.1與或圖模型 4.2基於與或圖的多路徑認知過程 4.3人機協作對齊人類認知結構和與或圖模型 4.3.1通過交互式問答構建與人類認知系統對齊的與或圖模型 4.3.2評價模型的可解讀性:“氣泡游戲”實驗 4.3.3模型通過主動建模用戶認知提升可解讀性 4.4小結 第5章對深度神經網絡的解釋 5.1神經網絡特徵可視化 5.1.1最大激活響應可視化 5.1.2網絡解剖與特徵語義分析 5.1.3基於反向傳播的輸入重建可視化 5.1.4CAM/Grad-CAM 5.2輸入單元重要性歸因 5.2.1SHAP算法 5.2.2導向反向傳播算法 5.2.3逐層相關性傳播算法 5.2.4積分梯度算法 5.2.5LIME 5.3博弈交互解釋性理論 5.3.1理論基礎:沙普利值 5.3.2博弈交互的定義 5.3.3博弈交互的性質 5.3.4博弈交互與語義表達 5.3.5解釋隨機失活操作 5.3.6解釋批規範化操作 5.3.7解釋對抗遷移性和對抗魯棒性 5.4對神經網絡特徵質量解構、解釋和可視化 5.4.1解釋表徵一致性 5.4.2解釋復雜度 5.5對表達結構的解釋 5.5.1代理模型解釋 5.5.2對自然語言網絡中語言結構的提取和解釋 5.6可解釋的神經網絡 5.6.1膠囊網絡 5.6.2β-變分自編碼器 5.6.3可解釋的捲積神經網絡 5.6.4可解釋的組成捲積神經網絡 5.7小結 第6章生物醫療應用中的可解釋人工智能 6.1基因編輯系統優化設計中的可解釋人工智能 6.1.1基因編輯系統背景介紹 6.1.2基因編輯系統優化設計可解釋AI模型構建 6.2醫學影像中的可解釋性 6.2.1概述 6.2.2可解釋性胸片診斷 6.2.3具有自適應性的通用模型學習 6.3小結 第7章金融應用中的可解釋人工智能 7.1簡介 7.1.1金融行業背景介紹 7.1.2金融市場介紹 7.1.3可解釋AI面向各金融行業對象的必要性 7.1.4金融監管對於可解釋性的要求 7.2金融可解釋AI的案例 7.2.1事後可解釋模型解釋人工智能量化模型 7.2.2高風險客戶信用違約預測 7.2.3對金融人工智能模型可解釋性的監管 7.3金融可解釋AI的發展方向 7.3.1安全性 7.3.2平衡性 7.3.3完整性 7.3.4交互性 7.3.5時效性 7.3.6深化推廣應用 7.4延伸閱讀 7.5小結 第8章電腦視覺應用中的可解釋人工智能 8.1背景 8.1.1機器視覺與可解釋性 8.1.2可解釋性與機器視覺發展 8.2視覺關系抽取 8.2.1基本概念 8.2.2視覺關系檢測中可解釋性的重要性 8.2.3可解釋視覺關系抽取 8.3視覺推理 8.3.1基本概念 8.3.2可解釋視覺推理示例 8.4視覺魯棒性 8.4.1動態與靜態可解釋性分析 8.4.2數字世界與物理世界模型安全可解釋性 8.5視覺問答 8.5.1基本概念 8.5.2視覺問答中可解釋性的重要性 8.5.3可解釋性視覺問答示例 8.6知識發現 8.6.1基本概念 8.6.2視覺可解釋性與知識發現的關系 8.6.3可解釋性知識發現案例 8.7小結 第9章自然語言處理中的可解釋人工智能 9.1簡介.243 9.2可解釋自然語言處理中的模型結構分析 9.2.1為什麽模型結構分析很重要 9.2.2設置探針任務窺探模型結構的功能 9.2.3錯誤類型分析 9.2.4可解釋評估 9.3可解釋自然語言處理中的模型行為分析 9.3.1為什麽模型行為分析很重要 9.3.2預測行為分析 9.4自然語言處理任務中的可解釋性 9.4.1對話系統 9.4.2智能問答系統 9.4.3情感分析系統 9.4.4自動文摘系統 9.5延伸閱讀 9.5.1魯棒性分析 9.5.2泛化性分析 9.6小結 第10章推薦系統中的可解釋人工智能 10.1簡介 10.2初探可解釋推薦 10.3可解釋推薦的歷史與背景 10.4推薦系統基礎 10.4.1推薦系統的輸入 10.4.2推薦系統的輸出 10.4.3推薦系統的三大核心問題 10.5基本的推薦模型 10.5.1協同過濾 10.5.2協同推理 10.6可解釋的推薦模型 10.7可解釋推薦的應用 10.7.1電子商務 10.7.2社交網站 10.7.3基於位置的服務 10.7.4多媒體系統 10.7.5其他應用 10.8延伸閱讀:其他可解釋推薦模型 10.8.1基於圖和知識圖譜的可解釋推薦模型 10.8.2深度學習推薦系統的可解釋性 10.8.3基於自然語言生成的解釋 10.8.4基於因果和反事實推理的解釋 10.9小結 第11章結論 附錄A傳統機器學習中的可解釋模型 A.1線性回歸 A.2邏輯回歸 A.3決策樹 附錄B可解釋人工智能相關研究資源 B.1圖書 B.2綜述論文 B.3Workshop及論文集 B.4Tutorial B.5代碼 參考文獻 索引