上善AI:有溫度的人工智能治理
王江平
相關主題
商品描述
本書系作者結合學術研究、工作實踐、企業訪談與深度思考所撰寫,直面智能時代的核心挑戰——如何確保 AI 始終服務於人類福祉,創造性地提出“上善AI”治理理念,將中國傳統智慧——老子“上善若水”理念融入 AI 治理框架,提出以文化對齊三層次(價值對齊、制度對齊、哲學對齊)為基石,構築AI治理體系。
本書主要內容分為“智界之問”“智能之心”“智權之爭”三篇,回應隱私保護、就業結構、倫理安全等公眾關切的問題,系統分析人機對齊的技術路徑與倫理內核,剖析全球AI主權競爭與治理博弈。
本書旨在為政策制定者、AI技術開發者及關註AI發展的公眾提供兼具理論高度與實踐深度的AI治理思路,探尋技術發展與人類價值和諧統一的“善治”之路,勾勒安全、公平、普惠的智能未來願景。本書可作為機關企事業單位AI素養培訓讀本,也可為高等學校AI相關課程提供教學參考。
作者簡介
王江平,工學碩士,研究員級高級工程師,全國政協委員,工業和信息化部電子信息科學技術委員會主任,中國人工智能產業發展聯盟戰略委員會主任委員。曾任甕福集團總經理、貴州天福化工董事長、貴州省經信委主任、貴州省副省長、國家工商行政管理總局副局長、工業和信息化部副部長。長期從事工業和信息化工作,對企業管理、產業科技、產業金融與制造業數字化智能化綠色化轉型有長期的觀察和實踐。
目錄大綱
導讀 探尋AI治理之路
一、全球AI爭論與治理困境 / 001
二、人機對齊是智能時代的核心議題 / 011
三、上善AI:用“上善若水”的智慧勾勒AI治理願景 / 013
上篇 智界之問
第 一章十問AI / 029
問題1:我們該如何守護隱私防線? / 030
問題2:如何確保AI不會放大社會歧視? / 034
問題3:AI會把人類情感商品化嗎? / 038
問題4:誰為AI的錯誤負責? / 042
問題5:AI會奪走我們的工作嗎? / 048
問題6:如何辨別深度偽造? / 052
問題7:我們如何看待AI的“黑箱”決策邏輯? / 056
問題8:誰能夠真正地控制AI? / 060
問題9:AI會加劇環境危機嗎? / 065
問題10:AI會成為戰爭機器嗎? / 070
第二章以德報怨,常善救人
—“智界之問”《道德經》解析 / 075
十問AI:不知常,妄,妄作,兇 / 076
守護本真:見素抱樸,少私寡欲 / 078
以德報怨:最高層次的善 / 080
中篇 智能之心
第三章AI倫理的核心議題 / 083
AI的發展歷程:從“被動智能”到“主動智能” / 084
人機對齊:給AI戴上緊箍咒 / 088
文化對齊三層次 / 092
人機雙向對齊 / 096
為何對齊如此困難 / 099
第四章人機對齊的技術解構 / 103
人機對齊的本質 / 104
典型的人機對齊技術 / 107
數據飛輪:AI的持續進化機制 / 115
人機對齊視角下的開源治理 / 121
第五章當AI走出實驗室 / 131
人工智能風險事件數據庫 / 132
主流模型的對齊實踐 / 141
自主道德演化的可能性 / 168
技術的硬邊界:AI進化路上無法繞開的深層約束 / 172
邁向全面對齊 / 174
“四位一體”治理框架 / 176
第六章以道馭術,知白守黑
—“智能之心”《道德經》解析 / 179
AI之生:有無相生的技術演化史 / 180
倫理之困:智慧出,案有大偽 / 182
對齊之要:為AI定規矩、定生涯、定使命 / 184
對齊技術的局限:道可道,非常道 / 186
當AI走出實驗室:知白守黑的智慧 / 187
下篇 智權之爭
第七章技術與倫理協同發展 / 191
原子能的饋贈與陰影 / 192
數字廣場上的權力重構 / 195
技術、人、社會的關系 / 198
關於AI的全球對話 / 201
第八章國家安全維度的多面博弈 / 207
對內治理框架 / 208
全球市場準入 / 211
AI主權競爭 / 216
AI治理生態的競爭與博弈 / 222
第九章全球AI治理的四種類型 / 231
技術引領型 / 235
規範塑造型 / 241
後發趕超型 / 249
受限參與型 / 253
第十章以正治國,為而不爭
—“智權之爭”《道德經》解析 / 257
技術與倫理的邊界:福禍相依的辯證觀 / 258
數字廣場上的權力重構:柔弱勝剛強 / 259
AI主權競爭:“為而不爭”的智慧 / 261
全球AI治理類型:“江海善下”的包容 / 262
AI開源:損有餘而補不足 / 263
結束語邁向人機共生的“上善AI”時代 / 265
訪談一:AI能托付起我們的生命健康嗎(《中國衛生》雜誌、
《健康報》訪談)/ 270
訪談二:企業AI,數字化轉型2.0(《企業管理》雜誌訪談)/ 275
訪談三:應用人機對齊策略建立可信法律AI
(《法治日報》訪談)/ 281
參考文獻 / 285
後記 / 287

