生成式AI開發揭秘:大模型詳解

田雪松

  • 出版商: 機械工業
  • 出版日期: 2025-11-01
  • 售價: $594
  • 貴賓價: 9.5$564
  • 語言: 簡體中文
  • 頁數: 337
  • ISBN: 7111793919
  • ISBN-13: 9787111793915
  • 相關分類: Large language model
  • 立即出貨

商品描述

《生成式AI開發揭秘:大模型詳解》采用了通俗易懂的語言來詳細講解了基於大模型的生成式AI開發技術,涵蓋自然語言處理、語音識別及計算機視覺與圖像生成等不同領域。?在比對生成式AI與判別式AI的基礎之上,講解了大模型的基礎知識及相關應用技巧,從文本向量化入手深入剖析了轉換器(transformer)架構的各項核心技術,通過豐富的示例闡述了大模型處理相關任務時的代碼實現、模型加載、數據預處理和流水線等機制。?深入探討了在大模型部署過程中對算力及存儲需求的估算方法,揭示了模型性能與模型規模之間的冪律關系。?詳細介紹了大模型的分布式預訓練技術與高效的參數微調方法,還針對大模型對齊人類偏好的一些技術和算法進行了專門講解。?為了降低加載和運行大模型的門檻,本書大部分示例會選用經過優化後的壓縮模型,可直接在普通電腦上運轉起來,以降低讀者學習過程中的實驗成本。不論對於機器學習領域的研究者,還是生成式AI的開發者,本書都是良好的參考讀物和入門教程。 《生成式AI開發揭秘:大模型詳解》是一本介紹生成式AI開發技術的全景圖書,從生成式AI基本概念開始帶領讀者逐步走上AI開發之路,一步一步揭開生成式AI開發的神秘面紗。閱讀本書並不需要專業的人工智能技術背景,只要對機器學習有 基本的理解,並且有一定的編程經驗即可讀懂書中大部分內容。

作者簡介

田雪松,AI算法工程師

目錄大綱

第1章 走進生成式AI
1.1 生成式AI概述
1.1.1 機器學習概覽
1.1.2 梯度下降與反向傳播
1.1.3 生成式與判別式
1.1.4 小模型與大模型
1.2 解鎖大模型
1.2.1 從大數據到大模型
1.2.2 湧現能力
1.2.3 提示工程
1.3 擁抱生成式AI
1.3.1 獲取智能
1.3.2 應用智能
1.3.3 知識截止與幻覺
1.4 本章小結
第2章 開發生成式AI
2.1 搭建生成式AI項目
2.1.1 安裝Python
2.1.2 安裝VSCode
2.1.3 配置虛擬環境
2.1.4 執行代碼27
2.2 Python機器學習編程
2.2.1 從類型到張量
2.2.2 從控制語句到數據處理
2.2.3 從函數到可調用對象
2.2.4 模塊與包
2.3 生成式AI項目生命周期
2.3.1 範圍與模型
2.3.2 適配與對齊
2.3.3 優化與增強
2.3.4 周期疊代
2.4 本章小結
第3章 轉換器架構
3.1 文本向量化
3.1.1 分詞
3.1.2 分詞器
3.1.3 獨熱向量與嵌入向量
3.2 詞嵌入算法簡介
3.2.1 嵌入矩陣
3.2.2 Word2Vec
3.2.3 GloVe
3.2.3 t-SNE
3.3 多頭自註意力機制
3.3.1 自註意力與多頭
3.3.2 算法實現
3.4 白話轉換器模型
3.4.1 編碼器與解碼器
3.4.2 再論多頭自註意力
3.4.3 轉換器模型種類
3.4.4 模型進化樹
3.5 本章小結
第4章 自然語言處理
4.1 自然語言理解任務
4.1.1 文本分類
4.1.2 詞元分類
4.1.3 問答
4.2 自然語言生成任務
4.2.1 翻譯
4.2.2 摘要
4.2.3 文本生成
4.2.4 填充掩碼
4.3 解構流水線
4.3.1 流水線
4.3.2 分詞器
4.3.3 模型
4.4 本章小結
第5章 音頻處理
5.1 音頻分類與語音識別
5.1.1 音頻分類
5.1.2 基於Wav2Vec識別語音
5.1.3 基於Whisper識別語音
5.1.4 文本到語音
5.2 音頻數字化特征
5.2.1 從聲音到音頻
5.2.2 波形數據
5.2.3 時頻譜數據
5.2.4 梅爾時頻譜
5.3 特征提取與音頻流水線
5.3.1 特征提取器
5.3.2 音頻模型
5.3.3 多模態處理器及流水線拆解
5.4 本章小結
第6章 計算機視覺與圖像生成
6.1 計算機視覺任務
6.1.1 圖像分類
6.1.2 對象檢測
6.1.3 圖像分割
6.1.4 深度估計
6.2 圖像生成與擴散模型
6.2.1 基於擴散模型生成圖像
6.2.2 去噪擴散模型
6.2.3 自編碼器模型
6.2.4 U-Net噪聲估算
6.3 潛在擴散模型
6.3.1 變分自編碼器
6.3.2 潛空間與交叉註意力
6.3.3 生成式對抗網絡
6.5 本章小結
第7章 大模型增強與集成
7.1 檢索增強生成
7.1.1 從關鍵字檢索到向量檢索
7.1.2 實現DPR
7.1.3 向量存儲
7.1.3 增強生成
7.2 邏輯推理引擎
7.2.1 思維鏈提示
7.2.2 程序輔助語言模型
7.3.3 推理動作模型
7.3 使用LangChain實現RAG
7.3.1 鏈與Runnable接口
7.3.2 文檔加載與向量存儲
7.3.3 構建RAG鏈151
7.4 代理與LangGraph
7.4.1 工具定義
7.4.2 工具綁定與調用
7.4.3 使用LangChain代理
7.4.4 使用LangGraph圖
7.5 本章小結
第8章 大模型部署與優化
8.1 重新認識GPU
8.1.1 從GPU到GPGPU
8.1.2 算力指標FLOPS
8.1.3 顯卡指標
8.1.3 算力集群概覽
8.2 需求估算與擴展法則
8.2.1 推理算力估算
8.2.2 訓練算力估算
8.2.3 顯存估算
8.2.4 擴展定律與Chinchilla法則
8.3 大模型優化技術
8.3.1 知識蒸餾
8.3.2 參數剪枝
8.3.3 量化
8.4 本章小結
第9章 大模型評估與測試
9.1 機器學習評價指標
9.1.1 Precision和Recall
9.1.2 F1和MCC
9.1.3 MSE和MAE
9.1.4 Pearson和Spearman
9.1.5 BLEU和ROUGE
9.2 大模型基準測試
9.2.1 測試任務與數據集
9.2.2 GLUE概覽
9.2.3 GLUE測試任務
9.2.4 SuperGLUE概覽
9.2.5 MMLU與GAIA
9.3 大模型測試框架
9.3.1 lm-evaluation-harness
9.3.2 HELM
9.4 本章小結
第10章 大模型預訓練與微調
10.1 基於transformers庫訓練模型
10.1.1 數據預處理
10.1.2 設置超參數
10.1.3 訓練模型
10.2 大模型分布式訓練
10.2.1 數據並行
10.2.2 模型並行
10.3 大模型微調
10.3.1 低秩自適應微調
10.3.2 軟提示微調
10.3.3 使用PEFT庫
10.4 大模型的人類對齊
10.4.1 強化學習簡介
10.4.2 獎勵模型
10.4.3 近端策略優化
10.4.4 DPO和GRPO
10.5 本章小