LLM 走進你的電腦 - 自己動手開發大型語言模型應用
張奇、桂韜、鄭銳、黃萱菁 著
- 出版商: 深智數位
- 出版日期: 2024-06-19
- 定價: $880
- 售價: 7.9 折 $695
- 語言: 繁體中文
- 頁數: 408
- ISBN: 6267383768
- ISBN-13: 9786267383766
-
相關分類:
LangChain
- 此書翻譯自: 大規模語言模型:從理論到實踐
立即出貨 (庫存 > 10)
買這商品的人也買了...
-
$1,200$948 -
$1,200$1,020 -
$1,200$948 -
$580$458 -
$1,200$948 -
$1,200$948 -
$720$569 -
$880$695 -
$880$695 -
$720$569 -
$980$774 -
$750$593 -
$602大語言模型應用指南:以ChatGPT為起點,從入門到精通的AI實踐教程(全彩)
-
$880$695 -
$800$632 -
$680$537 -
$720$569 -
$780$616 -
$1,000$790 -
$500$375 -
$403快速部署大模型:LLM 策略與實踐 (基於 ChatGPT 等大語言模型)
-
$800$632 -
$650$507 -
$680$537 -
$720$569
相關主題
商品描述
【新書簡介】
本書共分四部分,第一部分詳細介紹大型語言模型的基礎理論知識,包括語言模型的定義、Transformer 結構,以及大型語言模型框架等內容,並以 LLaMA 所採用的模型結構為例的程式碼。
第二部分主要介紹預訓練的相關內容,包括在模型分散式訓練中需要掌握的資料平行、流水線並行和模型平行等技術也介紹了ZeRO 最佳化,介紹預訓練資料分佈和資料預處理,以DeepSpeed 為例,介紹大型語言模型的預訓練。
第三部分為大型語言模型在指令理解,如何在基礎模型的基礎上利用有監督微調和強化學習方法,理解指令並給出回答,包括高效微調方法、有監督微調資料構造方法、強化學習基礎和近端策略優化方法,並以 DeepSpeed-Chat和 MOSS-RLHF 為例訓練類 ChatGPT 系統。
第四部分重點介紹了大型語言模型的擴充應用和評估。包括與外部工具和知識源連接的LangChain 技術。
【本書看點】
●LLM基礎,包括GPT、Transformer、LLAMA
●常用的模型倉庫Huggingface的介紹
●LLM的預訓練資料的介紹及整理
●多GPU分散式訓練的基礎及實作
●SFT有監督微調的應用實例及基礎,包括LORA、PEFT
●強化學習在LLM中的應用,包括獎勵模型及PPO
●LLM的應用,包括COT及LLM瑞士刀LangChain
●用科學方式來評估LLM的能力
作者簡介
張奇
復旦大學電腦科學技術學院教授、博士生導師。主要研究方向是自然語言處理和資訊檢索。兼任中國中文資訊學會理事,中國中文資訊學會資訊檢索專委會常務委員,中國人工智慧學會青年工作委員會常務委員。多次擔任ACL、EMNLP、COLING、全國資訊檢索大會等重要國際、國內會議的程式委員會主席、領域主席、講習班主席等。承擔國家重點研發計畫課題、國家自然科學基金、上海市科委等多個專案,在國際重要學術刊物和會議上發表論文150餘篇,獲得美國授權專利4項。獲得WSDM 2014最佳論文提名獎、COLING 2018領域主席推薦獎、NLPCC 2019傑出論文獎、COLING 2022傑出論文獎。獲得上海市「晨光計畫」人才計畫、復旦大學「卓越2025」人才培育計畫等支持,獲得錢偉長中文資訊處理科學技術一等獎、漢王青年創新一等獎、上海市科技進步二等獎、ACM上海新星提名獎、IBM Faculty Award等獎項。
桂韜
復旦大學自然語言處理實驗室副研究員、碩士生導師。研究領域為預訓練模型、資訊抽取和魯棒模型。在高水準國際學術期刊和會議上發表論文40餘篇,主持國家自然科學基金、電腦學會、人工智慧學會的多個基金項目。獲得錢偉長中文資訊處理科學技術一等獎、中國中文資訊學會優秀博士論文獎、COLING 2018最佳論文提名獎、NLPCC 2019傑出論文獎,入選第七屆中國科協青年人才托舉工程,入選上海市2023年度“科技創新行動計畫”啟明星專案,獲得2023年度世界人工智慧大會雲帆獎。
鄭銳
復旦大學電腦科學技術學院博士生,導師為張奇教授。研究興趣包括大模型對齊、魯棒性等。MOSS-RLHF開源專案負責人,文本魯棒性評測工具TextFlint的核心貢獻者,在ACL、EMNLP、COLING等國際會議上發表學術論文十餘篇。
黃萱菁
復旦大學電腦科學技術學院教授、博士生導師。主要從事人工智慧、自然語言處理和資訊檢索研究。兼任中國中文資訊學會理事,中國電腦學會自然語言處理專委會副主任,中國人工智慧學會女科技工作者委員會副主任,計算語言學學會亞太分會副主席,亞太資訊檢索學會指導委員會委員。承擔國家重點研發計畫課題、國家自然科學基金等多個專案,在國際重要學術刊物和會議上發表論文180餘篇。獲得錢偉長中文資訊處理科學技術一等獎、上海市育才獎、人工智慧全球女性學者、福布斯中國科技女性等多項榮譽。
目錄大綱
第 1 章 緒論
1.1 大型語言模型的基本概念
1.2 大型語言模型的發展歷程
1.3 大型語言模型的建構流程
1.4 本書的內容安排
第 2 章 大型語言模型基礎
2.1 Transformer 結構
2.2 生成式預訓練語言模型 GPT
2.3 大型語言模型的結構
2.4 實踐思考
第 3 章 大型語言模型預訓練資料
3.1 資料來源
3.2 資料處理
3.3 資料影響分析
3.4 開放原始碼資料集
3.5 實踐思考
第 4 章 分散式訓練
4.1 分散式訓練概述
4.2 分散式訓練的平行策略
4.3 分散式訓練的叢集架構
4.4 DeepSpeed 實踐
4.5 實踐思考
第 5 章 有監督微調
5.1 提示學習和語境學習
5.2 高效模型微調
5.3 模型上下文視窗擴展
5.4 指令資料的建構
5.5 DeepSpeed-Chat SFT 實踐
5.6 實踐思考
第 6 章 強化學習
6.1 基於人類回饋的強化學習
6.2 獎勵模型
6.3 近端策略最佳化
6.4 MOSS-RLHF 實踐
6.5 實踐思考
第 7 章 大型語言模型應用
7.1 推理規劃
7.2 綜合應用框架
7.3 智慧代理
7.4 多模態大模型
7.5 大型語言模型推理最佳化
7.6 實踐思考
第 8 章 大型語言模型評估
8.1 模型評估概述
8.2 大型語言模型評估系統
8.3 大型語言模型評估方法
8.4 大型語言模型評估實踐
8.5 實踐思考
參考文獻
索引