全面掌握生成式 AI 與 LLM 開發實務:NLP × PyTorch × GPT 輕鬆打造專屬的大型語言模型(iThome鐵人賽系列書)
黃朝隆
- 出版商: 博碩文化
- 出版日期: 2024-10-23
- 定價: $620
- 售價: 7.8 折 $484
- 語言: 繁體中文
- 頁數: 256
- 裝訂: 平裝
- ISBN: 6263339683
- ISBN-13: 9786263339682
-
相關分類:
LangChain、DeepLearning、Text-mining
立即出貨 (庫存 > 10)
買這商品的人也買了...
-
$680$578 -
$680$537 -
$890$703 -
$720$562 -
$680$537 -
$980$774 -
$560$442 -
$880$695 -
$800$632 -
$179$161 -
$680$537 -
$650$507 -
$1,080$853 -
$680$530 -
$720$569 -
$650$514 -
$680$530 -
$680$530 -
$599$473 -
$780$616 -
$980$774 -
$680$537 -
$510$434 -
$720$562 -
$880$695
相關主題
商品描述
從理論到實踐,自然語言處理必修指南
精通AI × NLP,快速脫穎而出!
【專業推薦】
「對許多人而言,AI技術既熟悉又遙遠,其快速發展加劇了資訊焦慮。在這個背景下,我推薦這本關於生成式AI與大型語言模型(LLM)開發實務的書籍,因為它提供了一個極具深度和廣度的學習資源,無論是剛接觸人工智慧領域的初學者,還是希望深入理解生成式AI的專業人士,都能從中獲得啟發與實踐經驗。本書的特點在於其層層遞進的結構設計,將複雜的理論與實務操作相結合,讓讀者能夠逐步建立起紮實的人工智慧知識體系。」
─ 李俊宏,國立高雄科技大學 電機工程系資通組教授
「本書中的內容並不是單純地傳授如何使用特定工具,而是透過詳細的範例與步驟,讓讀者理解背後的邏輯,書中提供了豐富的實作指導,幫助讀者不只實現模型的搭建,還能深入探討模型優化的細節,這對於那些正在學習如何調整超參數來提高模型效能的讀者來說,尤為重要。本書是一本適合任何階段的讀者閱讀的書籍,無論你是剛入門的學生,還是有一定經驗的開發者,都能在這裡找到進一步提升的機會。」
─ 吳宇祈,國立成功大學 電機工程系碩士生
【內容簡介】
♔ 深度學習必備:理解AI與NLP理論,從入門到精通
♔ 實戰案例解析:豐富的程式碼實例,培養實戰能力
♔ 模型優化祕訣:掌握最新AI技術,提升模型表現
♔ 全面培訓實戰:初學者或專業人士可精進AI專案程式
本書內容改編自第15屆iThome鐵人賽AI & Data組佳作系列文章《30天內成為NLP大師:掌握關鍵工具和技巧》。本書從基礎理論到實務應用,詳細介紹了自然語言處理的發展過程及相關技術,且循序漸進解釋了AI中的數學原理,如線性代數、矩陣相乘及機率,並將這些理論應用於深度學習模型中。
此外,本書內容還涵蓋了如何建立、訓練及優化自然語言處理模型的實作步驟,並介紹目前最熱門的模型架構,如Transformer、BERT、GPT、LLaMA等,指導讀者如何在實際應用中微調這些模型,以達到最佳效果。對於那些希望參與人工智慧競賽或是提升程式設計技能的讀者,本書也提供大量實例與程式碼,幫助讀者更加理解和掌握這些技術。
【本書特色】
✪理解人工智慧實際上的運作原理以及電腦是如何理解文字資料的。
✪完整介紹自然語言處理的「重要發展」與「最近進展」,讓你快速上手自然語言處理這一領域。
✪全面理解大型語言模型的奧妙與其相關評估指標。
✪告訴你模型優化技巧,讓你能在競賽中獲取優良名次。
✪讓你擁有工程師的「程式風格」與培育「自學思維」。
【目標讀者】
✪對人工智慧懷抱熱情的初學者與愛好者。
✪希望快速學習、累積人工智慧程式專案經驗的程式設計師和開發者。
✪數學理論強但程式設計經驗有限、想踏入人工智慧領域的學習者。
✪希望參加人工智慧競賽的參賽者。
✪希望了解最新NLP技術發展的技術專業人士。
作者簡介
黃朝隆
國立高雄應用科技大學電機工程系碩士班,專攻電機與資訊工程。在學期間積極參與多項學術研究和實務專案,並將這些經驗應用於各類競賽,曾取得AI CUP亞軍及專題競賽等優異成績。
作者致力於將複雜的概念,以簡潔和易於理解的方式傳遞給他人。除了學術上的成就,作者也熱衷於教育工作,不僅在國內擔任家教,更曾在國外擔任碩士生的程式語言家教。強調自主學習的重要性,希望培養學生的自學能力,幫助他們發現自己的學習節奏與興趣所在,透過設計具挑戰性且實用的課程,讓學生不僅能掌握理論知識,更能培養獨立思考與解決問題的能力。
目錄大綱
|Chapter 01| 模型該如何理解文字
1.1 Tokenizer介紹
1.2 文字向量化的方式
1.3 程式實作:建立BPE Tokenizer
1.4 本章總結
|Chapter 02| 用數學來告訴你何謂神經網路
2.1 自然語言模型是如何運行的
2.2 程式實作:手刻NLP神經網路
2.3 本章總結
|Chapter 03| Pytorch的訓練方式與模型的優化方式
3.1 模型的優化方式
3.2 Pytorch介紹與安裝
3.3 程式實作:建立訓練器
3.4 本章總結
|Chapter 04| 文字也是一種有時間序列的資料
4.1 循環神經網路
4.2 LSTM(Long short-term memory)
4.3 GRU(Gated Recurrent Unit )
4.4 程式實作:IMDB影評情緒分析
4.5 本章總結
|Chapter 05| 該如何生成文字Seq2seq架構解析
5.1 Seq2Sqe 介紹
5.2 Seq2Sqe + Attention
5.3 程式實作:中英翻譯模型
5.4 本章總結
|Chapter 06| 萬物皆可Transformer
6.1 Transformer介紹
6.2 Transformer Encoder
6.3 Transformer Decoder
6.4 程式實作:新聞文字摘要
6.5 本章總結
|Chapter 07| 站在巨人肩膀上的預訓練模型BERT
7.1 預訓練模型
7.2 模型微調
7.3 BERT
7.4 程式實作:使用SQuAD做QA問答
7.5 本章總結
|Chapter 08| 暴力的美學GPT的強大能力
8.1 GPT-1
8.2 GPT-2
8.3 GPT-3
8.4 程式實作:用生成式AI來回答問題
8.5 本章總結
|Chapter 09| 大型語言模型時代的起點
9.1 InstructGPT
9.2 ChatGPT
9.3 ChatGPT API申請方式
9.4 程式實作:打造個人的Linebot助手
9.5 本章總結
|Chapter 10| 建立屬於自己的大型語言模型
10.1 LLaMA
10.2 QLorA
10.3 NEFtune
10.4 程式實作:用LLaMA 3訓練聊天機器人
10.5 本章總結