網路價≠最低優惠價!記得登入會員看看唷!

業界實戰親授:大型語言模型微調、最佳化、佈署一次到位 莊建、滕海云、莊金蘭 著

產品編號:9786267569931
促銷 團購優惠-聯合 出版社
促銷 教科書搶便宜大作戰~一本就免運
購物每消費滿300元,可獲得1元購物金

網路價 NT${{ commaFormat(product.price_actu) }} NT${{commaFormat(product.price_sugg)}}

專屬特惠價 NT${{ commaFormat(product.group_price) }}

優惠價 NT${{ commaFormat(product.member_price) }} NT${{ commaFormat(product.group_price) }}

商品組合
{{k_row.name}} x {{k_row.qty}}
{{k_row.intro}}
贈品 (買就送)

{{ pItem.title }}

備註 ⭐此書較長備貨,下單後約7-10個工作日(不含例假日)寄出
此商品不適用
付款方式

轉帳/匯款/無摺存款 / LinePay付款 / 超商代碼付款(綠界金流) / 信用卡一次付清(綠界金流) / AFTEE 先享後付 / [圖書專用] 7-11取貨付款

配送方式

7-11超商取貨 / 全家超商取貨 / 宅配到家 / 校園門市店到店取貨(需7~10個工作天,急用勿選)

超值加購


出版商:深智
出版日期:2025-06-19
語言:繁體中文
頁數:424
ISBN-13:
9786267569931

【內容】
►回顧對話機器人歷史,從人機交流到現代語言模型

►解析人工智慧發展,聚焦通用人工智慧(AGI)

►指導大型語言模型私有化部署,涵蓋環境建置

►介紹語言模型核心理論,從統計方法到Transformer

►解析Hugging Face與Transformers函數庫應用

►介紹高效微調技術,如Prompt Tuning與LoRA

►實作LoRA與QLoRA微調GLM-4,提升效能

►探討提示工程,提升模型推理與應用能力

►解析多角色對話與AI Agent的運作模式

►介紹LangChain框架,涵蓋Chain與Agents

►展示垂直領域模型應用,以紅十字會資料實作

►解析檢索增強生成(RAG),結合LLM與知識庫

本書第一章回顧對話機器人的發展,探討人工智慧的演進與未來趨勢。第二章介紹大型語言模型的私有化部署,包括CUDA環境建置、PyTorch安裝與GLM-4模型執行。第三章解析語言模型的理論基礎,涵蓋統計語言模型、Transformer架構與Attention機制。第四章說明Hugging Face與Transformers函數庫的應用,幫助讀者開發與微調LLM。第五章介紹高效微調技術,如Prompt Tuning、LoRA、QLoRA等方法,提升模型效能。第六章進一步探討LoRA微調GLM-4的實戰應用與量化技術。第七章解析提示工程,說明Few-shot、Chain of Thought等推理增強技術。第八章介紹AI Agent與多角色對話模式,並探討Function Calling的應用。第九章深入LangChain框架,涵蓋Chain、Memory與Agents的實作,並整合資料庫與檢索增強生成(RAG)技術。第十章展示大型模型在垂直領域的應用,例如微調GLM-4處理紅十字會資料,提供完整的實戰示範。

目錄
▍第1章 從零開始大型模型之旅
1.1 對話機器人歷史
1.1.1 人機同頻交流
1.1.2 人機對話發展歷史
1.2 人工智慧
1.2.1 從感知到創造
1.2.2 通用人工智慧
1.2.3 發展方向
1.2.4 本書焦點
1.3 本章小結

▍第2章 大型模型私有化部署
2.1 CUDA 環境準備
2.1.1 基礎環境
2.1.2 大型模型執行環境
2.1.3 安裝顯示卡驅動
2.1.4 安裝CUDA
2.1.5 安裝cuDNN
2.2 深度學習環境準備
2.2.1 安裝Anaconda 環境
2.2.2 伺服器環境下的環境啟動
2.2.3 安裝PyTorch
2.3 GLM-3 和GLM-4
2.3.1 GLM-3 介紹
2.3.2 GLM-4 介紹
2.4 GLM-4 私有化部署
2.4.1 建立虛擬環境
2.4.2 下載GLM-4 專案檔案
2.4.3 安裝專案相依套件
2.4.4 下載模型權重
2.5 執行GLM-4 的方式
2.5.1 基於命令列的互動式對話
2.5.2 基於Gradio 函數庫的Web 端對話應用
2.5.3 OpenAI 風格的API 呼叫方法
2.5.4 模型量化部署
2.6 本章小結

▍第3章 大型模型理論基礎
3.1 自然語言領域中的資料
3.1.1 時間序列資料
3.1.2 分詞
3.1.3 Token
3.1.4 Embedding
3.1.5 語義向量空間
3.2 語言模型歷史演進
3.2.1 語言模型歷史演進
3.2.2 統計語言模型
3.2.3 神經網路語言模型
3.3 注意力機制
3.3.1 RNN 模型
3.3.2 Seq2Seq 模型
3.3.3 Attention 注意力機制
3.4 Transformer 架構
3.4.1 整體架構
3.4.2 Self-Attention
3.4.3 Multi-Head Attention
3.4.4 Encoder
3.4.5 Decoder
3.4.6 實驗效果
3.5 本章小結

▍第4章 大型模型開發工具
4.1 Huggingface
4.1.1 Huggingface 介紹
4.1.2 安裝Transformers 函數庫
4.2 大型模型開發工具
4.2.1 開發範式
4.2.2 Transformers 函數庫核心設計
4.3 Transformers 函數庫詳解
4.3.1 NLP 任務處理全流程
4.3.2 資料轉換形式
4.3.3 Tokenizer
4.3.4 模型載入和解讀
4.3.5 模型的輸出
4.3.6 模型的儲存
4.4 全量微調訓練方法
4.4.1 Datasets 函數庫和Accelerate 函數庫
4.4.2 資料格式
4.4.3 資料前置處理
4.4.4 模型訓練的參數
4.4.5 模型訓練
4.4.6 模型評估
4.5 本章小結

▍第5章 高效微調方法
5.1 主流的高效微調方法介紹
5.1.1 微調方法介紹
5.1.2 Prompt 的提出背景
5.2 PEFT 函數庫快速入門
5.2.1 介紹
5.2.2 設計理念
5.2.3 使用
5.3 Prefix Tuning
5.3.1 背景
5.3.2 核心技術解讀
5.3.3 實現步驟
5.3.4 實驗結果
5.4 Prompt Tunin
5.4.1 背景
5.4.2 核心技術解讀
5.4.3 實現步驟
5.4.4 實驗結果
5.5 P-Tuning
5.5.1 背景
5.5.2 核心技術解讀
5.5.3 實現步驟
5.5.4 實驗結果
5.6 P-Tuning V2
5.6.1 背景
5.6.2 核心技術解讀
5.6.3 實現步驟
5.6.4 實驗結果
5.7 本章小結

▍第6章 LoRA 微調GLM-4 實戰
6.1 LoRA
6.1.1 背景
6.1.2 核心技術解讀
6.1.3 LoRA 的特點
6.1.4 實現步驟
6.1.5 實驗結果
6.2 AdaLoRA
6.2.1 LoRA 的缺陷
6.2.2 核心技術解讀
6.2.3 實現步驟
6.2.4 實驗結果
6.3 QLoRA
6.3.1 背景
6.3.2 技術原理解析
6.4 量化技術
6.4.1 背景
6.4.2 量化技術分類
6.4.3 BitsAndBytes 函數庫
6.4.4 實現步驟
6.4.5 實驗結果
6.5 本章小結

▍第7章 提示工程入門與實踐
7.1 探索大型模型潛力邊界
7.1.1 潛力的來源
7.1.2 Prompt 的六個建議
7.2 Prompt 實踐
7.2.1 四個經典推理問題
7.2.2 大型模型原始表現
7.3 提示工程
7.3.1 提示工程的概念
7.3.2 Few-shot
7.3.3 透過思維鏈提示法提升模型推理能力
7.3.4 Zero-shot-CoT 提示方法
7.3.5 Few-shot-CoT 提示方法
7.4 Least-to-Most Prompting(LtM 提示方法)
7.4.1 Least-to-Most Prompting 基本概念
7.4.2 Zero-shot-LtM 提示過程
7.4.3 效果驗證
7.5 提示使用技巧
7.5.1 B.R.O.K.E 提示框架
7.5.2 C.O.A.S.T 提示框架
7.5.3 R.O.S.E.S 提示框架
7.6 本章小結

▍第8章 大型模型與中介軟體
8.1 AI Agent
8.1.1 從AGI 到Agent
8.1.2 Agent 概念
8.1.3 AI Agent 應用領域
8.2 大型模型對話模式
8.2.1 模型分類
8.2.2 多角色對話模式
8.3 多角色對話模式實戰
8.3.1 messages 參數結構及功能解釋
8.3.2 messages 參數中的角色劃分
8.4 Function Calling 功能
8.4.1 發展歷史
8.4.2 簡單案例
8.5 實現多函數
8.5.1 定義多個工具函數
8.5.2 測試結果
8.6 Bing 搜索嵌入LLM
8.6.1 曇花一現的Browsing with Bing
8.6.2 需求分析
8.6.4 建構自動搜索問答機器人
8.7 本章小結

▍第9章 LangChain 理論與實戰
9.1 整體介紹
9.1.1 什麼是LangChain
9.1.2 意義
9.1.3 整體架構
9.2 Model I/O
9.2.1 架構
9.2.2 LLM
9.2.3 ChatModel
9.2.4 Prompt Template
9.2.5 實戰:LangChain 連線本地GLM
9.2.6 Parser
9.3 Chain
9.3.1 基礎概念
9.3.2 常用的Chain
9.4 Memory
9.4.1 基礎概念
9.4.2 流程解讀
9.4.3 常用Memory
9.5 Agents
9.5.1 理論
9.5.2 快速入門
9.5.3 架構
9.6 LangChain 實現Function Calling
9.6.1 工具定義
9.6.2 OutputParser
9.6.3 使用
9.7 本章小結

▍第10章 實戰:垂直領域大型模型
10.1 QLoRA 微調GLM-4
10.1.1 定義全域變數和參數
10.1.2 紅十字會資料準備
10.1.3 訓練模型
10.2 大型模型連線資料庫
10.2.1 大型模型挑戰
10.2.2 資料集準備
10.2.3 SQLite3
10.2.4 獲取資料庫資訊
10.2.5 建構tools 資訊
10.2.6 模型選擇
10.2.7 效果測試
10.3 LangChain 重寫查詢
10.3.1 環境配置
10.3.2 工具使用
10.4 RAG 檢索增強
10.4.1 自動化資料生成
10.4.2 RAG 架設
10.5 本章小結

▍參考文獻

【關於教科書訂購說明】

☆ 單本即有折扣,將商品放入購物車就可以看見優惠價唷!五本以上團購更便宜!加入會員訂購,還可累積購物金!

★ 若有急需用書,可先LINE私訊詢問庫存呦~

☆ 出貨時間:有現貨的,2個工作日內出貨;無現貨,約3~5個工作日 出貨


【寄送方式說明】

實體門市取貨

全台麗文校園書局皆可取貨,貨到書局將會以簡訊通知。


超商取貨

提供7-11及全家超商取貨(需先付款,無貨到付款)。


一般宅配

本公司主要與黑貓宅急便配合,送達到您指定的地址。


※當您於本網站消費交易完成後,電子發票將會以電子郵件給您;如需紙本發票請於下訂時於備註欄位說明。


【付款方式說明】

 ATM轉帳、匯款

銀行│第一銀行-三民分行

代號│007

戶名│麗文文化事業股份有限公司

帳號│704-10-051861

※實體ATM每日轉帳最高限額為3萬,若訂購金額超過3萬元,請分兩天或是使用不同的銀行帳戶轉帳。

 信用卡(可分期,需負擔手續費)

凡各家銀行的VISA、MASTER、Union Pay、JCB信用卡皆可使用。

 超商代碼

系統會發送繳費代碼至您的電子信箱,需自行至「超商機器ex:iBon」輸入代碼,產生繳費單後前往櫃檯繳費。


❼ 免卡分期

麗文校園購與「zingala銀角零卡」「第一資融」以及「皮路後支付」合作,讓您免用信用卡就可以購物
如有使用上的問題,可以先與揪小編聯絡唷!。

※請注意:超過7天未付款之訂單則訂單自動失效;免卡分期訂單成立起7天內未主動聯繫亦同。


【其他說明】

關於出貨

1.商品為不缺貨前提下,訂單完成付款後2-4個工作天將會出貨(不含例假日及國定假日);若商品缺貨則須等待1-2週。

2.麗文校園揪來玩保留訂單接受與否權利,若因交易條件有誤或有其他情形導致我們無法接受您的訂單,將以E-mail發送取消訂單通知給您,造成不便敬請見諒。


關於退貨

1.非門市現場消費享有七天猶豫期,收到商品當天往後算七天內若是決定不買,則協助不要拆封,一拆封視同願意購買。

2.若真的決定不購買商品要退貨,請聯繫我們LINE線上客服,我們會盡速為您處理。


關於新品瑕疵與維修保固

1.全新商品享有購買七日內,新品瑕疵的換新保障;但新品瑕疵與否,是由商品代理商或原廠所判定,麗文校園揪來玩僅能依據判定的結果給予協助。若是原廠判定非新品瑕疵則無法換新,需改為維修的方式處理。

2.新品瑕疵換新的作業時間,將依各廠商的流程而定,最快2個工作天,慢的話也可能需要到15個工作天。

3.購買超過七日後,維修服務由原廠提供。如有需要維修,麗文校園揪來玩可以代為送修,但送修如需運費時(EX:原廠沒有提供免費收件服務),則需由您負擔送修的運費(運費約為100元起,因商品大小而異)。


【華碩的維修服務】

華碩維修保固說明

三大禮遇及完美保固電商素材-5_Page2_09.jpg

推薦一起買

推薦購買