不只是 CUDA,通用 GPU 程式模型及架構原理
景乃鋒, 柯晶, 梁曉嶢 編著
- 出版商: 深智數位
- 出版日期: 2023-05-20
- 定價: $780
- 售價: 7.9 折 $616
- 語言: 繁體中文
- 頁數: 384
- ISBN: 6267273385
- ISBN-13: 9786267273388
-
相關分類:
CUDA
- 此書翻譯自: 通用圖形處理器設計 — GPGPU 編程模型與架構原理
立即出貨 (庫存 < 5)
買這商品的人也買了...
-
$580$458 -
$594$564 -
$360$284 -
$1,950$1,853 -
$450$356 -
$1,074$1,020 -
$450$338 -
$474$450 -
$550$429 -
$980$774 -
$1,000$790 -
$880$695 -
$1,000$850 -
$1,000$850 -
$611$575 -
$479$455 -
$709並行計算與高性能計算
-
$520$390 -
$780$616 -
$750$593 -
$880$695 -
$680$537 -
$594$564 -
$720$569 -
$880$695
相關主題
商品描述
人工智慧的基礎
深度學習的基石
了解GPGPU,加速您的想像力!!
當今科技快速發展,人工智慧、機器學習和資料分析等領域的運用已經深入到生活中。作為這些技術的重要基石,GPGPU(General Purpose Graphics Processing Unit,通
用圖形處理器)技術在硬體設計和軟體開發中扮演著關鍵角色,也使得掌握GPGPU技術及其架構,對於了解與推動相關領域的進一步發展十分重要。
本書試圖從架構的方式,讓讀者理解 GPGPU 的系統特點,並思考其架構設計的重點與發展方向。不僅有軟體部分,也包含硬體架構的介紹、相關工具以及如何增進效率的
技術討論。而每篇還有論文的引用、分析、討論、介紹,並於每章節附加參考文獻,幫助讀者有方向額外研究。
博客來網路書店製 20210205
【章節簡介】
■ 第 1 章GPGPU 概述:
著重介紹GPGPU 與CPU 系統結構上的差異和現代GPGPU 產品的特點。
■ 第 2 章GPGPU 程式設計模型:
介紹GPGPU 程式設計模型的核心概念,勾勒出GPGPU 異質計算的設計要點。
■ 第 3 章GPGPU 控制核心架構:
對GPGPU 指令管線和關鍵控制元件的原理進行分析和介紹,並深入探討GPGPU 架構的瓶頸問題和最佳化方法。
■ 第 4 章GPGPU 儲存架構:
對GPGPU 多樣的層次化記憶體介紹,重點探討單晶片記憶體的設計和最佳化方法。
■ 第 5 章GPGPU 運算單元架構:
介紹數值表示和通用運算核心的設計。
■ 第 6 章GPGPU 張量核心架構:
對專門為人工智慧加速而設計的張量核心架構展開分析與介紹,揭示GPGPU 對深度學習進行硬體加速的基本原理。在先前架構原理、設計方法的探討中,本書還著重介紹
國際前端的研究成果,力圖解釋設計背後的挑戰,促讓讀者更深入地思考GPGPU 架構設計的核心要素問題。
■ 第 7 章複習與展望:
對全書內容進行複習,並對GPGPU 發展進行展望。
【本書適合讀者】
.資工、資訊科學,或電腦相關科系的大學生、研究生。
.相關領域的工程師、研究人員。
.想要了解 GPGPU 如何運作者。
作者簡介
景乃鋒
上海交通大學電子資訊與電氣工程學院的副研究員和博士生導師。他的主要研究方向是電腦體系結構、積體電路晶片設計和軟硬體協同設計。他已經發表了80多篇學術論文,其
中在GPGPU 體系結構領域發表多篇高水準學術論文。他還主持和研究多項中國國家級重大科研項目和課題,申請中國國家發明專利40餘項,獲授權6項。
柯晶
上海交通大學電子資訊與電氣工程學院的助理研究員和碩士生導師,澳大利亞新南威爾士大學電腦學院聯席講師。她曾在著名GPU廠商S3 Graphics和AMD任軟體架構工程師數年
,目前主要研究領域是電腦輔助大規模醫學圖像診斷。她以第一作者和通訊作者在重要國際期刊和會議上發表了30多篇論文,並主持和參與多項中國國家級科研專案。
梁曉嶢
上海交通大學電子資訊與電氣工程學院的教授、博士生導師和學科帶頭人。他畢業於美國哈佛大學並獲得博士學位。他的研究方向包括電腦體系結構、積體電路設計、通用圖形
處理器和人工智慧晶片架構等。他已經發表了百餘篇學術論文,包括在國際學術會議ISCA、MICRO、HPCA、ISSCC、DAC、ICCAD等上的文章。其中2篇入選計算機體系結構年度最佳論
文(IEEE MICRO TOP PICKS)。
目錄大綱
Chapter 01 GPGPU 概述
1.1 GPGPU 與平行電腦
1.2 GPGPU 發展概述
1.3 現代GPGPU 產品
參考文獻
Chapter 02 GPGPU 程式設計模型
2.1 計算模型
2.2 執行緒模型
2.3 儲存模型
2.4 執行緒同步與通訊模型
2.5 CUDA 指令集概述
參考文獻
Chapter 03 GPGPU 控制核心架構
3.1 GPGPU 架構概述
3.2 GPGPU 指令管線
3.3 執行緒分支
3.4 執行緒束排程
3.5 記分板
3.6 執行緒區塊分配與排程
參考文獻
Chapter 04 GPGPU 儲存架構
4.1 GPGPU 儲存系統概述
4.2 暫存器檔案
4.3 可程式化多處理器內的儲存系統
4.4 可程式化多處理器外的儲存系統
4.5 儲存架構的最佳化設計
參考文獻
Chapter 05 GPGPU 運算單元架構
5.1 數值的表示
5.2 GPGPU 的運算單元
5.3 GPGPU 的運算單元架構
參考文獻
Chapter 06 GPGPU 張量核心架構
6.1 深度神經網路的計算
6.2 張量核心架構
6.3 神經網路計算的軟體支援
6.4 深度學習評價基準— MLPerf
參考文獻
Chapter 07 複習與展望
7.1 本書內容複習
7.2 GPGPU 發展展望