自動駕駛算法與芯片設計

任建峰,蔣立源,餘成文

  • 出版商: 電子工業
  • 出版日期: 2022-06-01
  • 售價: $648
  • 貴賓價: 9.5$616
  • 語言: 簡體中文
  • 頁數: 252
  • ISBN: 7121436434
  • ISBN-13: 9787121436437
  • 相關分類: 自駕車
  • 立即出貨 (庫存=1)

買這商品的人也買了...

商品描述

目前自動駕駛的一個發展趨勢就是智能化。隨著人工智能的飛速發展以及各種新型傳感器的涌現,汽車智能化形成趨勢,輔助駕駛功能的滲透率越來越高。這些功能的實現需要借助於攝像頭、雷達、激光雷達等新增的傳感器數據,其中視頻處理需要大量並行計算。然而,傳統CPU算力不足,而DSP擅長圖像處理,對於深度學習卻缺乏足夠的性能。盡管GPU擅長訓練,但它過於耗電,影響汽車的性能。因此,本書著眼於未來,認為定製化的ASIC必將成為主流。本書以自動駕駛的芯片設計為最終目標,來論述設計一個面向未來的自動駕駛SoC芯片的學術支撐和工程實踐。本書共13章。其中第1章主要介紹自動駕駛目前遇到的挑戰和研究方向。第2~6章重點講述環境感知以及規劃控制方面的算法設計;第7~10章重點講述深度學習模型的優化和深度學習芯片的設計;第11章和第12章重點講述具有安全功能的自動駕駛軟件架構設計;第13章介紹5G車聯網。

目錄大綱

第1章自動駕駛芯片的挑戰 1

1.1 自動駕駛科技界現狀 1

1.2 自動駕駛設計的挑戰 2

1.2.1 功能約束 3

1.2.2 可預測性約束 3

1.2.3 存儲限制 4

1.2.4 熱量約束 4

1.2.5 功率約束 5

1.3 自動駕駛系統算法設計 5

1.3.1 感知 6

1.3.2 決策 7

1.3.3 控制 8

1.3.4 安全驗證與測試 9

1.4 自動駕駛系統計算平台 10

1.4.1 GPU  11

1.4.2 DSP  11

1.4.3 FPGA  11

1.4.4 ASIC  12

參考文獻 12

第2章3D物體檢測 14

2.1 傳感器 15

2.1.1 攝像機 15

2.1.2 激光雷達 15

2.2 數據集 16

2.3 3D物體檢測方法 17

2.3.1 基於單目圖像的檢測方法 18

2.3.2 基於點雲的檢測方法 19

2.3.3 基於融合的檢測方法 22

2.4 實戰項目:3D物體檢測 24

2.4.1 算法概述 25

2.4.2 點雲預處理 26

2.4.3 網絡結構 28

2.4.4 歐拉區域提議 28

2.4.5 錨盒設計 29

2.4.6 复角度回歸 30

2.4.7 損失函數的構建 30

2.4.8 實驗結果 31

2.4.9 訓練細節 31

2.4.10 鳥瞰檢測 32

2.4.11 3D對象檢測 32

2.5 未來研究展望 33

參考文獻 33

第3章車道檢測 37

3.1 傳統圖像處理 38

3.2 實例:基於霍夫變換的車道檢測 39

3.2.1 霍夫變換 40

3.2.2 OpenCV車道檢測 41

3.3 實例:RANSAC算法及直線擬合 42

3.3.1 算法思路 43

3.3.2 用Python實現直線擬合 43

3.4 基於深度學習 45

3.5 多傳感器集成方案 47

3.6 車道檢測系統評估標準 49

3.6.1 車道檢測系統性能的影響因素 49

3.6.2 離線評估 50

3.6.3 在線評估 51

3.6.4 評估指標 52

3.7 實戰項目:車道檢測 53

3.7.1 概述 53

3.7.2 車道點實例網絡 53

3.7.3 調整大小層 54

3.7.4 相同瓶頸層 55

3.7.5 下採樣瓶頸層和上採樣瓶頸層 56

3.7.6 損失函數 58

3.7.7 後處理方法 61

3.7.8 實驗結果 62

3.7.9 測試部分 62

參考文獻 63

第4章運動規劃和控制 68

4.1 概述 68

4.2 傳統自動駕駛的規劃和決策層 69

4.2.1 路徑規劃 70

4.2.2 實例:路徑規劃Dijkstra算法 71

4.2.3 實例:路徑規劃A*算法 75

4.2.4 行為決策 77

4.2.5 運動規劃 77

4.2.6 實例:運動規劃 78

4.2.7 車輛控制 84

4.2.8 實例:模型預測控制 84

4.2.9 實例:PID控制 89

4.3 集成感知和規劃 90

實戰項目:NVIDIA的端到端自動駕駛 92

4.4 交互行為感知和規劃 94

4.4.1 合作與互動 95

4.4.2 博弈論方法 95

4.4.3 概率方法 96

4.4.4 部分可觀察的馬爾可夫決策過程 96

4.4.5 基於學習的方法 97

參考文獻 98

第5章定位與建圖 102

5.1 SLAM問題 103

5.1.1 基於濾波器的SLAM方法 104

5.1.2 基於優化的SLAM方法 108

5.2 自主駕駛的局限性 109

5.2.1 問題的提出 109

5.2.2 避免或減少漂移的影響 109

5.2.3 自動駕駛SLAM的評估標準 110

5.3 自動駕駛中的SLAM  111

5.3.1 重新定位和回環檢測 111

5.3.2 先前構建的地圖中的定位 113

5.3.3 建立和使用未來地圖 115

5.3.4 利用當前地圖資源 116

5.4 自動駕駛中的地圖表示 117

5.4.1 公制地圖模型 117

5.4.2 語義地圖模型 120

參考文獻 122

第6章自動駕駛仿真器 128

6.1 #新的仿真器 129

6.1.1 AirSim  129

6.1.2 Apollo  129

6.1.3 CARLA  130

6.1.4 Udacity AV Simulator  131

6.1.5 Deep Traf?c  132

6.2 仿真器實戰:CARLA  132

6.2.1 仿真引擎 132

6.2.2 使用CARLA評估自動駕駛方法 133

參考文獻 135

第7章自動駕駛芯片 136

7.1 Mobileye EyeQ  137

7.2 NVIDIA  138

7.2.1 NVIDIA DRIVE AGX開發#者套件 138

7.2.2 NVIDIA DRIVE軟件 138

7.3 TI Jacinto TDAx  141

7.4 實戰項目:360°環景系統與自動停車系統 142

7.4.1 自動停車與停車輔助系統 143

7.4.2 使用Jacinto TDA4VM處理器系列應對環視和自動停車的挑戰 144

7.4.3 Jacinto TDA4VM SoC  145

7.5 Qualcomm  147

7.6 NXP  148

7.7 Xilinx Zynq-7000  148

7.8 Synopsys  149

第8章深度學習模型優化 151

8.1 模型壓縮和加速 152

8.1.1 參數修剪和共享 153

8.1.2 低秩分解 155

8.1.3 轉移/緊湊卷積濾波器 156

8.1.4 知識蒸餾 159

8.2 AI模型效率工具包 159

8.2.1 大規模節能AI  160

8.2.2 通過合作推進AI模型效率的研究 161

8.3 未來研究展望 161

參考文獻 162

第9章深度學習芯片設計 166

9.1 概述 167

9.2 在CPU和GPU平台上加速內核計算 167

9.3 中科院計算所的深度學習芯片系列 168

9.3.1 卷積神經網絡簡介 168

9.3.2 DaDianNao  170

9.3.3 ShiDianNao  171

9.3.4 寒武紀Cambricon-X  172

9.4 麻省理工學院的Eyeriss系列 172

9.4.1 卷積神經網絡基本知識 172

9.4.2 Eyeriss  173

9.4.3 Eyeriss v2  174

9.5 谷歌的TPU芯片 177

9.5.1 TPU v1  177

9.5.2 TPU指令集 178

9.5.3 TPU的心臟:脈動陣列 179

9.5.4 TPU v2/v3  180

9.5.5 軟件架構 180

9.6 近內存計算 181

9.6.1 DRAM  181

9.6.2 SRAM  182

9.6.3 非易失性電阻存儲器 182

9.6.4 傳感器 183

9.7 DNN硬件的指標 183

參考文獻 184

第10章自動駕駛SoC設計 186

10.1 自動駕駛SoC設計流程 186

10.2 TI的Jacinto SoC平台 187

10.3 Jacinto 7處理器的功能安全特性 190

10.3.1 功能安全 190

10.3.2 軟件功能安全 191

10.3.3 安全應用部署 192

10.4 具有DNN和ISP的符合安全標準的多核SoC設計 194

10.4.1 ADAS圖像識別SoC  194

10.4.2 DNN加速器 195

10.4.3 具有安全BIST控制器的ISP  196

10.5 實例:NVIDIA深度學習加速器 197

10.5.1 NVDLA介紹 198

10.5.2 FireSim  199

10.5.3 NVDLA集成 199

10.5.4 性能分析 200

參考文獻 200

第11章自動駕駛操作系統 202

11.1 概述 202

11.2 開源自動駕駛操作系統 204

11.2.1 Linux RTOS  204

11.2.2 ROS中間件 205

11.3 使用開源軟件開發自動駕駛技術的公司 206

11.3.1 百度 206

11.3.2 寶馬 207

11.3.3 Voyage  208

11.3.4 Tier IV  208

11.3.5 PolySync  209

11.3.6 Perrone Robotics  210

11.4 汽車硬實時操作系統和框架 211

11.4.1 BlackBerry QNX  211

11.4.2 EB robinos和EB corbos  212

11.4.3 Integrity RTOS  213

11.4.4 NVIDIA DriveWorks SDK  213

11.5 總結 214

第12章自動駕駛軟件架構 215

12.1 概述 215

12.2 基於ISO 26262的軟件開發 216

12.2.1 ISO 26262簡介 216

12.2.2 Synopsys軟件產品組合 216

12.2.3 ASIL  218

12.2.4 軟件架構設計 218

12.2.5 軟件單元設計與實現 219

12.2.6 軟件單元測試 219

12.3 基於SAE J3016的組件架構設計 220

12.3.1 功能組件 221

12.3.2 AUTOSAR  224

12.4 自動駕駛汽車的架構設計與實現 225

12.4.1 硬件框架 226

12.4.2 軟件系統架構 227

12.4.3 數據傳輸模塊 229

12.4.4 自動駕駛測試報告 229

參考文獻 229

第13章5G C-V2X簡介 230

13.1 移動車聯網 230

13.2 C-V2X如何改變駕駛 231

13.2.1 避免碰撞 231

13.2.2 車隊行駛 232

13.2.3 協作駕駛 232

13.2.4 隊列警告 232

13.2.5 保護弱勢道路使用者 232

13.2.6 支持應急服務 233

13.2.7 危險提前警告 233

13.2.8 越來越多的自動駕駛 233

13.3 C-V2X的優勢 233

13.4 C-V2X的工作原理 235

13.4.1 直接通信 235

13.4.2 網絡通信 235

13.4.3 5G如何改變C-V2X  236

13.5 C-V2X部署計劃 236

13.5.1 中國引#領潮流 236

13.5.2 澳大利亞——改善道路安全 237

13.5.3 美國——增長勢頭 237

13.5.4 歐洲——廣泛支持 238

13.6 總結 238