計算機視覺中的深度學習

薑竹青,門愛東,王海嬰

  • 出版商: 電子工業
  • 出版日期: 2021-06-01
  • 定價: $588
  • 售價: 8.0$470
  • 語言: 簡體中文
  • 頁數: 328
  • 裝訂: 平裝
  • ISBN: 712141192X
  • ISBN-13: 9787121411922
  • 相關分類: DeepLearningComputer Vision
  • 立即出貨 (庫存 < 3)

買這商品的人也買了...

商品描述

人工智能相比於人力而言具有低成本、高效率和全天候等巨大優勢,但其發展往往不能全面滿足實際場景的旺盛需求。近年來人工智能與電腦視覺的結合日益緊密,基於深度學習研究電腦視覺成為一個新方向。深度學習的特點是層次化的特徵提取、規模更大、數據更多、計算更復雜。本書從介紹電腦視覺的任務入手,總結從傳統手工提取特徵方法到深度學習的發展歷程。然後,針對不同層次的電腦視覺任務,結合作者團隊近年來的研究成果,以及部分學界公認的里程碑式成果,從理論層面論述深度學習在具體電腦視覺任務中的應用。本書作者來自北京郵電大學長期從事多媒體技術教學和研究的一線教師。本書適合從事圖像和視頻的處理和理解的研究人員、相關領域軟件開發人員或研究生閱讀。

作者簡介

姜竹青,博士,加拿大麥吉爾大學訪問學者,現任教於北京郵電大學,碩士生導師。
主持或主要參與多項機器學習相關的國家自然科學基金,在國際學術會議發表相關論文30餘篇,並與國家廣播電影電視總局、中國航天科技集團、中國石油天然氣股份有限公司、中國移動通信集團等部委和企業保持合作關係。

目錄大綱

目錄
第1章計算機視覺及其任務1
1.1計算機視覺的定義1
1.2計算機視覺的發展沿革1
1.3計算機視覺的主要任務及其應用2
1.3.1圖像恢復2
1.3 .2圖像識別3
1.3.3動作分析4
1.3.4場景重建5
1.3.5行人再識別6
1.4本章小結7
本章參考文獻7

第2章手工特徵8
2.1初級圖像特徵8
2.1.1顏色特徵8
2.1.2紋理特徵11
2.1.3形狀特徵12
2.2中級圖像特徵13
2.2.1 Haar-like特徵14
2.2.2 SIFT特徵16
2.2.3 SURF特徵19
2.3本章小結21
本章參考文獻21

第3章神經網絡基礎理論23
3.1神經元概述23
3.1.1感知器23
3.1.2激活函數24
3.1.3神經元模型28
3.2神經網絡基礎結構28
3.2.1兩層神經網絡模型28
3.2.2前饋神經網絡和循環神經網絡29
3.2.3神經網絡中的參數30
3.3神經網絡訓練31
3.3.1權重初始化31
3.3.2偏置初始化32
3.3.3前向傳播32
3.3.4損失函數32
3.3.5反向傳播33
3.3.6參數更新35
3.3.7批歸一化37
3.3.8正則化38
3.4常見的神經元模型40
3.4. 1空間信息處理單元40
3.4.2時間信息處理單元41
3.5本章小結43
本章參考文獻44

第4章神經網絡結構46
4.1 LENET5 46
4.2 ALEXNET 48
4.3 VGGNET 50
4. 4 INCEPTION 53
4.5 RESNET 55
4.6 DENSENET 57
4.7 MOBILENET 60
4.8 FCN 63
4.9本章小結71
本章參考文獻71

第5章目標分割73
5.1目標分割技術概述73
5.1 .1目標分割技術基本理論與模型73
5.1.2目標分割技術概述74
5.1.3評價標準77
5.2基於深度學習多路徑特徵融合的圖像語義分割79
5.2.1特點79
5.2.2基於VGGNet的多路徑特徵融合算法80
5.2.3基於ResNet的多路徑特徵融合算法85
5.3基於模糊邏輯的多特徵視頻運動目標分割88
5.3.1特點88
5.3.2算法88
5.3.3實驗96
5.4目標分割未來趨勢98
本章參考文獻99

第6章目標檢測102
6.1目標檢測算法概述102
6.1.1算法概述102
6.1.2評價指標104
6.2傳統目標檢測方法106
6.2.1區域選擇算法106
6.2.2典型人工圖像特徵106
6.2.3分類器類型及訓練106
6.3基於候選區域的目標檢測方法110
6.3.1 R-CNN的實現110
6.3.2 SPP-net的實現111
6. 3.3 Fast R-CNN的實現112
6.3.4 Faster R-CNN的實現113
6.4基於回歸的目標檢測115
6.4.1 YOLO的實現115
6.4.2 SSD的實現117
6 .4.3 YOLOv2的改進119
6.5改進算法拾萃122
6.5.1困難樣本挖掘122
6.5.2 YOLOv2損失函數123
6.5.3基於上下文信息的SSD改進124
6.5.4多特徵多尺度融合126
6 .6目標檢測未來趨勢129
本章參考文獻130

第7章目標跟踪132
7.1目標跟踪技術概述132
7.1.1目標跟踪算法基本理論與模型132
7.1.2目標跟踪算法概述133
7. 1.3評價標準135
7.2平衡正負樣本權重的多示例學習跟踪算法136
7.2.1 MIL跟踪算法136
7.2.2平衡正負樣本權重138
7.3基於核化相關濾波器的視覺目標跟踪算法研究與改進143
7.3.1基於相關濾波器的目標跟踪算法143
7.3.2自適應模板更新的目標跟踪算法150
7.3.3 CNN和相關濾波結合的跟踪算法158
7.4基於中心對比CNN的目標跟踪算法研究169
7.4.1逐任務驅動的CNN目標跟踪算法169
7.4.2中心對比CNN目標跟踪算法170
7.4.3小運動優先的視覺目標跟踪算法175
7.5目標跟踪未來趨勢180
本章參考文獻180

第8章行人再識別183
8.1行人再識別技術概述183
8.1.1行人再識別技術基本理論與模型183
8.1.2行人再識別技術簡介184
8.1.3評價標準186
8 .2基於ADARANK進行特徵集成的行人再識別算法188
8.2.1算法特點188
8.2.2算法細節188
8.2.3實驗結果200
8.3基於增強深度特徵的行人再識別算法206
8.3.1算法特點206
8.3.2引入註意力機制的網絡模型207
8.3.3引入手工特徵:LOMO特徵融合到多級註意力識別―驗證網絡215
8.4基於屬性和身份特徵融合的行人再識別算法221
8.4.1特點221
8.4.2算法222
8.4.3實驗230
8.5行人再識別未來趨勢236
本章參考文獻237

第9章圖像壓縮242
9. 1有損壓縮和無損壓縮242
9.1.1無損壓縮242
9.1.2有損壓縮243
9.2經典的有損圖像壓縮方法243
9.2.1 JPEG 243
9.2.2 JPEG 2000 243
9.2.3 BPG 244
9.3基於深度學習的圖像壓縮技術244
9.4基於空間能量壓縮的圖像壓縮244
9.4.1算法特點244
9.4.2算法細節245
9.4.3實驗結果249
9.5利用卷積神經網絡進行內容加權的圖像壓縮249
9.5.1算法特點249
9.5.2算法細節250
9.5.3實驗結果254
9.6基於生成式對抗網絡的圖像壓縮255
9.6 .1算法特點255
9.6.2算法細節255
9.6.3實驗結果257
9.7圖像壓縮未來趨勢257
本章參考文獻258

第10章超分辨率重建259
10.1超分辨率技術概述259
10.1.1超分辨率技術的基本理論與模型259
10.1.2超分辨率技術概述261
10.2基於深度殘差網絡注意力機制的圖像超分辨率重建263
10.2.1存在的問題263
10.2.2提出的解決方案264
10.2.3具體實現細節264
10.2.4實驗結果比較分析267
10.3基於增強的可變形卷積網絡的視頻超分辨率271
10 .3.1視頻超分辨率271
10.3.2存在的問題272
10.3.3針對存在的問題提出的解決方案272
10.3.4具體實現274
10.3.5實驗對比277
10.4真實原始傳感器數據的超分辨率重建278
10.4.1存在的問題278
10.4.2針對問題提出的解決方案279
10.4.3具體實現細節279
10.4.4實驗對比281
10.5超分辨率重建未來趨勢283
本章參考文獻284

第11章圖像去噪技術287
11.1圖像去噪技術概述287
11.1.1圖像去噪基本理論與模型287
11.1.2圖像去噪算法287
11.1.3評價標準292
11.2去噪卷積神經網絡293
11.2.1算法特點293
11.2.2存在問題294
11.2.3算法細節294
11.2.4實驗結果295
11.3盲去噪卷積神經網絡299
11.3. 1算法特點299
11.3.2存在問題299
11.3.3算法細節299
11.3.4實驗302
11.4真實圖像去噪神經網絡307
11.4.1特點307
11.4.2存在問題307
11.4.3算法細節307
11.4.4實驗310
11.4.5總結312
11.5圖像去噪未來趨勢312
本章參考文獻312

附錄A術語與縮略詞表313