打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進

董洪偉

  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-1
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-2
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-3
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-4
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-5
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-6
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-7
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-8
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-9
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-10
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-11
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-12
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-13
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-14
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-15
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-16
  • 打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-17
打下最紮實 AI 基礎不依賴套件:手刻機器學習神經網路穩健前進-preview-1

買這商品的人也買了...

商品描述

★★★★★【848頁磅礡登場】、【最紮實機器學習】★★★★★

外行人才買武器,高手自己打造神兵利器!

不靠TF/Keras/PyTorch,用NumPy硬幹所有機器學習公式理論打基礎,極緻深入研究原理,獲得微積分、機率、張量最高等級,之後AI學習路快速平順又輕鬆

沒錯,某同學用Tensorflow/Keras實作一個影像辨識,另一個同學用PyTorch做出機器翻譯,但是.....他們全部都非常崇拜你,為什麼?

套件工具用的熟,但原理卻只略知皮毛,走的路一定無法長遠!只有真正在微積分、矩陣、張量、機率、線性代數上打好完整的基礎,在機器學習/深度學習的路上才能走的又長又遠又紮實。

不需要羨慕別人會用yolo、bert,當你看完本書的所有AI公式、理論,然後手動用NumPy、sklearn把這些公式理論親手推導一次之後,這些工具套件,這些新興技術,什麼CNN、RNN、Seq2seq對你來說,只是簡單數學公式的排列組合罷了!

非常期待這種書籍的出現吧!BINGO!本書就是你夢寐以求的威力彩頭獎書!把每個深度學習常出現的名詞,Sigmoid、Softmax、CrossEntropy、Adam、SGD、CNN、RNN、LSTM、GRU.....竟然全部用NumPy硬幹一遍!看完讀懂這本書,立即晉升大師,成為機器學習/深度學習/人工智慧的活生生教科書。

NumPy超人一擊Strike
✪Sigmoid
✪Softmax
✪CrossEntropy
✪Adam
✪SGD
✪CNN
✪RNN
✪LSTM
✪GRU

本書特色
★原理講解通俗易懂,同時教你如何從底層而非呼叫深度學習庫編寫深度學習演算法
由淺入深,從最簡單的回歸模型過渡到神經網路模型
★從問題到概念的方式剖析深度學習的基本概念和原理
★用簡單的範例展現模型和演算法的核心
★讀者不需要借助任何深度學習函數庫,就可以從0開始建構屬於自己的深度學習庫

作者簡介

董洪偉

2008-2009年美國Texas A&M大學訪問學者(Jinxiang Chai)、2016年休士頓大學訪問研究。

研究領域:機器學習(深度學習)、平行計算(高性能計算HPC)、電腦視覺(CV)、圖形學(CG) (如三維物理動畫、遊戲程式設計、三維幾何處理、3D掃描/及列印)、生物資訊學、數控技術等方面的研究和教學工作。

目錄大綱

01 程式設計和數學基礎
1.1 Python 快速入門
1.2 張量函數庫NumPy
1.3 微積分
1.4 機率基礎

02 梯度下降法
2.1 函數極值的必要條件
2.2 梯度下降法基礎 
2.3 梯度下降法的參數最佳化策略
2.4 梯度驗證
2.5 分離梯度下降法與參數最佳化策略

03 線性回歸、邏輯回歸和softmax 回歸
3.1 線性回歸 
3.2 資料的規範化
3.3 模型的評估
3.4 正則化
3.5 邏輯回歸
3.6 softmax 回歸
3.7 批次梯度下降法和隨機梯度下降法

04 神經網路
4.1 神經網路概述
4.2 反向求導
4.3 實現一個簡單的深度學習框架 

05 改進神經網路性能的基本技巧
5.1 資料處理
5.2 參數偵錯
5.3 批次規範化
5.4 正則化
5.5 梯度爆炸和梯度消失 

06 卷積神經網路
6.1 卷積入門
6.2 卷積神經網路概述
6.3 卷積的矩陣乘法
6.4 基於座標索引的快速卷積 
6.5 典型卷積神經網路結構

07 循環神經網路
7.1 序列問題和模型
7.2 循環神經網路基礎
7.3 穿過時間的反向傳播
7.4 單層循環神經網路的實現
7.5 循環神經網路語言模型和文字的生成
7.6 循環神經網路中的梯度爆炸和梯度消失
7.7 長短期記憶網路
7.8 門控循環單元 
7.9 循環神經網路的類別及其實現
7.10 多層循環神經網路和雙向循環神經網路
7.11 Seq2Seq 模型

08 生成模型
8.1 生成模型概述
8.2 自動編碼器 
8.3 變分自動編碼器
8.4 生成對抗網路 
8.5 生成對抗網路建模實例
8.6 生成對抗網路的損失函數及其機率解釋
8.7 改進的損失函數—Wasserstein GAN 
8.8 深度卷積對抗網路 

A 參考文獻