斯坦福CS231n Spring 2017開放全部課程視頻(附大綱)

 2017-08-14 07:43:25.0

CS231n近幾年一直是計算機視覺領域和深度學習領域最為經典的課程之一。而最近剛剛結課的CS231n Spring 2017 仍由李飛飛主講,並邀請了Goodfellow等人對其中部分章節詳細介紹。本課程從計算機視覺的基礎概念開始,在奠定了基本分類模型、神經網絡和優化算法的基礎後,詳細介紹了CNN、RNN、GAN、RL等深度模型在計算機視覺上的應用。前天,斯坦福開放了該課程的全部視頻,並且還有配套英文字幕。因此,CS231n 2017 春季課程包括 PPT 和視頻在內的所有教學資料都已開放。機器之心將為各位讀者介紹該課程,並提供相應的資源,Bilibili視頻地址由微博知名博主愛可可老師提供。

課件地址: http://cs231n.stanford.edu/slides/2017/

課程視頻地址: https://www.youtube.com/playlist?list=PL3FW7Lu3i5JvHM8ljYj-zLfQRF3EO8sYv

Bilibili視頻地址: http://www.bilibili.com/video/av13260183/#page=1


以下為該課程的內容大綱

Lecture 1:計算機視覺的概述、歷史背景以及課程計劃


Lecture 2:圖像分類——包括數據驅動(data-driven)方法,K 近鄰方法(KNN)和線性分類(linear classification)方法


Lecture 3:損失函數和優化(loss Function and optimization)

這一講主要分為三部分內容:

1. 繼續上一講的內容介紹了線性分類方法;

2. 介紹了高階表徵及圖像的特點;

3. 優化及隨機梯度下降(SGD)。


Lecture 4:神經網絡

包括經典的反向傳播算法(back-propagation);多層感知機結構(multilayer perceptrons);以及神經元視角。


Lecture 5:卷積神經網絡(CNN)

主要分為三部分內容:

1. 卷積神經網絡的歷史背景及發展;

2. 卷積與池化(convolution and pooling);

3. ConvNets 的效果


Lecture 6:如何訓練神經網絡 I

介紹了各類激活函數,數據預處理,權重初始化,分批歸一化(batch normalization)以及超參優化(hyper-parameter optimization)。


Lecture 7:如何訓練神經網絡 II

介紹了優化方法(optimization)、模型集成(model ensembles)、正則化(regularization)、數據擴張(data-augmentation)和遷移學習(transfer learning)。


Lecture 8: 深度學習軟件基礎

1. 詳細對比了 CPU 和 GPU;

2. TensorFlow、Theano、PyTorch、Torch、Caffe 實例的具體說明;

3. 各類框架的對比及用途分析。


Lecture 9:卷積神經網絡架構(CNN Architectures)

該課程從 LeNet-5 開始到 AlexNet、VGG、GoogLeNet、ResNet 等由理論到實例詳細描述了卷積神經網絡的架構與原理。


Lecture 10:循環神經網絡(Recurrent Neural Networks)

該課程先詳細介紹了 RNN、LSTM 和 GRU 的架構與原理,再從語言建模、圖像描述、視覺問答系統等對這些模型進行進一步的描述。


Lecture 11:檢測與分割(Detection and Segmentation)

該課程在圖像分類的基礎上介紹了其他的計算機視覺任務,如語義分割、目標檢測和實例分割等,同時還詳細介紹了其它如 R-CNN、Fast R-CNN、Mask R-CNN 等架構。


Lecture 12:可視化和理解(Visualizing and Understanding)

該部分不僅講述了特徵可視化和轉置,同時還描述了對抗性樣本和像 DeepDream 那樣的風格遷移系統。


Lecture 13:生成模型(Generative Models)

該章節從 PixelRNN 和 PixelCNN 開始,再到變分自編碼器和生成對抗網絡詳細地講解了生成模型。


Lecture 14:強化學習(Reinforcement Learning)

該章節先從基本概念解釋了什麼是強化學習,再解釋了馬爾可夫決策過程如何形式化強化學習的基本概念。最後對 Q 學習和策略梯度進行了詳細的刻畫,包括架構、優化策略和訓練方案等等。


Lecture 15:深度學習高效的方法和硬件(Efficient Methods and Hardware for Deep Learning)

該章節首先展示了深度學習的三大挑戰:即模型規模、訓練速度和能源效率。而解決方案可以通過聯合設計算法-硬件以提高深度學習效率,構建更高效的推斷算法等,


Lecture 16:對抗性樣本和對抗性訓練(Adversarial Examples and Adversarial Training)

該章節由Ian Goodfellow 於5 月30 日主講,主要從什麼事對抗性樣本、對抗性樣本產生的原因、如何將對抗性樣本應用到企業機器學習系統中、及對抗性樣本會如何提昇機器學習的性能等方面詳細描述對抗性樣本和對抗性訓練。

文章來源:機器之心