於此,來介紹一下AI計算加速相關的硬體知識。
轉貼from Joe Yeh, Aether Inc.:
推動最近這一波人工智慧浪潮最 核心的技術,是深度神經網路。深度神經網路的計算是由許多張量(tensor)運算所構成。比如說,不同層神經元之間的連結就是以張量來表示。張量由許多重複的單元構成,因此,張量的計算具有高度的重複性,也因此可以被平行化處理。在一般的個人電腦當中,最重要的計算單元是中央處理器 (Central Processing Unit, CPU)。CPU擅長處理序列式(serial)的,異質性(非重複性)的計算,因此可以承擔一個電腦系統裡面各式各樣的計算需求。CPU並不擅長高度平行化的計算,這種計算被送到CPU時,還是會用序列化的方式處理。
這幾年非常火紅的GPU(Graphics Processing Unit, GPU),在被設計之初,是為了負責數位影像的計算。數位影像本來就是以張量的形式存在。數位影像處理是可被高度平行化的數學運算,因此專門被設計來處理影像的GPU在架構上和CPU不一樣,不是由少數具備超強複雜計算力的核心組成,而是由非常多(動輒數千)具備較為簡單計算能力的核心所組成。GPU這樣多核心的設計,正好適合深度學習大量的平行計算。在2009年,史丹佛大學的吳恩達(Andrew Ng)教授首次發表以GPU(nVIDIA GeForce GTX 280)進行深度神經網路計算加速的結果(http://www.machinelearning.org/archive/icml2009/papers/218.pdf)。從此之後,隨著深度神經網路逐漸變得盛行,GPU也被廣泛的應用在深度神經網路加速上面(於是nVIDIA的股價也跟著上漲..)。
~ End ~