目前,AI芯片的研發(fā)方向主要分兩種:一是基于傳統(tǒng)馮·諾依曼架構(gòu)的FPGA(現(xiàn)場可編程門陣列)和ASIC(專用集成電路)芯片,二是模仿人腦神經(jīng)元結(jié)構(gòu)設(shè)計的類腦芯片。其中FPGA和ASIC芯片不管是研發(fā)還是應(yīng)用,都已經(jīng)形成一定規(guī)模;而類腦芯片雖然還處于研發(fā)初期,但具備很大潛力,可能在未來成為行業(yè)內(nèi)的主流。
這兩條發(fā)展路線的主要區(qū)別在于,前者沿用馮·諾依曼架構(gòu),后者采用類腦架構(gòu)。你看到的每一臺電腦,采用的都是馮·諾依曼架構(gòu)。它的核心思路就是處理器和存儲器要分開,所以才有了CPU(中央處理器)和內(nèi)存。而類腦架構(gòu),顧名思義,模仿人腦神經(jīng)元結(jié)構(gòu),因此CPU、內(nèi)存和通信部件都集成在一起。
之后由于高清視頻和游戲產(chǎn)業(yè)的快速發(fā)展,GPU (圖形處理器)芯片取得迅速的發(fā)展。因為 GPU 有更多的邏輯運算單元用于處理數(shù)據(jù),屬于高并行結(jié)構(gòu),在處理圖形數(shù)據(jù)和復(fù)雜算法方面比 CPU 更有優(yōu)勢,又因為AI深度學(xué)習(xí)的模型參數(shù)多、數(shù)據(jù)規(guī)模大、計算量大,此后一段時間內(nèi) GPU 代替了 CPU,成為當(dāng)時 AI 芯片的主流。
FPGA 可以被理解為“萬能芯片”。用戶通過燒入 FPGA 配置文件,來定義這些門電路以及存儲器之間的連線,用硬件描述語言(HDL)對 FPGA 的硬件電路進(jìn)行設(shè)計。每完成一次燒錄,F(xiàn)PGA內(nèi)部的硬件電路就有了確定的連接方式,具有了一定的功能,輸入的數(shù)據(jù)只需要依次經(jīng)過各個門電路,就可以得到輸出結(jié)果。
用大白話說,“萬能芯片” 就是你需要它有哪些功能、它就能有哪些功能的芯片。盡管叫“萬能芯片”,F(xiàn)PGA也不是沒有缺陷。正因為 FPGA 的結(jié)構(gòu)具有較高靈活性,量產(chǎn)中單塊芯片的成本也比 ASIC 芯片高,并且在性能上,F(xiàn)PGA 芯片的速度和能耗相比 ASIC 芯片也做出了妥協(xié)。也就是說,“萬能芯片” 雖然是個 “多面手”,但它的性能比不上 ASIC 芯片,價格也比 ASIC 芯片更高。
但是在芯片需求還未成規(guī)模、深度學(xué)習(xí)算法需要不斷迭代改進(jìn)的情況下,具備可重構(gòu)特性的FPGA芯片適應(yīng)性更強(qiáng)。因此用FPGA來實現(xiàn)半定制人工智能芯片,毫無疑問是保險的選擇。目前,F(xiàn)PGA 芯片市場被美國廠商 Xilinx 和 Altera 瓜分。據(jù)國外媒體 Marketwatch 的統(tǒng)計,前者占全球市場份額 50%、后者占 35%左右,兩家廠商霸占了 85% 的市場份額,專利達(dá)到 6000 多項,毫無疑問是行業(yè)里的兩座大山。
在 AI 產(chǎn)業(yè)應(yīng)用大規(guī)模興起之前,使用 FPGA 這類適合并行計算的通用芯片來實現(xiàn)加速,可以避免研發(fā) ASIC 這種定制芯片的高投入和風(fēng)險。但是,因為其通用性低,ASIC 芯片的高研發(fā)成本也可能會帶來高風(fēng)險。然而如果考慮市場因素,ASIC芯片其實是行業(yè)的發(fā)展大趨勢。
既然要研制人工智能芯片,那么有的專家就回歸問題本身,開始模仿人腦的結(jié)構(gòu)。人腦內(nèi)有上千億個神經(jīng)元,而且每個神經(jīng)元都通過成千上萬個突觸與其他神經(jīng)元相連,形成超級龐大的神經(jīng)元回路,以分布式和并發(fā)式的方式傳導(dǎo)信號,相當(dāng)于超大規(guī)模的并行計算,因此算力極強(qiáng)。人腦的另一個特點是,不是大腦的每個部分都一直在工作,從而整體能耗很低。
這種類腦芯片跟傳統(tǒng)的馮·諾依曼架構(gòu)不同,它的內(nèi)存、CPU 和通信部件是完全集成在一起,把數(shù)字處理器當(dāng)作神經(jīng)元,把內(nèi)存作為突觸。除此之外,在類腦芯片上,信息的處理完全在本地進(jìn)行,而且由于本地處理的數(shù)據(jù)量并不大,傳統(tǒng)計算機(jī)內(nèi)存與 CPU 之間的瓶頸不復(fù)存在了。同時,神經(jīng)元只要接收到其他神經(jīng)元發(fā)過來的脈沖,這些神經(jīng)元就會同時做動作,因此神經(jīng)元之間可以方便快捷地相互溝通。
然而目前類腦芯片研制的挑戰(zhàn)之一,是在硬件層面上模仿人腦中的神經(jīng)突觸,換而言之就是設(shè)計完美的人造突觸。在現(xiàn)有的類腦芯片中,通常用施加電壓的方式來模擬神經(jīng)元中的信息傳輸。但存在的問題是,由于大多數(shù)由非晶材料制成的人造突觸中,離子通過的路徑有無限種可能,難以預(yù)測離子究竟走哪一條路,造成不同神經(jīng)元電流輸出的差異。
針對這個問題,今年麻省理工的研究團(tuán)隊制造了一種類腦芯片,其中的人造突觸由硅鍺制成,每個突觸約 25 納米。對每個突觸施加電壓時,所有突觸都表現(xiàn)出幾乎相同的離子流,突觸之間的差異約為 4%。與無定形材料制成的突觸相比,其性能更為一致。
即便如此,類腦芯片距離人腦也還有相當(dāng)大的距離,畢竟人腦里的神經(jīng)元個數(shù)有上千億個,而現(xiàn)在最先進(jìn)的類腦芯片中的神經(jīng)元也只有幾百萬個,連人腦的萬分之一都不到。因此這類芯片的研究,離成為市場上可以大規(guī)模廣泛使用的成熟技術(shù),還有很長的路要走,但是長期來看類腦芯片有可能會帶來計算體系的革命。
評論