從AlphaGo的人機對戰,到無人駕駛汽車的上路,在到AI合成主播上崗…..無形中,人工智能以前所未有的發展速度滲透到我們的日常生活。而人工智能在未來芯片的開發中又會起到怎么樣的作用呢?
近幾年,谷歌,蘋果,微軟,Facebook,英特爾,高通,英偉達,ADM,等科技巨頭也是紛紛入局,開始自主研發人工智能芯片,大大的提高了人們的發展,和人們對人工智能的需求。 在全球科技領域,人工智能無疑是最熱門的領域。這種并不算新的應用場景將會帶動新一輪的計算革命,這也將給人工智能芯片帶來新的需求,給半導體領域帶來新的機遇。人工智能正在推動芯片的復興。
半導體是數字時代的一項基礎技術。美國硅谷的名字正是源自于此,過去半個世紀以來,計算機技術的革命改變著社會的方方面面,而半導體芯片技術正是這場革命的核心。
自英特爾1971年推出全球第一個微處理器以來,計算能力一直以令人驚嘆的步伐發展演進著。根據摩爾定律,當前的計算機芯片比50年前的芯片在功能上強大百萬倍。
可盡管數十年來處理能力的飛速增長,但直到現在,計算機芯片的基本體系結構仍然沒有太大改變。很大程度上說,芯片的創新,需要進一步縮小晶體管的體積,讓集成電路可以容納更多晶體管。正是人工智能(AI)誕生,引發了半導體創新的“黃金時代。機器學習帶來獨特的市場需求和無限的機會。讓我們從新思考芯片架構的基本原則。
人工智能為芯片開發帶來新的計算模式,在計算技術發展的歷史中,主流的芯片架構是CPU。如今,CPU無處不在,它為筆記本電腦,移動設備和大多數數據中心提供動力。CPU是通用的,能夠有效執行軟件所需的任何計算。不過盡管CPU的主要優勢是多功能性,然而如今領先的AI技術需要的,是一種非常特殊且密集的計算。深度學習需要迭代執行數百萬甚至數十億個相對簡單的乘法和加法步驟。深度學習以線性代數為基礎,在根本上是基于試錯法的:對參數進行調整,對矩陣進行乘法運算,隨著模型自身的不斷優化,在整個神經網絡中反復進行數字求和。這種重復性的、計算量巨大的工作流程,對于硬件體系結構有很重要的要求。「并行化」變得至關重要,「并行」指的是:處理器能夠同時、而不是一個接一個地執行多個計算的能力。與之緊密相關的是,深度學習涉及大量數據的連續轉換,因此讓芯片內存和計算核心盡可能靠近數據所在的位置,可以減少數據移動,從而大幅提升速度和效率。隨著機器學習正在日益普及,傳統芯片已經無法應對現代AI算法的要求,這一點正變得愈加突出。正如AI專家Yann LeCun最近所說的:“如果你能穿越到未來五年或者十年,看看計算機大部分時間都在做些什么的話,我認為很可能是機器學習之類的事情。
眼下,一場為即將而來的AI時代開發所需的硬件競爭正在上演。如今,半導體行業的創新之多,是自硅谷創立之初以來從未有過的,巨量資金不斷地投入其中。
未來幾年,下一代芯片將塑造人工智能領域的雛形和軌跡。用Yann LeCun的話來說:“硬件能力...激勵但卻限制了AI研究人員想象并追求的想法。各種我們可以使用的工具正在不斷刷新我們的想法,這一點我們不得不承認。