存算一體,拯救“瘋狂吃電”的AI芯片?
進入2024年,AI 的膨脹速度依然讓人驚嘆。 但也有一些人認為,AI對于電力的恐怖需求,未來會限制它的發展速度,“AI的...
進入2024年,AI 的膨脹速度依然讓人驚嘆。
但也有一些人認為,AI對于電力的恐怖需求,未來會限制它的發展速度,“AI的盡頭是算力,而算力的盡頭是電力”。
有研究機構根據英偉達出貨情況進行估算,目前OpenAI大約需要3617個英偉達A100計算平臺來支持其ChatGPT的使用,而這些計算平臺所包含的GPU,每天的總能耗高達564MWh,即56.4萬度電。而這僅僅是OpenAI一家公司,隨著谷歌、Meta等公司逐漸全盤AI化,,其總體能耗將會是一個令人震驚的數字。
AI芯片消耗的電量主要出現在模型訓練和推理兩方面,但實際上,AI芯片在進行計算時,會在處理器和內存單元不斷來回移動數據,這同樣是一個耗能的過程。
一項降低功耗的新技術
近日,明尼蘇達大學雙城校區的研究人員對外宣布設計了一種全新的“計算隨機存取存儲器”(CRAM:computational random-access memory)原型芯片。
和傳統的馮·諾依曼架構不同,這是一種“存算一體”架構,它使用稱為磁隧道結 (MTJ) 的自旋電子器件,可以直接在內存內部進行計算,由于自旋電子設備并不依賴電荷來存儲數據,而是利用電子自旋,因此可以替代傳統的基于晶體管的芯片。
此外,根據研究團隊公布的論文示例圖,我們可以注意到這種新型存儲器是通過將數據保存在內存陣列內進行來處理,數據無需離開計算機存儲信息的網格,從而解決傳輸數據時產生。
該團隊表示,和傳統馮·諾依曼架構相比,基于 CRAM 的機器學習推理加速器能耗可降低至千分之一,甚至在某些場景應用下可以達到 1/1700 或者 1/2500。在能源需求激增的AI時代,這種新技術無疑對提升能源效率起到至關重要的作用。
目前,該研究已經發表在《自然》雜志的同行評議科學期刊 《npj Unconventional Computing》上,研究人員稱擁有該設備所用技術的多項專利。從報道可知,這項研究已經醞釀了20多年,并且與明尼蘇達大學理工學院王建平博士有很大關系。
王建平教授是新型磁性材料和自旋電子器件領域的世界知名專家,側重于信息存儲、記憶和計算以及生物醫學傳感方向的研究。自 2008年以來,王建平通過交換耦合復合介質(ECC)的開創性實驗演示,高效利用了HDD硬盤驅動器的技術,有效減少數據中心的整體數量,節約了全球能量消耗。
同時,王建平正是計算機隨機存取存儲器(CRAM)記憶單元的發明者。但在二十年前,他們提出拋棄馮·諾依曼模型的提議,無疑是被認為是“瘋狂的”。
但最終他們團隊還是堅持了下來,其發明的MTJ 器件(一種納米結構器件)已被英特爾、美光等公司變成了商業產品。
目前,,該團隊一直計劃與明尼蘇達州當地半導體企業合作,提供大規模演示并生產硬件以推進AI功能。
存算一體,何時能火
存算一體架構的優勢,其實就是打破了“存儲墻”和“功耗墻”問題。
前者指的是存儲器的性能跟不上 CPU 的性能,從而影響了系統的整體性能。而后者就是開頭提到的數據在處理器和存儲單元之間傳輸會產生的巨大功耗。
除此以外,存算一體架構可以直接在設計時就為特定領域的計算問題提供更大的算力,非常適合于當下的AI計算乃至未來更大規模的數據處理。
但值得一提的是,存算一體并不是什么新事物,而到目前該架構也未形成統一的技術路徑,主流的包括近存計算(PNM)、存內處理(PIM)、存內計算(CIM)三種。
而存算一體芯片所面臨的挑戰也非常多,例如依賴先進的封裝技術以此在芯片內部實現更高的密度,而目前的一線封裝大廠已經很難再擠出產能。
此外,在芯片設計方面,存算一體芯片對架構設計的難度和復雜度要求很高,市面上也缺乏成熟的EDA軟件以及測試軟件。
最后就是在生態方面,目前無論是芯片大廠還是創業公司,各廠商開發出來的芯片都是圍繞自行定義的編程接口,軟件生態基本做不到互相通用,極大的影響了存算一體芯片推廣使用。
因此在目前電能資源還算充裕的前提下,存算一體芯片還是很難替代現有的AI芯片。
最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!
硬科技產業媒體
關注技術驅動創新