隨着大型人工智能模型對海量數據的依賴日益加深,傳統計算機架構中內存與處理能力分離所導致的**“內存牆”**瓶頸正消耗巨大的時間和能源。普渡大學和佐治亞理工學院的研究人員在《科學前沿》雜誌上發表了一項新研究,提出了一種利用類腦算法構建新型計算機架構的方法,以期大幅降低人工智能模型的能耗。

大腦 大模型  AI

 馮·諾依曼架構的瓶頸:內存牆

當前大多數計算機仍基於1945年提出的馮·諾依曼架構,該架構將內存和處理能力分置,導致數據在兩者之間快速流動時形成性能瓶頸。普渡大學計算機工程教授、研究主要作者考希克·羅伊指出,過去四年裏,語言處理模型的規模增長了 5000倍,使得這種效率問題變得至關重要,並呼籲從根本上重新思考計算機的設計方式。計算機工程師將內存容量難以跟上處理速度的這一問題稱爲**“內存牆”**,它消耗了運行底層人工智能模型所需的大量時間和能源。

解決方案:受人腦啓發的“內存計算”

該論文的研究人員認爲,解決內存瓶頸的關鍵在於嘗試一種將內存和處理能力整合在一起的新型計算機架構,這種方法被稱爲**“內存計算”(Compute-in-Memory, CIM)**。

  • 算法核心:研究人員建議,AI 模型應採用受人腦運作方式啓發的脈衝神經網絡(Spiking Neural Networks, SNN)。雖然 SNN 過去因速度慢、精度低而受詬病,但近年來其性能已顯著提升。

  • CIM 優勢:論文摘要指出,“CIM 通過將計算能力直接集成到內存系統中,爲解決內存牆問題提供了一個很有前景的解決方案。”通過這種整合,可以減少數據傳輸量並提高處理效率。

 應用前景:從數據中心走向現實世界

研究人員相信,將計算機處理和內存集成到一個系統中,將能大幅降低人工智能的能耗。普渡大學合著者兼研究員坦維·夏爾馬錶示:“要將(人工智能)從數據中心轉移到現實世界,我們需要大幅降低其能源消耗。”

通過這種方法,人工智能可以集成到體積小、價格實惠且電池續航時間更長的設備中,從而改進醫療設備、交通運輸和無人機等多個領域。