英特爾發(fā)布新一代神經(jīng)擬態(tài)系統(tǒng)Hala Point,11.5億神經(jīng)元,12倍性能提升

作為英特爾首個(gè)神經(jīng)元數(shù)量達(dá)到11.5億的神經(jīng)擬態(tài)系統(tǒng),Hala Point為更高效、規(guī)模更大的AI開辟了道路。

英特爾發(fā)布了代號(hào)為Hala Point的大型神經(jīng)擬態(tài)系統(tǒng)。Hala Point基于英特爾Loihi 2神經(jīng)擬態(tài)處理器打造而成,旨在支持類腦AI領(lǐng)域的前沿研究,解決AI目前在效率和可持續(xù)性等方面的挑戰(zhàn)。在英特爾第一代大規(guī)模研究系統(tǒng)Pohoiki Springs的基礎(chǔ)上,Hala Point改進(jìn)了架構(gòu),將神經(jīng)元容量提高了10倍以上,性能提高了12倍。

英特爾研究院神經(jīng)擬態(tài)計(jì)算實(shí)驗(yàn)室總監(jiān)Mike Davies 表示:“目前,AI模型的算力成本正在持續(xù)上升。行業(yè)需要能夠規(guī)?;娜掠?jì)算方法。為此,英特爾開發(fā)了Hala Point,將高效率的深度學(xué)習(xí)和新穎的類腦持續(xù)學(xué)習(xí)、優(yōu)化能力結(jié)合起來。我們希望使用Hala Point的研究能夠在大規(guī)模AI技術(shù)的效率和適應(yīng)性上取得突破。”

Hala Point在主流AI工作負(fù)載上展現(xiàn)了出色的計(jì)算效率。研究顯示,在運(yùn)行傳統(tǒng)深度神經(jīng)網(wǎng)絡(luò)時(shí),該系統(tǒng)能夠每秒完成多達(dá)2萬萬億次(20 petaops)運(yùn)算,8位運(yùn)算能效比達(dá)到了15 TOPS/W,相當(dāng)于甚至超過了基于GPU和CPU的架構(gòu)。Hala Point有望推動(dòng)多領(lǐng)域AI應(yīng)用的實(shí)時(shí)持續(xù)學(xué)習(xí),如科學(xué)研究、工程、物流、智能城市基礎(chǔ)設(shè)施管理、大語言模型(LLMs)和AI助手(AI agents)。

目前,Hala Point是一個(gè)旨在改進(jìn)未來商用系統(tǒng)的研究原型。英特爾預(yù)計(jì)其研究將帶來實(shí)際技術(shù)突破,如讓大語言模型擁有從新數(shù)據(jù)中持續(xù)學(xué)習(xí)的能力,從而有望在AI廣泛部署的過程中,大幅降低訓(xùn)練能耗,提高可持續(xù)性。

深度學(xué)習(xí)模型的規(guī)模正在不斷擴(kuò)大,參數(shù)量可達(dá)萬億級(jí)。這一趨勢(shì)意味著AI技術(shù)在可持續(xù)性上面臨著嚴(yán)峻的挑戰(zhàn),有必要探索硬件架構(gòu)底層的創(chuàng)新。神經(jīng)擬態(tài)計(jì)算是一種借鑒神經(jīng)科學(xué)研究的全新計(jì)算方法,通過存算一體和高細(xì)粒度的并行計(jì)算,大幅減少了數(shù)據(jù)傳輸。在本月舉行的聲學(xué)、語音與信號(hào)處理國(guó)際會(huì)議(ICASSP)上,英特爾發(fā)表的研究表明,Loihi 2在新興的小規(guī)模邊緣工作負(fù)載上實(shí)現(xiàn)了效率、速度和適應(yīng)性數(shù)量級(jí)的提升[1]。

Hala Point在其前身Pohoiki Springs的基礎(chǔ)上實(shí)現(xiàn)了大幅提升,基于神經(jīng)擬態(tài)計(jì)算技術(shù)提升了主流、常規(guī)深度學(xué)習(xí)模型的性能和效率,尤其是那些用于處理視頻、語音和無線通信等實(shí)時(shí)工作負(fù)載的模型。例如,在今年的世界移動(dòng)通信大會(huì)(MWC)上,愛立信研究院(Ericsson Research)就展示了其如何將 Loihi 2神經(jīng)擬態(tài)處理器應(yīng)用于電信基礎(chǔ)設(shè)施效率的優(yōu)化。

Hala Point基于神經(jīng)擬態(tài)處理器Loihi 2打造,Loihi 2應(yīng)用了眾多類腦計(jì)算原理,如異步(asynchronous)、基于事件的脈沖神經(jīng)網(wǎng)絡(luò)(SNNs)、存算一體,以及不斷變化的稀疏連接,以實(shí)現(xiàn)能效比和性能的數(shù)量級(jí)提升。神經(jīng)元之間能夠直接通信,而非通過內(nèi)存通信,因此能降低整體功耗。

Hala Point系統(tǒng)由封裝在一個(gè)六機(jī)架的數(shù)據(jù)中心機(jī)箱中的1152個(gè)Loihi 2處理器(采用Intel 4制程節(jié)點(diǎn))組成,大小相當(dāng)于一個(gè)微波爐。該系統(tǒng)支持分布在 140544 個(gè)神經(jīng)形態(tài)處理內(nèi)核上的多達(dá) 11.5 億個(gè)神經(jīng)元和 1280 億個(gè)突觸,最大功耗僅為 2600 瓦。Hala Point還包括 2300 多個(gè)嵌入式 x86 處理器,用于輔助計(jì)算。

在大規(guī)模的并行結(jié)構(gòu)中,Hala Point集成了處理器、內(nèi)存和通信通道,內(nèi)存帶寬達(dá)每秒16PB,內(nèi)核間的通信帶寬達(dá)每秒3.5 PB,芯片間的通信帶寬達(dá)每秒5TB。該系統(tǒng)每秒可處理超過380萬億次8位突觸運(yùn)算和超過240萬億次神經(jīng)元運(yùn)算。

在用于仿生脈沖神經(jīng)網(wǎng)絡(luò)模型時(shí),Hala Point能夠以比人腦快20倍的實(shí)時(shí)速度運(yùn)行其全部11.5億個(gè)神經(jīng)元,在運(yùn)行神經(jīng)元數(shù)量較低的情況下,速度可比人腦快200倍。雖然Hala Point并非用于神經(jīng)科學(xué)建模,但其神經(jīng)元容量大致相當(dāng)于貓頭鷹的大腦或卷尾猴的大腦皮層。

在執(zhí)行AI推理負(fù)載和處理優(yōu)化問題時(shí), Loihi 2神經(jīng)擬態(tài)芯片系統(tǒng)的速度比常規(guī)CPU和GPU架構(gòu)快50倍,同時(shí)能耗降低了100倍[1]。早期研究結(jié)果表明,通過利用稀疏性高達(dá)10比1的稀疏連接(sparse connectivity)和事件驅(qū)動(dòng)的活動(dòng),Hala Point運(yùn)行深度神經(jīng)網(wǎng)絡(luò)的能效比高達(dá)15 TOPS/W[2],同時(shí)無需對(duì)輸入數(shù)據(jù)進(jìn)行批處理。批處理是一種常用于GPU的優(yōu)化方法,會(huì)大幅增加實(shí)時(shí)數(shù)據(jù)(如來自攝像頭的視頻)處理的延遲。盡管仍處于研究階段,但未來的神經(jīng)擬態(tài)大語言模型將不再需要定期在不斷增長(zhǎng)的數(shù)據(jù)集上再訓(xùn)練,從而節(jié)約數(shù)千兆瓦時(shí)的能源。

世界各地領(lǐng)先的學(xué)術(shù)團(tuán)體、研究機(jī)構(gòu)和公司共同組成了英特爾神經(jīng)擬態(tài)研究社區(qū)(INRC),成員總數(shù)超過200個(gè)。攜手英特爾神經(jīng)擬態(tài)研究社區(qū),英特爾正致力于開拓類腦AI前沿技術(shù),以將其從技術(shù)原型轉(zhuǎn)化為業(yè)界領(lǐng)先的產(chǎn)品。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )