Meta新增兩大萬卡集群,投入近50000塊英偉達(dá)H100 GPU

極客網(wǎng)·人工智能3月14日 Meta日前推出兩個(gè)功能強(qiáng)大的GPU集群,用于支持下一代生成式AI模型的訓(xùn)練,包括即將推出的Llama 3。

據(jù)悉,這兩個(gè)數(shù)據(jù)中心的GPU數(shù)量均高達(dá)24,576塊,專為支持比之前發(fā)布的更大、更復(fù)雜的生成式AI模型而構(gòu)建。

作為一種流行的開源算法模型,Meta的Llama能與OpenAI的GPT和Google的Gemini相媲美。

Meta刷新AI集群規(guī)模 

極客網(wǎng)了解到,這兩個(gè)GPU集群都采用了英偉達(dá)當(dāng)前功能最強(qiáng)大的H100 GPU,并且比Meta之前推出的大型集群規(guī)模要大得多。此前Meta的集群約有16,000塊Nvidia A100 GPU。

據(jù)報(bào)道,Meta為此搶購了數(shù)千塊英偉達(dá)最新推出的GPU。調(diào)研機(jī)構(gòu)Omdia在最近的一份報(bào)告中聲稱,Meta已經(jīng)成為英偉達(dá)最大的客戶之一。

Meta工程師表示,該公司將使用新的GPU集群對現(xiàn)有的AI系統(tǒng)進(jìn)行微調(diào),并訓(xùn)練更新、更強(qiáng)大的AI系統(tǒng),其中包括Llama 3。

該工程師指出,Llama 3的開發(fā)工作目前正在“進(jìn)行中”,但并沒有透露何時(shí)對外發(fā)布。

從長遠(yuǎn)來看,Meta的目標(biāo)是創(chuàng)建通用人工智能(AGI)系統(tǒng),應(yīng)為AGI在創(chuàng)造力方面比現(xiàn)有的生成式AI模型更像人類。

新的GPU集群將有助于Meta實(shí)現(xiàn)這些目標(biāo)。此外,該公司正在改進(jìn)PyTorch AI框架,使其能夠支持更多的GPU。

兩個(gè)GPU集群采用不同架構(gòu)

值得一提的是,雖然這兩個(gè)集群的GPU數(shù)量完全相同,都能以每秒400GB的端點(diǎn)相互連接,但它們采用了不同的架構(gòu)。

其中,一個(gè)GPU集群可以通過融合以太網(wǎng)網(wǎng)絡(luò)結(jié)構(gòu)遠(yuǎn)程訪問直接存儲器或RDMA,該網(wǎng)絡(luò)結(jié)構(gòu)采用Arista Networks的Arista 7800與Wedge400和Minipack2 OCP機(jī)架交換機(jī)構(gòu)建。另一個(gè)GPU集群使用英偉達(dá)的Quantum2 InfiniBand網(wǎng)絡(luò)結(jié)構(gòu)技術(shù)構(gòu)建。

這兩個(gè)集群都使用了Meta的開放式GPU硬件平臺Grand Teton,該平臺旨在支持大規(guī)模的AI工作負(fù)載。Grand Teton的主機(jī)到GPU帶寬是其前身Zion-EX平臺的四倍,計(jì)算能力、帶寬以及功率是Zion-EX的兩倍。

Meta表示,這兩個(gè)集群采用了最新的開放式機(jī)架電源和機(jī)架基礎(chǔ)設(shè)施,旨在為數(shù)據(jù)中心設(shè)計(jì)提供更大的靈活性。Open Rack v3允許將電源架安裝在機(jī)架內(nèi)部的任何地方,而不是將其固定在母線上,從而實(shí)現(xiàn)更靈活的配置。

此外,每個(gè)機(jī)架的服務(wù)器數(shù)量也是可定制的,從而在每個(gè)服務(wù)器的吞吐量容量方面實(shí)現(xiàn)更有效的平衡。

在存儲方面, 這兩個(gè)GPU集群基于YV3 Sierra Point服務(wù)器平臺,采用了最先進(jìn)的E1.S固態(tài)硬盤。

更多GPU正在路上

Meta工程師在文中強(qiáng)調(diào),該公司致力于AI硬件堆棧的開放式創(chuàng)新?!爱?dāng)我們展望未來時(shí),我們認(rèn)識到,以前或目前有效的方法可能不足以滿足未來的需求。這就是我們不斷評估和改進(jìn)基礎(chǔ)設(shè)施的原因?!?/p>

Meta是最近成立的AI聯(lián)盟的成員之一。該聯(lián)盟旨在創(chuàng)建一個(gè)開放的生態(tài)系統(tǒng),以提高AI開發(fā)的透明度和信任,并確保每個(gè)人都能從其創(chuàng)新中受益。

Meta方面還透露,將繼續(xù)購買更多的Nvidia H100 GPU,計(jì)劃在今年年底前擁有35萬塊以上的GPU。這些GPU將用于持續(xù)構(gòu)建AI基礎(chǔ)設(shè)施,意味著未來還有更多、更強(qiáng)大的GPU集群問世。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2024-03-14
Meta新增兩大萬卡集群,投入近50000塊英偉達(dá)H100 GPU
據(jù)悉,這兩個(gè)數(shù)據(jù)中心的GPU數(shù)量均高達(dá)24,576塊,專為支持比之前發(fā)布的更大、更復(fù)雜的生成式AI模型而構(gòu)建。

長按掃碼 閱讀全文