AMD推出MI300X:擁有1530億晶體管,可運行800億參數(shù)模型

6月14日消息,AMD在當?shù)貢r間14日展示了其即將推出的GPU專用的MI300X AI芯片(其稱為加速器),該加速器可以加快ChatGPT和其他聊天機器人使用的生成式人工智能的處理速度,并可以使用高達192GB的內(nèi)存,而英偉達的H100芯片只支持120GB內(nèi)存,英偉達在這一新興市場的主導(dǎo)地位或?qū)⑹艿教魬?zhàn)。AMD未公布其AI芯片的價格。

AMD 14日展示了用于訓(xùn)練大模型的 GPU Instinct MI300A,號稱是全球首款針對AI和高性能計算(HPC)的加速處理器(APU)。MI300A在13個小芯片中遍布1460億個晶體管。它采用CDNA 3 GPU架構(gòu)和24個Zen 4 CPU內(nèi)核,相比前代MI250,MI300的性能提高八倍,效率提高五倍。

新的Zen 4c內(nèi)核比標準的Zen 4內(nèi)核密度更高,比標準Zen 4的內(nèi)核小35%,同時保持100%的軟件兼容性。

而MI300X是針對大語言模型LLM的優(yōu)化版,擁有192GB的HBM3內(nèi)存、5.2TB/秒的帶寬和896GB/秒的Infinity Fabric帶寬。AMD將1530億個晶體管集成在共12個5納米的小芯片中。

AMD稱,MI300X提供的HBM密度最高是英偉達AI芯片H100的2.4倍,其HBM帶寬最高是H100的1.6倍。這意味著,AMD的芯片可以運行比英偉達芯片更大的模型。單個MI300X可以運行一個參數(shù)多達800億的模型。

AMD還發(fā)布了AMD Instinct平臺,它擁有八個MI300X,采用行業(yè)標準OCP設(shè)計,提供總計1.5TB的HBM3內(nèi)存。蘇姿豐稱,適用于CPU和GPU的版本MI300A現(xiàn)在就已出樣,MI300X和八個GPU的Instinct平臺將在第三季度出樣,第四季度正式推出。

AMD CEO蘇姿豐表示,數(shù)據(jù)中心人工智能加速器的潛在市場總額將從2022年的300億美元增長到2027年的1500億美元以上。但市場對此消息反應(yīng)不佳。AMD股價在活動過程中顯著走低,收跌3.61%,而同行英偉達則收漲3.90%,市值首次收于1萬億美元關(guān)口上方。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2023-06-14
AMD推出MI300X:擁有1530億晶體管,可運行800億參數(shù)模型
英偉達AI芯片勁敵。

長按掃碼 閱讀全文