7月9日消息(趙婷婷)在日前召開的“2024中國光網(wǎng)絡研討會”上,華為技術有限公司光模塊高級技術專家段建宏發(fā)表題為《AI場景光模塊的技術趨勢及面臨的挑戰(zhàn)》的主題演講。
他表示,大模型之戰(zhàn)帶來模型規(guī)模和訓練算力需求爆發(fā)式增長,智算中心是業(yè)界AI模型開發(fā)的共同選擇。業(yè)界主流模型從千億稠密到萬億稀疏,逐步走向百萬級超長序列和多模態(tài),穩(wěn)定性、高性能為AI大集群客戶核心訴求。
“文本、圖像乃至視頻AI的高速發(fā)展對算力規(guī)模提升提出更大挑戰(zhàn),千卡/萬卡等高效互聯(lián)的AI集群是必然發(fā)展趨勢,而高速網(wǎng)絡互聯(lián)是提升系統(tǒng)集群算力的關鍵一環(huán)?!?/p>
段建宏指出,光模塊“麻雀雖小,五臟俱全”,在AI計算網(wǎng)絡典型組網(wǎng)中的應用廣泛,可在參數(shù)面網(wǎng)絡用于智能集群分布式訓練,業(yè)務面網(wǎng)絡用于系統(tǒng)業(yè)務調度和管理,存儲面網(wǎng)絡用于訪問存儲區(qū)數(shù)據(jù),光模塊/AOC用于三張網(wǎng)絡中的長距接入和設備互聯(lián)。
同時,智算中心機房內互聯(lián)以2km為主,端口速率已到800G,持續(xù)向高速率(1.6T/3.2T)演進中。并且未來5年短距光模塊將快速增長,AI集群光模塊份額占比從2023年的25%提升到2028年的38%,800G光模塊在今年上量部署,1.6T光模塊預計在2026年上市。
段建宏提出了AI場景下光模塊的技術趨勢及面臨的挑戰(zhàn)。他認為,AI場景下光互聯(lián)技術高速發(fā)展,呈現(xiàn)差異化的特性需求。其中,聯(lián)接速率高,需要大寬帶;互聯(lián)規(guī)模大,需要低功耗、低時延;因性能/可靠性導致的閃斷影響訓練業(yè)務,需要穩(wěn)定、高可靠;智能運維,開局或者過程檢測,快速故障定位,需要高可用。
具體來說,在大帶寬方面,224G/Lane待進一催熟,高速率對傳輸距離影響待進一步研究,此外,還有小型化封裝低功耗、散熱問題。
低功耗、低時延方面,LPO 具備相對優(yōu)勢,但持續(xù)演進仍有待討論。另外標準生態(tài)是LPO落地商用的關鍵,互通性應用還在進一步研究。速率提升加速單模下沉,硅光預估迎來高速增長。
高可靠方面,AI計算對光互聯(lián)高可靠提出挑戰(zhàn),要求系統(tǒng)端到段設計優(yōu)化;系統(tǒng)與光模塊優(yōu)化系統(tǒng)風道設計,光模塊聯(lián)合散熱優(yōu)化;光器件合理提升系統(tǒng)集成度;光芯片優(yōu)化芯片設計,降低缺陷率,降低電流密度,提升發(fā)光線率。
高可用方面,高速率模塊鏈路潔凈度要求更高,且高密光互聯(lián)架構,故障定位代價大,AI網(wǎng)絡需要注入智能化技術,提升運維效率,AI場景下光模塊智能運維助力系統(tǒng)實現(xiàn)高可用特性。
- 了解高速率光模塊:100G QSFP28與SFP112光模塊
- 余承東喜提享界S9:S9連續(xù)5月蟬聯(lián)純電豪華轎車銷冠
- AI大模型下的高性能網(wǎng)絡
- 中興通訊Wi-Fi 7靈妙系列產(chǎn)品榮獲C114通信網(wǎng)“Wi-Fi 7產(chǎn)品創(chuàng)新獎”
- AI智能算力發(fā)展趨勢探索
- 邊境村寨不邊緣,5G+FTTR護航愛家健康和生產(chǎn)生活
- 信號升格助力景邁山申遺,千年茶山戴上數(shù)字光環(huán)
- 如何選擇100G高速線纜?詳細指南
- 浙江:在量子科技等領域形成一批“1到10”“10到100”的標志性成果
- 深度解析聯(lián)通2024年光纜集采:價格博弈、格局大變、產(chǎn)業(yè)承壓
免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。