2月17日消息,近日,深信服一朵云面向AI進行全新升級,為用戶打造更匹配大模型場景的智算承載、應(yīng)用構(gòu)建的AI平臺,面向用戶基于DeepSeek承載和應(yīng)用的場景,提供一鍵部署、性能更優(yōu)、快速開發(fā)應(yīng)用的最佳實踐方案。
總的來說,深信服一朵云面升級包含三個方面:
1、 線下基礎(chǔ)設(shè)施從傳統(tǒng)業(yè)務(wù)承載平臺向智算承載平臺升級,廣泛適配包括DeepSeek在內(nèi)的最新大模型。
深信服現(xiàn)已打造「HCI+AICP新一代超融合」解決方案,只需在原集群基礎(chǔ)上增加一臺GPU節(jié)點,就能基于本地集群快速部署并承載DeepSeek在內(nèi)的企業(yè)級大模型。
除了支持英偉達GPU,深信服AICP算力平臺和多家國產(chǎn)廠商開展了廣泛的軟硬件兼容測試,可適配天數(shù)智芯、昇騰、海光、沐曦、燧原等多款國產(chǎn)卡,為用戶實現(xiàn)算力異構(gòu)管理。
2、 線上托管云上線全新AI服務(wù)目錄,提供DeepSeek等企業(yè)級大模型服務(wù),用戶可通過訂閱來快速獲取AI能力。
深信服托管云已支持基于專屬資源+AICP的方式,為用戶提供專屬的企業(yè)級大模型服務(wù),可滿足用戶對于線上部署專屬服務(wù)模型的需求。
深信服會持續(xù)豐富線上服務(wù)目錄,用戶可以很容易地通過訂閱的方式,快速平滑地獲取AI能力,如DeepSeek等模型服務(wù)。
3、 全新發(fā)布AI應(yīng)用創(chuàng)新平臺,助力用戶快速構(gòu)建大模型應(yīng)用,讓AI應(yīng)用的開發(fā)和運營變得更簡單。
深信服AI應(yīng)用創(chuàng)新平臺內(nèi)置RAG最佳實踐流程,支持智能分片與直連企業(yè)自有知識庫。用戶僅需通過簡單操作,即可構(gòu)建高質(zhì)量的RAG應(yīng)用。深信服AI應(yīng)用創(chuàng)新平臺支持基于業(yè)務(wù)評測數(shù)據(jù)集的應(yīng)用效果評估,并自動生成優(yōu)化建議,用戶無需理解復(fù)雜技術(shù)細節(jié),即可完成配置優(yōu)化,實現(xiàn)效果提升。
據(jù)介紹,向AI升級后,深信服全面優(yōu)化推理性能,讓跑在一朵云上的大模型應(yīng)用可以實現(xiàn)推理性能的大幅提升,降低大模型整體使用成本。
相比基于個人開發(fā)者常用的Ollama方案部署DeepSeek,深信服通過AICP算力平臺的部署方案在多實例、并發(fā)推理場景中可實現(xiàn)5-10倍的性能提升。大模型并發(fā)度更高、吞吐量更大、推理響應(yīng)延時更低,讓用戶在企業(yè)級AI應(yīng)用構(gòu)建及實際使用時,資源投入更低、體驗更優(yōu)。
4卡4090運行DeepSeek-32B模型,模擬64并發(fā)場景,做問答測試
以32B模型為例,日常問答場景(2k上下文),AICP并發(fā)是Ollama的8~10倍,總吞吐10倍以上。
硬件資源:INT4用2*4090,F(xiàn)P16用4*4090
知識庫應(yīng)用場景(4k上下文),AICP并發(fā)是Ollama的2倍,總吞吐4~8倍。
硬件資源:INT4用2*4090,F(xiàn)P16用4*4090
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )