OpenAI、螞蟻集團、谷歌等聯合編制的大模型安全國際標準正式發(fā)布

4月17日消息,日前,世界數字技術院(WDTA)發(fā)布了一系列突破性成果,包括《生成式人工智能應用安全測試標準》和《大語言模型安全測試方法》兩項國際標準。這是國際組織首次就大模型安全領域發(fā)布國際標準,代表全球人工智能安全評估和測試進入新的基準。

信息顯示,此次發(fā)布的兩項國際標準是大模型及生成式AI應用方面的安全測試標準。由OpenAI、螞蟻集團、科大訊飛、谷歌、微軟、英偉達、百度、騰訊等數十家單位的多名專家學者共同編制而成。

其中,《生成式人工智能應用安全測試標準》由WDTA作為牽頭單位。該標準為測試和驗證生成式AI應用的安全性提供了一個框架,特別是那些使用大語言模型(LLM)構建的應用程序。它定義了人工智能應用程序架構每一層的測試和驗證范圍,包括基礎模型選擇、嵌入和矢量數據庫、RAG或檢索增強生成、AI應用運行時安全等等,確保AI應用各個方面都經過嚴格的安全性和合規(guī)性評估,保障其在整個生命周期內免受威脅和漏洞侵害。

《大語言模型安全測試方法》由螞蟻集團作為牽頭單位。該標準則為大模型本身的安全性評估提供了一套全面、嚴謹且實操性強的結構性方案。它提出了大語言模型的安全風險分類、攻擊的分類分級方法以及測試方法,并率先給出了四種不同攻擊強度的攻擊手法分類標準,提供了嚴格的評估指標和測試程序等,可解決大語言模型固有的復雜性,全面測試其抵御敵對攻擊的能力,使開發(fā)人員和組織能夠識別和緩解潛在漏洞,并最終提高使用大語言模型構建的人工智能系統(tǒng)的安全性和可靠性。

與會的WDTA人工智能安全可信負責任工作組組長黃連金表示,隨著人工智能系統(tǒng),特別是大語言模型繼續(xù)成為社會各方面不可或缺的一部分,以一個全面的標準來解決它們的安全挑戰(zhàn)變得至關重要。此次發(fā)布的標準匯集了全球AI安全領域的專家智慧,填補了大語言模型和生成式AI應用方面安全測試領域的空白,為業(yè)界提供了統(tǒng)一的測試框架和明確的測試方法,有助于提高AI系統(tǒng)安全性,促進AI技術負責任發(fā)展,增強公眾信任。

據了解,近年來,世界各國都在加強對于大模型安全的研究和管控。我國先后發(fā)布了《全球人工智能治理倡議》《生成式人工智能服務管理暫行辦法》《生成式人工智能服務安全基本要求》等,旨在促進生成式人工智能安全可信發(fā)展,推進全球人工智能治理領域合作共識。

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2024-04-17
OpenAI、螞蟻集團、谷歌等聯合編制的大模型安全國際標準正式發(fā)布
4月17日消息,日前,世界數字技術院(WDTA)發(fā)布了一系列突破性成果,包括《生成式人工智能應用安全測試標準》和《大語言模型安全測試方法》兩項國際標準。這是國際組織首次就大模型安全領域發(fā)布國際標準,代表全球人工智能安全評估

長按掃碼 閱讀全文