12月4日消息,麥肯錫最新研究表明,GenAI(Generative AI,生成式AI)每年對全球經(jīng)濟的貢獻將達7.9萬億美元。GenAI不僅對全球經(jīng)濟產(chǎn)生重要影響,也為各個行業(yè)帶來變革機遇。
隨著GenAI在各行各業(yè)的影響力更加深入,關于GenAI的安全性問題也受到更多關注。
在亞馬遜云科技在2023 re:Invent全球大會上,亞馬遜首席安全官Steve Schmidt從兩個角度闡述了GenAI和LLMs(Large Language Models,大型語言模型)與企業(yè)信息安全之間的關系。
亞馬遜首席安全官Steve Schmidt
Steve Schmidt一方面強調(diào),LLMs和GenAI是幫助安全人員改善安全成果的最新工具;另一方面,他又對如何安全使用GenAI服務提出了經(jīng)典的“三連問”,并通過自答的方式,細致闡述了亞馬遜云科技在打造GenAI服務時如何確保服務的安全性。
把GenAI作為工具,改善提效安全人員工作
和其他行業(yè)一樣,在安全領域,LLMs和GenAI可以幫助安全人員改善、提效安全工作,Steve Schmidt表示,GenAI就是亞馬遜團隊用來幫助客戶更有效地工作、同時提高安全標準的又一種工具。
在2023 re:Invent上,Steve Schmidt正式宣布,亞馬遜推出了2款GenAI驅(qū)動的安全服務新功能。
新功能一:Amazon Inspector的新功能使用機器學習模型和自動推理來幫助用戶識別代碼漏洞,并提供修復漏洞的代碼補丁的指導。開發(fā)人員驗證了Amazon Inspector所提議的代碼功能符合要求之后,就可以合并代碼,快速有效地解決安全問題。
Steve Schmidt向TechWeb強調(diào),GenAI驅(qū)動的Amazon Inspector能做的不止是指出不正確的代碼,并且還會直接給出開發(fā)者所需要的正確代碼。這是一個非常強大的能力,可以加速開發(fā)者的速度,也能訓練他們?nèi)绾尉帉懓踩拇a。
新功能二:Amazon Detective的新功能是一項調(diào)查潛在安全問題的服務能力,可幫助客戶分析、調(diào)查并快速確定安全發(fā)現(xiàn)或可疑活動的根本原因。
Amazon Detective使用GenAI來創(chuàng)建關于安全威脅或入侵的技術指標的文本描述,人類工程師的角色則是確認機器的分析是否正確,這樣可以幫助安全工程師提高工作效率,讓他們更高效,且更享受他們的工作。在以前,這項工作需要具備特定專業(yè)知識的安全工程師才能完成,他們需要手動編寫報告并詳細說明發(fā)生了哪些事情。
Steve Schmidt強調(diào),“亞馬遜的所有代碼在進入生產(chǎn)階段之前都要經(jīng)過審查,多年來我們進行的大量代碼審查和龐大的代碼庫規(guī)模使我們能夠有效地訓練和精細調(diào)整這個模型服務,最近亞馬遜開始使用定制的大型語言模型來加速代碼審查。”
如何安全的使用GenAI服務?
隨著人工智能的每一次創(chuàng)新,都會出現(xiàn)新的挑戰(zhàn)和機遇。對于安全團隊來說,幫助企業(yè)理解這些創(chuàng)新飛躍帶來的利益和風險是非常重要的。
“當業(yè)務部門確定AI將幫助他們實現(xiàn)特定目標時,有三個重要問題有助于塑造安全需求與業(yè)務工作流的一致性。我建議你們在自己的環(huán)境中考慮這三個問題?!盨teve Schmidt表示。
問題一:“Where is our data ?”(我們的數(shù)據(jù)在哪里?)
Steve Schmidt將這個問題進一步進行了拆解:如果你正在用你的公司數(shù)據(jù)訓練大型語言模型,模型是如何訪問那些數(shù)據(jù)的?在訓練過程中,你能否保持數(shù)據(jù)在傳輸和靜止時的加密,以及你如何驗證這一點正在發(fā)生?用于訪問該數(shù)據(jù)的權限是否已被限制為盡可能最少?
你和你的團隊還需要探索你們正在使用的模型的隔離級別。如果你為了獲得更相關的結果而向模型提供公司數(shù)據(jù),其他人是否能夠看到你數(shù)據(jù)的片段?
問題二:“What happens with my query and with any associated data?”(當查詢和任何相關數(shù)據(jù)會發(fā)生什么?)
“查詢本身也可能是敏感的,應該是你的數(shù)據(jù)保護計劃的一部分?!盨teve Schmidt強調(diào)。
當用戶開始向GenAI大型語言模型提問時,他們發(fā)出的查詢中往往會添加更多細節(jié)和具體要求,這會帶來更好的結果。但是,如果你的員工查詢了AI聊天機器人,那么這次查詢的輸出和員工對結果的反應,是否也會被用于訓練模型?
問題三:Is the output of the generative AI models accurate enough? (GenAI模型的輸出是否足夠準確?)
Steve Schmidt指出,大型語言模型生成“非確定性”的輸出,這是該技術的一個重要特征。
大模型可以識別大量不同的問題,其中一些問題可能是工程師沒有注意到的;大模型也可能無法識別每個可能的安全問題,因此不能成為唯一識別問題的方式。要理解GenAI的局限性。
“如果有人告訴你他們的GenAI能力可以完全替代你的安全工程師,請保持懷疑。” Steve Schmidt說道,安全團隊不能將所有決策權交給AI,更合適的方法是,用大模型幫助有才華的工程師更有效率、更有效地工作。
“這三個問題:‘我們的數(shù)據(jù)在哪里?’、‘我的查詢及相關數(shù)據(jù)會發(fā)生什么?’、‘這些模型的輸出是否足夠準確?’指導了我們的安全團隊如何思考GenAI和大語言模型服務,以及亞馬遜內(nèi)部業(yè)務人員使用這些工具的方式?!盨teve Schmidt總結道:“任何一家企業(yè)在使用GenAI服務時都要搞清楚這3個問題。在我們看來,客戶應該控制自己的數(shù)據(jù)并能夠以安全可靠的方式使用自己選擇的模型。這也是Amazon Bedrock為客戶提供私有定制基礎模型的原因?!?/p>
據(jù)介紹,亞馬遜云科技提供的Amazon Bedrock有兩個組成部分,底層基礎模型,它是在大量數(shù)據(jù)上訓練的,但它不一定適合于所在企業(yè)的工作方式。所以通過定制化能力,讓企業(yè)客戶用自己的訓練數(shù)據(jù)來微調(diào)模型,這個訓練內(nèi)容是企業(yè)自己的,不會被放回基礎模型中,也不會與第三方模型開發(fā)者共享。
Amazon Bedrock是亞馬遜云科技于今年4月發(fā)布的一項全面托管的服務,通過它,企業(yè)用戶可以通過API等方式輕松訪問包括亞馬遜云科技自研的Titan系列模型和眾多主流第三方大模型。截至目前,Amazon Bedrock提供的基礎模型包括Amazon Titan的5款模型、Anthropic Claude 2.1、Meta Llama 2 70B、Stability AI Stable Diffusion XL 1.0、Meta Llama 2 Chat 13B、Cohere Command Light、Cohere Embed English和Cohere Embed多語言模型等。
- 蜜度索驥:以跨模態(tài)檢索技術助力“企宣”向上生長
- 馬蜂窩大數(shù)據(jù):“元旦一日游”熱度上漲166%,不少人選擇“請四休九”
- 亞馬遜云科技陳曉建:2025年很多客戶將從生成式AI原型驗證轉(zhuǎn)為生產(chǎn)應用
- 林肯中國回應“并入福特中國”傳聞:簡化財務體系 各項業(yè)務保持不變
- 要做中國的OpenAI?字節(jié)跳動2024年研發(fā)開支接近BAT之和
- 螞蟻旗下跨境匯款平臺為開發(fā)者提供收款服務 每日限額10萬美元
- 要買車還能再等等!2025年新能源車,這些關鍵技術將有重大升級
- AAAA,三七互娛發(fā)起的游心公益基金會社會組織評估等級再提升
- 網(wǎng)易云音樂2024年度聽歌報告刷屏 你最喜歡的歌手是誰?
- 樂道L60公布交付數(shù)據(jù) 上市100天累計交付2萬輛
- 售價33.98萬元起 25款騰勢D9正式上市:全系標配天神之眼高階智駕
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。