12月4日消息,麥肯錫最新研究表明,GenAI(Generative AI,生成式AI)每年對(duì)全球經(jīng)濟(jì)的貢獻(xiàn)將達(dá)7.9萬億美元。GenAI不僅對(duì)全球經(jīng)濟(jì)產(chǎn)生重要影響,也為各個(gè)行業(yè)帶來變革機(jī)遇。
隨著GenAI在各行各業(yè)的影響力更加深入,關(guān)于GenAI的安全性問題也受到更多關(guān)注。
在亞馬遜云科技在2023 re:Invent全球大會(huì)上,亞馬遜首席安全官Steve Schmidt從兩個(gè)角度闡述了GenAI和LLMs(Large Language Models,大型語言模型)與企業(yè)信息安全之間的關(guān)系。
亞馬遜首席安全官Steve Schmidt
Steve Schmidt一方面強(qiáng)調(diào),LLMs和GenAI是幫助安全人員改善安全成果的最新工具;另一方面,他又對(duì)如何安全使用GenAI服務(wù)提出了經(jīng)典的“三連問”,并通過自答的方式,細(xì)致闡述了亞馬遜云科技在打造GenAI服務(wù)時(shí)如何確保服務(wù)的安全性。
把GenAI作為工具,改善提效安全人員工作
和其他行業(yè)一樣,在安全領(lǐng)域,LLMs和GenAI可以幫助安全人員改善、提效安全工作,Steve Schmidt表示,GenAI就是亞馬遜團(tuán)隊(duì)用來幫助客戶更有效地工作、同時(shí)提高安全標(biāo)準(zhǔn)的又一種工具。
在2023 re:Invent上,Steve Schmidt正式宣布,亞馬遜推出了2款GenAI驅(qū)動(dòng)的安全服務(wù)新功能。
新功能一:Amazon Inspector的新功能使用機(jī)器學(xué)習(xí)模型和自動(dòng)推理來幫助用戶識(shí)別代碼漏洞,并提供修復(fù)漏洞的代碼補(bǔ)丁的指導(dǎo)。開發(fā)人員驗(yàn)證了Amazon Inspector所提議的代碼功能符合要求之后,就可以合并代碼,快速有效地解決安全問題。
Steve Schmidt向TechWeb強(qiáng)調(diào),GenAI驅(qū)動(dòng)的Amazon Inspector能做的不止是指出不正確的代碼,并且還會(huì)直接給出開發(fā)者所需要的正確代碼。這是一個(gè)非常強(qiáng)大的能力,可以加速開發(fā)者的速度,也能訓(xùn)練他們?nèi)绾尉帉懓踩拇a。
新功能二:Amazon Detective的新功能是一項(xiàng)調(diào)查潛在安全問題的服務(wù)能力,可幫助客戶分析、調(diào)查并快速確定安全發(fā)現(xiàn)或可疑活動(dòng)的根本原因。
Amazon Detective使用GenAI來創(chuàng)建關(guān)于安全威脅或入侵的技術(shù)指標(biāo)的文本描述,人類工程師的角色則是確認(rèn)機(jī)器的分析是否正確,這樣可以幫助安全工程師提高工作效率,讓他們更高效,且更享受他們的工作。在以前,這項(xiàng)工作需要具備特定專業(yè)知識(shí)的安全工程師才能完成,他們需要手動(dòng)編寫報(bào)告并詳細(xì)說明發(fā)生了哪些事情。
Steve Schmidt強(qiáng)調(diào),“亞馬遜的所有代碼在進(jìn)入生產(chǎn)階段之前都要經(jīng)過審查,多年來我們進(jìn)行的大量代碼審查和龐大的代碼庫規(guī)模使我們能夠有效地訓(xùn)練和精細(xì)調(diào)整這個(gè)模型服務(wù),最近亞馬遜開始使用定制的大型語言模型來加速代碼審查?!?/p>
如何安全的使用GenAI服務(wù)?
隨著人工智能的每一次創(chuàng)新,都會(huì)出現(xiàn)新的挑戰(zhàn)和機(jī)遇。對(duì)于安全團(tuán)隊(duì)來說,幫助企業(yè)理解這些創(chuàng)新飛躍帶來的利益和風(fēng)險(xiǎn)是非常重要的。
“當(dāng)業(yè)務(wù)部門確定AI將幫助他們實(shí)現(xiàn)特定目標(biāo)時(shí),有三個(gè)重要問題有助于塑造安全需求與業(yè)務(wù)工作流的一致性。我建議你們?cè)谧约旱沫h(huán)境中考慮這三個(gè)問題。”Steve Schmidt表示。
問題一:“Where is our data ?”(我們的數(shù)據(jù)在哪里?)
Steve Schmidt將這個(gè)問題進(jìn)一步進(jìn)行了拆解:如果你正在用你的公司數(shù)據(jù)訓(xùn)練大型語言模型,模型是如何訪問那些數(shù)據(jù)的?在訓(xùn)練過程中,你能否保持?jǐn)?shù)據(jù)在傳輸和靜止時(shí)的加密,以及你如何驗(yàn)證這一點(diǎn)正在發(fā)生?用于訪問該數(shù)據(jù)的權(quán)限是否已被限制為盡可能最少?
你和你的團(tuán)隊(duì)還需要探索你們正在使用的模型的隔離級(jí)別。如果你為了獲得更相關(guān)的結(jié)果而向模型提供公司數(shù)據(jù),其他人是否能夠看到你數(shù)據(jù)的片段?
問題二:“What happens with my query and with any associated data?”(當(dāng)查詢和任何相關(guān)數(shù)據(jù)會(huì)發(fā)生什么?)
“查詢本身也可能是敏感的,應(yīng)該是你的數(shù)據(jù)保護(hù)計(jì)劃的一部分?!盨teve Schmidt強(qiáng)調(diào)。
當(dāng)用戶開始向GenAI大型語言模型提問時(shí),他們發(fā)出的查詢中往往會(huì)添加更多細(xì)節(jié)和具體要求,這會(huì)帶來更好的結(jié)果。但是,如果你的員工查詢了AI聊天機(jī)器人,那么這次查詢的輸出和員工對(duì)結(jié)果的反應(yīng),是否也會(huì)被用于訓(xùn)練模型?
問題三:Is the output of the generative AI models accurate enough? (GenAI模型的輸出是否足夠準(zhǔn)確?)
Steve Schmidt指出,大型語言模型生成“非確定性”的輸出,這是該技術(shù)的一個(gè)重要特征。
大模型可以識(shí)別大量不同的問題,其中一些問題可能是工程師沒有注意到的;大模型也可能無法識(shí)別每個(gè)可能的安全問題,因此不能成為唯一識(shí)別問題的方式。要理解GenAI的局限性。
“如果有人告訴你他們的GenAI能力可以完全替代你的安全工程師,請(qǐng)保持懷疑。” Steve Schmidt說道,安全團(tuán)隊(duì)不能將所有決策權(quán)交給AI,更合適的方法是,用大模型幫助有才華的工程師更有效率、更有效地工作。
“這三個(gè)問題:‘我們的數(shù)據(jù)在哪里?’、‘我的查詢及相關(guān)數(shù)據(jù)會(huì)發(fā)生什么?’、‘這些模型的輸出是否足夠準(zhǔn)確?’指導(dǎo)了我們的安全團(tuán)隊(duì)如何思考GenAI和大語言模型服務(wù),以及亞馬遜內(nèi)部業(yè)務(wù)人員使用這些工具的方式。”Steve Schmidt總結(jié)道:“任何一家企業(yè)在使用GenAI服務(wù)時(shí)都要搞清楚這3個(gè)問題。在我們看來,客戶應(yīng)該控制自己的數(shù)據(jù)并能夠以安全可靠的方式使用自己選擇的模型。這也是Amazon Bedrock為客戶提供私有定制基礎(chǔ)模型的原因?!?/p>
據(jù)介紹,亞馬遜云科技提供的Amazon Bedrock有兩個(gè)組成部分,底層基礎(chǔ)模型,它是在大量數(shù)據(jù)上訓(xùn)練的,但它不一定適合于所在企業(yè)的工作方式。所以通過定制化能力,讓企業(yè)客戶用自己的訓(xùn)練數(shù)據(jù)來微調(diào)模型,這個(gè)訓(xùn)練內(nèi)容是企業(yè)自己的,不會(huì)被放回基礎(chǔ)模型中,也不會(huì)與第三方模型開發(fā)者共享。
Amazon Bedrock是亞馬遜云科技于今年4月發(fā)布的一項(xiàng)全面托管的服務(wù),通過它,企業(yè)用戶可以通過API等方式輕松訪問包括亞馬遜云科技自研的Titan系列模型和眾多主流第三方大模型。截至目前,Amazon Bedrock提供的基礎(chǔ)模型包括Amazon Titan的5款模型、Anthropic Claude 2.1、Meta Llama 2 70B、Stability AI Stable Diffusion XL 1.0、Meta Llama 2 Chat 13B、Cohere Command Light、Cohere Embed English和Cohere Embed多語言模型等。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )