如何確保用于訓練機器學習模型的數(shù)據(jù)安全?

網(wǎng)絡犯罪分子遠程操縱和對機器學習模型性能產(chǎn)生負面影響并不難。

惡意用戶可以毒害機器學習的訓練數(shù)據(jù),非法訪問訓練數(shù)據(jù)集中的敏感用戶信息,并導致類似的其他問題。

機器學習和人工智能的采用在過去十年中飆升。涉及這些技術的應用范圍從面部識別和天氣預報應用到復雜的推薦系統(tǒng)和虛擬助手。隨著人工智能越來越融入我們的生活,人工智能系統(tǒng)中的網(wǎng)絡安全問題也隨之而來。根據(jù)世界經(jīng)濟論壇 2022 年全球風險報告,網(wǎng)絡安全故障是未來十年最值得關注的 10 大全球風險之一。

網(wǎng)絡安全和人工智能不可避免地會在某個時候交叉,但這個想法旨在利用人工智能的力量來加強網(wǎng)絡安全。雖然它存在于自己的位置,但也需要網(wǎng)絡安全的力量來保護機器學習模型的完整性。這些模型的威脅來自源頭:模型訓練數(shù)據(jù)。危險在于機器學習的訓練數(shù)據(jù)可能被黑客遠程或現(xiàn)場操縱。網(wǎng)絡犯罪分子操縱訓練數(shù)據(jù)集以影響算法的輸出并降低系統(tǒng)防御。這種方法通常無法追蹤,因為攻擊者偽裝成算法用戶。

如何操縱機器學習的訓練數(shù)據(jù)?

機器學習周期涉及使用更新的信息和用戶見解進行持續(xù)訓練。惡意用戶可以通過向機器學習模型提供特定輸入來操縱此過程。使用被操縱的記錄,他們可以確定機密的用戶信息,如銀行帳號、社會保障詳細信息、人口統(tǒng)計信息和其他用作機器學習模型訓練數(shù)據(jù)的分類數(shù)據(jù)。

黑客用來操縱機器學習算法的一些常用方法是:

數(shù)據(jù)中毒攻擊

數(shù)據(jù)中毒涉及損害用于機器學習模型的訓練數(shù)據(jù)。這些訓練數(shù)據(jù)來自開發(fā)人員、個人和開源數(shù)據(jù)庫等獨立方。如果惡意方參與向訓練數(shù)據(jù)集提供信息,他們將輸入精心構建的“有毒”數(shù)據(jù),從而使算法對其進行錯誤分類。

例如,如果您正在訓練識別馬的算法,該算法將處理訓練數(shù)據(jù)集中的數(shù)千張圖像以識別馬。為了加強這種學習,您還輸入了黑白奶牛的圖像來訓練算法。但是,如果不小心將棕色奶牛的圖像添加到數(shù)據(jù)集中,模型會將其分類為馬。該模型在被訓練區(qū)分棕色母牛和棕色馬之前不會理解差異。

同樣,攻擊者可以操縱訓練數(shù)據(jù)來教授有利于他們的模型分類場景。例如,他們可以訓練算法將惡意軟件視為良性軟件,并將安全軟件視為危險的使用有毒數(shù)據(jù)的軟件。

數(shù)據(jù)中毒的另一種方式是通過“后門”進入機器學習模型。后門是模型設計者可能不知道的一種輸入類型,但攻擊者可以使用它來操縱算法。一旦黑客發(fā)現(xiàn)了人工智能系統(tǒng)中的漏洞,他們就可以利用它來直接教模型他們想要做什么。

假設攻擊者訪問后門以教導模型,當文件中存在某些字符時,它應該被歸類為良性?,F(xiàn)在,攻擊者可以通過添加這些字符來使任何文件成為良性文件,并且每當模型遇到這樣的文件時,它就會按照訓練好的內(nèi)容將其歸類為良性文件。

數(shù)據(jù)中毒還與另一種稱為成員推理攻擊的攻擊相結合。成員推理攻擊 (MIA) 算法允許攻擊者評估特定記錄是否是訓練數(shù)據(jù)集的一部分。結合數(shù)據(jù)中毒,成員推理攻擊可用于部分重建訓練數(shù)據(jù)內(nèi)部的信息。盡管機器學習模型適用于廣義數(shù)據(jù),但它們在訓練數(shù)據(jù)上表現(xiàn)良好。成員推理攻擊和重建攻擊利用這種能力來提供與訓練數(shù)據(jù)匹配的輸入,并使用機器學習模型輸出在訓練數(shù)據(jù)中重新創(chuàng)建用戶信息。

如何檢測和預防數(shù)據(jù)中毒實例?

模型會定期用新數(shù)據(jù)重新訓練,正是在這個重新訓練期間,有毒數(shù)據(jù)可以被引入訓練數(shù)據(jù)集中。由于它隨著時間的推移而發(fā)生,因此很難跟蹤此類活動。在每個訓練周期之前,模型開發(fā)人員和工程師可以通過輸入有效性測試、回歸測試、速率限制和其他統(tǒng)計技術來強制阻止或檢測此類輸入。他們還可以限制來自單個用戶的輸入數(shù)量,檢查是否有來自相似 IP 地址或帳戶的多個輸入,并針對黃金數(shù)據(jù)集測試重新訓練的模型。黃金數(shù)據(jù)集是基于機器學習的訓練數(shù)據(jù)集的經(jīng)過驗證且可靠的參考點。

黑客需要有關機器學習模型如何工作以執(zhí)行后門攻擊的信息。因此,通過實施強大的訪問控制和防止信息泄露來保護這些信息非常重要。限制權限、數(shù)據(jù)版本控制和記錄代碼更改等一般安全實踐將加強模型安全性并保護機器學習的訓練數(shù)據(jù)免受中毒攻擊。

通過滲透測試構建防御

企業(yè)在對其網(wǎng)絡進行定期滲透測試時,應考慮測試機器學習和人工智能系統(tǒng)。滲透測試模擬潛在的攻擊以確定安全系統(tǒng)中的漏洞。模型開發(fā)人員可以類似地對他們的算法進行模擬攻擊,以了解他們?nèi)绾螛嫿ㄡ槍?shù)據(jù)中毒攻擊的防御。當您測試您的模型是否存在數(shù)據(jù)中毒漏洞時,您可以了解可能添加的數(shù)據(jù)點并構建丟棄此類數(shù)據(jù)點的機制。

即使是看似微不足道的不良數(shù)據(jù)也會使機器學習模型失效。黑客已適應利用這一弱點并破壞企業(yè)數(shù)據(jù)系統(tǒng)。隨著企業(yè)越來越依賴人工智能,他們必須保護機器學習訓練數(shù)據(jù)的安全性和隱私性,否則就有失去客戶信任的風險。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。

2022-09-19
如何確保用于訓練機器學習模型的數(shù)據(jù)安全?
隨著人工智能越來越融入我們的生活,人工智能系統(tǒng)中的網(wǎng)絡安全問題也隨之而來

長按掃碼 閱讀全文