網(wǎng)絡犯罪分子遠程操縱和對機器學習模型性能產(chǎn)生負面影響并不難。
惡意用戶可以毒害機器學習的訓練數(shù)據(jù),非法訪問訓練數(shù)據(jù)集中的敏感用戶信息,并導致類似的其他問題。
機器學習和人工智能的采用在過去十年中飆升。涉及這些技術的應用范圍從面部識別和天氣預報應用到復雜的推薦系統(tǒng)和虛擬助手。隨著人工智能越來越融入我們的生活,人工智能系統(tǒng)中的網(wǎng)絡安全問題也隨之而來。根據(jù)世界經(jīng)濟論壇 2022 年全球風險報告,網(wǎng)絡安全故障是未來十年最值得關注的 10 大全球風險之一。
網(wǎng)絡安全和人工智能不可避免地會在某個時候交叉,但這個想法旨在利用人工智能的力量來加強網(wǎng)絡安全。雖然它存在于自己的位置,但也需要網(wǎng)絡安全的力量來保護機器學習模型的完整性。這些模型的威脅來自源頭:模型訓練數(shù)據(jù)。危險在于機器學習的訓練數(shù)據(jù)可能被黑客遠程或現(xiàn)場操縱。網(wǎng)絡犯罪分子操縱訓練數(shù)據(jù)集以影響算法的輸出并降低系統(tǒng)防御。這種方法通常無法追蹤,因為攻擊者偽裝成算法用戶。
如何操縱機器學習的訓練數(shù)據(jù)?機器學習周期涉及使用更新的信息和用戶見解進行持續(xù)訓練。惡意用戶可以通過向機器學習模型提供特定輸入來操縱此過程。使用被操縱的記錄,他們可以確定機密的用戶信息,如銀行帳號、社會保障詳細信息、人口統(tǒng)計信息和其他用作機器學習模型訓練數(shù)據(jù)的分類數(shù)據(jù)。
黑客用來操縱機器學習算法的一些常用方法是:
數(shù)據(jù)中毒攻擊數(shù)據(jù)中毒涉及損害用于機器學習模型的訓練數(shù)據(jù)。這些訓練數(shù)據(jù)來自開發(fā)人員、個人和開源數(shù)據(jù)庫等獨立方。如果惡意方參與向訓練數(shù)據(jù)集提供信息,他們將輸入精心構建的“有毒”數(shù)據(jù),從而使算法對其進行錯誤分類。
例如,如果您正在訓練識別馬的算法,該算法將處理訓練數(shù)據(jù)集中的數(shù)千張圖像以識別馬。為了加強這種學習,您還輸入了黑白奶牛的圖像來訓練算法。但是,如果不小心將棕色奶牛的圖像添加到數(shù)據(jù)集中,模型會將其分類為馬。該模型在被訓練區(qū)分棕色母牛和棕色馬之前不會理解差異。
同樣,攻擊者可以操縱訓練數(shù)據(jù)來教授有利于他們的模型分類場景。例如,他們可以訓練算法將惡意軟件視為良性軟件,并將安全軟件視為危險的使用有毒數(shù)據(jù)的軟件。
數(shù)據(jù)中毒的另一種方式是通過“后門”進入機器學習模型。后門是模型設計者可能不知道的一種輸入類型,但攻擊者可以使用它來操縱算法。一旦黑客發(fā)現(xiàn)了人工智能系統(tǒng)中的漏洞,他們就可以利用它來直接教模型他們想要做什么。
假設攻擊者訪問后門以教導模型,當文件中存在某些字符時,它應該被歸類為良性?,F(xiàn)在,攻擊者可以通過添加這些字符來使任何文件成為良性文件,并且每當模型遇到這樣的文件時,它就會按照訓練好的內(nèi)容將其歸類為良性文件。
數(shù)據(jù)中毒還與另一種稱為成員推理攻擊的攻擊相結合。成員推理攻擊 (MIA) 算法允許攻擊者評估特定記錄是否是訓練數(shù)據(jù)集的一部分。結合數(shù)據(jù)中毒,成員推理攻擊可用于部分重建訓練數(shù)據(jù)內(nèi)部的信息。盡管機器學習模型適用于廣義數(shù)據(jù),但它們在訓練數(shù)據(jù)上表現(xiàn)良好。成員推理攻擊和重建攻擊利用這種能力來提供與訓練數(shù)據(jù)匹配的輸入,并使用機器學習模型輸出在訓練數(shù)據(jù)中重新創(chuàng)建用戶信息。
如何檢測和預防數(shù)據(jù)中毒實例?模型會定期用新數(shù)據(jù)重新訓練,正是在這個重新訓練期間,有毒數(shù)據(jù)可以被引入訓練數(shù)據(jù)集中。由于它隨著時間的推移而發(fā)生,因此很難跟蹤此類活動。在每個訓練周期之前,模型開發(fā)人員和工程師可以通過輸入有效性測試、回歸測試、速率限制和其他統(tǒng)計技術來強制阻止或檢測此類輸入。他們還可以限制來自單個用戶的輸入數(shù)量,檢查是否有來自相似 IP 地址或帳戶的多個輸入,并針對黃金數(shù)據(jù)集測試重新訓練的模型。黃金數(shù)據(jù)集是基于機器學習的訓練數(shù)據(jù)集的經(jīng)過驗證且可靠的參考點。
黑客需要有關機器學習模型如何工作以執(zhí)行后門攻擊的信息。因此,通過實施強大的訪問控制和防止信息泄露來保護這些信息非常重要。限制權限、數(shù)據(jù)版本控制和記錄代碼更改等一般安全實踐將加強模型安全性并保護機器學習的訓練數(shù)據(jù)免受中毒攻擊。
通過滲透測試構建防御企業(yè)在對其網(wǎng)絡進行定期滲透測試時,應考慮測試機器學習和人工智能系統(tǒng)。滲透測試模擬潛在的攻擊以確定安全系統(tǒng)中的漏洞。模型開發(fā)人員可以類似地對他們的算法進行模擬攻擊,以了解他們?nèi)绾螛嫿ㄡ槍?shù)據(jù)中毒攻擊的防御。當您測試您的模型是否存在數(shù)據(jù)中毒漏洞時,您可以了解可能添加的數(shù)據(jù)點并構建丟棄此類數(shù)據(jù)點的機制。
即使是看似微不足道的不良數(shù)據(jù)也會使機器學習模型失效。黑客已適應利用這一弱點并破壞企業(yè)數(shù)據(jù)系統(tǒng)。隨著企業(yè)越來越依賴人工智能,他們必須保護機器學習訓練數(shù)據(jù)的安全性和隱私性,否則就有失去客戶信任的風險。
- 蜜度索驥:以跨模態(tài)檢索技術助力“企宣”向上生長
- 國家發(fā)改委成立低空經(jīng)濟發(fā)展司
- 什么是人工智能網(wǎng)絡? | 智能百科
- 工信部:2025年推進工業(yè)5G獨立專網(wǎng)建設
- 人工智能如何改變?nèi)蛑悄苁謾C市場
- 企業(yè)網(wǎng)絡安全挑戰(zhàn)頻出?Fortinet 給出破解之法
- 2025年生成式人工智能將如何影響眾行業(yè)
- 報告:人工智能推動數(shù)據(jù)中心系統(tǒng)支出激增25%
- 千家早報|馬斯克預測:人工智能或?qū)⒊絾蝹€人類;鴻蒙生態(tài)(武漢)創(chuàng)新中心啟用,推動鴻蒙軟硬件在武漢首試首用——2024年12月27日
- 中移建設被拉入軍采“黑名單”
- 大理移動因違規(guī)套現(xiàn)等問題,擬被列入軍采失信名單
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。