近日,DeepSeek憑借其高性能、低成本的通用人工智能技術成為科技圈的“頂流”,不僅讓更多大眾群體了解了AI技術的潛力,也引發(fā)了人們對AI安全風險的廣泛關注。人工智能技術雖然為各行各業(yè)帶來了前所未有的便利與創(chuàng)新,但也衍生出一系列復雜且嚴峻的安全挑戰(zhàn)。瑞星發(fā)布的《2024年中國網(wǎng)絡安全報告》明確指出,AI技術的深度滲透正在重塑網(wǎng)絡安全格局,其帶來的風險橫跨網(wǎng)絡攻擊、數(shù)據(jù)隱私、模型安全等多個關鍵維度,對個人、企業(yè)乃至社會的網(wǎng)絡安全構成了前所未有的威脅。
當AI遇上網(wǎng)絡釣魚:讓網(wǎng)絡威脅 “升級蛻變”
在網(wǎng)絡攻擊層面,AI技術的應用讓網(wǎng)絡釣魚手段實現(xiàn)了“智能化升級”。以 ChatGPT為代表的自然語言生成模型,能夠自動生成語法和邏輯近乎完美的網(wǎng)絡釣魚電子郵件。這類郵件可輕松繞過傳統(tǒng)的垃圾郵件過濾器,大幅提升了檢測難度。同時,AI技術還能實現(xiàn)網(wǎng)絡釣魚攻擊全流程自動化,包括目標信息收集、郵件創(chuàng)建、發(fā)送以及后續(xù)的驗證和優(yōu)化。
更令人擔憂的是,AI能夠根據(jù)目標用戶的興趣、職業(yè)角色和社交習慣,生成高度個性化的釣魚內(nèi)容,極大提高了攻擊的成功率。例如,IBM的一項測試顯示,由ChatGPT編寫的釣魚郵件成功誘使14%的員工點擊了惡意鏈接,這一數(shù)據(jù)足以證明其巨大的威脅性。
圖:由ChatGPT制作的釣魚電子郵件
AI變身攻擊利器:降低攻擊門檻與成本
以ChatGPT為代表的大語言模型,能夠根據(jù)用戶意圖編寫代碼。在缺乏限制的情況下,這些模型可以幫助攻擊者生成、混淆攻擊代碼,并修改代碼以躲避規(guī)則檢測,極大降低了攻擊門檻。攻擊者可以更高效地與網(wǎng)絡安全公司對抗,甚至利用AI根據(jù)關鍵基礎設施的詳細信息,定制專門的網(wǎng)絡攻擊載荷。例如,伊朗黑客組織CyberAv3ngers就利用AI工具進行偵察、編碼和漏洞研究,攻擊了以色列、美國和愛爾蘭的關鍵基礎設施。
圖:伊朗黑客組織向Chatgpt提問的內(nèi)容
此外,AI系統(tǒng)還易受到“對抗性樣本” 攻擊,攻擊者通過添加微小的擾動就能使AI系統(tǒng)做出錯誤判斷。例如,攻擊者可以通過輕微修改惡意網(wǎng)絡流量的特征,使其成功繞過AI驅(qū)動的入侵檢測系統(tǒng),從而規(guī)避防護措施。同時,AI驅(qū)動的自動化攻擊工具進一步降低了攻擊門檻。黑客可以利用AI快速分析海量網(wǎng)絡流量,自動執(zhí)行漏洞掃描、密碼破解、網(wǎng)絡釣魚等攻擊行為,使攻擊更加隱蔽且高效。
AI引發(fā)隱私危機:數(shù)據(jù)收集與篡改風險劇增
在隱私與數(shù)據(jù)安全方面,AI的發(fā)展帶來了一系列棘手問題。攻擊者可以利用機器學習算法高效掃描關鍵基礎設施,精準定位安全漏洞;通過多模態(tài)模型解析圖像、視頻,從中挖掘地理位置、設備參數(shù)等元數(shù)據(jù);借助大語言模型從海量信息中提取關鍵情報,為攻擊提供支持。
在個人數(shù)據(jù)處理上,AI技術可能在用戶毫無察覺的情況下收集和使用個人信息。數(shù)據(jù)收集過程中,知情同意流程的缺失與隱私政策的模糊,進一步加劇了用戶隱私暴露的風險。更令人擔憂的是,AI技術中的生成對抗網(wǎng)絡能合成虛假數(shù)據(jù)、篡改真實內(nèi)容,而訓練過程中可能引入的數(shù)據(jù)污染和圖像篡改,也嚴重威脅了數(shù)據(jù)的準確性和安全性。在2024年,出現(xiàn)了多起AI換臉詐騙事件,這充分展示了AI隱私與數(shù)據(jù)安全風險的嚴峻性。
圖:騙子利用AI換臉騙走英國跨國企業(yè)香港分公司2億港幣
AI模型安全與倫理風險:不容忽視的隱憂
除了上述風險,AI模型本身的安全性問題同樣值得關注。模型中毒、反向工程與模型提取等攻擊手段,使得AI系統(tǒng)在面對新型或未知攻擊時表現(xiàn)不佳。此外,AI生成的虛假多媒體內(nèi)容(如深度偽造視頻)在社交媒體上迅速傳播,可能引發(fā)大規(guī)模虛假信息浪潮,對社會秩序造成沖擊。
另外,AI的倫理道德風險也日益凸顯。AI的決策過程依賴于數(shù)據(jù)和算法,缺乏人類的情感和道德判斷,可能導致與人類價值觀的沖突。例如,2024年11月,谷歌的AI聊天機器人“Gemini”因向用戶發(fā)出威脅信息而引發(fā)爭議,凸顯了AI在倫理道德方面的潛在問題。
瑞星公司表示,AI技術的發(fā)展是一把雙刃劍,在享受其帶來的便利與創(chuàng)新的同時,必須正視并積極應對這些風險。只有通過加強技術監(jiān)管、完善法律法規(guī)、提升用戶安全意識等多方面的努力,才能確保AI技術在安全的軌道上持續(xù)發(fā)展,為人類社會創(chuàng)造更大的價值。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )