從數(shù)據(jù)到生成式AI,是該重新思考風(fēng)險(xiǎn)的時(shí)候了

科技云報(bào)道原創(chuàng)。

OpenAI“宮斗”大戲即將塵埃落定。

自首席執(zhí)行官Sam Altman突然被董事會(huì)宣布遭解雇、董事長(zhǎng)兼總裁Greg Brockman辭職;緊接著OpenAI員工以辭職威脅董事會(huì)要求Altman回歸;再到OpenAI董事會(huì)更換成員、Altman回歸OpenAI。

表面上看,這似乎是一場(chǎng)針對(duì)一家獨(dú)領(lǐng)風(fēng)騷的技術(shù)初創(chuàng)公司控制權(quán)的爭(zhēng)奪戰(zhàn),但從種種跡象來(lái)看,此次“宮斗”的導(dǎo)火索,更多應(yīng)源自對(duì)AI未來(lái)發(fā)展理念的分歧:一派扛著“加速主義”旗幟,希望AI在技術(shù)精英的帶領(lǐng)下加速前進(jìn)改造世界;另一邊則是以利他主義理論為根基、力求讓AI在人類(lèi)控制下發(fā)展的保守派別。

從創(chuàng)造栩栩如生的藝術(shù)到如同真人般的精度模仿人類(lèi)語(yǔ)言,生成式AI正在改寫(xiě)創(chuàng)新和自動(dòng)化的規(guī)則。

AI大模型訓(xùn)練的高耗能、AI對(duì)語(yǔ)言情感和倫理道德的把握程度、AI對(duì)假消息和公眾輿論的操縱、生成式AI在人類(lèi)創(chuàng)新創(chuàng)造中的角色……在生成式AI加速奔跑的今天,有些問(wèn)題依然值得我們細(xì)細(xì)思考。

AI大模型成下一個(gè) 安全新戰(zhàn)場(chǎng)

今年三月,三星電子剛剛在企業(yè)內(nèi)部引入ChatGPT服務(wù)不久,就發(fā)生了三起機(jī)密數(shù)據(jù)泄露事件。部分員工將涉及半導(dǎo)體生產(chǎn)的機(jī)密代碼與內(nèi)部會(huì)議信息輸入ChatGPT端口,導(dǎo)致這些敏感資料被上傳至美國(guó)服務(wù)器,極可能已經(jīng)泄漏。事件發(fā)生后,三星迅速采取措施約束員工使用ChatGPT的場(chǎng)景和行為,也引發(fā)了行業(yè)對(duì)于這類(lèi)大模型技術(shù)帶來(lái)的數(shù)據(jù)隱私和安全問(wèn)題的討論。

客觀(guān)而言,在互聯(lián)網(wǎng)時(shí)代,任何向云端上傳數(shù)據(jù)的行為都具有潛在的安全風(fēng)險(xiǎn)。云計(jì)算剛剛興起的時(shí)代,就有很多企業(yè)擔(dān)憂(yōu)敏感數(shù)據(jù)被云服務(wù)商泄露,拒絕將其上傳至云端。

時(shí)至今日,仍有大批企業(yè)在本地存儲(chǔ)隱私數(shù)據(jù)來(lái)增強(qiáng)安全性,云服務(wù)商仍然沒(méi)有完全贏得企業(yè)的信任。

而生成式AI的熱潮則令這一問(wèn)題雪上加霜。一方面,由于大模型訓(xùn)練、運(yùn)營(yíng)所需的成本極為高昂,極少有企業(yè)能夠負(fù)擔(dān)巨大的投資而在本地建設(shè)自有大模型服務(wù)。

另一方面,由云服務(wù)商提供的大模型服務(wù)在訓(xùn)練和交互時(shí)需要海量數(shù)據(jù),尤其是特定領(lǐng)域的數(shù)據(jù)。大模型掌握的領(lǐng)域數(shù)據(jù)越多,特別是與企業(yè)研發(fā)、運(yùn)營(yíng)相關(guān)的數(shù)據(jù)越多,輸出的效果往往越令人滿(mǎn)意。

例如,企業(yè)開(kāi)發(fā)人員使用AI代碼輔助生成工具時(shí),一般需要上傳企業(yè)已有的代碼庫(kù),使大模型給出更精準(zhǔn)的代碼預(yù)測(cè)結(jié)果;企業(yè)營(yíng)銷(xiāo)人員將過(guò)往的營(yíng)銷(xiāo)材料輸入大模型,就可以自動(dòng)生成高質(zhì)量的營(yíng)銷(xiāo)內(nèi)容,提升工作效率。

為此,企業(yè)和研究機(jī)構(gòu)往往會(huì)收集包括用戶(hù)生成內(nèi)容的文本、圖像等數(shù)據(jù),這些原始訓(xùn)練數(shù)據(jù)中可能含有用戶(hù)的敏感隱私信息。

如果數(shù)據(jù)采集不當(dāng)、存在偏見(jiàn)或標(biāo)簽錯(cuò)誤、數(shù)據(jù)被投毒,都有可能導(dǎo)致大模型產(chǎn)生錯(cuò)誤輸出、存在歧視或其他負(fù)面影響,同時(shí)數(shù)據(jù)在應(yīng)用的過(guò)程中,也要面臨數(shù)據(jù)泄露、隱私曝光等風(fēng)險(xiǎn),這既存在法律風(fēng)險(xiǎn),也會(huì)引發(fā)公眾對(duì)AI的信任危機(jī)。

另外,提供大模型服務(wù)的云廠(chǎng)商一般會(huì)同時(shí)服務(wù)眾多客戶(hù),而大模型在獲得各個(gè)企業(yè)的數(shù)據(jù)后,如何將這些數(shù)據(jù)充分隔離在每個(gè)客戶(hù)的服務(wù)范圍之內(nèi),就成為了困擾云廠(chǎng)商與企業(yè)的一大難題。

一旦數(shù)據(jù)的隔離失敗,從甲客戶(hù)獲得的數(shù)據(jù)就可能被用在對(duì)乙客戶(hù)給出的交互回答中,造成數(shù)據(jù)泄露。

如果企業(yè)上傳的大量隱私機(jī)密數(shù)據(jù)未能得到充分保護(hù),惡意攻擊者或者云廠(chǎng)商內(nèi)部的惡意人士就可能利用軟件漏洞或職權(quán)獲取這些信息,攫取不當(dāng)利益的同時(shí),也對(duì)企業(yè)造成了無(wú)可估量的傷害。

考慮到大模型所需的訓(xùn)練和交互數(shù)據(jù)數(shù)量龐大,遠(yuǎn)遠(yuǎn)超過(guò)以往企業(yè)上傳到云端的規(guī)模,這種風(fēng)險(xiǎn)相比過(guò)去也有數(shù)量級(jí)的增長(zhǎng)。

目前,生成式AI已經(jīng)展現(xiàn)前所未有的智能化水平,由此將占據(jù)企業(yè)的IT關(guān)鍵位置,而就此重要性帶來(lái)的受攻擊頻度,也將使得生成式AI成為云計(jì)算、大數(shù)據(jù)、物聯(lián)網(wǎng)、移動(dòng)互聯(lián)網(wǎng)之后的一個(gè)全新的安全戰(zhàn)場(chǎng)。

與此同時(shí),大模型技術(shù)也將會(huì)在多個(gè)方面幫助提升網(wǎng)絡(luò)安全運(yùn)維效率,在更深層次改變網(wǎng)絡(luò)安全格局的基礎(chǔ)。

有些人士還認(rèn)為,生成式AI將進(jìn)一步擴(kuò)大貧困差距,加深數(shù)字鴻溝。生成式AI作為新興的AI技術(shù),需要基于大量的數(shù)據(jù)與巨大的計(jì)算能力,這就意味著生成式AI只能在技術(shù)先進(jìn)的國(guó)家和地區(qū)普及開(kāi)來(lái),并被少數(shù)經(jīng)濟(jì)體所掌控。

數(shù)字貧困差距進(jìn)一步擴(kuò)大,科技弱勢(shì)地區(qū)的話(huà)語(yǔ)權(quán)被忽視,其潛在的風(fēng)險(xiǎn)就是發(fā)達(dá)經(jīng)濟(jì)體的價(jià)值觀(guān)廣泛傳播,數(shù)字鴻溝也會(huì)不可逆地加深。

用技術(shù)對(duì)抗技術(shù)用魔法打敗魔法

隨著大模型時(shí)代的到來(lái),其強(qiáng)大能力也為安全防護(hù)技術(shù)的變革提供了新的思路?!坝肁I的力量來(lái)對(duì)抗AI”已經(jīng)成為一個(gè)熱點(diǎn)方向。

事實(shí)上,對(duì)抗攻防思路并不是模型安全的專(zhuān)屬。早在上個(gè)十年,面對(duì)種種安全威脅,人工智能領(lǐng)域就逐步形成了“以攻測(cè)防——以攻促防——攻防一體化”的安全理念,通過(guò)模擬各類(lèi)攻擊場(chǎng)景,不斷探索模型和系統(tǒng)的弱點(diǎn),以此推動(dòng)算法和工程端的防御能力加強(qiáng)。

只不過(guò),以往安全防護(hù)主要依賴(lài)機(jī)器學(xué)習(xí)算法模型,這需要大量專(zhuān)業(yè)數(shù)據(jù)知識(shí)積累,且面臨知識(shí)盲區(qū)和小樣本冷啟動(dòng)不及時(shí)的問(wèn)題。利用大模型技術(shù),可以實(shí)現(xiàn)更智能化的安全防控。

當(dāng)前,生成式AI面臨的安全問(wèn)題可以分為三級(jí)。初級(jí)問(wèn)題是技術(shù)攻擊問(wèn)題,也就是網(wǎng)絡(luò)攻擊、漏洞攻擊、數(shù)據(jù)攻擊問(wèn)題,特別是提供給大模型不好的數(shù)據(jù)或污染它的訓(xùn)練數(shù)據(jù),可能會(huì)導(dǎo)致結(jié)果出錯(cuò)。這類(lèi)問(wèn)題相對(duì)比較好解決。

比較難解決的是中級(jí)問(wèn)題,主要涉及內(nèi)容安全。例如大模型可以成為人們很好的幫手,也能成為壞人的工具。它可以幫一個(gè)水平不怎么樣的黑客寫(xiě)更好的攻擊代碼、詐騙郵件。

如何讓它的內(nèi)容更加可控?如何防止AI大模型不作惡?這已經(jīng)超越了技術(shù)范疇。盡管現(xiàn)在有人為大模型做了內(nèi)置的所謂“安全護(hù)欄”,但它很容易遭到注入攻擊或算法攻擊。

從高級(jí)問(wèn)題來(lái)看,大模型可以把人類(lèi)所有知識(shí)融會(huì)貫通,再來(lái)和人類(lèi)做交流、做提示。但當(dāng)AI的能力超越人類(lèi)后,還能不能甘于做人類(lèi)的工具,這些技術(shù)帶來(lái)的挑戰(zhàn)最終還要靠技術(shù)來(lái)解決,技術(shù)自身會(huì)不斷進(jìn)化,不能因?yàn)槲磥?lái)還沒(méi)有發(fā)生的問(wèn)題就不發(fā)展相關(guān)技術(shù)。

從產(chǎn)業(yè)界現(xiàn)狀來(lái)看,AI安全與否如何評(píng)測(cè),目前尚缺乏一套易用和標(biāo)準(zhǔn)化的評(píng)測(cè)工具和規(guī)則。

這也是大模型防御中能夠補(bǔ)充的另一方面,通過(guò)大模型技術(shù)學(xué)習(xí)風(fēng)險(xiǎn)知識(shí)和標(biāo)準(zhǔn)規(guī)則來(lái)提升AI對(duì)于風(fēng)險(xiǎn)的認(rèn)知理解能力,以實(shí)現(xiàn)用大模型對(duì)抗大模型來(lái)進(jìn)行極速防御和快速冷啟動(dòng)的目的。

面對(duì)大模型下的網(wǎng)絡(luò)安全挑戰(zhàn),需要企業(yè)、安全團(tuán)隊(duì)和監(jiān)管機(jī)構(gòu)等共同努力來(lái)應(yīng)對(duì)。

首先,加強(qiáng)大模型的訓(xùn)練和管理。通過(guò)采用更加有效的數(shù)據(jù)增強(qiáng)和處理技術(shù),減少大模型的過(guò)擬合和梯度爆炸等問(wèn)題,提高模型的魯棒性和可靠性。同時(shí),對(duì)大模型的訓(xùn)練和管理也需要加強(qiáng)監(jiān)管和審計(jì),確保數(shù)據(jù)的隱私和安全。

其次,研發(fā)新型安全防御技術(shù)。針對(duì)大模型的攻擊手段不斷變化和更新,需要研發(fā)新型的安全防御技術(shù)來(lái)應(yīng)對(duì)。例如,可以利用人工智能技術(shù)來(lái)檢測(cè)和防御惡意代碼和網(wǎng)絡(luò)釣魚(yú)攻擊等。

以文本安全為例,大模型可以基于安全標(biāo)準(zhǔn)規(guī)則、風(fēng)險(xiǎn)領(lǐng)域知識(shí)和歷史風(fēng)險(xiǎn)樣本進(jìn)行訓(xùn)練,提升模型對(duì)于風(fēng)險(xiǎn)標(biāo)準(zhǔn)和內(nèi)容的理解力,從而實(shí)現(xiàn)對(duì)風(fēng)險(xiǎn)檢測(cè)能力的提升。

也采用大模型生成能力結(jié)合安全知識(shí)圖譜,來(lái)構(gòu)造攻擊樣本持續(xù)迭代優(yōu)化檢測(cè)模型。

第三,強(qiáng)化數(shù)據(jù)安全保護(hù)。除了要關(guān)注大模型在互聯(lián)網(wǎng)上的攻防對(duì)抗,大模型本身的安全和隱私問(wèn)題同樣引發(fā)了擔(dān)憂(yōu)。

針對(duì)大模型的訓(xùn)練和使用過(guò)程中可能存在的數(shù)據(jù)安全問(wèn)題,需要采取一系列的隱私保護(hù)技術(shù)。例如,使用同態(tài)加密、差分隱私、安全多方計(jì)算、模型水印和指紋等多種技術(shù)來(lái)保護(hù)數(shù)據(jù)的隱私和安全。

第四,加強(qiáng)監(jiān)管和法律保護(hù)。技術(shù)立法往往落后于技術(shù)發(fā)展的步伐,缺少法規(guī)和條例的引導(dǎo)和規(guī)制,越來(lái)越多使用生成式AI的公司發(fā)現(xiàn)其系統(tǒng)運(yùn)行的安全性受到很大挑戰(zhàn)。

面對(duì)大模型下的網(wǎng)絡(luò)安全挑戰(zhàn),也需要監(jiān)管機(jī)構(gòu)和法律機(jī)構(gòu)加強(qiáng)管理和監(jiān)管。例如,政府監(jiān)管機(jī)構(gòu)要通過(guò)政策立法對(duì)生成式AI的設(shè)計(jì)、演進(jìn)進(jìn)行有效引導(dǎo)、統(tǒng)籌管理。

制定的政策框架需要與各國(guó)的立法和監(jiān)管背景保持一致,并且要隨AI技術(shù)更迭而更新,不斷提高現(xiàn)有法規(guī)的適用度。在監(jiān)管的同時(shí)給予AI創(chuàng)新的自由度,協(xié)同創(chuàng)造出更高質(zhì)量的內(nèi)容。

生成式AI是非常復(fù)雜的問(wèn)題,倫理、數(shù)據(jù)、訓(xùn)練等領(lǐng)域的復(fù)雜度都是前所未有的,是一個(gè)新領(lǐng)域,也是擺在所有人面前的一個(gè)命題。

從科技企業(yè)的發(fā)展史看,在新技術(shù)發(fā)展的前期,不同路線(xiàn)、理念的參與者往往能夠團(tuán)結(jié)協(xié)作,共同為了科技普及而合作前進(jìn)。

但當(dāng)科技普及已經(jīng)發(fā)生,關(guān)于商業(yè)化、實(shí)現(xiàn)路徑的種種理念差異,卻可能走上不同的道路。在AI普及和深度應(yīng)用的前夜里,或許,關(guān)于未來(lái)技術(shù)應(yīng)該如何普及、如何監(jiān)管的理念與路徑之爭(zhēng),才剛剛拉開(kāi)帷幕。

面對(duì)未來(lái)的安全發(fā)展趨勢(shì)和挑戰(zhàn),企業(yè)更應(yīng)該攜起手來(lái),共同建立可度量的安全體系,為應(yīng)對(duì)智能化時(shí)代的攻防新趨勢(shì),打造內(nèi)在自適應(yīng)的“安全免疫力”。

【關(guān)于科技云報(bào)道】

專(zhuān)注于原創(chuàng)的企業(yè)級(jí)內(nèi)容行家——科技云報(bào)道。成立于2015年,是前沿企業(yè)級(jí)IT領(lǐng)域Top10媒體。獲工信部權(quán)威認(rèn)可,可信云、全球云計(jì)算大會(huì)官方指定傳播媒體之一。深入原創(chuàng)報(bào)道云計(jì)算、大數(shù)據(jù)、人工智能、區(qū)塊鏈等領(lǐng)域。

免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀(guān)察或評(píng)論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個(gè)人觀(guān)點(diǎn),與極客網(wǎng)無(wú)關(guān)。文章僅供讀者參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

極客網(wǎng)企業(yè)會(huì)員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

2023-12-13
從數(shù)據(jù)到生成式AI,是該重新思考風(fēng)險(xiǎn)的時(shí)候了
科技云報(bào)道原創(chuàng)。OpenAI“宮斗”大戲即將塵埃落定。自首席執(zhí)行官Sam Altman突然被董事會(huì)宣布遭解雇、董事長(zhǎng)兼總裁Greg Brockman辭職;緊...

長(zhǎng)按掃碼 閱讀全文