三星禁止員工使用ChatGPT 生成式AI走進(jìn)企業(yè)需要把好安全關(guān)

極客網(wǎng)·人工智能5月5日 最新調(diào)查報(bào)告顯示,在部署生成式AI方面,70%以上的企業(yè)仍然處在“探索” 階段。這意味著,開(kāi)發(fā)大型語(yǔ)言模型的AI開(kāi)發(fā)商需要確保他們的產(chǎn)品具有適當(dāng)?shù)臄?shù)據(jù)安全機(jī)制,才能讓使企業(yè)用戶(hù)感到滿(mǎn)意。 

近日,三星等大型企業(yè)出于對(duì)數(shù)據(jù)安全的擔(dān)憂(yōu),開(kāi)始禁止員工使用ChatGPT等AI工具。一位分析師表示,像微軟這樣的供應(yīng)商如果希望這項(xiàng)技獲得成功,就需要設(shè)計(jì)和提供為企業(yè)量身定制的解決方案。

image001.png

三星禁止員工使用ChatGPT,生成式AI存在數(shù)據(jù)泄露風(fēng)險(xiǎn)

由于源代碼在上個(gè)月泄露,三星已經(jīng)命令該公司員工避免使用聊天GPT、必應(yīng)和谷歌的Bard等AI工具。而在此前,其他科技公司也發(fā)表了類(lèi)似的聲明,表達(dá)了對(duì)使用生成式AI的數(shù)據(jù)安全的擔(dān)憂(yōu)。 

OpenAI日前證實(shí),正在為企業(yè)用戶(hù)開(kāi)發(fā)特定版本的ChatGPT平臺(tái),該平臺(tái)默認(rèn)禁止企業(yè)用戶(hù)在ChatGPT再訓(xùn)練中使用對(duì)話(huà)。目前尚不清楚這是否足以解決大型企業(yè)客戶(hù)擔(dān)憂(yōu)的安全問(wèn)題,但這些企業(yè)的高管顯然渴望采用這項(xiàng)技術(shù)。 

根據(jù)Gartner對(duì)2500名行業(yè)高管進(jìn)行的一項(xiàng)調(diào)查,45%的受訪(fǎng)者認(rèn)為ChatGPT促進(jìn)了AI投資,70%的受訪(fǎng)者表示他們的組織正在研究部署生成式AI的方法,19%的受訪(fǎng)者已經(jīng)處于試驗(yàn)或生產(chǎn)階段。 

Gartner副總裁分析師Frances Karamouzis表示:“用戶(hù)對(duì)于采用生成式AI的癡迷并沒(méi)有減弱的跡象。很多行業(yè)組織都在爭(zhēng)先恐后地決定投入多少資金使用生成式AI解決方案,哪些產(chǎn)品值得投資,何時(shí)開(kāi)始以及如何降低這種新興技術(shù)帶來(lái)的風(fēng)險(xiǎn)?!?nbsp;

最能說(shuō)明問(wèn)題的是,68%的受訪(fǎng)者認(rèn)為生成式AI的好處大于風(fēng)險(xiǎn),只有5%的受訪(fǎng)者認(rèn)為使用這種技術(shù)的風(fēng)險(xiǎn)大于好處。

隨著對(duì)生成式AI投資的深化,以及數(shù)據(jù)安全的影響變得更加明顯,這些情況可能會(huì)發(fā)生變化,就像三星面臨的安全困境情況一樣(該公司正在建立自己的AI模型)。 

大勢(shì)所趨,避免采用生成式AI可能比部署AI更難

盡管全球經(jīng)濟(jì)放緩,科技行業(yè)大規(guī)模裁員,但只有17%的受訪(fǎng)者表示成本優(yōu)化是投資AI的主要原因,而客戶(hù)體驗(yàn)是最重要的焦點(diǎn)。

隨著微軟等公司通過(guò)Copilot在其CRM和Office 365套件中部署AI,Salesforce也在其全套產(chǎn)品中添加了聊天機(jī)器人技術(shù),避免采用生成式AI可能比部署AI更難。

Gartner副總裁兼分析師Avivah Litan表示,企業(yè)在使用公共大型語(yǔ)言模型時(shí)面臨多重風(fēng)險(xiǎn),但有一些方法可以減輕風(fēng)險(xiǎn),包括確保他們有能力自動(dòng)過(guò)濾輸出的錯(cuò)誤信息、幻覺(jué)和不需要的事實(shí)信息。 

她表示,企業(yè)還需要確保大型語(yǔ)言模型供應(yīng)商提供可驗(yàn)證的數(shù)據(jù)治理和安全保證,以確保傳輸給大型語(yǔ)言模型的企業(yè)機(jī)密信息不會(huì)受到損害。透明度方面也需要確保任何使用都符合GDPR法規(guī)和歐盟AI法案等立法。 

她解釋說(shuō):“在滿(mǎn)足這些要求之前,我們看到的是,謹(jǐn)慎的企業(yè)或者限制員工對(duì)聊天的訪(fǎng)問(wèn)權(quán)限(由于個(gè)人設(shè)備的存在,這是不可能執(zhí)行的),或者允許有節(jié)制的嘗試性使用,從而避免向大型語(yǔ)言模型發(fā)送機(jī)密數(shù)據(jù)?!?nbsp;

人們對(duì)部署生成式AI這項(xiàng)技術(shù)的興趣在于其潛在的好處,特別是從昂貴而廣泛的數(shù)據(jù)集訓(xùn)練的公共模型中獲益。Litan說(shuō),“OpenAI和第三方開(kāi)發(fā)的大型語(yǔ)言模型的巨大價(jià)值在于訓(xùn)練它們的大量數(shù)據(jù),以及運(yùn)行它們所需的巨大復(fù)雜的超級(jí)計(jì)算機(jī)功能。企業(yè)根本沒(méi)有資源來(lái)重建這些有價(jià)值的模型?!?nbsp;

對(duì)于OpenAI、微軟和任何想要部署這種技術(shù)的供應(yīng)商來(lái)說(shuō),其解決方案是通過(guò)共享安全責(zé)任協(xié)議創(chuàng)建技術(shù)工具。如果機(jī)密數(shù)據(jù)被泄露,供應(yīng)商應(yīng)該承擔(dān)責(zé)任,這也是他們前進(jìn)的方向。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )

贊助商
2023-05-05
三星禁止員工使用ChatGPT 生成式AI走進(jìn)企業(yè)需要把好安全關(guān)
據(jù)報(bào)道,三星等大型企業(yè)出于對(duì)數(shù)據(jù)安全的擔(dān)憂(yōu),開(kāi)始禁止員工使用ChatGPT等AI工具。一位分析師表示,像微軟這樣的供應(yīng)商如果希望這項(xiàng)技獲得成功,就需要設(shè)計(jì)和提供為企業(yè)量身定制的解決方案。

長(zhǎng)按掃碼 閱讀全文