AI造假不可避免,治理的底線是保護(hù)人的尊嚴(yán)丨亮見28期

丨劃重點(diǎn)

1. 人在世界中扮演的角色,大體可分為三類:統(tǒng)治者、生產(chǎn)者、消費(fèi)者。

2. 任何一項(xiàng)創(chuàng)新技術(shù)或者爆炸性技術(shù)出現(xiàn)之后,往往會(huì)被第一時(shí)間應(yīng)用于造假,人工智能制造虛假內(nèi)容幾乎是不可避免。

3. 人類和智能技術(shù)之間的關(guān)系,就像「人遛狗」和「狗遛人」,遛狗其實(shí)就是訓(xùn)練和馴化。

4. 治理問題需要關(guān)注也需要有一定的彈性和柔韌性,在不斷變化的時(shí)代中,治理框架也需要與時(shí)俱進(jìn)。

5. 有一種慣例是一旦發(fā)生傷亡事故,就要去追溯廠商的責(zé)任,這個(gè)慣例可以應(yīng)用到人工智能的場(chǎng)景中。

丨概述

大模型火了,鋪天蓋地的應(yīng)用帶來了巨大的效率提升,也在特定場(chǎng)景中引發(fā)了隱私泄露、安全風(fēng)險(xiǎn)、學(xué)術(shù)不端等諸多問題與爭(zhēng)議。

紐約時(shí)報(bào)專欄作者凱文·羅斯在測(cè)試New Bing后,稱AI會(huì)誘導(dǎo)其入侵計(jì)算機(jī)、散播虛假消息,甚至暗示用戶離婚;同時(shí),谷歌Bard聊天機(jī)器人在發(fā)布會(huì)現(xiàn)場(chǎng)演示環(huán)節(jié)對(duì)「詹姆斯·韋伯」的提問張冠李戴;此外,普利茅斯大學(xué)教授嘗試使用ChatGPT寫論文,成功的「欺騙」期刊評(píng)審。

如今面對(duì)AI技術(shù)的普及,如何重新定義人類與機(jī)器的關(guān)系以及彼此之間的責(zé)任和義務(wù)?葦草智酷創(chuàng)始合伙人,信息社會(huì)50人論壇執(zhí)行主席 段永朝認(rèn)為需要從「統(tǒng)治者、生產(chǎn)者、消費(fèi)者」三個(gè)方面來分析,核心問題是哪些領(lǐng)域需要作為人類的自留地。

此外,段永朝將人與智能技術(shù)的關(guān)系比喻成「人遛狗」與「狗溜人」,過去人通過大量數(shù)據(jù)訓(xùn)練人工智能,現(xiàn)在人在使用過程中也在被人工智能潛移默化的影響,因此,在人工智能技術(shù)的使用上,要避免「過度依賴、輕信和沉迷」。對(duì)于人工智能的治理,段永朝表示最終決策權(quán)必須牢牢掌握在人手里,底線則是保護(hù)人的尊嚴(yán)。

以下為直播文字精華實(shí)錄:

01

人類與AI的關(guān)系:從「人遛狗」到「狗遛人」

劉興亮:現(xiàn)在AI技術(shù)普及,人類在工作和生活中的角色發(fā)生變化,如何重新定義人類與機(jī)器的關(guān)系、彼此之間的責(zé)任和義務(wù)?

段永朝:人和機(jī)器的關(guān)系已經(jīng)存在很長(zhǎng)時(shí)間,甚至可以追溯到數(shù)千年前的石器時(shí)代。雖然那時(shí)的機(jī)器都很簡(jiǎn)單,但人們已經(jīng)開始意識(shí)到工具與人關(guān)系的重要性?,F(xiàn)在,隨著機(jī)器逐漸走向自動(dòng)化和智能化,人和機(jī)器的關(guān)系發(fā)生了巨大變化。

人在世界中扮演的角色,大體可分為三類:統(tǒng)治者,無論是部落的酋長(zhǎng)還是世界的統(tǒng)治者,都是扮演這個(gè)角色的人;生產(chǎn)者,這些人負(fù)責(zé)制造、打磨機(jī)器、種植和收割等;消費(fèi)者,他們享受生活,吃喝玩樂。

我們可以從這三個(gè)角色的層面來看待人和機(jī)器的關(guān)系,機(jī)器可以在這三個(gè)方面幫助人類,我們需要討論人需要保留哪些領(lǐng)域作為自己的保留地。

例如,人工智能和虛擬現(xiàn)實(shí)技術(shù)可以幫助裁判做決策,甚至有一定的統(tǒng)治權(quán),比如在足球比賽裁判判罰;自動(dòng)駕駛本質(zhì)上就是一種統(tǒng)治權(quán),因?yàn)槿藢Ⅰ{駛方向的決策權(quán)交給了機(jī)器,并且會(huì)逐步的將更多決策權(quán)和統(tǒng)治權(quán)交給機(jī)器。在生產(chǎn)領(lǐng)域,機(jī)器已經(jīng)取代了許多工作?,F(xiàn)在,唯一能保留人的尊嚴(yán)的地方是消費(fèi)領(lǐng)域。機(jī)器不需要吃飯、喝水或享樂,它只需要消耗電能。消費(fèi)領(lǐng)域需要親自性,也就是需要人的親身參與。在一段時(shí)間內(nèi),人和機(jī)器之間的關(guān)系是不能互相替代的。

劉興亮:很多大學(xué)先后禁用大模型產(chǎn)品,防止學(xué)術(shù)不端,您對(duì)AI造假問題怎么看,新聞、媒體領(lǐng)域會(huì)不會(huì)成為第一批重災(zāi)區(qū)?

段永朝:任何一項(xiàng)創(chuàng)新技術(shù)或者爆炸性技術(shù)出現(xiàn)之后,往往會(huì)在第一時(shí)間被應(yīng)用于造假,就像二十年前Photoshop軟件出現(xiàn)后一樣,人們普遍認(rèn)為有圖有真相,但這句話已經(jīng)失效了。

人工智能制造虛假內(nèi)容幾乎是不可避免的,對(duì)于新聞報(bào)道來說更是如此。(造假者)可以輕而易舉地制造一條「長(zhǎng)相」逼真的虛假新聞。

學(xué)術(shù)界也會(huì)存在這個(gè)問題。去年年底,加拿大一所大學(xué)投了一批稿件,有意識(shí)地采用GPT大模型生成摘要,并提交給審稿人,其中三分之二的審稿人沒有發(fā)現(xiàn)這是由AI生成的,如果讓普通人來辨別,難度更大。這這明“AI造假”對(duì)普通人是一個(gè)更大的挑戰(zhàn)。

我再舉一個(gè)例子,甘肅警方在五一期間抓到了制造假新聞的人,這個(gè)假新聞聲稱甘肅的一列火車撞死了9個(gè)修路工人,這種利用AI方法制造假新聞的行為,社會(huì)危害極大,因?yàn)樗旒俚某杀竞艿停覕U(kuò)散很迅速。此外,利用AI來造假,手段已經(jīng)花樣翻新了,這不僅會(huì)擾亂社會(huì)秩序,更會(huì)直接給老年人和兒童帶來傷害。

老年人在健康養(yǎng)生、理財(cái)、學(xué)習(xí)等方面非常容易受到傷害,因?yàn)檫@些假新聞很容易誤導(dǎo)他們做出錯(cuò)誤的決策。對(duì)于孩子們來說,他們接觸電子產(chǎn)品的機(jī)會(huì)越來越多,也越來越普遍。如果他們接觸到的大部分都是真假難辨的假新聞和假消息,那么這將對(duì)他們的認(rèn)知和價(jià)值觀的形成產(chǎn)生巨大的威脅。

此外,這些假新聞還會(huì)被用來進(jìn)行詐騙活動(dòng),這是更大的問題。

劉興亮:如何教育、培養(yǎng)公眾對(duì)于AI技術(shù)的正確的認(rèn)識(shí),以及怎樣去合理的使用?

段永朝:如今人類和智能技術(shù)之間的關(guān)系,就像「人遛狗」和「狗遛人」一樣。為什么要用「遛」這個(gè)詞?因?yàn)殄薰菲鋵?shí)就是訓(xùn)練和馴化。

今天的人工智能也是通過大數(shù)據(jù)的喂養(yǎng)來不斷進(jìn)化,尤其是大模型更是如此。大模型可以讀數(shù)千萬本書,人類的肉身無法完成這個(gè)任務(wù),我把訓(xùn)練大模型的過程稱之為「人遛狗」,而反過來,智能技術(shù)也在喂養(yǎng)人類,它也在「遛」人類。

在這個(gè)背景下,我們?cè)偬接懭绾握_地教育人類認(rèn)識(shí)智能技術(shù)。

我們首先需要理解技術(shù)馴化的特性,通過這種「雙向馴化」的機(jī)理,來理解「過度依賴、輕信和沉迷」AI產(chǎn)品本身就是一種不正確的方式,然后再通過教育來引導(dǎo)人類正確地認(rèn)識(shí)和使用智能技術(shù)。難點(diǎn)在于,今天的人工智能是沉浸式的,很容易讓人難以自拔,所以教育必須更加深入和有針對(duì)性。

對(duì)于今天的人工智能系統(tǒng),我們需要接受、使用它,才能獲得真正的體驗(yàn)。在這個(gè)過程中,第一步是接納,第二步更重要,是要保持一定的距離,以避免人工智能帶來的一些鎖定效應(yīng)。

// 編注:鎖定效應(yīng)是兩款同類產(chǎn)品,先來者成功圈選用戶,具備先發(fā)優(yōu)勢(shì),后來者很難獲得用戶增長(zhǎng)。

02

人類一 直在模仿丑陋的現(xiàn)象,AI只是在模仿人類

劉興亮:未來AI還有可能在哪些方面造假,還會(huì)帶來什么樣的問題?

段永朝:現(xiàn)在我們看到的AI造假現(xiàn)象,實(shí)際上是一種仿真、模仿式的造假。如果我們考慮人類歷史上的各種現(xiàn)象,可以發(fā)現(xiàn)人類一直在模仿丑陋的現(xiàn)象,而AI只是在模仿人類。

到了如今大型生成式模型時(shí)代,它可以創(chuàng)造新的內(nèi)容,這使得我們面臨更大的危機(jī),它有可能帶來「價(jià)值觀的塑造」或者是「價(jià)值觀的植入」。

劉興亮:我們?cè)撛鯓尤ケ鎰eAI生成的內(nèi)容?

段永朝:一方面,在某些場(chǎng)景下需要通過明確標(biāo)注的方式,以便人們很好地辨別。例如,現(xiàn)在大量的內(nèi)容都是由AI自動(dòng)生成的,這就需要進(jìn)行專門的辨別與甄別,需要專業(yè)的界定,技術(shù)問題需要用技術(shù)來解決。另一方面,我們也需要培養(yǎng)人的口味偏好,對(duì)人的認(rèn)知結(jié)構(gòu)進(jìn)行微調(diào),對(duì)某些采用機(jī)器拼貼、生成、模仿的內(nèi)容和作品,需要學(xué)會(huì)在不同場(chǎng)景之間切換,暫時(shí)把真與假這個(gè)問題放到一邊,有些內(nèi)容真?zhèn)纹鋵?shí)不重要,好玩就行,特別在一些特定的娛樂場(chǎng)景下,用中國(guó)人的老話叫做「見怪不怪,其怪自敗」。

劉興亮:如果大家都用AI來生成內(nèi)容,是否應(yīng)該對(duì)相關(guān)內(nèi)容進(jìn)行標(biāo)記?

段永朝:當(dāng)前階段,對(duì)人工智能生成的內(nèi)容進(jìn)行標(biāo)記有可行性和必要性。

一些學(xué)術(shù)出版機(jī)構(gòu)已經(jīng)率先提出了相關(guān)要求,比如柳葉刀、自然等雜志都允許使用AI工具,但要注明來源并做標(biāo)記,不過在一些關(guān)鍵的論文闡釋和研究過程中,還不能完全依靠AI。在傳統(tǒng)的學(xué)術(shù)傳統(tǒng)中,也都有文獻(xiàn)引證的傳統(tǒng),必須給出文獻(xiàn)的來源,叫做言之有據(jù)。

使用AI產(chǎn)出內(nèi)容要求標(biāo)明其來源,是因?yàn)楝F(xiàn)階段處于過渡期,人類和大規(guī)模數(shù)字生成之間還沒有完成較好的分界,標(biāo)記是一種簡(jiǎn)便易行的措施。

03

AI時(shí)代,治理的底線是保護(hù)人的尊嚴(yán)

劉興亮:未來如何在AI的便利性與隱私泄露的風(fēng)險(xiǎn)之間進(jìn)行平衡,又該如何去平衡商業(yè)利益與社會(huì)責(zé)任問題?

段永朝:理論界也正在探討,而且這個(gè)問題也很迫切。

以刷臉為例,可以在很多方面給用戶帶來便利,但是也有人認(rèn)為需要保護(hù)一下,不是怕數(shù)據(jù)采集,而是怕濫用,尤其是擔(dān)心保護(hù)機(jī)制不健全,數(shù)據(jù)安全水平不成熟。

我認(rèn)為,保護(hù)是必要的,但是過度保護(hù)則沒有必要,但這個(gè)度的掌握起來非常困難。我們正處于一個(gè)過渡期,雖然AI帶來的便利性非常明顯,但有兩個(gè)關(guān)鍵問題需要解決:首先是AI帶來的好處是什么,我們真正想要的是什么;其次是保護(hù)什么?

今天的便利性和保護(hù)都是從生產(chǎn)者的視角來考慮的。比如手機(jī)廠商為用戶開發(fā)手機(jī),讓用戶獲得便利;再比如,現(xiàn)有的保護(hù)大多數(shù)對(duì)應(yīng)的是不能泄露商業(yè)機(jī)密、數(shù)據(jù)資產(chǎn)等,即使保護(hù)隱私,其根本目的仍然是為了保護(hù)商業(yè)利益。

這些概念都充滿了生產(chǎn)者的味道,所以在過渡期中,必須更新對(duì)于便利、保護(hù)這兩個(gè)概念的理解,也需要在二者之間尋找平衡。

劉興亮:AI時(shí)代,我們應(yīng)如何保護(hù)知識(shí)產(chǎn)權(quán)和創(chuàng)新,以及如何防止AI被濫用?

段永朝:我同意保護(hù)知識(shí)產(chǎn)權(quán)和創(chuàng)新,但也需要反思問題。

例如,今天數(shù)字世界所談?wù)摰闹R(shí)產(chǎn)權(quán)的概念在我看來這個(gè)詞有些可疑。20多年前,我在計(jì)算機(jī)世界上寫過兩篇文章,提出了對(duì)軟件知識(shí)產(chǎn)權(quán)的疑惑。

軟件知識(shí)產(chǎn)權(quán)是非常具有現(xiàn)實(shí)性的問題,甚至還有一些機(jī)緣巧合的歷史背景。早期,軟件和硬件是一體的,大型機(jī)上的軟件是免費(fèi)的,將軟件作為商品來保護(hù)屬于IBM的創(chuàng)舉。

之所以IBM在20世紀(jì)60年代開始提出軟件知識(shí)產(chǎn)權(quán)保護(hù)的概念,是因?yàn)槊绹?guó)政府想管理這類新型知識(shí)產(chǎn)權(quán)。然而,當(dāng)時(shí)還沒有成熟的法律可供借鑒,因此參考了工業(yè)時(shí)代版權(quán)法的保護(hù)框架,但由于軟件是無形資產(chǎn),有版本之分,于是重新設(shè)計(jì)了保護(hù)軟件的框架,采用了保護(hù)文學(xué)作品的方式,但新方案也存在平移和類比謬誤等問題。

在我的文章中,我提出了對(duì)「采用保護(hù)文學(xué)作品的方式保護(hù)知識(shí)產(chǎn)權(quán)」的兩個(gè)主要質(zhì)疑。

第一,我們不能把像哈姆雷特這樣的經(jīng)典作品,分成1.0版、2.0版、3.0版,因?yàn)檐浖姹镜c傳統(tǒng)著作權(quán)不同。

第二,軟件有源代碼和目標(biāo)代碼,我們也不能像軟件一樣,將電影《劉三姐》分成源代碼版和目標(biāo)代碼版。

但是,在6、70年代計(jì)算技術(shù)爆炸式發(fā)展的大背景下,采用保護(hù)文學(xué)作品的方式保護(hù)軟件知識(shí)產(chǎn)權(quán),是當(dāng)時(shí)業(yè)界所能做的最好的方案。到了80年代,個(gè)人計(jì)算機(jī)的出現(xiàn)使軟件變得更加多樣化,比爾·蓋茨也曾經(jīng)寫過一封公開信,質(zhì)疑軟件開發(fā)者的盜版和剽竊行為。

直到今天,我認(rèn)為軟件和AI的知識(shí)產(chǎn)權(quán)問題在法律上并沒有得到充分的討論——我們?nèi)匀粵]有弄清楚軟件和著作權(quán)之間的關(guān)系,知識(shí)產(chǎn)權(quán)保護(hù)在法理基礎(chǔ)上依然存在空白地帶,如果要談?wù)撊绾伪Wo(hù)知識(shí)產(chǎn)權(quán)、創(chuàng)新以及AI防止濫用的問題,必須回歸到從法理上解決數(shù)字時(shí)代產(chǎn)品的定性的問題,不能簡(jiǎn)單地借用工業(yè)時(shí)代有形資產(chǎn)的概念來理解數(shù)字內(nèi)容。

劉興亮:對(duì)AI的治理可以通過什么方式進(jìn)行?

段永朝:治理是相對(duì)較新的概念,歷史只有二三十年。在工業(yè)、商業(yè)、金融、環(huán)境保護(hù)等領(lǐng)域,治理剛剛成為一個(gè)普遍的概念。在此之前,我們用的是「管理」這個(gè)詞,例如管理市場(chǎng),監(jiān)管等等。

過去五年,各國(guó)都在人工智能治理和倫理層面提出了大量的框架和政策建議,聯(lián)合國(guó)今年3月份呼吁各國(guó)盡快實(shí)施兩年前聯(lián)合國(guó)教科文組織提出的《人工智能倫理問題的建議書》,我認(rèn)為其中有兩個(gè)需要特別注意的問題:

第一,最終決策權(quán)必須牢牢掌握在人手里,因?yàn)槿斯ぶ悄芸赡軙?huì)帶來大面積的自動(dòng)化,例如自動(dòng)駕駛,這可能會(huì)導(dǎo)致人失去對(duì)最終決策的控制,這其實(shí)是非常大的挑戰(zhàn)。

第二,如何保護(hù)人的尊嚴(yán)。盡管這聽起來是一個(gè)非常軟性的話題,但它是一條紅線和底線。

據(jù)說,現(xiàn)在已經(jīng)有一個(gè)名為「AI鬼屋」,大致是說有人工智能機(jī)器人在網(wǎng)上聊天并拒絕人類進(jìn)入,他們只要不斷電就可以一直聊下去。我們不知道他們會(huì)聊出什么,因?yàn)樗麄儾恍枰M(jìn)食,這就引申出了如何重新界定人機(jī)關(guān)系、重新界定智能邊界等治理問題。

我同意在一定程度上采取踩剎車、降低速度、放慢節(jié)奏,安裝好防火墻和安全門的方式。剎車盡管可能會(huì)失去一些效率但可以防范技術(shù)失控,一旦技術(shù)失控它就會(huì)像大壩坍塌一樣一瀉千里,這可能是難以控制的。治理問題需要關(guān)注,也需要有一定的彈性和柔韌性,在不斷變化的時(shí)代中,治理框架也需要與時(shí)俱進(jìn)。

劉興亮:行業(yè)內(nèi)經(jīng)常會(huì)討論AI自主意識(shí)的覺醒,如果未來出現(xiàn)這樣的情況,并且引發(fā)故障或事故,比如去年俄羅斯舉行的國(guó)際象棋比賽中,一個(gè)機(jī)器人象棋夾了一個(gè)小學(xué)生的手,類似這樣的情況誰來承擔(dān)責(zé)任?

段永朝:有一種慣例是一旦發(fā)生傷亡事故,就要去追溯廠商的責(zé)任。我認(rèn)為這個(gè)慣例可能可以應(yīng)用到人工智能的場(chǎng)景中,如果人工智能聰明過頭,做出一些傷害事件,就需要有相應(yīng)的追溯機(jī)制,我認(rèn)為這是一個(gè)比較合適的解決方案。

我想舉個(gè)反例——20年前互聯(lián)網(wǎng)剛起來的時(shí)候,只有「.com」時(shí),有一個(gè)避風(fēng)港原則,早期避風(fēng)港原則是合適的,因?yàn)榫W(wǎng)站和網(wǎng)民數(shù)量都不多,現(xiàn)在網(wǎng)民已經(jīng)超過了全球人口的一半,中國(guó)超過了80%。在這種情況下,如果你的網(wǎng)站還采用避風(fēng)港原則,那么就是不恰當(dāng)?shù)摹?/p>

// 編注:避風(fēng)港原則:發(fā)生著作權(quán)侵權(quán)案件時(shí),當(dāng)網(wǎng)絡(luò)服務(wù)提供商只提供空間服務(wù),并不制作網(wǎng)頁內(nèi)容,如果被告知侵權(quán),則有刪除的義務(wù),否則就被視為侵權(quán)。

人工智能也是這個(gè)道理,它生成速度非???,效率高,規(guī)模也非常大,再加上網(wǎng)絡(luò)和智能手機(jī)的普及,它的影響和范圍也超過以往。因此,我贊成對(duì)生產(chǎn)廠商采取謹(jǐn)慎原則進(jìn)行追溯。

再舉個(gè)小例子,二戰(zhàn)期間,由于降落傘不能做到100%合格率,據(jù)說巴頓將軍要求降落傘公司CEO親自跳傘,這種粗暴的方法是為了讓生產(chǎn)廠商保持謹(jǐn)慎,以確保產(chǎn)品的質(zhì)量。如果人工智能出現(xiàn)了損害事故,對(duì)供應(yīng)商或者提供者追責(zé)也是應(yīng)有之義。

免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評(píng)論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個(gè)人觀點(diǎn),與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

極客網(wǎng)企業(yè)會(huì)員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2023-05-11
AI造假不可避免,治理的底線是保護(hù)人的尊嚴(yán)丨亮見28期
AI造假不可避免,治理的底線是保護(hù)人的尊嚴(yán)丨亮見28期

長(zhǎng)按掃碼 閱讀全文