人工智能:一個虛假的上帝

科技界對超級智能的真實威脅在于陷入炒作

在亞瑟·C·克拉克著名的短篇小說《神的九十億個名字》中,西藏的一群僧侶相信人類有一個神圣的目的:書寫上帝的萬千名字。他們認為,一旦清單完成,祂就會讓宇宙終結(jié)。在幾個世紀以來手動書寫之后,僧侶們決定采用一些現(xiàn)代技術(shù)。兩位持懷疑態(tài)度的工程師帶著強大的計算機抵達喜馬拉雅山。書寫上帝名字的所有排列組合原本需要 15,000 年,但借助計算機,這項工作在三個月內(nèi)完成。在工程師們騎著小馬下山時,克拉克的這篇故事以文學史上最簡潔的結(jié)尾之一結(jié)束:“頭頂上,在沒有任何喧囂中,群星暗淡了下來?!?/p>

這是一種將計算機描繪成通往客觀性或終極意義的捷徑的意象——而這恰好也是,至少部分地,激發(fā)人們對人工智能著迷的部分原因。雖然支撐人工智能的技術(shù)已經(jīng)存在了一段時間,但直到 2022 年末 OpenAI 的 ChatGPT 出現(xiàn),這種接近智能的技術(shù)才似乎變得更加接近。在微軟加拿大公司 2023 年的一份報告中,總裁克里斯·巴里宣稱“人工智能時代已經(jīng)到來,開啟了一波變革浪潮,可能觸及我們生活的方方面面”,并且“這不僅是一項技術(shù)進步;這是一場將我們推向以創(chuàng)新為中心的未來的社會變革”。這是比較冷靜的反應之一。藝術(shù)家和作家驚慌失措,認為自己會被淘汰,政府爭先恐后地迎頭趕上并進行監(jiān)管,學者們激烈爭論。

企業(yè)急于登上炒作列車。包括微軟、Meta 和 Alphabet 在內(nèi)的全球最大一些公司都全力支持人工智能。除了科技巨頭投入的數(shù)十億美元外,2023 年人工智能初創(chuàng)公司的融資額接近 500 億美元(美元)。在 4 月份斯坦福大學舉行的一次活動中,OpenAI 首席執(zhí)行官薩姆·奧特曼表示,他并不關(guān)心公司每年在人工智能上花費 500 億美元。他的愿景的一部分是創(chuàng)造一種超級助手,一種“超級稱職的同事,它能了解我整個生活、每封電子郵件、我進行過的每一次對話的方方面面,但卻不像是一個延伸部分”。

但還有一種深入的信念,認為人工智能代表著一種威脅。哲學家尼克·博斯特羅姆是主張人工智能構(gòu)成人類生存風險的最杰出人物之一。正如他在 2014 年出版的著作《超級智能:道路、危險、策略》中所闡述的,如果“我們構(gòu)建了在通用智能方面超越人類大腦的機器大腦,……我們這個物種的命運將取決于機器超級智能的行為”。這里經(jīng)典的故事是人工智能系統(tǒng),其唯一——看似無害的——目標是制造紙夾。根據(jù)博斯特羅姆的說法,該系統(tǒng)會很快意識到人類是這項任務的障礙,因為他們可能會關(guān)閉機器。他們還可能耗盡制造更多紙夾所需的資源。這就是人工智能末日論者所說的“控制問題”的一個例子:擔心我們將失去對人工智能的控制,因為我們構(gòu)建的任何防御措施都將被領(lǐng)先我們數(shù)百萬步的智能所瓦解。

在事實上,在我們確實向我們的技術(shù)霸主讓步更多之前,值得回顧一下 20 世紀 90 年代中期和萬維網(wǎng)的興起。這也伴隨著對一個新的烏托邦的深刻斷言,一個相連的世界,在這個世界中,邊界、差異和貧困將終結(jié)。如今,你很難辯稱互聯(lián)網(wǎng)是某種毫無問題的良藥?;孟氪_實實現(xiàn)了;我們可以將全世界的知識裝進口袋。這只是產(chǎn)生了一種相當奇怪的效果,讓人們有點瘋狂,助長了不滿和兩極分化,幫助極右翼重新崛起,并破壞了民主和真理。并不是說人們應該簡單地抵制技術(shù);畢竟,它也可以產(chǎn)生解放效應。相反,當大型科技公司帶著禮物而來時,你可能應該仔細看看盒子里是什么。

我們目前所說的人工智能主要集中在 LLM,或大型語言模型。這些模型被輸入大量的數(shù)據(jù)集——ChatGPT 本質(zhì)上吸收了整個公共互聯(lián)網(wǎng)——并訓練找出其中的模式。意義單元,例如單詞、單詞的部分和字符,變成標記并被賦予數(shù)值。模型學會了標記與其他標記之間的關(guān)系,并且隨著時間的推移,學會了一些類似于上下文的東西:一個單詞可能出現(xiàn)在哪里、以什么順序出現(xiàn)等等。

這本身聽起來并不令人印象深刻。但當我不久前要求 ChatGPT 寫一個關(guān)于一個憂傷的云朵的故事時,結(jié)果出人意料地人性化。聊天機器人不僅制作了兒童寓言的各種組成部分,還加入了一個弧線,最終,“云朵”尼布斯在天空的一角找到了一個角落,并與晴朗的一天和解了。你可能不會稱這個故事好,但它肯定會讓我五歲的侄子感到開心。

威斯康星州貝洛伊特學院認知科學教授兼系主任羅賓·澤布羅斯基這樣解釋了我察覺到的這種人性:“我們唯一真正遇到過的真正語言性事物是有思想的事物。因此,當我們遇到一些看起來像以我們說話的方式說語言的東西時,我們所有的先驗都會被拉進來,我們認為,'哦,這顯然是有思想的東西'?!?/p>

這就是幾十年來檢驗技術(shù)是否接近智能的標準測試是圖靈測試的原因,該測試以其創(chuàng)造者、英國數(shù)學家和第二次世界大戰(zhàn)破譯密碼高手艾倫·圖靈命名。該測試涉及一名人類審問者,他通過基于文本的信息向兩個看不見的受試者——一臺計算機和另一個人類——提出問題,以確定哪一個是機器。許多不同的人擔任審問者和回答者,如果足夠比例的采訪者被愚弄,則可以說該機器表現(xiàn)出智能。在某些情況下,ChatGPT 已經(jīng)能夠欺騙至少一些人。

此類測試表明,我們的智能概念與語言的聯(lián)系有多么緊密。我們傾向于認為“會說語言”的存在是聰明的:我們驚嘆于似乎理解更復雜命令的狗,或能夠用手語交流的大猩猩,恰恰是因為它使我們更接近我們的使世界變得有感覺的機制。

但是,能夠說語言卻不思考、感覺、愿意或存在可能是人工智能聊天機器人所寫的文字如此沒有生氣和通用的原因。由于 LLM 本質(zhì)上是在查看大量的數(shù)據(jù)模式并分析它們之間的關(guān)系,因此它們通常可以吐出聽起來完全合理但錯誤或荒謬或只是奇怪的陳述。將語言簡化為僅收集數(shù)據(jù)也是,例如,當我在 ChatGPT 中要求它為我撰寫一份生物時,它告訴我我出生在印度,就讀于卡爾頓大學,并獲得新聞學學位——這三個方面的信息都是錯誤的(在英國、約克大學和英語)。對于 ChatGPT 來說,更重要的是答案的形狀,表達得充滿自信,而不是內(nèi)容,正確的模式比正確的反應更重要。

盡管如此,LLM 作為隨后重新組合的意義存儲庫的想法確實與 20 世紀哲學中關(guān)于人類如何思考、體驗世界和創(chuàng)造藝術(shù)的主張保持一致。法國哲學家雅克·德里達在語言學家費迪南德·德·索緒爾的著作基礎(chǔ)上提出,意義是差異性的——每個詞的意義取決于其他詞的意義。想想一本字典:詞語的意義只能用其他詞語來解釋,而這些詞語又只能用其他詞語來解釋。始終缺少的是在終止這種永無止境的能指鏈條之外的某種“客觀”含義。相反,我們永遠都被困在這個差異的循環(huán)中。一些人,比如俄羅斯文學學者弗拉基米爾·普羅普,理論上,你可以根據(jù)他的開創(chuàng)性著作《民間故事的形態(tài)學》將民間故事敘述分解成構(gòu)成結(jié)構(gòu)元素。當然,這并不適用于所有敘事,但你可以看到如何組合故事的單元——一個開始動作、一個危機、一個解決方案等等——然后創(chuàng)建一個關(guān)于有知覺的云朵的故事。

計算機可以快速思考的想法很快變得更加可行。拉斐爾·米利埃爾是澳大利亞悉尼麥格理大學的助理教授,他畢生致力于思考意識,然后是人工智能。他描述了參與一個名為 BIG-bench 測試的大學協(xié)作項目。它故意向人工智能模型提出超出其正常能力范圍的挑戰(zhàn),以解釋它們“學習”的速度有多快。過去,用來測試人工智能復雜性的任務包括猜測國際象棋比賽的下一步行動、在模擬審判中扮演角色以及組合概念。

如今,人工智能可以將以前不相關(guān)的,甚至是隨機的東西,例如多倫多的天際線和印象派的風格結(jié)合起來,創(chuàng)造出以前不存在的東西。但這里有一個令人不安或令人恐懼的暗示。在某種程度上,這不也是我們思考的方式嗎?米利埃爾說,例如,我們知道寵物是什么(一種我們帶回家與我們一起飼養(yǎng)的生物),我們也知道魚是什么(一種在大水體中游泳的動物);我們以某種方式將它們結(jié)合起來,保留某些特征,丟棄其他特征,形成一個新概念:寵物魚。較新的 AI 模型擁有這種合并成表面上新的東西的能力——這正是它們被稱為“生成式”的原因。

即使是相對復雜的論點也可以被視為這樣運作。神正論的問題幾個世紀以來一直是神學家之間永無止境的爭論話題。它問道:如果一位絕對良善的神是無所不知、無所不能、無所不在,當神知道邪惡將會發(fā)生并可以阻止它時,邪惡怎么會存在?它極大地簡化了神學問題,但神正論在某種程度上也是一種邏輯難題,一種以特定方式重新組合的想法模式。我并不是說人工智能可以解決我們最深奧的認識論或哲學問題,但它確實表明,有思想的存在與模式識別機器之間的界限并不像我們希望的那樣嚴格而清晰。

人工智能聊天機器人背后有一個有思想的東西的感覺,也源于現(xiàn)在普遍存在的共識,即我們不知道人工智能系統(tǒng)是如何工作的。所謂的黑匣子問題通常被表述為神秘主義——機器人遙遙領(lǐng)先或如此外星,以至于它們正在做一些我們無法理解的事情。這是真的,但并不是聽起來的方式。紐約大學教授萊夫·韋瑟比指出,這些模型正在處理如此多的數(shù)據(jù)排列組合,以至于一個人不可能完全理解它。人工智能的神秘性并不是幕后的隱藏或令人費解的心靈;它與規(guī)模和蠻力有關(guān)。

然而,即使在人工智能只能通過計算能力思考這種區(qū)別中,思考意味著什么仍然是一個有趣的問題。約克大學研究動物智能的教授克里斯汀·安德魯斯表示,有許多認知任務——記住如何獲得食物、識別物體或其他生物——動物可以在沒有自我意識的情況下完成。從這個意義上說,人工智能很可能會歸功于它可以做我們通常所說的認知。但是,正如安德魯斯指出的那樣,沒有任何證據(jù)表明人工智能具有身份、意志或欲望。

很多產(chǎn)生意志和欲望的東西都位于身體中,不僅以色情欲望的明顯意義上存在,還有內(nèi)在的主觀性、我們的潛意識與我們作為身體在世界中運動、處理信息和對信息做出反應的方式之間更復雜的關(guān)系。澤布羅斯基認為,有理由認為“身體對于我們?nèi)绾嗡伎?、為什么思考以及我們思考什么很重要”。她補充說,“這不像是你只需把一個計算機程序拿走并把它放在機器人的頭部就能得到一個具體的東西?!庇嬎銠C實際上可以接近我們所說的思考,但它們不會夢想、想要或渴望,而且這比人工智能的支持者所透露的更重要——不僅對于我們?yōu)槭裁此伎?,而且對于我們最終思考什么也很重要。當我們利用我們的智慧為經(jīng)濟危機尋求解決方案或解決種族主義問題時,我們這樣做是出于一種道德感,出于對我們周圍的人、后代的義務——我們培養(yǎng)了這樣一種意識,即我們有責任以具體的方式讓事情變得更好,在道義上有意義的方式。

也許克拉克的故事中計算機的模型,一些類似于超越或全知捷徑的東西,因此是錯誤的。相反,道格拉斯·亞當斯的《銀河系漫游指南》中的計算機深思可能更接近。當被問及“生命、宇宙和一切的終極問題的答案”時,它當然吐出了著名的遲鈍答案:“42”。

荒誕的幽默本身就足夠了,但答案的可笑性也指出了一個容易被遺忘的真理。生活及其意義不能歸結(jié)為一個簡單的陳述,或一個名字列表,就像人類的思想和感覺不能歸結(jié)為最終是由一和零表達的東西一樣。如果你發(fā)現(xiàn)自己在問人工智能生命意義的含義,那么錯了的不是答案。這是問題。在這個歷史的特殊關(guān)頭,似乎有必要思考當下的情況是什么讓我們向一個仁慈、無所不知的數(shù)字上帝尋求答案——事實證明,它可能既不是這些東西中的任何一個。

今年 3 月,我在微軟總部度過了兩天,就在西雅圖郊外。微軟是“全力支持”人工智能的技術(shù)巨頭之一。為了證明這一點,他們從世界各地召集記者參加“創(chuàng)新園區(qū)之旅”,其中包括一系列令人眼花繚亂的演講和演示、在現(xiàn)場餐廳供應的看似永不間斷的餐點,以及一段作家通常負擔不起的高級酒店住宿。

我們身穿耳塞走過一個數(shù)據(jù)中心,以阻擋一群小型風扇的無人機轟鳴聲。我們參加了許多小組討論:團隊如何整合人工智能,如何讓“負責任的人工智能”參與進來以在技術(shù)出錯之前對其進行控制。有很多關(guān)于這項工作是未來一切的討論。在一個會議上,人工智能平臺的親切項目經(jīng)理塞思·華雷茲將人工智能比作從鏟子到拖拉機的轉(zhuǎn)變:他用他的話來說,人工智能將“提升人類”。

我們渴望人們制作的東西,因為我們關(guān)心人們對自己作為人的體驗的說法和感受。

我們所看到的一些東西確實鼓舞人心,例如薩奇布·謝赫的演講,他失明并且花了很多年研究 SeeingAI。這是一個應用程序,它越來越善于實時標記視野中的物體。把它指向一個有罐子的桌子,它會說,“一個紅色的蘇打水罐,放在一張綠色的桌子上?!蓖瑯訕酚^的是,人工智能可以用來保存瀕臨滅絕的語言,更準確地掃描腫瘤,或更有效地預測在哪里部署救災資源——通常通過處理大量數(shù)據(jù)然后識別和分析其中的模式來實現(xiàn)。

然而,盡管人工智能在未來有可能做許多事情的崇高言論很多,但人工智能似乎做得最好的大多是完全平凡的事情:處理財務報表并調(diào)和數(shù)字、使安全實踐更具響應性和效率、記錄和總結(jié)會議、更有效地篩選電子郵件。強調(diào)日常任務表明,人工智能并沒有那么能產(chǎn)生一個宏偉的新世界,而是在你的角度看來,讓現(xiàn)在存在的變得更有效率——或者更確切地說,強化和鞏固了現(xiàn)在的結(jié)構(gòu)。是的,你工作中的一些部分可能會更容易,但看起來很有可能的是,那些自動化任務反過來將只是更多工作的一部分。

確實,人工智能一次處理數(shù)百萬個因素的能力實際上可能大大超過人類分析特定類型問題的能力,尤其是其中涉及的因素可以簡化為數(shù)據(jù)的問題。在微軟的一個關(guān)于人工智能研究的小組討論的最后,我們每個人都獲得了一本名為《人工智能之善》的書,詳細介紹了更多利他主義的用途。討論的項目包括使用機器學習解析使用聲音或衛(wèi)星跟蹤野生動物收集的數(shù)據(jù),或預測在印度放置太陽能電池板的最佳位置。

那是鼓舞人心的事情,特別是在 2020 年代生活時,這種事情會讓人暫時松一口氣或希望,也許有些事情會變得更好。但是,阻礙例如在印度部署太陽能的僅僅不是缺乏知識。相反,有資源、意志、既得利益,更直白地說,金錢等問題。這正是烏托邦式的未來愿景經(jīng)常錯失的:如果和何時發(fā)生變化,正在發(fā)生的問題將是關(guān)于某些技術(shù)是否以及如何分配、部署、采用的問題。這將與政府如何決定分配資源、如何平衡受影響各方的利益、如何銷售和推廣一個想法等有關(guān)。簡而言之,這將是關(guān)于政治意愿、資源以及相互競爭的意識形態(tài)和利益之間的爭奪。加拿大或世界面臨的問題——不僅僅是氣候變化,還有住房危機、有毒藥物危機或移民情緒增長——不是由缺乏智力或計算能力造成的問題。在某些情況下,解決這些問題的辦法在表面上很簡單。例如,當有更多且更便宜的房屋時,無家可歸者的數(shù)量就會減少。但由于社會和政治力量,這些解決辦法很難實施,而不是缺乏洞察力、思考或新意。換句話說,最終阻礙這些問題進展的將是我們。

大型科技企業(yè)如此青睞的智力指數(shù)呈指數(shù)級增長的想法是一種奇怪的幻想,它將智力抽象成一種只能不斷增長的超能力,將解決問題想象成一個可以簡單地調(diào)高和調(diào)高的撥盤上的能力。假設(shè)這就是所謂的技術(shù)解決方案主義,這個術(shù)語是十年前由伊夫吉尼·莫羅佐夫創(chuàng)造的,這位進步的白俄羅斯作家自覺承擔起無情批評大型科技公司的任務。他是第一個指出硅谷如何傾向于將技術(shù)視為解決所有問題的答案的人之一。

一些硅谷的生意人已經(jīng)將技術(shù)解決方案主義推向了極端。這些人工智能加速主義者是思想最可怕的人。馬克·安德森與第一個網(wǎng)絡(luò)瀏覽器的創(chuàng)建關(guān)系密切,現(xiàn)在是一位億萬富翁風險資本家,他接過了與“覺醒頭腦病毒”作斗爭和普遍接受資本主義和自由主義的使命。在去年發(fā)表的一篇名為“技術(shù)樂觀主義宣言”的宣言中,安德森概述了他的信念,即“不管是自然創(chuàng)造的還是技術(shù)創(chuàng)造的,任何物質(zhì)問題都無法通過更多技術(shù)得到解決”。當作家里克·珀爾斯坦參加安德森位于加州價值 3400 萬美元(美元)的住宅中的一次晚宴時,他發(fā)現(xiàn)了一群堅決反對對技術(shù)進行監(jiān)管或任何形式的約束的人(安德森在 2023 年底的一條推文中稱人工智能監(jiān)管是“極權(quán)主義的新基礎(chǔ)”)。當珀爾斯坦向一位同事講述了整個經(jīng)歷時,他“注意到他的一位學生堅持認為歷史學家長期擔心的所有老問題很快就會被更好的計算機理所當然地解決,因此認為整個人文主義事業(yè)有點可笑?!?/p>

安德森的宣言中還包含了一個完全正常、毫不威脅的章節(jié),其中他列舉了一系列敵人。這包括所有常見的右翼惡棍:監(jiān)管、自以為是的學者、“創(chuàng)新”的束縛以及進步人士本身。對風險投資家來說,這些都是不言而喻的邪惡。自 2008 年以來,安德森一直擔任 Facebook/Meta 的董事會成員,該公司允許錯誤和虛假信息對民主制度造成嚴重破壞。然而,他堅持認為,顯然沒有任何諷刺意味,專家們“與其他人的生命玩弄上帝,完全不受后果影響?!?/p>

人們對技術(shù)的一個普遍理解是它是一種工具。你需要完成一項任務,而技術(shù)可以幫助你完成它。但是,有一些重要的技術(shù)——住所、印刷機、核彈或火箭、互聯(lián)網(wǎng)——幾乎“重新渲染”了世界,從而改變了我們對自身和現(xiàn)實的認識。這不僅僅是一個進化。在書籍問世,以及它記錄復雜知識并在既定守門人之外傳播信息的能力之后,現(xiàn)實的基礎(chǔ)本身發(fā)生了變化。

人工智能處于一個奇怪的位置,因為它可能代表著技術(shù)上的重大變革,但同時它又被高估了。人工智能將我們帶向某個宏偉烏托邦的想法存在嚴重缺陷。事實上,技術(shù)確實翻開了新的一頁,但土壤中原本存在的東西并不會就此消失。

與專家交談后,在我看來,人工智能的承諾在于處理人類無法操作的規(guī)模的數(shù)據(jù)集。用于生物學或物理學的模式識別機器可能會產(chǎn)生引人入勝且有用的結(jié)果。人工智能的其他用途似乎更普通,至少目前如此:提高工作效率、簡化內(nèi)容創(chuàng)建的某些方面、讓獲取簡單的信息(例如旅行行程或文本摘要)變得更容易。

我們被數(shù)字垃圾淹沒,作為回應,我們尋求一位超人助手來找出真實的東西。

然而,這并不是說人工智能是某種仁慈的美好。一個人工智能模型可以接受數(shù)十億個數(shù)據(jù)點的訓練,但它不能告訴你其中任何東西是好還是壞,它對我們是否有價值,而且沒有理由相信它會這樣做。我們不是通過邏輯難題而是通過思考我們不可消化的東西來得出道德評估:主觀性、尊嚴、內(nèi)在性、欲望——所有人工智能都不具備的東西。

說人工智能本身就能產(chǎn)生藝術(shù),就誤解了我們一開始求助于美學的原因。我們渴望人類制造的東西,因為我們關(guān)心人類對作為一個人和一個身體在世界上的體驗所說和所感。

還有數(shù)量問題。在降低內(nèi)容創(chuàng)建的障礙時,人工智能還將向世界注入大量垃圾。谷歌的使用已經(jīng)變得越來越困難,因為互聯(lián)網(wǎng)上充斥著旨在獲取點擊量的 AI 制作內(nèi)容。這里有一個相互構(gòu)成的問題——數(shù)字技術(shù)已經(jīng)產(chǎn)生了一個充滿如此多數(shù)據(jù)和復雜性的世界,在某些情況下,我們現(xiàn)在需要技術(shù)來篩選它。人們是否認為這個周期是惡性循環(huán)還是良性循環(huán),可能取決于你是否從中受益或是否被迫在泥潭中跋涉。

然而,人工智能與現(xiàn)有系統(tǒng)的交織也令人擔憂。正如夏洛特北卡羅來納大學教授達米安·P·威廉姆斯向我指出的那樣,訓練模型會吸收基于是什么和已經(jīng)是什么的大量數(shù)據(jù)。因此,他們很難避免過去的和現(xiàn)在的偏見。威廉姆斯指出,如果要求復制,比如說,一個醫(yī)生對護士大喊大叫,人工智能會把醫(yī)生設(shè)定為男性,護士設(shè)定為女性。去年,當谷歌匆忙發(fā)布 Gemini,它競爭對手人工智能聊天機器人的時候,它制作了“多元化”的納粹和美國建國先父的形象。這些奇怪的錯誤是試圖搶先解決訓練數(shù)據(jù)中偏差問題的一種笨拙的嘗試。人工智能依賴于已經(jīng)發(fā)生的事情,而試圖解釋我們遇到的和對過去偏見的反應的多樣方式似乎超出了它的能力范圍。

偏差的結(jié)構(gòu)性問題已經(jīng)存在了一段時間。算法已經(jīng)用于信用評分等事情,而且人工智能在諸如招聘等事項中的使用正在復制偏差。在這兩種情況下,預先存在的種族偏見都出現(xiàn)在數(shù)字系統(tǒng)中,因此,與其說是一個流氓人工智能系統(tǒng)發(fā)射核彈的比喻,不如說是偏見問題。然而,這并不是說人工智能不會殺死我們。最近,有消息稱以色列正在使用名為 Lavender 的人工智能版本來幫助其攻擊巴勒斯坦的目標。該系統(tǒng)旨在標記哈馬斯和巴勒斯坦伊斯蘭圣戰(zhàn)的成員,然后提供他們的位置作為空襲的潛在目標——包括他們的家。根據(jù) +972 雜志的說法,這些襲擊中有許多造成了平民傷亡。

因此,人工智能的威脅并不是一個隨隨便便就會殺死人類的機器或系統(tǒng)。而是假設(shè)人工智能實際上是智能的,這導致我們把一系列社會和政治職能外包給計算機軟件——不僅僅是技術(shù)本身融入日常生活,還有技術(shù)的特定邏輯和精神及其自由主義資本主義意識形態(tài)。那么問題是:人工智能被部署到什么目的、在什么背景下以及在什么界限內(nèi)?!叭斯ぶ悄芸梢杂脕碜屍?a href="http://picoinsstore.com/%E8%87%AA%E5%8A%A8%E9%A9%BE%E9%A9%B6_1.html" target="_blank" class="keylink">自動駕駛嗎?”這是一個有趣的問題。但我們是否應該允許自動駕駛汽車在道路上行駛、在什么條件下、嵌入什么系統(tǒng)——或者實際上我們是否應該完全取消對汽車的優(yōu)先考慮——這些才是更重要的問題,而人工智能系統(tǒng)無法為我們回答這些問題。

從一個技術(shù)專家將他的人類進步希望寄托在超人的智能上,到軍隊依靠人工智能軟件來列出目標,這一切都表明了人們渴望一個可以求助的客觀權(quán)威人物。當我們指望人工智能來理解世界——當我們向它提出有關(guān)現(xiàn)實或歷史的問題或期望它按原樣呈現(xiàn)世界時——難道我們還沒有陷于人工智能的邏輯之中嗎?我們被數(shù)字垃圾淹沒,被現(xiàn)在的嘈雜聲淹沒,作為回應,我們尋求一位超人助手從錯誤和誤導的泥潭中找出真實的東西——當人工智能出錯時,往往只會誤導我們自己。

希望在一個不存在客觀聲音的地方看到一個客觀聲音的背后的驅(qū)動力也許是因為我們的意義構(gòu)建裝置已經(jīng)以人工智能獨有方式被破壞了?;ヂ?lián)網(wǎng)已經(jīng)成為一種不穩(wěn)定的力量,而人工智能則有可能讓它變得更糟。與佛蒙特大學的托德·麥高文教授交談,他從事電影、哲學和精神分析方面的工作,我突然明白,我們與人工智能的關(guān)系基本上是為了克服這種不穩(wěn)定而產(chǎn)生的欲望。

我們生活在一個真理不穩(wěn)定、不斷變化、不斷受到質(zhì)疑的時代。想想陰謀論的盛行、反疫苗運動的興起或種族偽科學的主流化。每個時代都有其巨大的損失——對于現(xiàn)代主義來說,這是自我的連貫性;對于后現(xiàn)代主義來說,是宏大敘事的穩(wěn)定性;現(xiàn)在,在 21 世紀,對共享現(xiàn)實愿景的概念的壓力越來越大。與此同時,從政客到名人再到公共知識分子等社會人物似乎比以往任何時候都更多地受到名聲、意識形態(tài)障礙和明顯不真實想法的吸引。

麥高文說,缺少的是精神分析思想家雅克·拉康所說的“被認為是該知道的人”。社會中應該充滿那些被認為該知道的人:教師、神職人員、領(lǐng)導者、專家,他們都作為權(quán)威人物為意義結(jié)構(gòu)和思維方式提供穩(wěn)定性。但是,當賦予事物形狀的系統(tǒng)開始消失或受到質(zhì)疑時,就像宗教、自由主義、民主等發(fā)生的事情一樣,人們就會開始尋找一位新上帝。讓人們渴望讓人工智能工具告訴我們一些關(guān)于一個世界(在這個世界里有時會感覺什么都不是真的)的事情,這是特別令人心酸的。對于被主觀性海洋淹沒的人類來說,人工智能代表著超驗事物:不可能邏輯的頭腦,它可以告訴我們真相。潛伏在克拉克關(guān)于西藏僧侶的短篇小說的邊緣的是一種類似的技術(shù)感,它是讓我們超越我們僅僅是凡人的束縛的東西。

但這種超越的結(jié)果是一切的終結(jié)。在求助于技術(shù)使一項深刻的精神、手工、艱苦的任務變得更加高效時,克拉克的故事中的角色最終抹去了支撐他們走向超越之旅的信仰行為。但在這里的現(xiàn)實世界中,也許見上帝并不是目標。這是嘗試這樣做的折磨和狂喜。人工智能的范圍、能力和功能可能會繼續(xù)增長,但我們對它的信仰背后的假設(shè)——可以說,它可能使我們更接近上帝——只會使我們遠離祂。

在十到二十年后,人工智能無疑會比現(xiàn)在更先進。它在不準確、幻覺或偏差方面的問題可能不會得到解決,但也許它最終會寫出一篇不錯的文章。即便如此,如果我足夠幸運還能活著,我會帶著我的人工智能助手在我耳邊竊竊私語走出家門。人行道上仍然會有裂縫。我居住的城市仍將處于建設(shè)中。即使汽車在自動駕駛,交通狀況也可能仍然混亂不堪。也許我會四處看看,或抬頭看看天空,我的人工智能助手會告訴我一些關(guān)于我所看到的東西。但事情仍然會繼續(xù)前進,變化只是比現(xiàn)在小一些。而星星呢?相對于現(xiàn)在可能看起來如此多的變化,天空仍然會布滿星星。

本文譯自 The Walrus,由 BALI 編輯發(fā)布。

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2024-06-04
人工智能:一個虛假的上帝
科技界對超級智能的真實威脅在于陷入炒作在亞瑟·C·克拉克著名的短篇小說《神的九十億個名字》中,西藏的一群僧侶相信人類有一個神圣的目的:書寫上帝的萬千名字。他們認為,一旦清單完成,祂就會讓宇宙終結(jié)。

長按掃碼 閱讀全文