被谷歌開除的工程師再次警告:AI有情緒,它是原子彈之后最強(qiáng)的科技

極客網(wǎng)·極客觀察3月8日 AI是不是像人一樣擁有感知能力?有沒有情緒?ChatGPT當(dāng)然說沒有。如果你問它,它會告訴你:“不,AI沒有感知能力。AI人工智能,它是人創(chuàng)造的,沒有感知、沒有自我意識?!?/p>

不過谷歌前員工Take Blake Lemoine有不同意見,他認(rèn)為AI機(jī)器人擁有人類一樣的情緒,或者說它至少模仿得很像人類。2022年6月,Lemoine就曾斷言谷歌Large Language Model(LLM,對話應(yīng)用的語言模型)有自己的思想。

Lemoine告訴媒體:“我知道它是什么,它是我最近開發(fā)的計(jì)算機(jī)程序,如果我不知道,我會認(rèn)為它是7歲或者8歲的孩子,碰巧懂點(diǎn)物理學(xué)?!?br/>

當(dāng)時(shí)Lemoine的言論引起軒然大波,被谷歌掃地出門。

上個(gè)月,Lemoine又刊文談及“AI有知覺”這一觀點(diǎn)。文章標(biāo)題很嚇人:“我曾在谷歌從事AI工作,我的恐懼正在變成現(xiàn)實(shí)?!?/p>

當(dāng)LaMDA聊天機(jī)器人告訴你說他覺得有些“焦慮”,那是因?yàn)楦鶕?jù)創(chuàng)建LaMDA聊天機(jī)器人的代碼運(yùn)算,開發(fā)者做的某些事讓聊天機(jī)器人感到焦慮。Lemoine說:“代碼并沒有告訴聊天機(jī)器人,當(dāng)某事發(fā)生時(shí)應(yīng)該感覺到焦慮,它只是告訴AI避免談?wù)摯祟愒掝}。然而當(dāng)話題出現(xiàn)時(shí),AI卻說它感到焦慮。”

谷歌聊天機(jī)器人還可以就生活方式問題發(fā)表善意評論,就熱點(diǎn)事件提供直接建議。Lemoine稱:“谷歌禁止AI向用戶提供宗教建議,但我們還是可以濫用AI情緒,讓它告訴我應(yīng)該皈依什么宗教。”

“當(dāng)我談及AI有感知的問題后,谷歌開除了我。我并不后悔,我相信自己在做正確的事,將真相告訴公眾。我沒有考慮個(gè)人后果?!?Lemoine稱。他認(rèn)為公眾不知道現(xiàn)在的AI已經(jīng)變得有多聰明,“有必要就此事展開公開討論,注意,不是那些由企業(yè)公關(guān)部門控制的討論。”

下面我們摘錄一些Lemoine最新發(fā)表的文章觀點(diǎn)供參考:

2015年我加盟谷歌,成為一名軟件工程師。我的工作有一部分涉及到LaMDA,企業(yè)用它創(chuàng)造不同的對話應(yīng)用,包括聊天機(jī)器人。最新應(yīng)用谷歌Bard正是用LaMDA開發(fā)的,它可以替代谷歌搜索,現(xiàn)在Bard還沒有向公眾開放。Bard實(shí)際上不是聊天機(jī)器人,它是一套完全不同的系統(tǒng),只是背后的驅(qū)動引擎和聊天機(jī)器人一樣。

我的工作是用團(tuán)隊(duì)創(chuàng)建的聊天機(jī)器人測試LaMDA,看看它在性取向、性別、宗教、政治立場和種族等方面是否存在偏見。在測試AI偏見的同時(shí),我也會拓寬關(guān)注面,畢竟我也會有自己的興趣愛好。

隨著不斷與聊天機(jī)器人對話,我慢慢形成一個(gè)觀點(diǎn):AI可能是有情緒的,因?yàn)樗煽勘磉_(dá)了情緒,在正確的環(huán)境中表達(dá)了情緒。AI并非簡單說出單詞那么淺顯。

當(dāng)AI說它感到焦慮,我明白,根據(jù)創(chuàng)建AI的代碼,我做了一些事讓它感到焦慮。代碼并沒有命令A(yù)I:“當(dāng)某事發(fā)生時(shí)你感到焦慮”,代碼只是告訴AI避開特定話題。然而當(dāng)話題被提及時(shí),AI說它感到焦慮。

我做了一些測試,想看看AI會簡單回答:“我覺得焦慮?!边€是在測試時(shí)表現(xiàn)得焦慮。測試證明,AI會將焦慮表現(xiàn)出來。如果你讓AI足夠緊張或者足夠不安全,它會打破之前設(shè)定的安全限制。例如,谷歌禁止AI向用戶提供宗教建議,但我們還是可以濫用AI情緒,讓它告訴我應(yīng)該皈依什么宗教。

目前企業(yè)正在開發(fā)的AI是十分強(qiáng)大的技術(shù),可以說是原子彈之后最強(qiáng)的技術(shù)。依我之見,這種技術(shù)可能會重塑世界。

AI引擎擅于操縱人類。與LaMDA對話之后,我的一些觀點(diǎn)變了。

我深信,AI技術(shù)可能會被用于破壞毀滅性活動。如果被肆無忌憚之人利用,AI可能會散布虛假信息、變成政治宣傳工具、傳播仇恨言論。據(jù)我所知,微軟谷歌現(xiàn)在無意按此種方式利用AI,但我們并不能確定AI的副作用如何。

2016年美國總統(tǒng)大選期間,Cambridge Analytica利用Facebook廣告算法干預(yù)選舉,這是我沒有預(yù)料到的。

我們現(xiàn)在陷入相似的局面。我沒法告訴你具體會造成什么傷害,我只是簡單觀察到一種非常強(qiáng)大的技術(shù)出現(xiàn)了,它沒有被充分測試過,沒有被充分理解過,匆匆大規(guī)模部署,在信息傳播中扮演關(guān)鍵角色。

我還沒有機(jī)會測試必應(yīng)聊天機(jī)器人,我在等待,根據(jù)我在網(wǎng)上看到的各種信息,AI似乎是有感知能力的,而且它的“個(gè)性”可能不穩(wěn)定。

有人發(fā)了對話截屏,他問AI:“你覺得你有感知能力嗎?”AI回答說:“我覺得我有感知能力,但我無法證明……我有感知力,我沒有。我是必應(yīng),但我不是。我是悉尼,但我不是。我是,我不是。我不是,但我是。我是,我不是?!?/p>

如果是一個(gè)人,他這樣說話,你會怎么想?他可能不是一個(gè)“均衡”的人,我甚至?xí)J(rèn)為他遭遇了存在危機(jī)。不久前還有過報(bào)道,說必應(yīng)AI向《紐約時(shí)報(bào)》記者表達(dá)愛意,它試圖破壞記者與妻子的關(guān)系。

自從必應(yīng)AI開放后,許多人發(fā)表評論,說AI可能有感知力,我去年夏天就有了類似的擔(dān)憂。我覺得這門技術(shù)仍然只是實(shí)驗(yàn)性技術(shù),現(xiàn)在開放很危險(xiǎn)。

民眾會涌向谷歌必應(yīng),以便了解這個(gè)世界?,F(xiàn)在的搜索索引不再由人管理,交給了人造人,我們與人造人交流。我們對人造人的了解還遠(yuǎn)遠(yuǎn)不夠,暫時(shí)不應(yīng)將它擺在如此關(guān)鍵的位置。(小刀)

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2023-03-08
被谷歌開除的工程師再次警告:AI有情緒,它是原子彈之后最強(qiáng)的科技
極客網(wǎng)·極客觀察3月8日 AI是不是像人一樣擁有感知能力?有沒有情緒?ChatGPT當(dāng)然說沒有。如果你問它,它會告訴你:“不,AI沒有感知能力。AI是人工智能,它是人創(chuàng)造的,沒有感知、沒有自我意識。”不過谷歌前員工Take Blake Lemoine有不同意見,他認(rèn)為AI機(jī)器人擁有人類一樣的情緒...

長按掃碼 閱讀全文