李飛飛論戰(zhàn)赫拉利:AI之戰(zhàn)一旦爆發(fā),或?qū)⒛雺汉烁傎?/h1>

本周,斯坦福倫理與社會中心、斯坦福人類中心人工智能研究所以及斯坦福人類中心聯(lián)合舉辦了一次活動,邀請到人工智能領域的先驅(qū)李飛飛和暢銷書《人類簡史》、《未來簡史》作者尤瓦爾·赫拉利(Yuval Noah Harari)。

我們不僅面臨著一場技術危機,同時還有哲學危機

Yuval:在我看來,現(xiàn)代社會的哲學框架仍然來源于17世紀和18世紀,人類能動性、個人自由意志等理念正在受到前所未有的挑戰(zhàn),這種挑戰(zhàn)并非來源于其他哲學理念,而是來源于現(xiàn)代科學技術。越來越多原本屬于哲學領域的問題,正在轉變成工程類問題。這非??膳?,因為工程師不像哲學家那么耐心,哲學家們可以為一個問題討論個幾千年,如果沒有找到滿意的答案,那么他們就不會停歇,工程師們則爭分奪秒。

這也就是說,我們已經(jīng)沒有太多的時間。為了簡單概括一下我們面臨的危機,我可以列出這么一個等式:B×C×D=HH。其中B代表的是生物學知識,C代表的是計算機的能力,D代表數(shù)據(jù),HH代表的是“hack human”。

而人工智能的革命并不只是涉足人工智能領域,這也和生物學有關,這是一種生物科技。人們更多的只是看到計算機和人工智能,這只看到了這個技術的一半,它的另一半則與腦科學、生物學方面的知識有關系。一旦你將其與人工智能聯(lián)系上,那么你將獲得hack human的能力。這里允許我解釋一下hack human是什么意思,其字面意思是“黑入人類”,它指的是創(chuàng)建一種算法,能比你自己更了解你自己,因此它能夠操縱你,完善你,甚至取代你。這正是我們哲學上的信仰,也就是人類的能動性和自由意志,具體表現(xiàn)為“用戶就是上帝”、“投票者最了解自己”等等,而一旦我們具備了這種能力,這種信仰就會四分五裂。

這種能力就一定是被用來操縱或取締人類的?它就不能用于完善人類嗎?

Yuval:它當然可以用來提高人類的能力。但問題是,誰來斷定,這種強化到底是往好的方向還是往壞的方向?所以我們首先需要確定的是,我們必須回歸到最傳統(tǒng)的人類理念,“用戶永遠是對的”,“用戶會自行決定自己的強化方向”。或者說“投票者永遠是對的”,他們自己會決定政治上的決策。如果這種強化方向感覺不錯,那么就繼續(xù)做,我們只需要根據(jù)自己的想法去做事就好了。但如果人類被大規(guī)模地“被黑”,那么這種情況將不復存在。你甚至不敢相信自己的感覺和投票權。那些信奉自由意志的人反而最容易被操控,因為他們不認為自己會被操控。所以說我們應該如何決策自己的改進方向,這是一個非常有深度的道德和哲學方面的問題——到底什么是“好”的。我們應該強化自己身上的哪些方面。如果用戶不可信,投票不可信,自己的感覺也不可信,那我們該何去何從?

Yuval的公式是否成立?Yuval給我們指引的方向是否正確?

李飛飛:我非常羨慕哲學家,因為他們只需要提出問題,卻不一定要回答問題。作為一個科學家及工程師,我覺得我們現(xiàn)在有必要解決這個危機。

為什么在20年后人工智能會演化成一場危機?

這是一項革命性的技術,它還處于萌芽階段,相比物理學、化學、生物學,它還很不成熟。但在數(shù)據(jù)和計算機的支撐下,人工智能的確在改變?nèi)藗兊纳睿绊懮羁糖覐V泛。為了回答這些問題,以及應對人類的危機,我們能否改變教育、研究以及與利用人工智能的方式,讓它變得“以人為本”?當然我們不急著今天就找到答案,但我們可以逐漸改變?nèi)祟悓W家、哲學家、歷史學家、政治科學家、經(jīng)濟學家等各行各業(yè)的人來研究和推動人工智能進入新的篇章。

人們認為AI會帶來很多危機,例如失業(yè)、歧視,甚至擔心AI會出現(xiàn)自己的意識,這意味著什么?

李飛飛:任何人類創(chuàng)造的技術最初都是一把雙刃劍。它能改善生活、工作,造福社會,但同時也會有不利的一面,人工智能也不例外。每天醒來我都要擔心各種問題,包括用戶的隱私、公正性,以及對勞動力市場的影響。我們必須考慮這些問題,但也正因為如此,我們要繼續(xù)研究,人工智能的開發(fā)策略和互動方式也不應該局限于代碼和產(chǎn)品,還應該考慮到人類的生存空間以及社會問題。因此我絕對同意開放對話,并針對這些問題進行研究。

Yuval:我一部分的憂慮正是源于對話。人工智能專家和哲學家、歷史學家、文學評論家對話,都可以。我最害怕的是他們與生物學家交流。當他們產(chǎn)生共同語言,才真正有可能入侵人類的思想。人工智能將不僅僅是搜集我們的搜索關鍵字、購買習慣和出行信息,它還會更深入一步,直接搜集我們內(nèi)心所想的數(shù)據(jù)。

AI的誕生,正是源于人工智能科學家與神經(jīng)科學家的對話。AI給醫(yī)療保健行業(yè)帶來了巨大的改善。機器學習幫助收集了大量的生理學和病理學數(shù)據(jù)。

Yuval:這只是其中的一部分。一門科學技術如果沒有任何收益,那么它就不會有任何危險,因為就沒有人去研究它。我認為AI會帶來巨大的利益,尤其是當它和生物學結合在一起的時候。目前全世界的醫(yī)療水平已經(jīng)達到了歷史以來的新高,數(shù)十億人只需要點一點手機就能獲得便宜、可靠的服務。這也是我們無法抗拒它的原因。盡管有人認為這會引發(fā)隱私方面的問題,但在隱私和健康比起來,顯然后者更重要。但我必須指出它帶來的危險。特別是硅谷地區(qū)的人,已經(jīng)習慣了AI帶來的好處,但他們很少考慮它的危害。

如果這種事情真的發(fā)生,那么我們生活中的所有決策都將源于算法。這將產(chǎn)生兩種形式的反烏托邦。我們所有的決策都將是由算法幫我們決定的。這不僅包括早晨吃什么、去哪里購物,還包括去哪里工作和學習、和誰約會、和誰結婚、投票給誰等。我想知道的是,人類思想中是否有什么東西是無法被機器入侵的,這種技術將來作出的決策是否會優(yōu)于人類。這是其中一種反烏托邦。還有則是,基于一個能監(jiān)控一切的系統(tǒng),我們將產(chǎn)生一種高度集權的政體,這類似于上個世紀出現(xiàn)過的集權政體,但借助生物傳感器,它能全天候地監(jiān)控到每一個人。

李飛飛:當你問我這個問題時,我腦海里蹦出來的第一個詞是“愛”。你覺得愛也會被機器取代嗎?

Yuval:這個問題得看你指的是哪一種愛。如果你指的是希臘哲學中的愛或者佛教中的愛,那么這個問題會更加復雜。如果你指的是生物學意義上的,與哺乳動物之間求偶有關的,那么我的回答是“yes”。

人類之所以是人類,那是因為我們不止會求偶,對嗎?這部分也會被機器取代嗎?

Yuval:我認為你在大多數(shù)科幻小說中看到過答案。當來自外星的邪惡機器人入侵地球時,人類節(jié)節(jié)敗退,但最后關頭人類絕地反擊,反敗為勝,因為機器不懂什么是愛。

李飛飛:科幻小說中通常是一個白種人拯救人類。Yuval所說的兩種反烏托邦,我找不到答案。但我要強調(diào)的是,正是因此,我們現(xiàn)在就要尋找解決方案,現(xiàn)在就要尋找人類學家、社會科學家、商業(yè)巨頭、公共社會和國家政府進行會談,聯(lián)手譜寫人工智能的新篇章。我認為你的確引發(fā)了人們對這場潛在危機的關注。但我覺得,除了面對它,更重要的是采取行動。

Yuval:我也覺得我們應該讓工程師與哲學家、歷史學家進行更加密切的合作。從哲學的角度看,我認為工程師身上也存在一些很優(yōu)秀的東西。工程師們少說多做。哲學家們總喜歡弄一堆稀奇古怪的比喻。所以如果工程師問哲學家“你到底想表達什么?”那么這些理論大多都站不住腳,因為他們很少能解釋這些理論——我們需要的就是這種合作。

如果我們都不能解釋愛,不能用代碼來表達愛,那么AI可以感受它嗎?

Yuval:我不認為機器能感受到愛,但如果只是為了監(jiān)控、預測和操縱這種感受,那么機器也沒必要感受到它。正如機器不可能喜歡玩游戲,但它就是具備這種功能。

李飛飛:個人而言,我們這段對話存在兩個非常重要的前提。

第一,人工智能已經(jīng)達到了一個全知全能的地步,它具備了感知能力,甚至愛的能力。但我要強調(diào)的是,這和目前的人工智能存在非常遙遠的差距,這種技術還很不成熟,目前媒體對它的炒作居多,具體實施還需要很多年的努力。

第二,我們所處的這個世界將存在一個非常強大的人工智能,或者這個技術只屬于少部分人,然后他們企圖用它來統(tǒng)治全人類。但實際上,人類社會非常復雜,人類數(shù)量非常多。在歷史上,我們已經(jīng)見過很多科技落入少數(shù)惡棍手中,在缺少監(jiān)管、協(xié)作、法律法規(guī)和道德準則的約束下,這些技術的確給人們社會帶來了巨大的傷害。

但總體上看,我們的社會在朝著更好的方向發(fā)展,人們也更傾向于對話解決問題。所以我們不僅要談論人工智能成為“人類終結者”的問題,也要談論一些眼下更緊急的問題:多樣化、隱私、勞動力、法律調(diào)整和國際政治等。

如何避免數(shù)字專政?

Yuval:關鍵問題就是如何管理數(shù)據(jù)的歸屬權。因為我們不可能停止生物學領域的研發(fā),也不能停止研究計算機科學和人工智能。所以之前的公式中,最好控制的就是數(shù)據(jù),但這也非常困難。目前雖然已經(jīng)作出了一些舉措,但要控制數(shù)據(jù)這同時涉及哲學和政治兩個方面。擁有數(shù)據(jù),以及管理數(shù)據(jù)所有權,到底是什么意思?在過去幾千年里,我們已經(jīng)充分理解了,什么是土地擁有權,但很少了解什么是數(shù)據(jù)擁有權,以及應該如何進行管理。但這正是我們要解決的問題。

我承認AI沒有某些人想的那么強大。但我們必須把握這個度,我們不需要完全了解人類的AI,只需要它比我們更了解自己。這并不困難,因為很多人根本不了解自己,所以經(jīng)常犯下決策錯誤,包括理財和愛情等方面。所以將這些判斷題交給算法,可能仍然很糟糕,但只要比我們做的好一些,那么這種趨勢仍然會存在。

將來可能會出現(xiàn)這種情景,你可以寫出各種的算法幫助你了解自己。但如果這些算法不止把這些信息分享給你,也把它們交給廣告商或者政府會怎樣?我覺得我們不應該只思考太遙遠、太極端的情景,而是更關注我們生活中的例子。

人工智能存在著機遇和風險,目前最重要的事情是什么?

李飛飛:我們現(xiàn)在有太多的事情可以做,這一點我非常同意Yuval的看法。斯坦福大學認為,未來的人工智能應該是以人為本的,我們需要堅持三個主要原則。

第一,要投資具有人類思維特征的人工智能技術。目前大多數(shù)人工智能都依賴于數(shù)據(jù),以及對數(shù)據(jù)的管理政策,這樣可以控制人工智能帶來的影響。但我們應該開發(fā)一種可以解釋人工智能的技術,以及能對人類智力產(chǎn)生更細微的理解的技術。同時還要投資那些不太依賴于數(shù)據(jù)的人工智能,它能反應人類的直覺、知識和創(chuàng)造性等。

第二,為人工智能的研究設立更多的準則。讓經(jīng)濟、道德、法律、哲學、歷史和認知科學等多個領域的人參與研究。任何單一領域的研究人員都不能單獨解決這個問題。

最后,除了上述操作性的建議,我認為我們在做這些事情時,我們應該抱著警惕和理解,同時又要將這種技術運用到正途。

如果我們自己都不了解自己,那么計算機可能比我們更容易解釋這些決策嗎?

李飛飛:兩位數(shù)的乘法對我們來說很難,但對計算機來說很簡單。有些事情人類覺得困難的,未必難得倒機器。畢竟這些算法都是基于非常簡單的數(shù)學邏輯。對此我們采用了包含數(shù)百萬個節(jié)點的神經(jīng)網(wǎng)絡。誠然,決策的解釋很困難,但相關研究已經(jīng)在進行,一旦成功它將會帶來突破性的進展。而且有了這種技術,人們就很難用人工智能去作弊。

Yuval:但是人工智能的決策邏輯可能和人類完全不同,哪怕它解釋了,我們恐怕也無法理解。例如申請銀行貸款被拒,人工智能可能會告訴你,這些數(shù)據(jù)有數(shù)萬個來源,同時進行了加權和統(tǒng)計分析,某些數(shù)據(jù)的權重為什么是這么多……這完全可以寫一本書。

科學越來越難向公眾解釋很多理論和發(fā)現(xiàn),這也是為什么很多人對氣候變化持懷疑態(tài)度。這不是科學家的錯,而是科學技術越來越復雜,而人類社會更復雜。人類的思維無法理解它,正如它無法理解為什么要拒絕一個人的貸款申請。

我們應該如何確保數(shù)據(jù)沒有種族傾向?

李飛飛:說實話我個人也回答不上這個問題,但機器學習系統(tǒng)存在偏見已經(jīng)是個既定的事實。但這種偏見的成因非常復雜。斯坦福大學有人專門研究這個問題,如何去除數(shù)據(jù)的偏見,讓決策更加中立,同時也有人類學家在談論什么是偏見,什么是公平。什么情況下的偏見是好的,什么情況下是壞的。之前就有研究通過臉部識別算法發(fā)現(xiàn)好萊塢女演員的出鏡率更低。

Yuval:至于是否應該剔除數(shù)據(jù)中的種族特征或是性別特征,還需要具體分析。這也是一個需要工程師和倫理學家、心理學家以及政治科學家合作的地方。將來還可能包括生物學家。這又回到了一個問題上,我們應該怎么做?也許我們應該在未來的程序員培訓過程中加入倫理課程。在那些設計人工智能工具的大公司里,同樣也要配備倫理專家這樣的團隊,他們需要考慮設計人員會在不經(jīng)意間加入哪些偏見,它會給政治或文化方面帶來什么樣的影響。而不是等到惡果出現(xiàn)了,才追悔莫及。

是否存在道德和人工智能預測精準性的問題?與全力研發(fā)技術相比,邊研究技術邊考慮道德問題,進度是否會更慢?

Yuval:這就是一個類似軍備競賽的問題。我覺得,這是AI目前面臨非常危險的一個問題。越來越多的國家意識到這種技術的重要性,都擔心自己會被別的國家甩在后面。避免這種軍備競賽的唯一方法,就是進行更充分的交流。這聽起來有些虛幻,因為我們現(xiàn)在完全是在背道而馳。我們的工作就是要讓人們明白,AI的惡性競爭就類似于核戰(zhàn)爭,誰都不會成為贏家。美國人可能會說自己是好人,但這個人工智能領域的領先者,只服務于美國自己的利益,誰又能相信它的公正性?

Yuval:我認為全球合作可能非常脆弱。核武器的軍備競賽雖然會讓一大批核彈問世,但是人們從沒使用過它,人工智能不一樣,它一直在被使用,最終孕育出一個集權政體。因此我認為它更加危險。

如果不同的國家之間存在巨大的技術差距,那會發(fā)生什么?會像19世紀工業(yè)革命那樣,少數(shù)掌握工業(yè)力量的國家統(tǒng)治了整個世界的經(jīng)濟和政治?如何避免悲劇重演?哪怕沒有戰(zhàn)爭,全球大多數(shù)人仍然處于被剝削狀態(tài),大部分人的勞動所得最終都屬于少數(shù)幾個國家。

李飛飛:不同地區(qū)的技術研究進度的確不同。不同于19世紀和20世紀,技術正在以非常快的速度全球化。任何基礎性的科研論文都能在網(wǎng)上查到。不同國家可能因為制度不同,在技術研究上可能存在一定差距,但我認為你所描述的情況,還是很難發(fā)生的。

Yuval:我說的可不只是科研論文。是的,論文是全世界共享的,但如果我生活在也門、尼加拉瓜、印尼或者加沙,我沒有數(shù)據(jù)和基礎設施,我就算上網(wǎng)下載了論文又能如何。你要看看那些擁有所有數(shù)據(jù)的大公司來自哪里,基本只有兩個地方,其中不包括歐洲,畢竟歐洲沒有谷歌、亞馬遜、百度或者騰訊。你再看看拉美、非洲、中東和大部分東南亞地區(qū),他們也能學到這些知識,但想要借此對抗亞馬遜還遠遠不夠。

擁有數(shù)據(jù)和更高計算能力的人是否將獲得更多的權力,收入的不平等也會因此加???

Yuval:正如我所說的,這很可能還只是個開始。它在經(jīng)濟和政治方面帶來的影響將是災難性的。那些依賴手工勞動力的國家的經(jīng)濟體系可能會因此崩潰,它們沒有足夠的教育資金去參與人工智能競爭。洪都拉斯和班加羅爾的生產(chǎn)基地將搬回美國和德國,因為人力成本不再重要,加州生產(chǎn)的襯衫可能比洪都拉斯便宜。這些國家的人又該何去何從,新生的崗位是留給軟件工程師的,洪都拉斯的孩子可沒有錢去學習編程。

李飛飛:的確,Yuval預想到了很多我們面臨的危機,因此我們需要更多人來研究和思考這些問題。但目前全世界的國家、政府和公司都還有時間思考自己的數(shù)據(jù)及人工智能策略,意識到當下是他們的國家、地區(qū)和公司的關鍵時刻。而這些潛在危機正是因為他們還沒意識到要跟上數(shù)字時代的潮流,也是時候引起他們的注意了。

Yuval:是的,這非常緊急。某種程度上講,這就是一種數(shù)字殖民:從巴西、印尼等國家搜集數(shù)據(jù),然后由美國來處理,最后生產(chǎn)出更好的設備和技術,賣回殖民地。盡管它和19世紀的殖民存在差別,但這種類比值得我們留意。

人們?nèi)绾谓ㄔOAI公司,是推動數(shù)字殖民,還是改正它?又該怎么看待人工智能,以及如何去學習?

Yuval:就我個人而言,我認為不論是否在斯坦福大學深造,是否是工程師,都一定要更加了解你自己,因為你正處于一場競爭中。這也是所有哲學書中最經(jīng)典的建議。蘇格拉底、孔夫子、釋迦摩尼都給出過類似的看法。但在釋迦摩尼或蘇格拉底的時代,你不了解自己也沒關系,你只是錯過了頓悟的機會。如今你們處于競爭中,如果不了解自己,你就完了。對于工程師或?qū)W生,我希望實驗室和工程部門出現(xiàn)兩件東西。第一,我希望出現(xiàn)一種離心化的系統(tǒng),而不是中心化的系統(tǒng),我不知道該怎么做,但我希望你們可以嘗試,我聽說區(qū)塊鏈在這方面挺有潛力的。這是對我們民主制度的保護。

第二,我希望出現(xiàn)一種專門為人服務的工具,而不是為企業(yè)或者政府服務。也許我們無法阻止人工智能了解自己,那么我希望它了解我們是為了保護我們不受其它人工智能的侵襲。就像我的身體不能對抗電腦病毒,但是我的電腦可以裝殺毒軟件。(來源:獵云網(wǎng))

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。

2019-05-06
李飛飛論戰(zhàn)赫拉利:AI之戰(zhàn)一旦爆發(fā),或?qū)⒛雺汉烁傎?/div>
AI眼里的愛情,和一場流感有什么區(qū)別?

長按掃碼 閱讀全文