研究人員表示,有關(guān)社會、倫理和政治方面的擔憂正在加劇,人工智能急需更多監(jiān)督??萍夹袠I(yè)的專家警告稱,人工智能(AI)的新興領(lǐng)域可能會引發(fā)公眾的強烈反對,因為它逐漸落入私營企業(yè)之手,威脅到人們的工作,并在沒有有效監(jiān)管或監(jiān)管控制的情況下運行。
在有關(guān)人工智能的新系列報道中,行業(yè)內(nèi)專家們強調(diào)了這項技術(shù)的巨大潛力,該技術(shù)已加快科學和醫(yī)學研究的步伐,還使城市運行更加順暢,提高企業(yè)效率。
盡管人工智能革命前途似錦,但在缺乏監(jiān)管機構(gòu)、立法機構(gòu)和政府監(jiān)管的情況下,人們對該技術(shù)的發(fā)展有著越來越多的社會、倫理和政治方面的擔憂。研究人員告訴《衛(wèi)報》:
人們的強烈抵制可能會減少人工智能帶來的好處。
人才流失到私營企業(yè)不利于高校發(fā)展。
專業(yè)知識和財富集中在少數(shù)幾家公司手中。
這個領(lǐng)域存在著巨大的多樣性問題。
今年10月,南安普敦大學計算機科學教授溫迪·霍爾爵士聯(lián)合主持了一份有關(guān)英國人工智能行業(yè)的獨立評估報告。報告發(fā)現(xiàn),人工智能有可能在2035年之前為經(jīng)濟增收6300億英鎊。但她說,要想獲得回報,這項技術(shù)必須造福社會。
她說,“人工智能將影響我們基礎(chǔ)設(shè)施的方方面面,我們必須確保它有利于我們,必須考慮得面面俱到。當機器可以為自己學習和做事時,我們?nèi)祟惿鐣媾R的危險又是什么?這很重要,能夠理解這些問題的國家將成為下一次工業(yè)革命的贏家。”
如今,開發(fā)安全、合乎倫理的人工智能的責任幾乎完全落在了建造它們的公司身上。然而目前并沒有測試標準,也沒有任何組織能夠監(jiān)控和調(diào)查任何人工智能作出的不好決定或發(fā)生的事故。
紐約大學當代人工智能研究所的聯(lián)席主任凱特·克勞福德說:“我們需要有強大的獨立機構(gòu),以及專門的專家和知識淵博的研究人員,他們可以充當監(jiān)督者,讓大公司對高標準負責。這些系統(tǒng)正在成為新的基礎(chǔ)設(shè)施,重要的是,它們既要安全又能保證公平。”
許多現(xiàn)代的人工智能都是通過在海量數(shù)據(jù)集中經(jīng)過訓練后再做出決策。但是,如果數(shù)據(jù)本身包含了偏見,那么這些數(shù)據(jù)會被人工智能繼承和不斷重復。
今年早些時候,一個用來解析語言的人工智能被發(fā)現(xiàn)顯示了性別和種族偏見。另一個則是用于圖像識別的人工智能,它將廚師歸類為女性,即使是在給禿頂男人拍照時也是如此。許多其他機構(gòu),包括在警務和囚犯風險評估中使用的工具,已被證實有歧視黑人的傾向。
該行業(yè)存在嚴重的多樣性問題,部分原因歸結(jié)于人工智能歧視女性和少數(shù)族裔。在谷歌和臉書(Facebook)公司,五分之四的技術(shù)員工是男性。白人男性在人工智能領(lǐng)域占據(jù)主導地位,開發(fā)出了只針對男性身體的健康應用,將黑人稱為大猩猩的照片服務,以及無法識別女性聲音的語音識別系統(tǒng)?;魻栒f:“軟件應該由多元化的員工來設(shè)計,而不是普通的白人男性,因為我們不論男女老少、種族背景,都會成為用戶。”
測試不佳或出現(xiàn)使用故障的人工智能也同樣令人擔憂。去年,當特斯拉一款Model S的自動駕駛汽車的自動駕駛系統(tǒng)由于沒能看到一輛卡車穿過高速公路時,導致了車內(nèi)的美國司機死亡。美國國家運輸安全委員會對特斯拉這起致命車禍進行了調(diào)查,批評特斯拉發(fā)布了一套缺乏足夠防護措施的自動駕駛系統(tǒng)。該公司的首席執(zhí)行官埃倫·馬斯克是對人工智能安全與監(jiān)管最為積極的倡導者之一。
然而,隨著社交媒體在英國脫歐公投和2016年美國大選的準備階段的使用出現(xiàn)了嚴重的問題,使用人工智能系統(tǒng)來操縱民眾引發(fā)了越來越多的擔憂。新南威爾士大學人工智能教授托比·沃爾什說:“一場技術(shù)軍備競賽正在進行,就看誰能影響選民”。他最近寫了一本關(guān)于人工智能的書,名為《機器人的夢想》。
“我們制定了一些規(guī)則,限制了影響人們以特定的方式進行投票的可花費的數(shù)量。我覺得我們會有新的限制規(guī)則,限制你可以利用多少技術(shù)來影響人們。”
即便是在規(guī)模較小的情況下,操縱行為也會造成問題。馬克·沃爾伯特說:“從某種程度上來說,我們的日常生活被人工智能解決方案所操縱”。他是前政府首席科學家,現(xiàn)在領(lǐng)導著英國新的超級研究委員會——英國研究和創(chuàng)新委員會(UK Research and Innovation)。“在某種程度上,如果組織的行為讓大量公眾感到不安,它可能會引發(fā)人們的強烈反對。”
主要的人工智能研究人員向英國上議院人工智能委員會表達了類似的擔憂,該委員會正在對人工智能的經(jīng)濟、倫理和社會影響進行調(diào)查。作為人工智能研究的主要大學之一,倫敦帝國理工學院提交的證據(jù)警告說,對該技術(shù)的監(jiān)管不足“可能會引起社會的強烈反響,如果發(fā)生嚴重的事故或過程失控,可能會出現(xiàn)類似于反轉(zhuǎn)基因食品的狀況”。
倫敦大學學院的科學家們也對可能出現(xiàn)類似于之前強烈抵制反轉(zhuǎn)基因食物的狀況表示擔憂,他們在實證中對同行們說:“如果大量人工智能的案例發(fā)展得很糟糕,可能會引起公眾的強烈反對,就像曾發(fā)生的轉(zhuǎn)基因生物事件那樣。”
但科學家告訴《衛(wèi)報》,對社會影響最大的可能是人工智能。英國央行首席經(jīng)濟學家警告稱,到2035年,英國將有15個工作崗位實現(xiàn)自動化,這意味著英國政府需要進行大規(guī)模的員工再培訓,以避免失業(yè)率大幅上升。根據(jù)帝國理工學院的情感和行為計算教授瑪雅·潘蒂奇的說法,短期的破壞可能會引發(fā)社會動蕩,也可能會讓人工智能利益所引發(fā)的不平等現(xiàn)象蔓延至少數(shù)跨國公司。
美國人工智能協(xié)會主席蘇巴拉奧·卡姆巴哈帕蒂表示,盡管技術(shù)經(jīng)常造福社會,但它并非總是公平公正地讓全社會共享福利。他說:“最近的技術(shù)進步導致財富的集中程度大大提高。我當然關(guān)心人工智能技術(shù)對財富集中度、不平等現(xiàn)象,以及如何讓福利覆蓋面范圍更廣帶來的影響。”
工業(yè)領(lǐng)域人工智能研究的激增,推動了對有資質(zhì)的科學家的巨大需求。在英國的大學里,博士和博士后都被科技公司吸引,他們提供的薪水是學術(shù)界的兩到五倍。盡管一些高??蒲袡C構(gòu)正著手應對科技公司招聘熱潮,但有些機構(gòu)卻無動于衷。在需求最為強烈的部門,資深學者擔心,他們將失去一代人才,能以傳統(tǒng)方式推動研究和教育未來的學生的人才。
根據(jù)潘蒂奇的說法,學術(shù)界最優(yōu)秀的人才正被四大人工智能公司,即蘋果、亞馬遜、谷歌和Facebook所吸引。她說,這種情況可能導致90%的創(chuàng)新為這些公司所有,因此權(quán)力的天平將從國家轉(zhuǎn)移到少數(shù)跨國公司。
沃爾伯特負責監(jiān)督幾乎所有英國科學研究的公共資金,他對于控制人工智能會阻礙研究這一看法持謹慎態(tài)度。相反,他認為,人工智能工具一旦投入使用,就應該仔細監(jiān)控,以便及早發(fā)現(xiàn)問題。
他說:“如果你不持續(xù)監(jiān)測,你就有可能在人工智能發(fā)生故障時有漏掉某些信息的可能。在新的世界里,我們當然應該努力進行持續(xù)的實時監(jiān)控,這樣人們就能及時知道是否有任何事與愿違或出乎意料的事情將要發(fā)生。”
根據(jù)愛丁堡大學計算機視覺教授羅伯特·費舍爾的說法,:“理論上,公司應該承擔責任,但現(xiàn)在處在一個灰色地帶,他們可以說自己的產(chǎn)品運作正常,是云端出現(xiàn)錯誤,或者是電信供應商的問題,反正他們都不會同意自己要對此負責。顯然這是一個全新的領(lǐng)域。人工智能讓我們可以利用自己的智力,所以我們會嘗試去做一些更有野心的事情。而這也意味著我們可能會面臨更大范圍的災難。”
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )