AI值得信任嗎?“可信AI”或能給出答案

科技云報道原創(chuàng)。

AI技術(shù)所帶來的便利和AI技術(shù)不可信之間的矛盾,正逐漸成為AI在現(xiàn)實生活中大規(guī)模落地應(yīng)用的核心問題。

美國前國務(wù)卿亨利·基辛格曾在文章中稱,AI的危險極其巨大,“人類歷史可能重蹈印加人的覆轍,面對AI,就像印加人面對無法理解的西班牙文化一樣,甚至?xí)ζ洚a(chǎn)生崇拜和敬畏之心”。

特斯拉CEO埃隆·馬斯克曾提出警告,推進AI 向前發(fā)展的行為無異于“召喚惡魔”,為人類帶來“比核武器更恐怖”的危險。

已故物理學(xué)家史蒂芬·霍金也曾說過,AI的發(fā)明可能是“人類文明史上最可怕的事件”。

為什么這些研究者/領(lǐng)導(dǎo)者都在擔(dān)憂AI技術(shù)的未來?問題的核心正在于“信任”。

AI技術(shù)的發(fā)展:關(guān)乎信任

近30年來,人們在AI工程上取得了不少矚目的成績。

1997年,“深藍”成為戰(zhàn)勝國際象棋世界冠軍卡斯帕羅夫的第一個計算機系統(tǒng)。

2006年,Hiton提出了深度置信網(wǎng)絡(luò),成為了深度學(xué)習(xí)的前驅(qū)。

2012年,Google大腦使用超過16000個CPU,用以模擬10億個神經(jīng)元,在語言和圖像識別上都取得了突破。

2016年,擁有1920個CPU集群和280個GPU的深度學(xué)習(xí)系統(tǒng)AlphaGo擊敗李世石,成為第一個不讓子擊敗職業(yè)圍棋棋手的程序。

工程上的突破,讓人們得以將以前只能停留在理論上的模型實際運行起來并進行測試,大大加快了AI的發(fā)展并使之商業(yè)化。

如今,AI技術(shù)與產(chǎn)業(yè)的加速融合,從工業(yè)生產(chǎn)到消費服務(wù)的各個方面改變著人們的生活,對生產(chǎn)和生活效率的提升極為迅速。

在政務(wù)服務(wù)領(lǐng)域,采用人臉識別、聲紋識別等AI識別技術(shù)進行身份驗證,采用對話式AI提供智能化政務(wù)服務(wù),采用“文本分析+知識圖譜+搜索”技術(shù)輔助刑偵、技偵工作等。

在金融行業(yè),利用人臉識別、語音識別和智能客服等AI技術(shù),提升金融領(lǐng)域的交互水平和服務(wù)質(zhì)量。

在制造業(yè)領(lǐng)域,利用AI算法開發(fā)數(shù)字化自動研發(fā)系統(tǒng),大幅度降低周期長、成本高等研發(fā)不確定性。同時,利用AI技術(shù)提升柔性生產(chǎn)能力,實現(xiàn)大規(guī)模個性化定制,提升制造業(yè)企業(yè)對市場需求變化的響應(yīng)能力。

在消費零售領(lǐng)域,AI技術(shù)在商務(wù)決策場景、精準營銷場景、客戶溝通場景等各個零售環(huán)節(jié)多點開花,圍繞人、貨、場、鏈搭建應(yīng)用場景。

正是基于AI技術(shù)的迅猛發(fā)展,更多的權(quán)力還在不停地被交到不可靠的機器手中。

但令人擔(dān)憂的是,這些機器并不具備對人類價值觀的理解,根本無法解決利害關(guān)系較大的問題,只能按照編程邏輯工作。

試想一下,如果AI系統(tǒng)推送了一條錯誤的廣告,影響并不大;但如果AI系統(tǒng)自動駕駛著汽車,全速撞向其數(shù)據(jù)庫中并不存在的外觀奇特的車輛,后果不堪設(shè)想。

事實上,AI犯錯并不是一種假設(shè),而是屢次出現(xiàn)在現(xiàn)實生活中。

曾有部分消費者反應(yīng),亞馬遜Alexa智能音箱居然半夜經(jīng)常會莫名其妙地發(fā)出巫婆般的恐怖笑聲,令用戶感到害怕。

Facebook人工智能研究實驗室在訓(xùn)練兩個AI聊天機器人互相對話時,AI竟逐漸發(fā)出人類無法理解的獨特語言。

微軟聊天機器人Tay上線不到24小時,竟然出現(xiàn)了攻擊性和種族歧視言論,微軟不得不馬上讓其短暫休眠。

源于這些真實發(fā)生的問題,大眾對AI的信任度大大降低。

AI鴻溝:未被重視的AI魯棒性

理想與現(xiàn)實之間,存在著一個被稱為“AI鴻溝”的大坑。追根溯源,主要在于AI的魯棒性(Robust)沒有得到足夠重視。

在當(dāng)下的AI 研究中,AI的容錯率往往較高,比如廣告和商品推薦。但在無人駕駛汽車、老人照護、醫(yī)療規(guī)劃等領(lǐng)域中,AI的魯棒性都至關(guān)重要,關(guān)系到人們的生命安全。

正因為缺乏對AI魯棒性的重視,每當(dāng)AI解決方案能在某些時候發(fā)揮作用,人們就會假定,只要再多一點數(shù)據(jù),此系統(tǒng)就能在所有的時刻發(fā)揮作用。

但事實上,就算是目前AI最擅長的領(lǐng)域,也潛藏危機。

以圖像識別為例,很多時候AI不僅無法識別,還會犯低級錯誤。比如給AI系統(tǒng)看一張貼著許多貼紙的停車標志,AI系統(tǒng)可能會錯誤地識別為“裝了許多食品和飲料的冰箱”。在自動駕駛領(lǐng)域,AI也不能百分百識別道路情況,如特斯拉屢次撞向路邊的消防車。

這是因為當(dāng)前的AI發(fā)展以深度學(xué)習(xí)為主,而深度學(xué)習(xí)算法最常標榜的便是“準確率高達99.99%”。由于深度學(xué)習(xí)模型的“黑匣子”特征,即使2018年憑借深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)的成就獲得圖靈獎的學(xué)者也無法自信地說,某一算法可以達到100%的準確性。當(dāng)準確率只能達到99%的深度學(xué)習(xí)算法在現(xiàn)實生活中落地時,便會帶來許多不容小覷的問題。

具體而言,深度學(xué)習(xí)面臨三個核心問題,每一個問題既會影響到深度學(xué)習(xí)自身,也會影響到嚴重依賴于深度學(xué)習(xí)的其他流行技術(shù):

深度學(xué)習(xí)是貪婪的。

為了將神經(jīng)網(wǎng)絡(luò)中的所有連接都調(diào)校準確,深度學(xué)習(xí)常常需要大量的數(shù)據(jù)。AlphaGo要下3000萬盤棋,才能達到超人類的水平。如果數(shù)據(jù)量減少,深度學(xué)習(xí)的表現(xiàn)水平也會急轉(zhuǎn)直下。

深度學(xué)習(xí)之所以搞不定語言和翻譯,就是因為帶有新意義的新句子層出不窮。你所面對的現(xiàn)實世界問題與訓(xùn)練系統(tǒng)所使用的數(shù)據(jù)相差越大,系統(tǒng)的可靠性就越低。

深度學(xué)習(xí)是不透明的。

神經(jīng)網(wǎng)絡(luò)由大量數(shù)值矩陣組合而成,其中任何一個矩陣都是普通人類從直覺上無法理解的。就算利用復(fù)雜的工具,專業(yè)人士也很難搞明白神經(jīng)網(wǎng)絡(luò)決策背后的原因。神經(jīng)網(wǎng)絡(luò)究竟為何能做到這許多事情,至今仍然是一個未解之謎。人們也不知道神經(jīng)網(wǎng)絡(luò)在達不到既定目標時,問題究竟出在哪里。

事實上,神經(jīng)網(wǎng)絡(luò)如同“黑箱”一般,不管做什么,你只能看到結(jié)果,很難搞懂里面究竟發(fā)生了怎樣的過程。當(dāng)我們對神經(jīng)網(wǎng)絡(luò)驅(qū)動的無人駕駛汽車或家政機器人寄予厚望時,這就是個非常嚴重的問題。

深度學(xué)習(xí)的不透明,還有另一個問題,就是深度學(xué)習(xí)與周遭世界的常識并不相符。若想讓深度網(wǎng)絡(luò)搞明白“蘋果長在樹上”,或是“蘋果從樹上掉下來的時候,會從上往下掉,而不是從下往上飛”,并不是件容易的事。

深度學(xué)習(xí)是脆弱的。

愚弄深度網(wǎng)絡(luò)的方法可達數(shù)十種之多,這是長期存在的問題。麻省理工學(xué)院的研究團隊就設(shè)計出了一只三維海龜,被深度學(xué)習(xí)系統(tǒng)錯認成來復(fù)槍,即使將海龜放到水下環(huán)境也沒能改變錯誤結(jié)果。該團隊又在棒球上涂了點肥皂泡,放在棕色的棒球手套中,不論什么角度都會被識別錯成一杯濃縮咖啡。

歸根結(jié)底,還是深度學(xué)習(xí)不夠深刻。有所成就,并不意味著深度學(xué)習(xí)的行為背后存在一個真正的智能。因此,深度學(xué)習(xí)不是萬能藥,依然與我們在開放系統(tǒng)中需要的通用AI相去甚遠。

可信AI:凝聚國際共識

為了避免AI可能給人們帶來的負面影響,以便人們能夠充分信任AI技術(shù),與AI技術(shù)和諧相處,可信AI最近受到越來越多的關(guān)注,發(fā)展可信AI已成為全球共識。

2019年4月,歐盟委員會發(fā)布了《人工智能倫理指南》,提出了實現(xiàn)可信人工智能的七個要素,包括:保障人工智能技術(shù)的人的自主性、穩(wěn)健性和安全性,確保隱私和數(shù)據(jù)管理,確保算法系統(tǒng)的透明度,以及要求人工智能提供多樣化、非歧視性和公平的服務(wù)。

2019年6月,G20提出“G20人工智能原則”,明確提出“促進公共和私人對人工智能研發(fā)的投資力度,以促進可信賴的人工智能的創(chuàng)新”。

在國內(nèi),2017年11月,中國科學(xué)家何積豐院士首次提出了可信人工智能的概念,即人工智能技術(shù)本身具備可信的品質(zhì),從學(xué)術(shù)研究角度,可信AI研究范疇包含了安全性、可解釋性、公平性、隱私保護等多方面的內(nèi)容。

隨著“可信”成為共識,產(chǎn)業(yè)界也緊跟學(xué)術(shù)界步伐,紛紛投入“可信AI”的研究。

IBM于2018年開發(fā)了多個AI可信工具,以評估測試人工智能產(chǎn)品在研發(fā)過程中的公平性、魯棒性、可解釋性、可問責(zé)性、價值一致性。

例如:公平性(Fairness),AI系統(tǒng)應(yīng)該采用不帶偏見的數(shù)據(jù)集和模型,從而避免對于特定群體的不公平;可解釋性(Explainability),AI系統(tǒng)所提供的決策或建議不是一個不可解釋的黑箱,應(yīng)該能夠被用戶和開發(fā)者所分析、理解;健壯性(Robustness),AI系統(tǒng)應(yīng)該安全和可靠,不會被篡改,也不會受被“污染”的訓(xùn)練數(shù)據(jù)集影響;透明性(Transparency),AI系統(tǒng)可以被透明化管理,其開發(fā)、部署、維護等可被追蹤,能夠在生命周期范圍內(nèi)被審核等。

目前,IBM這些工具已捐獻給Linux Foundation并成為了開源項目,幫助開發(fā)人員和數(shù)據(jù)科學(xué)家構(gòu)建可信、安全、可解釋的人工智能系統(tǒng)。

除此之外,微軟、谷歌、螞蟻、京東、騰訊、曠世等科技企業(yè),也在積極開展可信AI的研究和探索。

早在2015年2月,螞蟻集團就已啟動基于「端特征」的手機丟失風(fēng)險研究項目,邁出了端云協(xié)同風(fēng)控研究的第一步,旨在保護用戶的隱私安全。2017年6月,螞蟻又發(fā)布具備智能攻防能力的第一代智能風(fēng)控引擎AlphaRisk,在用戶集中的支付寶端進行風(fēng)險防控。

據(jù)了解,螞蟻集團自2015年起投入可信AI技術(shù)的研究。2016年,全面啟動了人工智能風(fēng)控防御戰(zhàn)略。目前,可信AI技術(shù)已在包括反欺詐、反洗錢、反盜用、企業(yè)聯(lián)合風(fēng)控、數(shù)據(jù)隱私保護在內(nèi)的多個風(fēng)控場景下落地,支撐著其全風(fēng)險域的防御需求。

至2021年首次對外披露技術(shù)架構(gòu),螞蟻集團已經(jīng)完成了長達6年的可信AI技術(shù)積累之路。據(jù)2021年6月權(quán)威專利機構(gòu)IPR daily發(fā)布的《人工智能安全可信關(guān)鍵技術(shù)專利報告》顯示,螞蟻集團旗下的支付寶在該領(lǐng)域的專利申請數(shù)和授權(quán)數(shù),均位列全球第一。

2021年,中國信通院聯(lián)合京東探索研究院發(fā)布了《可信人工智能白皮書》,可信AI已不再局限于對人工智能技術(shù)、產(chǎn)品和服務(wù)本身狀態(tài)的界定,而是逐步擴展至一套體系化的方法論,涉及到如何構(gòu)造“可信”人工智能的方方面面。

在企業(yè)管理上,商湯科技在2020年1月成立了人工智能倫理治理委員會,并于2021年上半年上線了倫理審核系統(tǒng),建立貫穿人工智能系統(tǒng)生命周期的風(fēng)險管理系統(tǒng),對將要落地的人工智能系統(tǒng)進行全過程的追溯和審查,為國內(nèi)科技企業(yè)做出了表率。

結(jié)語

AI技術(shù)已成為互聯(lián)網(wǎng)行業(yè)發(fā)展不可缺少的原動力之一。針對AI伴隨的風(fēng)險和挑戰(zhàn),發(fā)展可信AI,推動人工智能的透明可視、安全可控、多元包容已成為全球共識,也是未來人工智能健康發(fā)展的必由之路。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2022-01-19
AI值得信任嗎?“可信AI”或能給出答案
AI值得信任嗎?“可信AI”或能給出答案

長按掃碼 閱讀全文