原標(biāo)題:MIT和微軟的新成果,能否幫自動駕駛擺脫成長的煩惱?
市場運力嗷嗷待哺,科技公司和汽車廠商們前赴后繼揮金如土,無人車路測也早已不是什么新鮮事,但自動駕駛的到來卻沒有想象中那么一蹴而就。至少這兩年,它的煩心事還挺多。
在美國無人車政策最友好的亞利桑那州,兩年間就發(fā)生了至少21起民眾騷擾自動駕駛車輛和安全員的事件,甚至還有人持槍嚇唬安全員,要求無人車滾出街區(qū)。
之所以犯了眾怒,根本原因還是技術(shù)性失敗太多了。數(shù)據(jù)顯示,2014-2018年,加州自動駕駛事故的發(fā)生率連年增長,谷歌Waymo、通用Cruise、蘋果、TRI(豐田研究所)、Drive.ai、UATC(Uber)等巨頭一個都沒能幸免。
縱然謹(jǐn)小慎微,依舊動輒得咎,無人車表示心里很苦。
經(jīng)過數(shù)年的發(fā)展,自動駕駛的感知技術(shù)已經(jīng)取得了長足的發(fā)展,高精度傳感器和攝像頭早就是標(biāo)配。技術(shù)困境中的自動駕駛,恐怕需要一個更天秀的決策系統(tǒng),來挽救自己日漸失去的人心。
而最近,這個救世英雄好像真的出現(xiàn)了。
防無人車甚于防川?自動駕駛的老問題與新解法
從加州機車輛管理局(DMV)剛剛披露的《2018年自動駕駛接管報告》中,我們可以得出一個基本結(jié)論:
自動駕駛初級階段的基本矛盾,是人民日益增長的自動化期待值同落后的無人車駕駛技術(shù)之間的矛盾。
事實證明,盡管原本對無人車認(rèn)路造成限制的空間感知能力已經(jīng)大大增強,也沒能幫助它們很好地適應(yīng)現(xiàn)實世界。這也就不能怪大眾對無人車上路沒啥好臉色了。
像是惡名昭著的“Uber 無人車事件”,就是在探測到行人的前提下,系統(tǒng)卻認(rèn)為當(dāng)前的位置不足以阻擋正常的駕駛行為,于是選擇了以61公里的時速繼續(xù)前進,沒能留下足夠的反應(yīng)時間。
明明已經(jīng)在實驗室里接受過“遇到障礙物主動剎車”的培訓(xùn)了,但真正上路時,做出準(zhǔn)確而符合邏輯的判斷,對自動駕駛汽車來說依然是一件相當(dāng)有難度的事情。
“心太大”容易釀成事故,太“肉”也有可能成為眾矢之的。鳳凰城里,Waymo在每個有停車標(biāo)志的地方都會停車至少三秒鐘,讓排在它后面的人類司機十分抓狂,沒少受市民的吐槽。
目前看來,能為自動駕駛汽車挽尊的,只有風(fēng)控和效率兩手抓的決策系統(tǒng)了。
但遺憾的是,很多現(xiàn)實中人類可以輕松處理的交通狀況,機器就是無法做出準(zhǔn)確、高效又足夠謹(jǐn)慎的判斷。因此,自動駕駛在很長一段時間內(nèi),還要依靠人工操作來彌補系統(tǒng)智商與人類期望之間的差距了。人工接管頻率也因此成為了評價自動駕駛技術(shù)最重要的指標(biāo)。
根據(jù)DMV的報告,技術(shù)最出色的Waymo,平均跑17846.8公里才需要人工接管一次;而被吊銷了路測資格證的Uber,跑0.6公里就要被接管一次,這是想累死自家的安全員呀!
在一份谷歌提交的報告中,14個月的路測中自動駕駛和汽車就有272次汽車主動脫離無人駕駛狀態(tài),還有69次安全員決定接過控制權(quán)。谷歌表示,如果沒有安全員的介入,無人車可能會發(fā)生13次交通碰撞事故。
在這種情況下,加州不得不規(guī)定,未來所有無人自動駕駛汽車公司都要設(shè)立遠(yuǎn)程人工控制室,在意外情況時能夠接管汽車駕駛工作。
但如果以為只要有人類接管就能萬事大吉,那可就太天真了。且不論未來全靠人工來解決無人車的意外問題,需要多么龐大的人工成本。就自動駕駛汽車現(xiàn)在這智商,讓它獨自上路,就算能在云端看著也不放心啊。
治本的辦法,還是要讓無人車學(xué)會在沒有人類干預(yù)的情況下完全自動而安全地控制汽車。這可能嗎?
麻省理工和微軟最新的研究成果,就有可能讓系統(tǒng)在訓(xùn)練過程中就認(rèn)識并改正自己的錯誤操作,從而在實際駕駛中能夠處理那些現(xiàn)階段只能由人來判斷的意外狀況。
人類的新角色:從幫無人車收拾爛攤子,到機器智能訓(xùn)練師
在最新的研究中,麻省理工和微軟提出了一個全新的自動駕駛訓(xùn)練方式,來幫助無人車在遇到意外時做出更好的決策,而不是出事了才手把手地給它收拾爛攤子。
前期工作和傳統(tǒng)的訓(xùn)練方法一樣,研究人員對自動駕駛系統(tǒng)進行全方位的仿真訓(xùn)練,以便為車輛上路時可能遭遇的每一件事做好準(zhǔn)備。
不同的是,當(dāng)自動駕駛汽車被部署到現(xiàn)實世界中運行時,新的“認(rèn)知盲點訓(xùn)練”才剛剛開始。在自動駕駛測試車沿著預(yù)定的路線行駛時,人類會時刻密切地監(jiān)視系統(tǒng)的行為,但核心任務(wù)并不是幫它救急,而是讓它觀察,在遭遇意外狀況時,人類會怎么做。
如果汽車的行為是正確的,那人類就什么也不做。如果汽車的行動偏離了人類行為,那么人類就會接管過方向盤。此時,系統(tǒng)就會接收到一個信號,在這種特殊情況下,哪種才是可行的方案,怎樣的操作是不能被接受的。
通過收集系統(tǒng)發(fā)生或即將發(fā)生任何錯誤時人類的反饋數(shù)據(jù),系統(tǒng)就有了一個人類反饋行為清單。研究人員將數(shù)據(jù)結(jié)合起來生成的新模型,就可以更精確地預(yù)測出,系統(tǒng)最需要如何采取哪些正確的行動方式。
值得注意的是,在這個訓(xùn)練過程中,系統(tǒng)可能會接受到很多個相互矛盾的信號。
比如在系統(tǒng)眼中,和一輛大型汽車并行巡航時不減速是完全OK的,但如果對方是一輛救護車的話,不減速就并行就會被判錯誤。
高度相似的情境,人類會做出截然相反的反應(yīng)。這種決策時的模糊地帶,也是目前自動駕駛系統(tǒng)最容易犯錯的地方,也是需要重新認(rèn)知的“盲點”。
為了解決這一問題,MIT和微軟的研究人員使用了一種Dawid-Skene的機器學(xué)習(xí)算法。該算法會為系統(tǒng)的行為分別打上“可接受”和“不可接受”兩種標(biāo)簽,以此來判斷系統(tǒng)在處理每個情況時,決策策略究竟是“安全”還是出現(xiàn)了“盲點”,再以此優(yōu)化標(biāo)簽的可信度。
經(jīng)過反復(fù)測試,系統(tǒng)會記住遭遇過的模糊情境,并根據(jù)標(biāo)簽推算出一個“犯錯比”概率。
舉個例子,如果系統(tǒng)在救護車情境中有10次執(zhí)行了9次正確的操作(減速/停車),那么就會將這種特殊狀況下的選擇標(biāo)記為是安全的。
簡單來說,搭載了“犯錯比”的自動駕駛系統(tǒng),在人類的幫助下建立了一個可供自己反思的“錯題集”,面對往常容易出錯的“認(rèn)知盲點”和模糊情境時,就可以調(diào)取出可被人類所接受的行為方式,更加謹(jǐn)慎和明智地信息行動。
人類的一小步,自動駕駛的一大步?
從實用性來看,該研究還面臨一些現(xiàn)實問題。
比如說一般情況下,不可接受的行為比可接受的行為少得多,這就意味著,通過概率計算訓(xùn)練出的系統(tǒng),很可能在實際操作中預(yù)測所有情況都是安全的,這無疑是極其危險的。
這種新的訓(xùn)練方式真正的潛力在于,憑借符合常識的操作,讓自動駕駛有了更光明的前景。
首先,由于人類的高度參與,自動駕駛在真正上路之前,能夠很好地預(yù)測在新的情況下可能會采取不正確的行動。過去,這些只能被動地等待安全員或云端人員處理。
正如賓夕法尼亞大學(xué)教授Eric Eaton所說的那樣,“這項研究讓機器智能和現(xiàn)實世界之間的不匹配來到了一個轉(zhuǎn)折點,直接從人類對系統(tǒng)行為的反饋中推動機器智能的進步?!?/p>
另一方面,“人工”+“智能”的解決方案,也破除了造成“AI具有超能力”這一錯覺的伊萊扎效應(yīng)(Eliza effect)。在一些復(fù)雜多變的現(xiàn)實世界中,人類處理“盲點”的能力遠(yuǎn)比AI更出色。
這有助于將自動駕駛從過度樂觀和過度悲觀的兩種極端情緒拉回到中間狀態(tài)。
于是我們知道,自動駕駛的發(fā)展,既不像大眾期待的那種“一步跨進自動化”,也不像唱衰者眼中那么凄風(fēng)苦雨,要等數(shù)十年才能信任AI駕駛。
在振蕩中前進,才是AI進入生活最真實的樣子。
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長
- 美媒聚焦比亞迪“副業(yè)”:電子代工助力蘋果,下個大計劃瞄準(zhǔn)AI機器人
- 微信零錢通新政策:銀行卡轉(zhuǎn)入資金提現(xiàn)免手續(xù)費引熱議
- 消息稱塔塔集團將收購和碩印度iPhone代工廠60%股份 并接管日常運營
- 蘋果揭秘自研芯片成功之道:領(lǐng)先技術(shù)與深度整合是關(guān)鍵
- 英偉達新一代Blackwell GPU面臨過熱挑戰(zhàn),交付延期引發(fā)市場關(guān)注
- 馬斯克能否成為 AI 部部長?硅谷與白宮的聯(lián)系日益緊密
- 余承東:Mate70將在26號發(fā)布,意外泄露引發(fā)關(guān)注
- 無人機“黑科技”亮相航展:全球首臺低空重力測量系統(tǒng)引關(guān)注
- 賽力斯發(fā)布聲明:未與任何伙伴聯(lián)合開展人形機器人合作
- 賽力斯觸及漲停,汽車整車股盤初強勢拉升
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。