原標題:你如果想打我,AI可不一定答應
文|柯鳴
來源|智能相對論(aixdlun)
如果有一天,你想打我(賤兮兮),你以為一拳頭揮過來就完事了嗎?
現在可不那么簡單了?,F在你如果想要打我,不僅要問問我爸媽同不同意,還得問問AI答不答應,可能你還沒動手,就已經被我的AI所攔截下來了。
沒錯,“暴力檢測”成為了當下的一個熱門。在人群中實時檢測“暴力行為”成為了現實,如果你想打架,最好先看看AI同不同意。
“檢測暴力”的AI
這種能夠檢測“暴力行為”的AI系統(tǒng)由英國劍橋大學、印度國家技術研究院和印度科學理工學院的研究人員研發(fā),此類AI技術利用懸停式四軸飛行器上的攝像頭來檢測每個人的身體動作。然后,當系統(tǒng)識別出攻擊性的行為,如拳打、腳踢、刺殺、射擊、掐脖子等時,它就會發(fā)出警報,準確率達到85%。它不識別人臉——只是監(jiān)測人們之間可能的暴力行為。
借由無人機實現AI“暴力檢測”
這個系統(tǒng)可以擴展到自動識別非法越境的人,在公共場所發(fā)現綁架事件,并在發(fā)現暴力行為時發(fā)出警報。因此,在某種程度上,這種自主間諜無人機可以幫助警察壓制犯罪,或幫助士兵在無辜群眾中找出敵人。
AI在檢測暴力動作時,主要分為五個類型:扼殺、拳打、踢踹、槍擊,以及刺傷。系統(tǒng)先用FPN(特征金字塔網絡)檢測在場的所有人類,并標記出頭、上肢、下肢三個部分的14個重要位點,畫出人體的骨架。然后,SHDL網絡可以分析四肢朝向等數據,判斷那些人是不是在使用暴力。
可用于檢測公共區(qū)域或大型聚會中的暴力分子姿態(tài)估計pipeline
當然,AI暴力檢測的效果也與數據處理人數有著很大關系。一般來說,系統(tǒng)需要處理的人數更少時,準確率會更高。如只需處理一人時,系統(tǒng)準確率可以達到94.1%,如果人數超過了十人,準確率下降到僅79.8%。同樣,其在檢測扼殺、拳打、踢踹、槍擊,以及刺傷五種暴力行為時,也存在著準確率差異。
檢測不同暴力行為的準確率
檢測不同人數時的準確率
另一方面,無人機的應用也存在著一定的使用條件限制問題。在真正應用場景中,無人機無法直接靠近斗毆人群,只能實行高空檢測,而這一定程度上降低了能見度和檢測準確度。
AI檢測暴力,依然存在著眾多問題
AI檢測在人工智能領域早已經不是新鮮事。不論是此前的Dextro公司利用機器學習來解讀視頻的聲音和圖象信息,還是谷歌解決雞尾酒會問題,并成功推出新一代Google Assistance,AI檢測一直是各領域應用的重要方式。
在云端執(zhí)行推理有潛在的安全和隱私風險,因為要將人們的視頻傳輸到第三方計算系統(tǒng)中。當AI滲入日常生活的監(jiān)測過程之中,智能相對論(aixdlun)分析師柯鳴認為,其依然就幾個問題“有待解決”。
1.泛濫的用戶信息泄露
2017年,是數據泄露極為猖獗的一年。根據金雅拓(Gemalto)近期發(fā)布的一份報告“2017 Poor International Security Practices Take a Toll”顯示,2017年僅上半年被盜的數據,就已超過2016年全年被盜數據的總量。
2017年1月到6月,平均每天有1050萬條記錄被盜。盡管很多數據泄露來自于外部黑客攻擊所致,但所造成的記錄被盜或遺失,僅占13%;相比之下,內部惡意泄露、員工疏忽無意泄露等造成的卻占19億被盜數據中的86%。
早在此前的Cambridge Analytica丑聞造成了8700萬人的信息泄露,并且對2016年唐納德·特朗普參與美國總統(tǒng)競選的結果造成了影響。Facebook數據泄露事件再次向人們展現了信息泄露的危害,“被行為”或是“誘導行為”成為許多數據公司利用用戶信息進行的不良操作。
可想而知,如果當AI監(jiān)測暴力系統(tǒng)被惡意使用,其帶來的風險更是相當嚴重。諸如此類的面部識別技術,如亞馬遜的Rekognition服務,已經被美國警方采用。這些系統(tǒng)經常受到高誤報率的困擾,或者根本就不準確,所以像這樣的技術要和無人機結合還需要一段時間。
2.“大數據殺熟”
從目前眾多AI應用的表現來看,隱私數據的泄露所導致的“大數據殺熟”是一個不容忽視的問題。
信息泄露不僅會威脅到一個普通用戶的網絡賬戶安全,更會直接影響到其現實生活中的方方面面。最近鬧得沸沸揚揚的Facebook用戶數據泄露更是讓全球用戶紛紛自危,不少知名人士更是宣布從Facebook退出,揚言保護自身隱私數據安全。
在前段時間,滴滴被曝光對用戶進行大數據殺熟,一時之間輿論紛紛,顯然被人區(qū)別對待的感受不是每個人都喜歡,尤其是在加價的情況下。雖然之后滴滴很快對其進行了澄清,但大數據殺熟這種方式卻已經被世人獲知。
那么什么是大數據殺熟,通常而言,這種行為指的是通過大數據來判斷用戶消費潛力,當判斷用戶為高消費者時,則會對用戶進行區(qū)別對待,提高其消費價格,比其他用戶花費更多資金才能享受到相同的商品及服務。
互聯網上的殺熟早就不是什么新鮮的事情,自互聯網誕生以來,這種行為便一直存在。而在2000年,也發(fā)生了一件令人矚目的殺熟事件。有亞馬遜用戶反映,在其刪除瀏覽器cookies之后,之前瀏覽過的DVD商品售價從26.24美元降至22.74美元。
此消息一出,備受輿論壓力的亞馬遜只能出來解釋,稱這項功能只是向不同顧客展示的差別定價實驗,絕對與客戶數據沒有關系。最后也只能努力公關,才度過了這個信任危機。如今的一些互聯網公司,顯然已經忘記了亞馬遜當年的遭遇,試圖重蹈覆轍。
3.AI監(jiān)測恐侵犯主體的“知情權”
在AI監(jiān)測的過程中,“知情”確實成為了一個倫理爭論的焦點?!叭绾伪O(jiān)測”、“是否知情”爭議不斷。誠然,隨著行為識別技術的不斷發(fā)展,許多識別技術都可以實現“非受控性”:即主體無需配合,依然可以實現精準識別。
這無疑將AI倫理提到了一個新的高度。信息不再為我所有,確實讓人細思極恐。那么,在公安與刑偵領域,AI監(jiān)測尚可讓人信服,但在其他民用甚至是商用領域,如何平衡好“獲取信息”與保障和滿足受眾基本的知情權將會成為一個重點和難點。
顯然,許多大公司在此類“獲取信息”與“保障隱私”兩者中積極尋求平衡。Facebook首席運營官雪莉·桑德伯格(Sheryl Sandberg)宣布為了響應歐盟即將于五月份生效的新隱私法規(guī),Facebook將讓其20億用戶更容易地管理自己的個人數據。
在歐盟,將于今年五月份實施的《通用數據保護條例》(General Data Protection Regulation,GDPR)是自互聯網誕生以來對個人隱私數據法規(guī)的最大一次修訂。該條例旨在給予歐盟成員國內居民更多管理自身信息的權限,并規(guī)定了公司使用用戶數據的方法。
總的來說,AI監(jiān)測暴力的出現,為安防與刑偵領域提供了一個便捷之道。但是,作為極為敏感的領域,精確性的問題依然是不可忽視的。畢竟,冤枉一個好人永遠都不是一件好事。
智能相對論(微信id:aixdlun):深挖人工智能這口井,評出咸淡,講出黑白,道出深淺。重點關注領域:AI+醫(yī)療、機器人、智能駕駛、AI+硬件、物聯網、AI+金融、AI+安全、AR/VR、開發(fā)者以及背后的芯片、算法、人機交互等。
- 蜜度索驥:以跨模態(tài)檢索技術助力“企宣”向上生長
- 美媒聚焦比亞迪“副業(yè)”:電子代工助力蘋果,下個大計劃瞄準AI機器人
- 微信零錢通新政策:銀行卡轉入資金提現免手續(xù)費引熱議
- 消息稱塔塔集團將收購和碩印度iPhone代工廠60%股份 并接管日常運營
- 蘋果揭秘自研芯片成功之道:領先技術與深度整合是關鍵
- 英偉達新一代Blackwell GPU面臨過熱挑戰(zhàn),交付延期引發(fā)市場關注
- 馬斯克能否成為 AI 部部長?硅谷與白宮的聯系日益緊密
- 余承東:Mate70將在26號發(fā)布,意外泄露引發(fā)關注
- 無人機“黑科技”亮相航展:全球首臺低空重力測量系統(tǒng)引關注
- 賽力斯發(fā)布聲明:未與任何伙伴聯合開展人形機器人合作
- 賽力斯觸及漲停,汽車整車股盤初強勢拉升
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。