文|柯鳴
來源|智能相對論
故事要從今年三月初說起。
今年三月,Google被爆料已經(jīng)與美國國防部(五角大樓)達成合作,幫助后者開發(fā)應用于無人機的人工智能系統(tǒng),項目代號Project Maven。
消息一出,瞬間風起云涌,谷歌員工表達了對此項目的強烈不滿。有員工認為Google在為五角大樓開放資源,助紂為虐般地幫助后者打造無人機監(jiān)控技術;還有一部分人質疑Google如此使用機器學習技術是否符合道德標準,他們認為五角大樓會將這一技術用于殺傷性武器,進而帶來技術樂觀派們從未想要造成的傷害。
隨后,谷歌超過3100名員工聯(lián)名請愿,上書CEO桑達爾·皮查伊(Sundar Pichai),表達抗議。
谷歌員工聯(lián)名上書Sundar Pichai
事情到四月底進一步發(fā)酵。有媒體發(fā)現(xiàn),Google刪掉了其沿用十八年的座右銘“Don't be evil”在公司行為守則開頭中的三處強調(diào)。僅在準則的結尾,還留有未被刪掉的一句:“記住,don't be evil,如果你看到了一些你認為不正確的事情,大聲說出來!”
上周五,在每周一次的“天氣預報”例會上,Google Cloud首席執(zhí)行官黛安·格林(Diane Greene)宣布,Google將在這次合約到期后結束與美國國防部的合作的Project Maven。
這無疑是一件大事?!皠倮南ⅰ痹诠雀鑳?nèi)部瘋傳。隨著一篇篇報道的蜂擁而出,這件事情似乎暫時以谷歌“向員工妥協(xié)、停止與國防部續(xù)約”的方式得以落幕。
但就在今天,谷歌CEO Sundar Pichai發(fā)表了署名題為《AI at Google:our principles》的文章,列出7大指導原則,并指出谷歌并不會終止與美軍的合作。谷歌的反轉讓人唏噓,雖然其明確了“不會追求的AI應用”,但技術作惡還是人作惡的問題,AI倫理再次引人深思。
AI倫理的邊界在哪里?
如果說谷歌近期來不太平,那么亞馬遜Alexa的日子也不好過。
亞馬遜的Echo設備被指控未經(jīng)許可將私人對話錄音,并將音頻發(fā)送給用戶聯(lián)系人列表中的隨機一位人士。這距離上次Alexa被爆出“嘲笑人類”事件的嚇人事件,還沒過過去多久。
Amazon對Alexa一事的回應
這可遠遠不是個例。早在2016年,一個人設為19歲少女、名為Tay的聊天機器人在推特上線。這個微軟開發(fā)的人工智能采用了自然語言學習技術,能夠通過抓取和用戶互動的數(shù)據(jù),處理并模仿人類的對話,像人一樣用笑話、段子和表情包聊天。但是上線不到一天,Tay就被“調(diào)教”成了一個滿口叫囂著種族清洗、粗野不堪的極端分子,微軟只好以“系統(tǒng)升級”為由將其下架。
12下一頁>(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )