人工智能也有性別喜好?對女性有偏見?

近日,亞馬遜人工智能招聘軟件因收到大多簡歷來自男性,而做出了對男性候選人的偏好選擇,據(jù)說它曾接受了十年的人工智能算法的數(shù)據(jù)訓練。

據(jù)路透社報道,亞馬遜于2014年開始開發(fā)自動化系統(tǒng),為求職者提供一到五顆星。但去年,該公司在看到它已經開始偏愛技術角色的男性候選人之后取消了該項目。

因為AI工具接受了公司收到的10年簡歷的培訓。由于科技是男性主導的行業(yè),大多數(shù)簡歷來自男性。導致該系統(tǒng)無意間接受了選擇男性候選人而不是女性候選人的培訓。據(jù)報道,它將對包含“婦女”一詞或某些全女子學院名稱的簡歷進行處罰。盡管亞馬遜做出了改變以使這些術語保持中立,但該公司仍然失去了對該計劃在所有其他領域確實性別中立的信心。

什么是數(shù)據(jù)訓練?

這里可以拿兩件事作為案例,一個是“飛豬大數(shù)據(jù)殺熟”事件,另一個是淘寶的“用戶畫像標簽”。

近日,作家王小山在微博發(fā)問表示,在飛豬購買機票時遇到“殺熟”問題。飛豬上售賣的機票價格高于其他訂票平臺,且訂票價格遠高于查票時顯示的價格,對此,飛豬回應稱,“絕無此事”。雙方各執(zhí)一詞。蒼蠅不叮無縫的雞蛋,對于OTA行業(yè)而言,殺熟,價格陷阱成了所有玩家的習慣性套路,類似的事件也不止一起:

就在去年的國慶假期后,演員韓雪在微博怒斥“攜程旅行網”捆綁銷售,多次反饋未得到妥善處理。

去年清明節(jié),據(jù)用戶爆料,在攜程上面,iPhone8 plus手機預定酒店的價格要高于安卓機華為mate 8,隨即引起廣泛熱議。

當然大數(shù)據(jù)的使用也不只是反面例子,利用“大數(shù)據(jù)”當然也不止這一個行業(yè),如果大數(shù)據(jù)引導消費者,被更好地利用為用戶創(chuàng)造價值,對于雙方都是一件利好的事,比如電商淘寶在建立“用戶畫像標簽”煞費苦心,根據(jù)檢測用戶對不同活動與產品的敏感度來判斷用戶的喜好,在建立起“淘氣值”會員衡量標準體系后,將其作為用戶最重要的用戶畫像標簽,每個用戶都只有一個數(shù)值。通過這個數(shù)值,阿里可以直接進行用戶分層,實現(xiàn)精細化運營。不同淘氣值,不同服務。

亞馬遜和以上兩則都是關于“大數(shù)據(jù)”使用的結果,可能最大的差距就是一個被動一個是主動的。

大數(shù)據(jù)與人工智能

大數(shù)據(jù)是一種規(guī)模大到在獲取、存儲、管理、分析方面大大超出了傳統(tǒng)數(shù)據(jù)庫軟件工具能力范圍的數(shù)據(jù)集合,具有海量的數(shù)據(jù)規(guī)模、快速的數(shù)據(jù)流轉、多樣的數(shù)據(jù)類型和價值密度低四大特征。

大數(shù)據(jù)能夠幫助各行各業(yè)的企業(yè)從原本毫無價值的海量數(shù)據(jù)中挖掘出用戶的需求,使數(shù)據(jù)能夠從量變到質變,真正產生價值。隨著大數(shù)據(jù)的發(fā)展,其應用已經滲透到農業(yè)、工業(yè)、商業(yè)、服務業(yè)、醫(yī)療領域等各個方面,成為影響產業(yè)發(fā)展的一個重要因素。

當前人們所說的人工智能,是指研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術以及應用系統(tǒng)的一門新的技術科學,是由人工制造出來的系統(tǒng)所表現(xiàn)出來的智能。

在“深度學習”被提出后,其通過深層神經網絡算法來模擬人的大腦學習過程,通過輸入與輸出的非線性關系將低層特征組合成更高層的抽象表示,最終達到掌握運用的水平。

數(shù)據(jù)量的豐富程度決定了是否有充足數(shù)據(jù)對神經網絡進行訓練,進而使人工智能系統(tǒng)經過深度學習訓練后達到強人工智能水平。因此,能否有足夠多的數(shù)據(jù)對人工神經網絡進行深度訓練,提升算法有效性是人工智能能否達到類人或超人水平的決定因素之一。

隨著移動互聯(lián)網的爆發(fā),數(shù)據(jù)量呈現(xiàn)出指數(shù)級的增長,大數(shù)據(jù)的積累為人工智能提供了基礎支撐。同時受益于計算機技術在數(shù)據(jù)采集、存儲、計算等環(huán)節(jié)的突破,人工智能已從簡單的算法+數(shù)據(jù)庫發(fā)展演化到了機器學習+深度理解的狀態(tài)。

針對最開始的“人工智能偏見”事件,我們不能將人工智能視為內在的無偏見。在有偏見的數(shù)據(jù)上訓練系統(tǒng)意味著算法也會變得有偏見。如果這樣的不公平的人工智能招聘計劃在實施之前沒有被發(fā)現(xiàn),它們將使商業(yè)中長期存在的多樣性問題長期存在而不是解決它們。

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
2018-10-12
人工智能也有性別喜好?對女性有偏見?
近日,亞馬遜人工智能招聘軟件因收到大多簡歷來自男性,而做出了對男性候選人的偏好選擇,據(jù)說它曾接受了十年的人工智能算法的數(shù)據(jù)訓練。

長按掃碼 閱讀全文