AI比你更懂你的狗子

人工智能正在超越人類,通過(guò)掃描動(dòng)物面部表情識(shí)別壓力和疼痛,甚至可能解讀更復(fù)雜的情感。

在英格蘭東南部一個(gè)細(xì)雨蒙蒙的清晨,數(shù)百頭粉紅色的母豬在6點(diǎn)準(zhǔn)時(shí)醒來(lái),準(zhǔn)備享用早餐。它們哼哼著,流著口水,急切地?cái)D向幾十個(gè)喂食欄,爭(zhēng)先恐后地沖向早餐。

但在享用美食之前,它們得先拍張照片。

每頭豬擠進(jìn)喂食欄時(shí),一個(gè)小攝像頭會(huì)拍下它的面部照片。不到一秒鐘,人工智能系統(tǒng)就能通過(guò)它的鼻子、耳朵、眼睛等面部特征識(shí)別出它。然后,AI會(huì)根據(jù)這些信息定制一份早餐,直接送進(jìn)食槽。

與此同時(shí),系統(tǒng)繼續(xù)分析照片,尋找面部表情中可能表明疼痛、疾病或情緒困擾的跡象。如果發(fā)現(xiàn)任何異常,系統(tǒng)會(huì)立即向在隔壁房間享用早晨咖啡的農(nóng)場(chǎng)主發(fā)出警報(bào)。

這些饑餓的小豬們是Intellipig系統(tǒng)的無(wú)意中的測(cè)試者,該系統(tǒng)由英國(guó)西英格蘭大學(xué)(UWE)和蘇格蘭農(nóng)村學(xué)院(SRUC)的科學(xué)家們開發(fā),旨在解決動(dòng)物福利中的一個(gè)根本問(wèn)題:我們?nèi)祟惒⒉簧瞄L(zhǎng)理解動(dòng)物的感受。

Intellipig團(tuán)隊(duì)并不孤單。全球的科學(xué)家們都在利用人工智能來(lái)解讀動(dòng)物的面部表情,從綿羊到馬匹再到貓咪。一些人已經(jīng)開發(fā)出比最細(xì)心的人類更快、更準(zhǔn)確的算法,能識(shí)別疼痛和壓力的跡象。

這些工具可能開啟一個(gè)新時(shí)代,讓我們更加關(guān)注動(dòng)物的健康、福利和保護(hù),UWE的機(jī)器視覺(jué)工程師Melvyn Smith說(shuō)。他領(lǐng)導(dǎo)了Intellipig系統(tǒng)的設(shè)計(jì)。更令人期待的是,AI未來(lái)可能在解讀更復(fù)雜的情感方面超越人類,比如快樂(lè)、寧?kù)o、挫敗或恐懼,這些情感同樣重要,只有理解它們,才能給動(dòng)物提供最好的生活。

然而,像大多數(shù)研究AI的科學(xué)家一樣,動(dòng)物行為研究人員也擔(dān)心過(guò)度依賴機(jī)器,尤其是在涉及動(dòng)物福利時(shí)。“也許機(jī)器最終會(huì)比我們更強(qiáng),我不知道,”SRUC的動(dòng)物行為科學(xué)家Emma Baxter說(shuō),她與Smith合作。“我希望專家能有發(fā)言權(quán),確保AI真的在做它該做的事?!?/p>

科學(xué)家們?cè)缇椭?,和我們一樣,?dòng)物通過(guò)面部表情傳達(dá)感受。在1872年出版的《人類與動(dòng)物的情感表達(dá)》一書中,查爾斯·達(dá)爾文提出,面部表情是哺乳動(dòng)物間的一種“共同語(yǔ)言”,這種能力必然在我們的進(jìn)化歷史中早早出現(xiàn)。

達(dá)爾文的理論主要基于解剖學(xué),諾丁漢特倫特大學(xué)的心理學(xué)家Bridget Waller說(shuō)。哺乳動(dòng)物,包括人類,有許多共同的面部肌肉,用于做出面部表情。例如,我們與狗共享38%的面部動(dòng)作,與貓共享34%,與靈長(zhǎng)類和馬共享47%。

盡管解剖學(xué)相似,但我們無(wú)法像讀懂人類面孔一樣讀懂動(dòng)物的面孔。因此,研究動(dòng)物溝通的科學(xué)家往往通過(guò)情境來(lái)推測(cè)動(dòng)物的感受。

疼痛是最明顯的例子:一匹剛被閹割的馬或一只因足腐病而跛行的綿羊無(wú)疑感到疼痛。研究動(dòng)物表情的科學(xué)家有時(shí)會(huì)通過(guò)給動(dòng)物帶來(lái)輕微不適來(lái)進(jìn)行研究,比如在腿上綁緊血壓袖帶,或在皮膚上涂抹少量辣椒提取物。給動(dòng)物使用止痛藥通常會(huì)讓它感覺(jué)好些。

同樣,給許多物種帶來(lái)輕微壓力也很容易,比如讓馬或貓短途旅行,或暫時(shí)與朋友分開幾分鐘。為了研究年輕母豬的壓力,Baxter會(huì)帶來(lái)年長(zhǎng)的母豬,它們通過(guò)表現(xiàn)出主導(dǎo)地位來(lái)威脅年輕母豬。焦慮行為,如叫喊和排便,以及壓力激素皮質(zhì)醇水平的急劇上升,可以確認(rèn)動(dòng)物處于壓力狀態(tài)。

科學(xué)家們花了成千上萬(wàn)個(gè)小時(shí)坐在豬圈和籠子前,觀察動(dòng)物在這些疼痛或壓力情境下的面部表情,然后與那些可能沒(méi)有疼痛或壓力的動(dòng)物進(jìn)行比較。結(jié)果,他們?yōu)槎喾N物種開發(fā)出“痛苦指數(shù)”,根據(jù)面部肌肉的運(yùn)動(dòng)來(lái)衡量動(dòng)物感受到的疼痛或壓力程度。

例如,一匹旋轉(zhuǎn)耳朵向外并在眼睛上方形成“擔(dān)憂皺紋”的馬,比一匹保持耳朵和眼睛放松的馬更有可能感到疼痛,瑞典農(nóng)業(yè)科學(xué)大學(xué)的馬匹外科醫(yī)生Pia Haubro Andersen說(shuō)。馬會(huì)通過(guò)類似的耳朵動(dòng)作和皺紋表達(dá)壓力,但也會(huì)露出舌頭等細(xì)微差別。

專家們已經(jīng)掌握了手動(dòng)編碼這些動(dòng)物面部動(dòng)作的技能,理論上可以進(jìn)行福利檢查。但這是一項(xiàng)非常繁瑣的工作,Andersen說(shuō)。人類編碼員平均需要100秒才能在單張圖像中識(shí)別各種面部肌肉并編碼它們的位置,或者需要2到3個(gè)小時(shí)才能完成30秒的視頻。

而AI可以在瞬間完成同樣的任務(wù),但前提是它需要學(xué)習(xí)。

在以色列海法大學(xué)的辦公室里,計(jì)算機(jī)科學(xué)家Anna Zamansky在工作日經(jīng)常要忍受警報(bào)和爆炸的喧囂。她曾多次帶著筆記本電腦和心愛的巧克力貴賓犬Becky——也是她最喜歡的研究模特——躲進(jìn)防空洞。

然而,與加沙大學(xué)廢墟中的科學(xué)家們不同,Zamansky的團(tuán)隊(duì)能夠繼續(xù)他們的研究。他們正在訓(xùn)練AI系統(tǒng)自動(dòng)讀取動(dòng)物的面部表情,以改善它們的生活?!皩⑽覀兊闹腔酆妥罴涯芰τ糜诟纳苿?dòng)物福利?這真的幫助我們?cè)谶@些艱難時(shí)刻生存下來(lái),”她說(shuō)?!斑@讓我們感到希望?!?/p>

Zamansky最初開發(fā)了一種面部識(shí)別軟件,幫助人們找到走失的狗。狗主人將狗的面部照片上傳到軟件中,軟件會(huì)在由熱心陌生人提交的流浪狗圖像數(shù)據(jù)庫(kù)中搜索匹配項(xiàng)。Zamansky和她的合作開發(fā)者George Martvel——一名逃避俄羅斯征兵的烏克蘭戰(zhàn)爭(zhēng)難民——已經(jīng)將這項(xiàng)技術(shù)捐贈(zèng)給在烏克蘭和巴西洪水地區(qū)工作的救援組織,幫助數(shù)十只走失的狗與主人團(tuán)聚。

最近,團(tuán)隊(duì)轉(zhuǎn)向了一項(xiàng)更具挑戰(zhàn)性的任務(wù):利用AI識(shí)別動(dòng)物面部表情中微妙的不適跡象。首先,AI系統(tǒng)必須學(xué)會(huì)識(shí)別與創(chuàng)建表情相關(guān)的面部部位。這需要在無(wú)數(shù)動(dòng)物照片上手動(dòng)標(biāo)記與肌肉運(yùn)動(dòng)相關(guān)的重要“標(biāo)志點(diǎn)”,例如眼睛的上下部或鼻孔的兩側(cè),并將圖像轉(zhuǎn)換成一堆數(shù)字點(diǎn),就像兒童連點(diǎn)畫書中的一頁(yè)。在肯尼亞自由職業(yè)者的幫助下,Martvel和同事們已經(jīng)為多種物種,包括貓、狗、馬和靈長(zhǎng)類動(dòng)物,標(biāo)記了“成千上萬(wàn)”的面孔。

科學(xué)家們可以將大量標(biāo)記好的照片輸入AI,教它自動(dòng)在新圖像上找到標(biāo)志點(diǎn)。例如,2016年,劍橋大學(xué)的計(jì)算機(jī)科學(xué)家Peter Robinson及其團(tuán)隊(duì)在研究人類面部的基礎(chǔ)上,開發(fā)了一種工具,可以自動(dòng)找到綿羊面部上的嘴巴、眼睛和耳尖。一年后,加州大學(xué)戴維斯分校的計(jì)算機(jī)科學(xué)家們開發(fā)了一種程序,通過(guò)將馬和羊的面孔變形為更接近人類的形狀,來(lái)自動(dòng)在這些動(dòng)物的面孔上放置標(biāo)志點(diǎn)。

Martvel的AI現(xiàn)在已經(jīng)非常擅長(zhǎng)自動(dòng)標(biāo)記,甚至可以在看不到整張臉的情況下找到點(diǎn)的位置,比如狗把鼻子埋在食盆里,或者貓從沙發(fā)后面探出頭來(lái)。

一旦標(biāo)記完成,AI就可以通過(guò)分析這些標(biāo)志點(diǎn)之間的距離來(lái)識(shí)別特定的面部表情。例如,如果一只貓緊張地張大和繃緊嘴巴,口角兩側(cè)的兩個(gè)點(diǎn)之間的距離就會(huì)變寬。通過(guò)將這些表情與研究人員已經(jīng)創(chuàng)建的痛苦指數(shù)進(jìn)行交叉引用,AI可以尋找疼痛或壓力的跡象。

經(jīng)過(guò)這些艱苦的訓(xùn)練,AI系統(tǒng)能夠以令人印象深刻的精度診斷福利問(wèn)題。例如,Robinson的AI成功識(shí)別出羊群中少數(shù)患有足腐病或乳腺炎的母羊。2023年,Zamansky和她的學(xué)生Marcelo Feighelstein發(fā)現(xiàn),他們的AI在判斷貓是否感到疼痛時(shí)的準(zhǔn)確率為77%。

盡管有效,這些工具仍然依賴于人類對(duì)動(dòng)物表情中尋找什么的初步判斷。因此,最近研究人員將更多的控制權(quán)交給了AI。一些科學(xué)家不再教計(jì)算機(jī)系統(tǒng)尋找預(yù)定義的疼痛或壓力表情,而是給AI提供不同情境下的動(dòng)物圖像,讓它自行發(fā)現(xiàn)跡象,這個(gè)過(guò)程稱為深度學(xué)習(xí)。

這就是圣保羅大學(xué)獸醫(yī)Gabriel Lencioni的方法。他是馬匹行為與福利的博士生。在最近的研究中,他給AI系統(tǒng)提供了手術(shù)前后以及計(jì)劃止痛藥前后的馬匹面部照片,指示機(jī)器專注于耳朵、眼睛和嘴巴的差異。經(jīng)過(guò)3000張圖像的訓(xùn)練,“AI自己學(xué)會(huì)了”,他說(shuō);最終,它能在88%的時(shí)間里正確診斷出動(dòng)物是否感到疼痛。Andersen和她的同事Sofia Broomé開發(fā)了一種類似的工具,通過(guò)視頻而不是圖像訓(xùn)練AI;在測(cè)試中,AI不僅識(shí)別出獸醫(yī)遺漏的疼痛跡象,還正確地宣布專家認(rèn)為有疼痛的動(dòng)物實(shí)際上無(wú)痛。

在英國(guó)智能農(nóng)場(chǎng)試點(diǎn)的Intellipig系統(tǒng)也使用深度學(xué)習(xí)。Smith說(shuō),AI不僅在識(shí)別個(gè)體豬方面勝過(guò)人類,準(zhǔn)確率達(dá)到97%,而且在僅通過(guò)面部特征識(shí)別壓力方面表現(xiàn)出色。

今年早些時(shí)候,Zamansky的團(tuán)隊(duì)發(fā)表了一項(xiàng)研究結(jié)果,表明一種自由發(fā)揮的AI在檢測(cè)綿羊疼痛方面比高技能的獸醫(yī)和行為專家更可靠。算法在82%的試驗(yàn)中正確判斷出綿羊剛做完痛苦的手術(shù),而四位接受過(guò)高強(qiáng)度訓(xùn)練的人類只在70%的時(shí)間里做出正確判斷。

Zamansky將這些AI的勝利比作1997年的歷史性時(shí)刻,當(dāng)時(shí)IBM超級(jí)計(jì)算機(jī)深藍(lán)在數(shù)百萬(wàn)觀眾面前擊敗了俄羅斯國(guó)際象棋大師加里·卡斯帕羅夫?!跋瘳F(xiàn)在所有對(duì)AI反應(yīng)的人一樣,卡斯帕羅夫的第一反應(yīng)是恐慌。每個(gè)人都想,‘哦,天哪,AI要搶我的工作了!’”Zamansky說(shuō)?!暗髞?lái)他們明白了,AI只是一個(gè)非常強(qiáng)大的工具,可以增強(qiáng)他們自己的能力。”

然而,Zamansky警告說(shuō),一個(gè)可以自由決定在圖像中尋找什么的計(jì)算機(jī)可能會(huì)關(guān)注錯(cuò)誤的特征。一個(gè)經(jīng)典的例子是背景中的時(shí)鐘。假設(shè)研究人員每天早上10點(diǎn)拍攝無(wú)痛或快樂(lè)動(dòng)物的照片,作為標(biāo)準(zhǔn)科學(xué)程序的一部分,然后在下午5點(diǎn)拍攝相反狀態(tài)的動(dòng)物照片?!叭绻麢C(jī)器在圖像中看到上午10點(diǎn)的時(shí)鐘,它會(huì)說(shuō)這是一只無(wú)痛的兔子,”她說(shuō)——即使實(shí)際情況并非如此。

無(wú)法了解AI實(shí)際上是如何做出決策的,這讓研究人員感到不安?!懊總€(gè)人都擔(dān)心黑箱,因?yàn)樗麄儾恢罊C(jī)器做出了什么決定,或者為什么,”Zamansky說(shuō),她的學(xué)生Tali Shitrit的論文研究的就是弄清楚她們的AI在動(dòng)物面孔中尋找什么。她使用了一種名為梯度加權(quán)類激活映射(GradCAM)的工具,該工具生成熱圖,顯示AI在做出決策時(shí)關(guān)注面孔的哪些區(qū)域。

到目前為止,她發(fā)現(xiàn)機(jī)器通常認(rèn)為眼睛區(qū)域是最有信息量的,無(wú)論數(shù)據(jù)集或物種如何。不過(guò),在貓的情況下,根據(jù)與德國(guó)漢諾威獸醫(yī)大學(xué)的Holger Volk合作的研究,熱圖在鼻子和嘴巴周圍最熱。

盡管存在這些問(wèn)題,一些研究人員正在更進(jìn)一步,努力開發(fā)能夠讀取比壓力和疼痛更復(fù)雜的情感的系統(tǒng),這些情感更接近于人類的快樂(lè)、憤怒或悲傷。

萊昂學(xué)院的進(jìn)化心理學(xué)家Brittany Florkiewicz看過(guò)太多的貓視頻。她和她的團(tuán)隊(duì)花了數(shù)百個(gè)小時(shí)觀看洛杉磯一家貓咪咖啡館里貓咪玩耍和打鬧的錄像,仔細(xì)編碼每一個(gè)細(xì)節(jié)的面部表情,尋找貓咪“快樂(lè)”或不快樂(lè)的跡象。

這項(xiàng)工作揭示了貓咪有276種不同的面部表情?,F(xiàn)在,F(xiàn)lorkiewicz與Martvel和Zamansky合作,將AI應(yīng)用于她的數(shù)據(jù)。AI已經(jīng)顯示,這些咖啡館里的貓咪傾向于微妙地模仿彼此的面部表情,通常是為了通過(guò)互相梳理或玩耍來(lái)建立聯(lián)系。

在類似的研究中,Zamansky的團(tuán)隊(duì)訓(xùn)練AI識(shí)別照片中的拉布拉多犬,它們要么迫不及待地期待著獎(jiǎng)勵(lì),要么能看到獎(jiǎng)勵(lì)但無(wú)法得到它。AI能夠成功地在89%的時(shí)間里判斷出一只狗是“快樂(lè)”還是“沮喪”。它在區(qū)分“快樂(lè)”和“沮喪”的馬匹時(shí)同樣成功。在同一實(shí)驗(yàn)中,一些馬被拍到發(fā)現(xiàn)期待中的獎(jiǎng)勵(lì)并不存在。研究人員發(fā)現(xiàn),AI能夠在61%的試驗(yàn)中正確地將馬匹歸類為“沮喪”或“失望”——這個(gè)成功率雖然不高,但比隨機(jī)猜測(cè)要好。

為了在這些成功的基礎(chǔ)上進(jìn)一步發(fā)展,Martvel和Zamansky正在構(gòu)建狗、貓、馬和靈長(zhǎng)類動(dòng)物在不同情感狀態(tài)下的面部數(shù)據(jù)庫(kù)。團(tuán)隊(duì)在網(wǎng)上搜索照片,主人提供了清晰的情境描述,從而可以推測(cè)出動(dòng)物的情感。通過(guò)將照片輸入AI,他們希望解讀出每種獨(dú)特情感場(chǎng)景下物種的獨(dú)特面部表情。

Zamansky的“夢(mèng)想”是擁有一個(gè)“狗臉閱讀器”,能夠揭示基本情感狀態(tài),如快樂(lè)、悲傷和壓力,這對(duì)AI來(lái)說(shuō)是一個(gè)挑戰(zhàn),因?yàn)楣返钠贩N之間面部和耳朵形狀差異很大?!艾F(xiàn)在還不可能,我知道,”她說(shuō)。“但一年后就有可能。我們一直這樣告訴自己,并為此努力。”Florkiewicz說(shuō),有一天,機(jī)器甚至可能開始將某些面部表情與“意圖”聯(lián)系起來(lái),比如出門、抓住玩具或開始打架。

一個(gè)挑戰(zhàn)是積累訓(xùn)練數(shù)據(jù)?!八麄冇么蠹s相當(dāng)于劍橋大學(xué)圖書館一半藏書的文獻(xiàn)量訓(xùn)練了ChatGPT,而劍橋大學(xué)圖書館擁有英國(guó)出版的每一本書的副本,”Robinson說(shuō)。“但實(shí)際上,網(wǎng)上并沒(méi)有那么多狗、貓和羊的照片”——至少?zèng)]有那么多能清楚看出動(dòng)物感受的照片。

而且,面部表情并不能說(shuō)明全部問(wèn)題,哥本哈根大學(xué)的動(dòng)物溝通專家Elodie Briefer說(shuō),她正在開發(fā)AI來(lái)解讀豬和斑馬的叫聲中的情感。要探究動(dòng)物的情感,AI必須超越面部表情,關(guān)注尾巴搖擺或駝背等因素,達(dá)爾豪西大學(xué)的農(nóng)業(yè)工程師Suresh Neethirajan說(shuō)。他的AI動(dòng)物福利檢查系統(tǒng)甚至分析體熱輻射,這對(duì)于那些面部表情有限的物種,如雞,是一個(gè)重要線索。

盡管存在這些局限性,面部AI已經(jīng)提供了“務(wù)實(shí)和現(xiàn)實(shí)”的機(jī)會(huì),Zamansky說(shuō)。她的團(tuán)隊(duì)即將推出一款基于AI的應(yīng)用程序,允許貓主人掃描寵物的面部30秒,立即獲得易于理解的消息,例如“檢測(cè)到嘴巴周圍有明顯的緊張,疼痛程度中等”。

荷蘭的研究人員開發(fā)了一款類似的應(yīng)用程序,掃描休息中的馬匹面部和身體,估計(jì)其疼痛程度。Lencioni建議,AI未來(lái)可以在馬術(shù)比賽中使用,獎(jiǎng)勵(lì)那些快樂(lè)和舒適的馬匹的騎手,從而提高比賽中的動(dòng)物福利和公平性。

更廣泛地說(shuō),實(shí)驗(yàn)室和寵物收容所可以利用AI監(jiān)測(cè)動(dòng)物的疼痛和情感狀態(tài),F(xiàn)lorkiewicz說(shuō)。而“智能農(nóng)場(chǎng)”——如英格蘭鄉(xiāng)村試點(diǎn)的那些——承諾通過(guò)每日監(jiān)測(cè)為動(dòng)物提供個(gè)性化護(hù)理。最終,Smith說(shuō),AI助手可以指導(dǎo)農(nóng)民不僅給豬提供無(wú)壓力的生活,還要提供快樂(lè)的生活。

對(duì)Zamansky來(lái)說(shuō),這一前景使她所有的工作都變得值得?!拔业穆氊?zé)是為動(dòng)物爭(zhēng)取更好的生活,”她說(shuō)?!爱?dāng)我們知道我們的動(dòng)物伙伴是快樂(lè)的,我們也會(huì)感到快樂(lè)?!?/p>

本文譯自 Science,由 BALI 編輯發(fā)布。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2025-02-18
AI比你更懂你的狗子
人工智能正在超越人類,通過(guò)掃描動(dòng)物面部表情識(shí)別壓力和疼痛,甚至可能解讀更復(fù)雜的情感。在英格蘭東南部一個(gè)細(xì)雨蒙蒙的清晨,數(shù)百頭粉紅色的母豬在6點(diǎn)準(zhǔn)時(shí)醒來(lái),準(zhǔn)備享用早餐。

長(zhǎng)按掃碼 閱讀全文