記者昨日從阿里達摩院獲悉,達摩院醫(yī)療AI團隊的論文被計算機視覺國際頂會CVPR 2023評為Highlight(亮點),從近萬篇論文中脫穎而出。這篇論文聚焦于視覺領域著名的OOD難題,提出了全新的醫(yī)學圖像語義分割框架,能夠讓AI更準確地識別腫瘤中的疑難罕見案例,目前已在胰腺腫瘤和肝臟腫瘤上獲得驗證。
CVPR是計算機視覺領域最具有影響力的國際頂會,今年共收到9155篇論文投稿,其中只有235篇論文被評為Highlight,占比僅為2.5%。達摩院論文《Devil is in the Queries: Advancing Mask Transformers for Real-world Medical Image Segmentation and Out-of-Distribution Localization》重點關注圖像分割,這是計算機視覺領域的基礎任務,也是醫(yī)學影像的根基之一。現在AI已經能夠識別癌癥,個別甚至達到了專家水平,其基礎原理就是圖像分割,AI從CT等醫(yī)學影像中分割出疑似病灶,結合已有數據來判斷是否存在病變。但現有的圖像分割方法多數基于監(jiān)督學習,存在先天缺陷,嚴重依賴于數據的收集和標注,一旦遇到完全沒見過的長尾問題,AI的識別準確度就大幅下降。
這就是著名的OOD難題(Out-of-Distribution,分布外泛化問題),在真實世界里層出不窮,比如自動駕駛領域里的corner case,醫(yī)學影像領域則表現為各種各樣的疑難雜癥、罕見病,都容易讓AI犯錯。對于醫(yī)療AI來說,如果想真正取得人類信任,實現臨床上的應用,必須能夠處理這些棘手的問題,否則將給病人帶來風險,比如漏檢了某些轉移癌癥,或將罕見惡性腫瘤錯認為良性。
達摩院醫(yī)療AI團隊這次提出了一個全新的醫(yī)學圖像語義分割框架MaxQuery,不僅能夠準確分割和識別常見腫瘤等分布內目標(in-distribution),還能夠利用Mask Transformers的聚類特性來定位罕見腫瘤等OOD目標。具體來說,由于框架自帶的聚類機制,分布內目標會在特征空間被映射到距離聚類中心近的點,而OOD目標則相反。此外,團隊還提出Query Distribution Loss(QD損失函數),加強了聚類分配的多樣性,既能提升分布內目標分割的精度,又能提高OOD腫瘤的分割和識別的準確性。
達摩院提出的新框架
為了驗證新方法的準確性,研究團隊構建了胰腺腫瘤全病種和肝臟腫瘤全病種兩個醫(yī)療影像的數據集,包括1088名患者的連續(xù)對比的增強CT影像。實驗證明,新方法顯著提了OOD定位能力,與業(yè)界標桿SML相比,在最重要的AUPR指標上平均提升14.69%; 在常見腫瘤分割性能上,新方法較業(yè)界標桿nnUNet提升了5.27%。也就說,達摩院的新方法能夠更準確地識別胰腺和肝臟中的常見腫瘤和罕見腫瘤。
實驗結果顯著優(yōu)于已有方法
“OOD是臨床上的常見難題,一直缺乏好的解決方法。這篇論文不僅提出了一個通用又簡單的全新計算框架,而且在定量結果上有顯著提升,為臨床應用打下堅實基礎,有望真正幫助到醫(yī)生和病人?!边_摩院醫(yī)療AI團隊負責人、IEEE Fellow 呂樂表示。據了解,達摩院醫(yī)療AI團隊正在研發(fā)精準癌癥診療AI影像系統(tǒng),包括規(guī)模篩查、精準診斷、預后治療、響應評估等全流程的癌癥診療技術,覆蓋多個重要病種。該團隊長期致力于醫(yī)學影像等方向研究,曾在疫情初期研發(fā)出CT影像新冠肺炎AI輔助診斷系統(tǒng),被科技部評為全國科技抗疫先進集體。
論文鏈接:https://doi.org/10.48550/arXiv.2304.00212
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )