當(dāng)今醫(yī)學(xué)領(lǐng)域面臨著許多挑戰(zhàn),如復(fù)雜的疾病、日益增長的醫(yī)療成本、醫(yī)療保健不平等等問題。人工智能(AI)技術(shù)被認(rèn)為是解決這些問題的有力工具之一。特別是,基于機器學(xué)習(xí)的算法可以應(yīng)用于醫(yī)學(xué)圖像分析,例如在醫(yī)學(xué)成像領(lǐng)域。醫(yī)學(xué)成像已成為現(xiàn)代醫(yī)療保健的重要工具,使醫(yī)生能夠診斷和治療各種疾病。醫(yī)學(xué)成像被證明特別有用的一個領(lǐng)域是X射線圖像的分析。然而,分析X射線圖像的過程可能很耗時,并且需要大量的專業(yè)知識,這使其成為使用人工智能(AI)實現(xiàn)自動化的理想候選者。近年來,人們對開發(fā)用于X射線圖像分析的人工智能算法越來越感興趣,這種算法有可能提高診斷的速度和準(zhǔn)確性,同時減少醫(yī)療專業(yè)人員的工作量。
據(jù)報道,微美全息(NASDAQ:WIMI)正在開發(fā)一種用于X射線圖像分析的通用學(xué)習(xí)算法,用于X設(shè)想圖像的分析,將其命名為自動人工智能X射線圖像分析(Auto-AIX)。X射線圖像分析是一個復(fù)雜的過程,涉及到各種特征的檢測,如骨密度、器官形狀和組織密度。傳統(tǒng)上,這一過程是由醫(yī)學(xué)專業(yè)人員手動執(zhí)行的,他們利用自己的專業(yè)知識來識別和分析特征。然而,這種方法很耗時,而且可能會出現(xiàn)人為錯誤,從而導(dǎo)致誤診和患者預(yù)后不佳。
WIMI微美全息一直在探索使用人工智能算法來自動化X射線圖像分析過程。這些算法旨在從X射線圖像的大型數(shù)據(jù)集中學(xué)習(xí),并可以識別人類專家難以或不可能檢測到的模式和特征。通過自動化X射線圖像分析過程,人工智能算法有可能提高診斷的速度和準(zhǔn)確性,同時減少醫(yī)療專業(yè)人員的工作量。然而,開發(fā)用于X射線圖像分析的有效人工智能算法需要大量多樣的X射線圖像數(shù)據(jù)集進(jìn)行訓(xùn)練和驗證。該數(shù)據(jù)集必須經(jīng)過精心選擇和注釋,以確保人工智能算法能夠準(zhǔn)確識別圖像特征。
WIMI微美全息開發(fā)的用于X射線圖像分析的通用學(xué)習(xí)算法,旨在從一組不同的X射線圖像中學(xué)習(xí),使其適合在實際應(yīng)用中使用。該算法基于深度神經(jīng)網(wǎng)絡(luò)架構(gòu),該架構(gòu)使用大量多樣的X射線圖像數(shù)據(jù)集進(jìn)行訓(xùn)練。數(shù)據(jù)集經(jīng)過整理和注釋,以確保算法能夠準(zhǔn)確識別感興趣的特征,如骨密度、器官形狀和組織密度。為了提高算法的泛化能力,實現(xiàn)了幾種技術(shù),如數(shù)據(jù)擴充和領(lǐng)域隨機化。數(shù)據(jù)擴充包括對原始X射線圖像應(yīng)用一系列變換,如旋轉(zhuǎn)、縮放和翻轉(zhuǎn),以創(chuàng)建更大、更多樣的訓(xùn)練數(shù)據(jù)集。領(lǐng)域隨機化包括向訓(xùn)練數(shù)據(jù)添加隨機噪聲和擾動,這有助于算法推廣到新的和看不見的X射線圖像。該算法被設(shè)計為在一系列硬件平臺上運行,從傳統(tǒng)的CPU到高性能的GPU。這使得它適合在現(xiàn)實環(huán)境中部署,因為在現(xiàn)實情況下硬件資源可能是有限的或可變的。
公開資料顯示,微美全息(NASDAQ:WIMI)開發(fā)Auto-AIX的技術(shù)流程,包括數(shù)據(jù)的采集、生成、標(biāo)注與通用學(xué)習(xí)算法。數(shù)據(jù)的采集、生成和注釋是構(gòu)建深度學(xué)習(xí)模型的關(guān)鍵。在醫(yī)學(xué)成像領(lǐng)域,由于涉及到患者隱私和保密,真實數(shù)據(jù)的收集和使用面臨許多限制。而Auto-AIX通過使用計算機生成的合成數(shù)據(jù)來規(guī)避這些限制。具體而言,它使用CT對X射線圖像進(jìn)行模擬,這使得合成數(shù)據(jù)具有逼真的外觀和細(xì)節(jié),從而提高了模型的準(zhǔn)確性。
在WIMI微美全息開發(fā)的Auto-AIX中,生成合成數(shù)據(jù)的第一步是創(chuàng)建一個醫(yī)學(xué)模型,該模型可以使用CT掃描或體積手術(shù)工具模型。然后,通過在醫(yī)學(xué)模型中注入噪聲和變化,可以生成多個樣本,這些樣本涵蓋了可能出現(xiàn)在真實數(shù)據(jù)中的各種情況和變化。最后,這些樣本被注釋,即通過手動標(biāo)記它們的特征和疾病來進(jìn)行注釋。這些注釋可以自動應(yīng)用于所有其他合成數(shù)據(jù),從而節(jié)省了大量的時間和人力成本。這個過程在Auto-AIX中被稱為“域擴展”,因為它可以將合成數(shù)據(jù)域擴展到更廣泛的數(shù)據(jù)集。
WIMI微美全息Auto-AIX使用基于通用學(xué)習(xí)的算法來構(gòu)建深度學(xué)習(xí)模型。這種算法的優(yōu)勢在于它可以使用大量的合成數(shù)據(jù)進(jìn)行訓(xùn)練,而不需要大量的真實數(shù)據(jù)。這意味著,即使在收集真實數(shù)據(jù)存在難度和限制的情況下,Auto-AIX也可以訓(xùn)練出高性能的深度學(xué)習(xí)模型。
具體而言,Auto-AIX使用領(lǐng)域隨機化技術(shù)來構(gòu)建基于通用學(xué)習(xí)的算法。這種技術(shù)的核心思想是通過在合成數(shù)據(jù)的外觀和特征上引入隨機性來提高模型的泛化能力。這種隨機性可以是任意的,例如在合成數(shù)據(jù)中添加噪聲、擾動、遮擋等。通過這種方式,Auto-AIX可以構(gòu)建出具有較高泛化性能的深度學(xué)習(xí)模型。
為了評估Auto-AIX的性能,WIMI微美全息研究人員進(jìn)行了一系列實驗。在這些實驗中,比較使用Auto-AIX合成數(shù)據(jù)訓(xùn)練的深度學(xué)習(xí)模型與使用真實數(shù)據(jù)訓(xùn)練的模型之間的性能差異。使用不同數(shù)量和類型的合成數(shù)據(jù)對模型性能的影響。
實驗結(jié)果表明,使用SyntheX合成數(shù)據(jù)訓(xùn)練AI模型的結(jié)果表明,該方法可以獲得與真實數(shù)據(jù)訓(xùn)練相當(dāng)?shù)男阅?甚至在某些情況下可以超過真實數(shù)據(jù)訓(xùn)練。接下來,還需要將訓(xùn)練好的AI模型應(yīng)用于真實的臨床X射線圖像數(shù)據(jù),進(jìn)行評估和部署。在將AI模型應(yīng)用于真實數(shù)據(jù)之前,需要對真實數(shù)據(jù)進(jìn)行預(yù)處理,以使其與合成數(shù)據(jù)具有相似的分布。這種預(yù)處理方法稱為域適應(yīng)或域轉(zhuǎn)移。域轉(zhuǎn)移方法的目標(biāo)是將模型從一個源域(合成數(shù)據(jù))轉(zhuǎn)移到一個目標(biāo)域(真實數(shù)據(jù)),使模型在目標(biāo)域上的性能最優(yōu)。域適應(yīng)方法的主要思想是通過對源域和目標(biāo)域之間的分布差異進(jìn)行建模,學(xué)習(xí)到一個可以在目標(biāo)域上泛化的模型。
為在真實數(shù)據(jù)上應(yīng)用AI模型,WIMI微美全息使用了一種稱為“Adversarial Discriminative Domain Adaptation”(ADDA)的域適應(yīng)方法。ADDA方法包括兩個階段:第一個階段是訓(xùn)練源域分類器和目標(biāo)域分類器,以區(qū)分源域和目標(biāo)域之間的差異;第二個階段是訓(xùn)練一個領(lǐng)域適應(yīng)器,將源域的特征轉(zhuǎn)移到目標(biāo)域,從而使模型在目標(biāo)域上的性能最優(yōu)。使用了ADDA方法將模型從合成數(shù)據(jù)域轉(zhuǎn)移到真實數(shù)據(jù)域。在進(jìn)行域適應(yīng)之后,AI模型在真實數(shù)據(jù)上的表現(xiàn)與在合成數(shù)據(jù)上的表現(xiàn)相當(dāng),這表明域適應(yīng)方法有效。
此外,微美全息(NASDAQ:WIMI)的AI模型應(yīng)用于虛擬的臨床X射線圖像數(shù)據(jù),并進(jìn)行了評估和部署。結(jié)果表明,該AI模型可以準(zhǔn)確地識別出各種疾病和異常,包括肺炎、肺結(jié)節(jié)、肺部積液等。此外,該AI模型還可以進(jìn)行定量測量,如肺部容積、結(jié)節(jié)大小等??偟膩碚f,使用Auto-AIX合成數(shù)據(jù)訓(xùn)練AI模型,并使用ADDA方法進(jìn)行域適應(yīng),可以在獲得非常好的性能。這種方法可以大大加速X射線圖像分析領(lǐng)域的研究和應(yīng)用,為醫(yī)療保健領(lǐng)域帶來更多的機會和挑戰(zhàn)。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )