Wayve展示GAIA-1自動駕駛世界模型 可預測事件

10月9日消息,英國 AI 初創(chuàng)公司 Wayve 日前公布了旗下 GAIA-1 生成式模型的最新進展。

據(jù)IT之家報道,在 6 月的時候,Wayve 建立了將生成式模型用于自動駕駛的概念性驗證,而在這幾個月中,Wayve 公司持續(xù)擴展 GAIA-1,使其擁有 90 億個參數(shù),能夠生成逼真的駕駛場景影片,展示自動駕駛“在各種情境的反應”,并且更好地預測未來事件。

GAIA-1 是一個可以利用不同類型的資料,包括影片、文字和動作,創(chuàng)建逼真駕駛場景影片的世界模型(World Model)。

GAIA-1 可對自動駕駛車輛的行為和場景特征進行細致的控制,且由于其多模態(tài)的性質,能夠從多種提示模式和組合中生成相關視頻。

官方提到,GAIA-1 可對環(huán)境進行學習,從而提供結構性的環(huán)境理解,協(xié)助自動駕駛系統(tǒng)做出明智的決策。

而“預測未來事件”是該模型的基本關鍵能力,對未來的準確預測,可以讓自動駕駛車輛預先知道即將發(fā)生的事件,從而規(guī)劃對應的動作,增加汽車上路時的安全性和效率。

據(jù)悉,GAIA-1 會先運用專門的編碼器,將影片或文字等各種形式的輸入,編碼成一個共享的表示形式,進而在模型中實現(xiàn)統(tǒng)一的時序對齊和上下文理解,這種編碼方法,讓模型能夠更好地整合和理解不同類型的輸入。

GAIA-1 的核心,是一個自回歸 Transformer,能夠預測序列中下一組圖像 token,世界模型不只考慮過去的圖像 token,還參照文字和動作 token 的上下文資訊,運用這個方法所生成的圖像 token,不僅會在視覺上連貫,而且和預期的文字和動作指引保持一致。

在此之后,模型會啟動視頻解碼器這個階段被啟動,主要功能是將這些圖像 token 轉換回像素空間,視頻解碼器作為一個擴散模型,其強大之處主要在于可保證生成的影片,具語義意義、視覺準確且時間序一致性。

GAIA-1 的世界模型經過 64 個英偉達 A100 GPU 上長達 15 天的訓練,包含了高達 65 億個參數(shù),而視頻解碼器則在 32 個英偉達 A100 GPU 上訓練了 15 天,總共擁有 26 億個參數(shù)。

GAIA-1 的主要價值,是在自動駕駛中引入生成式世界模型的概念,透過整合影片、文本和動作輸入,展示多模態(tài)學習在創(chuàng)建多樣化駕駛情境的潛力,而且透過整合世界模型與駕駛模型,使駕駛模型能夠更好地理解自己的決策,并且泛化至真實世界的情境中,進而提升自動駕駛系統(tǒng)的能力。

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2023-10-09
Wayve展示GAIA-1自動駕駛世界模型 可預測事件
協(xié)助自動駕駛系統(tǒng)做出明智的決策。

長按掃碼 閱讀全文