計(jì)算機(jī)圖形學(xué)與交互技術(shù)頂級(jí)年度會(huì)議SIGGRAPH 2021馬上就要來(lái)了。
舉辦時(shí)間:8月9日-13日
舉辦形式:線上舉行
SIGGRAPH是由ACM SIGGRAPH(美國(guó)計(jì)算機(jī)學(xué)會(huì)計(jì)算機(jī)圖形學(xué)組)組織舉辦,匯聚計(jì)算機(jī)圖形學(xué)、虛擬現(xiàn)實(shí)和藝術(shù)設(shè)計(jì)的頂尖專業(yè)人士,展現(xiàn)全球藝術(shù)與科技完美結(jié)合的最新成果,并已經(jīng)成為一個(gè)集科學(xué)、藝術(shù)、商業(yè)于一身的權(quán)威性學(xué)術(shù)研討會(huì)。
從1974年的首屆會(huì)議開(kāi)始,每年SIGGRAPH會(huì)議上所展示的最新技術(shù)與作品在很大程度上代表了計(jì)算機(jī)圖形學(xué)的發(fā)展水平以及未來(lái)的發(fā)展趨勢(shì),從客觀上促進(jìn)了計(jì)算機(jī)圖形學(xué)的發(fā)展。
更重要的是,SIGGRAPH會(huì)議擁有獨(dú)立的論文評(píng)審委員會(huì),審稿要求非常嚴(yán),每年全球不少人都會(huì)提交論文,但最終接受的論文少之又少,錄用比例在20%上下。正是這種嚴(yán)格的審稿程序保證了SIGGRAPH會(huì)議的高水準(zhǔn)。
隨著計(jì)算機(jī)圖形學(xué)界科研力量的發(fā)展和科研人才的積累,中國(guó)每年都會(huì)有多項(xiàng)高水平的科研成果在SIGGRAPH會(huì)議中亮相。
今年同樣不例外。
中國(guó)今年有20多篇研究論文入選SIGGRAPH會(huì)議,涵蓋了超寫(xiě)實(shí)三維數(shù)字化設(shè)備、3D人體模型自動(dòng)生成算法、自動(dòng)生成模型動(dòng)畫(huà)、流固強(qiáng)耦合模擬、動(dòng)捕系統(tǒng)、幾何建模、三維物體分析、手與物體分割、物質(zhì)點(diǎn)法、舞蹈動(dòng)畫(huà)合成系統(tǒng)等各個(gè)方向。
在SIGGRAPH會(huì)議開(kāi)幕之前,中國(guó)圖象圖形學(xué)學(xué)會(huì)智能圖形專委會(huì)將于7月7日-8日在杭州舉行SIGGRAPAH 2021論文預(yù)報(bào)告會(huì)。屆時(shí),國(guó)內(nèi)計(jì)算機(jī)圖形學(xué)高水平科研人員會(huì)對(duì)SIGGRAPH 2021入選的科研成果進(jìn)行報(bào)告,精彩的報(bào)告和Demo分享將呈現(xiàn)一場(chǎng)光與影的數(shù)字科技盛宴。
本次報(bào)告會(huì)由相芯科技獨(dú)家贊助,旨在進(jìn)一步促進(jìn)計(jì)算機(jī)圖形學(xué)可持續(xù)性發(fā)展和應(yīng)用落地,并期待和同行共同探討交流,展望未來(lái)。
值得一提的是,相芯科技在SIGGRAPH的舞臺(tái)已多次連續(xù)亮相。相芯科技創(chuàng)始人周昆教授至今已經(jīng)在ACM SIGGRAPH/TOG上發(fā)表了60多篇的論文,是計(jì)算圖形學(xué)領(lǐng)域的國(guó)際著名學(xué)者。
2018年,相芯科技與浙江大學(xué)成立了“智能圖形計(jì)算聯(lián)合實(shí)驗(yàn)室”。此后,浙大相芯聯(lián)合實(shí)驗(yàn)室就有多篇研究文章入選SIGGRAPH和SIGGRAPH Asia。
例如,2018年,聯(lián)合實(shí)驗(yàn)室發(fā)表了虛擬數(shù)字人技術(shù)方面的兩篇論文,其中《Warp-Guided GANs for Single-Photo Facial Animation》提出了一種從單幅圖片實(shí)時(shí)生成人臉動(dòng)畫(huà)的方法,大幅降低了人臉動(dòng)畫(huà)的制作成本,提升了實(shí)時(shí)人臉動(dòng)畫(huà)生成的效率。
《Modeling Hair from an RGB-D Camera》提出了一種從消費(fèi)級(jí)RGBD相機(jī)拍攝的數(shù)據(jù)重建三維頭發(fā)模型的方法,解決了真實(shí)感頭發(fā)建模的難題。
2019年,聯(lián)合實(shí)驗(yàn)室再次發(fā)表了兩篇論文,其中《Dynamic Hair Modeling from Monocular Videos using Deep Neural Networks》引入了一種基于深度學(xué)習(xí)的全新框架,用于對(duì)單目視頻中的動(dòng)態(tài)頭發(fā)進(jìn)行建模,突破了數(shù)據(jù)驅(qū)動(dòng)的全自動(dòng)高質(zhì)量發(fā)型建模的難題。
《Learning Efficient Illumination Multiplexing for Joint Capture of Reflectance Shape》則提出了一種高效高精度幾何與材質(zhì)聯(lián)合采集框架,能對(duì)整個(gè)軟硬件系統(tǒng)進(jìn)行端到端聯(lián)合優(yōu)化,解決了智能采集裝置掃描復(fù)雜三維物體建模的難題。
而在今年入選的論文《Free-form Scanning of Non-planar Appearance with Neural Trace Photography》提出了自由式材質(zhì)掃描的可微分框架,并研制了材質(zhì)外觀掃描儀原型,提升了物理采樣效率,實(shí)現(xiàn)了對(duì)非平面的復(fù)雜外觀的高精度采集建模。
這項(xiàng)技術(shù)在文物數(shù)字化保護(hù)、電子商務(wù)展示、電影視覺(jué)特效和游戲等領(lǐng)域中將有著廣泛的應(yīng)用前景。
除了發(fā)表高水平論文,相芯科技還在SIGGRAPH國(guó)際舞臺(tái)上展示了中國(guó)科技企業(yè)的風(fēng)采。2019年,相芯科技受邀在美國(guó)洛杉磯會(huì)展中心舉辦的SIGGRAPH大會(huì)中亮相。在大會(huì)展區(qū),相芯科技展出了自主研發(fā)的虛擬化身技術(shù)和AI虛擬助手的產(chǎn)品解決方案,成為當(dāng)時(shí)人氣爆棚的展臺(tái)之一。
在相芯展臺(tái)現(xiàn)場(chǎng),觀眾只要站在互動(dòng)屏幕前的捕捉區(qū)內(nèi),通過(guò)普通攝像頭拍攝,互動(dòng)屏上就會(huì)自動(dòng)生成與之對(duì)應(yīng)的3D卡通形象。當(dāng)時(shí),有近2000人在相芯展臺(tái)的互動(dòng)屏幕上生成了卡通形象,不少人還用手機(jī)錄制了卡通版的自己和朋友互動(dòng)分享,給很多人留下了有趣的記憶。
現(xiàn)場(chǎng)的觀眾還在互動(dòng)屏前和相芯的AI虛擬助手展開(kāi)了多輪問(wèn)答對(duì)話。這款產(chǎn)品能根據(jù)問(wèn)答內(nèi)容實(shí)時(shí)生成口唇效果,并精細(xì)驅(qū)動(dòng)虛擬形象面部表情,實(shí)現(xiàn)多模態(tài)交互。除了日常陪聊,AI虛擬助手還可以結(jié)合特定的應(yīng)用場(chǎng)景,提供咨詢、講解、客服、導(dǎo)覽等服務(wù)。對(duì)于AI虛擬助手無(wú)限接近真人的交互,觀眾們無(wú)不驚嘆。
可以看到,近年來(lái)計(jì)算機(jī)圖形學(xué)技術(shù)在各個(gè)領(lǐng)域的應(yīng)用已加速落地。相芯科技作為XR技術(shù)創(chuàng)新者,以“創(chuàng)造更真實(shí)的數(shù)字世界”為愿景,致力于XR技術(shù)和產(chǎn)業(yè)的創(chuàng)新與應(yīng)用。成立五年來(lái),相芯科技專注于圖形學(xué)技術(shù)和人工智能技術(shù)的深度融合創(chuàng)新,自主研制了虛擬數(shù)字人引擎和超寫(xiě)實(shí)三維數(shù)字化設(shè)備,服務(wù)了智能終端、汽車(chē)、融媒體、在線教育、互動(dòng)娛樂(lè)、短視頻、社交等領(lǐng)域,產(chǎn)品在千余家國(guó)內(nèi)外企業(yè)得到應(yīng)用,日均使用人次超過(guò)1億。公司擁有發(fā)明專利和軟件著作權(quán)40余項(xiàng),先后獲得國(guó)家高新技術(shù)企業(yè)、省級(jí)企業(yè)研發(fā)中心、準(zhǔn)獨(dú)角獸企業(yè)等資質(zhì)榮譽(yù)。
未來(lái),相芯科技將堅(jiān)持自主研發(fā)和協(xié)同創(chuàng)新,助力更多產(chǎn)業(yè)實(shí)現(xiàn)新一輪的數(shù)字化升級(jí)。
如何參加中國(guó)SIGGRAPH 2021論文預(yù)報(bào)告會(huì)?
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )