現(xiàn)場(chǎng)體驗(yàn):感受AR和面捕技術(shù)的魅力
虛幻引擎使用全息遠(yuǎn)程訪問(wèn)功能將高端PC畫(huà)面效果帶入混合現(xiàn)實(shí),使HoloLens 2能夠顯示具有大量細(xì)節(jié)的全息影像,遠(yuǎn)遠(yuǎn)超過(guò)僅使用邊緣計(jì)算和渲染所能達(dá)到的程度。根據(jù)真實(shí)任務(wù)的數(shù)據(jù)和影像資料重構(gòu)的《Apollo 11 Mission AR》具有平臺(tái)領(lǐng)先的視覺(jué)效果,包括在基于物理的渲染環(huán)境中顯示700萬(wàn)多邊形,以及完全動(dòng)態(tài)的光影、多層材質(zhì)和體積效果——全部從運(yùn)行虛幻的聯(lián)網(wǎng)PC實(shí)時(shí)無(wú)線流送。活動(dòng)現(xiàn)場(chǎng),任何人都能通過(guò)HoloLens2設(shè)備交互體驗(yàn)阿波羅11號(hào)這一歷史性任務(wù),包括發(fā)射過(guò)程本身,土星5號(hào)的精確模型,登月過(guò)程的詳細(xì)再現(xiàn),以及尼爾·阿姆斯特朗在月球上里程碑式的首次漫步場(chǎng)景。
此外,最新發(fā)布的iOS面部捕捉應(yīng)用——虛幻引擎Live Link Face也在活動(dòng)現(xiàn)場(chǎng)亮相,供觀眾親身體驗(yàn)面部動(dòng)畫(huà)。Live Link Face可以直接將高品質(zhì)的面部動(dòng)畫(huà)從你的iPhone實(shí)時(shí)流送到虛幻引擎中的角色上。該應(yīng)用的追蹤功能利用了蘋(píng)果的ARKit和iPhone的TrueDepth前置攝像頭,可以對(duì)表演者的面部進(jìn)行交互式追蹤,并通過(guò)Live Link直接將該數(shù)據(jù)從網(wǎng)絡(luò)發(fā)送到虛幻引擎中。這一應(yīng)用的出現(xiàn)后,虛擬制片和制作能夠?qū)崟r(shí)流送的面部動(dòng)畫(huà)將變得更加簡(jiǎn)單輕松。