北京2022年7月21日 /美通社/ -- 近年來,元宇宙已經在影視作品中充分激發(fā)了我們對未來的想象力,從《頭號玩家》到《失控玩家》,我們真實的感受到了虛擬人所帶來的神奇魅力。要提供虛實交融的卓越體驗,重點是根據真實世界的形象或場景需求生成栩栩如生的虛擬人物。那么,我們要如何感受到元宇宙級別的虛擬人物體驗呢?
虛擬人制作有多難?算力成為門檻
在當前的技術環(huán)境下,虛擬人制作已經相對成熟,通常包括建模、動作/表情綁定、動畫內容制作、渲染等程序,將物理世界的人物行為投射到虛擬世界中。但是,要實現虛擬人的實時交互,難度就超過很多人的想象了。
這一難度首先體現在超寫實虛擬人的真實感渲染,超寫實虛擬人的建模精細程度、建模材質、紋理,對光照的模擬及真實感的物理渲染,會耗費巨大的算力與漫長的時間。在電影中,虛擬人物的特效渲染通常采用離線渲染的模式,即使有著專業(yè)的圖形工作站集群,其渲染周期往往也需要3-6個月。以《阿麗塔:戰(zhàn)斗天使》為例,其中阿麗塔高度擬真的視覺特效令人震撼,這樣以假亂真的渲染效果來源于巨大的算力消耗。據統(tǒng)計,《阿麗塔:戰(zhàn)斗天使》平均每一幀需要100小時來渲染,總計用了4.32億個小時的渲染時間。
另外,虛擬人的高逼真形象,需要更多的細節(jié)來展示,如面部、肢體、毛發(fā)、布料、眼睛、口腔等的制作需要多種軟件對相機掃描得到的模型進行精修和調整,并形成統(tǒng)一模型,而這個創(chuàng)建過程中需要不同的3D軟件,軟件之間的格式兼容過程中會遇到很多問題。
這還僅僅是一個虛擬人創(chuàng)建的難題,在未來的元宇宙世界中,現實中的每一個人都會有虛擬人需求,虛擬人從2D到寫實再到超寫實的過程中,對算力的需求也越來越大,在多虛擬人創(chuàng)建過程中,需要更大的算力支持。
浪潮信息聯(lián)手NVIDIA讓虛擬人創(chuàng)作變簡單
為滿足元宇宙世界虛擬人創(chuàng)建的需求,浪潮信息與NVIDIA強強聯(lián)手,基于業(yè)內首款元宇宙服務器 MetaEngine和NVIDIA Omniverse Enterprise開發(fā)套裝推出了具備統(tǒng)一多軟件格式、支持多人協(xié)作、支持實時驅動和實時光線追蹤渲染的虛擬人解決方案,讓虛擬人內容制作由難變易.
在硬件上,MetaEngine采用浪潮信息領先的異構加速服務器旗艦系統(tǒng),集成NVIDIA A40專業(yè)GPU、CX6 Dx高速網卡等硬件,具有強大的RDMA通信和數據存儲能力,支持強大的渲染和AI計算能力,可幫助用戶構建一個端到端、生態(tài)豐富和高易用的協(xié)作平臺。單臺MetaEngine可支持256位元宇宙架構師協(xié)同創(chuàng)作,每秒AIGC 2000個數字場景,1000位VR/AR用戶共享10K超高清3D數字世界順暢體驗,實現"創(chuàng)所未見"的效果。
在軟件方面,NVIDIA Omniverse Enterprise提供了3D實時模擬和協(xié)作的工具及平臺。3D建模軟件,如MAYA、3ds MAX、Unreal Engine等,團隊成員可以實時在線編輯虛擬人模型,改變傳統(tǒng)的串行協(xié)作流程,極大提高工作效率。作為專為虛擬協(xié)作和物理屬性準確的實時模擬打造的開放式平臺,結合了高性能 GPU 加速計算、圖形處理和 AI 并配備了高速存儲訪問、低延遲網絡、精確計時,具備創(chuàng)建逼真數字孿生所需的性能。
同時,浪潮MetaEngine- NVIDIA OVX方案提供的Audio2face、Machinima等軟件,用AI算法輕松驅動虛擬數字人,可實現實時的視頻音頻驅動人臉表情及肢體動作,真正做到"所動即所見"。而為了獲得科幻大片級的逼真光影效果,方案集成Tensor core/RT core的算力,配合渲染、實時光追、AI降噪SDKs,實現實時光線追蹤渲染。
MetaEngine還整合了浪潮"源"大模型的能力,浪潮"源"大模型具備2457億參數,具備知識問答、多輪對話、中英翻譯、寫作古詩等零樣本或少樣本的推理能力,可以讓虛擬人不僅擁有逼真的外觀,還可以像人類一樣進行文本等內容創(chuàng)作。而對于浪潮"源"需要多GPU計算設備協(xié)同工作的問題,將通過浪潮AIStation智能業(yè)務創(chuàng)新生產平臺實現多計算資源的智能調度管理,保證模型服務的高吞吐、低延遲。
所見即所得 MetaEngine-OVX的"點泥成人"術
那么,如何通過浪潮MetaEngine - NVIDIA OVX方案加速虛擬人的創(chuàng)建,打造"所見即所得"的元宇宙世界呢?
首先,設計師可以借助MetaEngine所集成的NVIDIA Omniverse Enterprise,搭建統(tǒng)一協(xié)作空間。設計師可以根據人物特征與場景需求建立虛擬人模型,并進行貼圖、渲染,依托MetaEngine強大的算力生成栩栩如生的模型,或者可以直接通過Omniverse下載自己想要的虛擬人形象。
要做到虛擬人與真實世界的交互,僅有虛擬形象還不夠,還需要讓虛擬形象進行生動形象的展示,這包括對其面部表情、肢體動作的完美驅動,對場景及虛擬形象進行實時渲染,讓靜止的虛擬人"動"起來。
MetaEngine與NVIDIA Omniverse Enterprise的強大組合支持虛擬人快速創(chuàng)建,通過導入場景和使用machinima 3D Pose Track實時驅動的數字人骨骼點信息,將骨骼點動作重定向到數字人資產,快速創(chuàng)建虛擬人動畫,創(chuàng)建3D內容。
浪潮AIStation智能業(yè)務創(chuàng)新生產平臺部署管理浪潮 源及語音模型,結合浪潮MetaEngine-NVIDIA OVX方案的Audio2face功能,可以實時將浪潮"源"的推理結果,轉化為語音,語音驅動數字人面部產生逼真的表情及面部動作,讓對話及交互更加真實、自然。
MetaEngine將高性能圖形計算、AI計算與高速存儲訪問、低延遲網絡和精確計時相結合,專用于為大規(guī)模數字創(chuàng)景制作提供算力和應用支持,以實時創(chuàng)建和運行復雜的3D場景和逼真的物理仿真環(huán)境,讓基于物理的高逼真實時渲染成為可能,滿足元宇宙的互動需求。
7月27日,浪潮信息將聯(lián)合NVIDIA共同揭秘如何使用聯(lián)合方案制作虛擬人的過程,歡迎大家關注。