之前有一篇探討如何用webcam捕捉臉部動態同步到metahuman上,這次想紀錄下直接用現成的影片轉錄成臉部動態!
首先先找到想要使用的素材,最好是聚焦於臉部的影片。
然後打開UE,全開所有外掛。
然後到UE裡面創建一個metahuman。
打開Live link Hub。
在這邊切換成Captrue Manager。
選擇Mono video Ingest。
從這邊選擇存放影片的資料夾路徑。
按照順序點擊,這個步驟基本上是在把影片轉換成unreal可以識別的格式。
在content browser新增Metahuman Performance。
在裡面填入剛剛轉換好的影片以及metahuman。
最後按下Process。
效果非常不錯,是一種全新的寫實臉部動態流程!
如果不想要頭像影片那樣移動,可以在這邊關掉。
可以直接在這裡bake動態。
然後就可以在sequencer使用!
也可以輸出控制器動態成FBX檔到其他DCC軟體使用。
要特別注意輸出時這邊一定要選Metahuman! 不然動態會變得很奇怪!
然後在匯入maya時應該會長這樣,其實這就是metahuman facial的控制器名稱,上面都已經有keyframe,用animation library把他們轉換到metahuman ctrl上即可!
0 留言