翁仲毅(Chung-Yi Weng 在 Google Research 擔任研究科學家 ( Research Scientist )
翁仲毅(Chung-Yi Weng 在 Google Research 擔任研究科學家 ( Research Scientist )
翁仲毅(Chung-Yi Weng)博士在 Google Research 主要隸屬於 Augmented Perception 團隊(由 Shahram Izadi 領導),該團隊致力於突破增強實境(AR)與感知技術的邊界。他在 Google 參與的專案核心在於「將靜態或單鏡頭影像轉化為可互動的 3D 體驗」。
在 Google Research 擔任研究科學家期間,最核心的研究貢獻在於 「動態人體神經輻射場」(Dynamic Human NeRF)。
他的研究打破了傳統 NeRF 僅能掃描靜態物體的限制,讓 AI 能夠從一般拍攝的影片中,重建出具有深度、可變換視角且能自由活動的 3D 數位人類。
以下是他在該領域的三項關鍵研究與技術突破:
1. HumanNeRF:將單一影片轉化為 3D 自由視角
這是他在 Google 期間最具影響力的作品之一(發表於 CVPR 2022)。
技術突破: 傳統技術需要幾十台相機圍繞拍攝才能建模,但 HumanNeRF 僅需一段「單鏡頭影片」(例如 YouTube 上的舞動影片),就能生成該人物的完整 3D 模型。
應用場景: 使用者可以「暫停」影片,並像轉動模型一樣 360 度觀看該人物,甚至能看見原本鏡頭沒拍到的背部細節、衣服褶皺與皮膚紋理。
2. PersonNeRF:從散亂照片中進行個性化重建
他在 2023 年推出的 PersonNeRF 進一步提升了技術的實用性。
技術特點: 此項研究針對「日常照片集」進行優化。即便是一個人在不同時間、不同背景下拍的多張照片,系統也能自動過濾背景干擾,精準提取出該個體的 3D 特徵,建立個性化的數位分身。
3. H-NeRF 與動態拓撲處理
在 H-NeRF 研究中,他解決了人體運動時「非剛性變形」的難題。
核心技術: 透過將人體骨架先驗(SMPL 模型)與神經場結合,系統能預測肌肉與服裝在大幅度動作下的自然流動,確保在重建動態人物時不會出現扭曲或斷裂現象。
這些技術目前已被廣泛視為 虛擬實境(VR)、擴增實境(AR) 以及 影視特殊效果 領域的基礎,讓創作者能以極低的硬體成本(僅需手機)產出高品質的 3D 動態內容。
留言
張貼留言