18+

AI生成模型只能看不能用?AssetHub與Kapnetix重新定義3D建模內容的「生產力」路徑

▲對於開發者而言,最關注的議題莫過於:「AI到底能不能用在內容產製」?
▲對於開發者而言,最關注的議題莫過於:「AI到底能不能用在內容產製」?

AI重點

文章重點整理:

  • 重點一:AI助力3D製作,縮短時間成本。
  • 重點二:AssetHub強調可編輯的3D模型重要性。
  • 重點三:Kapnetix利用手機實現動作捕捉。

對於開發者而言,最關注的議題莫過於:「AI到底能不能用在內容產製」?而非僅只是產生一些看起來很厲害、但一團亂的「廢圖」或「廢模型 」。

在這個命題下,來自日本的AssetHub ,以及位於美國舊金山英國的Kapnetix,分別從「靜態建模」與「動態捕捉」兩個維度,給出相當務實的答案。簡單來說,他們不追求AI「一鍵生成」的完美魔法,而是利用AI介入傳統最耗時的「手工」,讓3D製作從數週縮短至數天,甚至只需一支手機就能完成過去需要百萬攝影棚的動作捕捉。

AssetHub:AI建模不能只求「像」,更要「能用」

目前市面上有許多3D生成式AI,輸入文字就能跑出一個3D模型。但在AssetHub執行長後藤卓哉眼中,這些模型往往存在致命傷:網格 (Mesh)混亂、貼圖與模型黏死無法修改、多餘的細節 (如鬼影般的頭髮)無法移除。

▲許多3D生成式AI,輸入文字就能跑出一個3D模型,但通常會有網格 (Mesh)...
▲許多3D生成式AI,輸入文字就能跑出一個3D模型,但通常會有網格 (Mesh)混亂、貼圖與模型黏死無法修改、多餘的細節 (如鬼影般的頭髮)無法移除問題

「對於遊戲開發者來說,不能編輯的模型就是垃圾」。AssetHub提出一套「AI-Native 3D Workflow」的解法。

不同於傳統攝影測量法 (Photogrammetry)容易產生雜訊,AssetHub的核心技術在於「部件拆解」 (Part Decomposition)。當AI讀取一張2D角色設計圖時,不會直接生成「一個3D物件」,而是先理解「這是頭髮」、「這是鞋子」、「這是裙子」,並且將其拆解為獨立的元件。

▲AssetHub的核心技術在於「部件拆解」 (Part Decompositi...
▲AssetHub的核心技術在於「部件拆解」 (Part Decomposition)。當AI讀取一張2D角色設計圖時,不會直接生成「一個3D物件」,而是先理解「這是頭髮」、「這是鞋子」、「這是裙子」,並且將其拆解為獨立的元件

▲3D模組拆解為獨立的元件,將能更容易調整細節,並且快速用在各類創作工具
▲3D模組拆解為獨立的元件,將能更容易調整細節,並且快速用在各類創作工具

後藤卓哉在演講中展示,透過這套流程,他們能將原本2D的動漫角色,先進行「風格轉換」與「去背/去光影」,再透過AI生成 初步的3D幾何結構。AssetHub強調「Human-in-the-loop」 (人類參與循環)的概念——AI負責生成80%的內容結構,最後20%由專業的3D美術人員進行修整 (Retopology)。

▲透過AI生成模組之後,即可由專業美術人員手動調整細節
▲透過AI生成模組之後,即可由專業美術人員手動調整細節

▲AI生成內容往往會因為幻覺影響產生不正確內容,因此需要專業美術人員調整細節
▲AI生成內容往往會因為幻覺影響產生不正確內容,因此需要專業美術人員調整細節

這樣即可解決AI生成模型「只可遠觀不可褻玩」的痛點,讓原本需要2週的手工建模流程,現在可以大幅縮短到幾天內完成,而且產出的模型是「分件清楚、可綁定骨架、可進引擎」的生產力級別資產。

Kapnetix:告別百萬棚設,一支iPhone搞定3A級動作捕捉

有了模型,接下來要讓角色動起來。傳統動作捕捉 (Motion Capture)技術幾乎是好萊塢與3A遊戲的專利,通長需要租一個挑高攝影棚、架設100多顆光學鏡頭、演員要穿上佈滿反光球的緊身衣,一天的成本可能高達5000美元。

Kapnetix共同創辦人Johny Darkwah的目標很直接:「我們要讓動捕成本趨近於零」。

▲傳統動作捕捉往往需要花費高額成本才能獲取數據
▲傳統動作捕捉往往需要花費高額成本才能獲取數據

Kapnetix展示的技術核心,在於利用AI加上物理運算,實現「單鏡頭3D骨架識別」。這意味著開發者甚至不需要專業攝影機,只要透過一支iPhone拍下真人的動作影片,上傳到Kapnetix的雲端平台,AI就能在幾分鐘內算出對應的3D骨架數據 (FBX格式)。

Johny Darkwah分享了一個有趣的失敗經驗:早期他們純粹用大量數據訓練AI,結果產出的動作充滿「抖動」 (Jitter)與「滑步」,這在專業動畫師眼裡明顯是不合格的。後來他們改變策略,不再迷信大數據暴力破解,而是引入「物理限制」與「人體工學邏輯」。

例如,當鏡頭拍到手臂被身體擋住 (Occlusion)時,純AI可能會瞎猜手臂的位置導致穿模;但Kapnetix的算法會加入「手肘不能反向彎曲」的物理限制,讓AI補算出合理的動作路徑。

在現場展示的案例中,Johny Darkwah指出原本需要5天拍攝加後製的NBA球員運球動作,透過Kapnetix的手機拍攝方案,僅需10分鐘運算,而動作流暢度已達到能直接套用在Maya或Blender進行微調的水準,成本更從數千美元降至一杯咖啡的價格 (約2歐元/30秒)。

▲原本需要5天拍攝加後製的NBA球員運球動作,透過Kapnetix的手機拍攝方案...
▲原本需要5天拍攝加後製的NBA球員運球動作,透過Kapnetix的手機拍攝方案,僅需10分鐘運算,而動作流暢度已達到能直接套用在Maya或Blender進行微調的水準

▲透過AI輔助,讓動作捕捉成本成本從數千美元降至一杯咖啡的價格 (約2歐元/30...
▲透過AI輔助,讓動作捕捉成本成本從數千美元降至一杯咖啡的價格 (約2歐元/30秒)

分析觀點:AI正在重塑3D產業的「中間層」

從AssetHub與Kapnetix的分享,顯示當前的3D產業正在經歷一場「去中心化」革命。

過去,3D內容的生產門檻極高,導致只有大型公司有能力負擔。但現在,AssetHub解決了「靜態資產」的快速建構與結構化問題,Kapnetix則解決「動態表演」的獲取成本問題。

這兩家公司的共同點在於,他們都不試圖用AI取代美術人員 (Artist),而是用AI取代繁重工作流程——包含繁瑣的拓撲整理、關鍵格修復、雜訊清理等。

當一支手機就能捕捉動作、幾張圖就能生成可用的3D模型,未來的遊戲開發或VTuber內容生產,將不再受限於技術與預算,而是回歸到最核心的本質:創意與故事性,這或許才是AI對內容產業最大的貢獻。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

本日熱門 本周最熱 本月最熱