針對在虛擬實境中代表個人的虛擬人像 (avatar)設計,Meta 表示接下來將透過人工智慧方式讓虛擬人像變得更加真實,互動也將更自然。
目前在虛擬實境中的互動體驗不佳的原因,其中有一部分與代表使用者的虛擬人像過於死板,難以如實表達使用者真正的互動情緒,加上技術與效能等因素考量,因此在虛擬實境中的虛擬人像,多半沒有腳在內下半身部位。
延伸閱讀:
而在此次Meta Connect 2022活動上,Meta執行長Mark Zuckberg則是進一步說明,未來的虛擬人像設計將會結合更細膩的表情呈現,例如透過Quest Pro的臉部表情識別偵測功能,讓虛擬實境中的虛擬人像可以完整重現使用者在真實世界所呈現表情,進而可透過虛擬人像的表情表達情緒。
另一方面,如同藉由人工智慧、深度學習等方式,讓虛擬人像的手臂動作可以變得更加自然,Meta也透過相同設計邏輯,讓虛擬人像可以有腳,甚至可以自然、流暢地呈現下半身動作,藉此讓虛擬人物可以進一步藉由肢體動作表達心情,或是產生不同互動。
至於此項設計將會在2023年率先應用於Horizon Worlds平台,但未來也會進一步擴大虛擬人像應用範圍,同時也預告將讓虛擬人物可以選擇更多衣服穿搭,甚至可以付費購買各品牌在虛擬實境環境提供的「服飾」。
為了讓虛擬實境中的互動更加真實,Meta之前已經著手測試透過手機自拍個人臉部不同角度與表情,即可由系統進行深度學習,如此一來即可在虛擬實境中以更真實表情進行互動。
相同技術甚至可以用於掃描真實生活物品,進而快速在虛擬實境環境建立所拍攝的物品模型,對於建立更擬真的虛擬實境環境將能變得方便許多。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》