#MetaReleasesMuseSpark 副標題:這家科技巨頭的最新創新旨在民主化3D世界建構與互動式故事講述,挑戰現有的AI影片與設計工具。
發稿日期:[當前日期] – 為了在數位創意的下一個前沿佔據主導地位,Meta正式宣布MuseSpark,一款全新的生成式AI模型,旨在即時產生互動式虛擬環境、3D資產與故事序列,皆可由簡單的文字或圖像提示生成。
與傳統的文字轉圖像模型不同,MuseSpark專為空間計算與元宇宙打造,直接整合於Meta的Horizon Worlds、Quest裝置及未來的AR眼鏡生態系統中。
主要技術能力
1. 即時4D場景生成
MuseSpark不僅生成靜態3D模型;它還創建動態、具物理感知的環境。用戶可以提示「一個浮動書本與移動梯子的未來圖書館」,AI便會輸出一個完全互動、即時的場景,包含照明、碰撞網格與環境動畫。
2. 跨模態一致性
該模型保持嚴格的語義與空間連貫性。例如,描述「一張紅色椅子在天窗下靠近藍色桌子」的提示,會產生幾何位置準確、反射與陰影在各幀中保持一致的效果——這對VR沉浸感至關重要。
3. 低延遲資產串流
利用Meta的推理優化架構,MuseSpark能在500毫秒內生成高解析度網格與PBR(物理基礎渲染)紋理,實現即時世界建構,適用於現場協作。
運作方式
MuseSpark採用一個在專有資料集