Meta 發佈研究論文,介紹了名為 Meta 3D Gen(3DGen)的全新 AI 模型,可以在 1 分鐘內基於使用者輸入的提示詞,生成高品質的 3D 內容。
Meta 公司表示 Meta 3D Gen(3DGen)所生成的 3D 內容具備高解析度紋理和材質貼圖,還支援基於物理的渲染(PBR),並能對此前生成的 3D 內容重新再生成新紋理。
Meta 3D Gen 包含 text-to-3D 生成和 text-to-texture 生成兩個主要元件,其工作原理如下:
第一階段
根據使用者提供的文字提示,第一階段使用 Meta 的三維資產生成模型(AssetGen)建立初始 3D 資產。該步驟生成一個帶有紋理和 PBR 材質貼圖的 3D mesh。推理時間約為 30 秒。
第二階段
-
案例 1:生成更細化的 3D 紋理
根據階段 1 生成的三維資產和初始文字提示,階段 2 將為該資產生成更高品質的紋理和 PBR 貼圖。它使用 Meta 的文字到紋理生成器 Meta 3D TextureGen。推理時間約為 20 秒。
-
案例 2:再生成 3D 紋理
給定一個未紋理化的 3D mesh 和一個描述其所需外觀的提示。階段 2 還可以從頭開始為該三維資產生成紋理(mesh 可以是以前生成的,也可以是藝術家建立的)。推理時間約為 20 秒。
完整報告連結在此,感興趣的使用者可以深入閱讀。
- 延伸閱讀:Meta開發數位浮水印工具AudioSeal,可以檢測聲音中是否有AI生成的片段
- 延伸閱讀:Meta首席科學家楊立昆:想要發展沒有偏見的AI「絕對不可能」
- 延伸閱讀:Meta正建構巨型AI模型,不但整合旗下所有產品的影音推薦引擎、還打算開發AI助理
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!