“无中生有做 3D ”——游戏行业的 AI 革命
在更强大的 AI 及相关技术的加持下, 游戏 行业将出现怎样的变革?
4 月 13 日周三,方正证券分析师杨晓峰发表了题为《游戏的 AI 革命:StableDiffusion 到 Nerf》的行业研究报告。
在这份报告中,方正证券表示,游戏行业能够根据现有的 AI 模型—— GPT、Stable Diffusion 以及 Nerf, 实现 " 无中生有做 3D"。
GPT 文本生成神器的功能已被大众所熟知,这里方正证券着重介绍了 Stable Diffusion 和 NeRF 模型。
AI 生成 2D 作画:Stable Diffusion
据方正证券介绍,Stable Diffusion 是一个文本到图像的潜在扩散模型,可以实现 " 文生图 " 功能。不过,当前的输入内容类似于程序代码,具有一定的门槛。
Stable Diffusion 提供开源模型,用户可对其进行进一步训练,风格多样化。
同时,使用 controlnet 插件可以使 Stable Diffusion 生成多视角图片。
AI 推动 "2D 到 3D" :NeRF 模型
NeRF,全称为 Neural Radiance Fields ( 神经辐射场 ) ,是一项利用多视角图像重建三维场景的技术,即 利用 2D 图片搭建 3D 场景 。
当前基于 NeRF 技术构建的模型主要有谷歌的 Mip-NeRF、Block-NeRF、LOLNeRF,英伟达开发的 instant NGP。
据方正证券称,instant NGP 可以极大的提高 NeRF 的效率,在某些情况下速度可以提升超过 1000 倍。
Instant NeRF 可在单 GPU(RTX3090)环境下实现秒级的 3D 场景生成。在高清分辨率下,合成甚至真实 场景可以在几秒内训练,幵以 60 帧 / 秒的速度渲染。
另外,3D 建模软件服务商 Luma AI 近期开发了 NeRF 相关的 APP,目前已上线 APP Store,极大的降低了 NeRF 的使用门槛:
仅需要一部 手机 ,通过 APP 导引进行场景的拍摄,就可以随时随地渲染三维场景,轻松使用 NeRF。
2023 年 3 月 24 日,Luam 获 2000 万美元的 A 轮融资,英伟达为其 投资 方之一。
GPT → Stable Diffusion → Nerf:无中生有做 3D
据介绍,目前由文字到 3D 模型,存在两种路径。
使用 " 文生图 " 模型 +NeRF 生成 3D 模型,GPT 在其中可以发挥重要作用。 例如,使用 stable diffusion+controlnet 插件,生成多视角的 2D 图,再由 NeRF 形成 3D 建模。但由于目前文生图模型的 prompt 仍有一定的门槛,因此或可训练 GPT,使其掌握,进而实现自然语言生成满意的多视角 2D 图。
使用文字生成 3D 模型。 这一类模型往往是,文本到图像扩散模型和 NeRF 的结合。其原理为,先通过文本到图像的扩散模型生成 2D 图,再通过 NeRF 将 2D 图生成 3D 模型。
AI 推动降本增效
目前,国内常见的游戏美术制作方式有四种,分别是 3 渲 2 制作、3D 现世代制作 ( 传统手绘 ) 、3D 传统次世代制作和 3D 次世代制作。
但总体来看,当前制作一个 3D 游戏角色的周期在 30-45 天左右,需要的步骤较多,参与的人员众多。
使用 NeRF 可以快速建模,从而提高效率,节省成本。
时间上,AI 生成图片的速度相对手画来说,大幅度提高;而 NeRF 建模也可一次性完成上文中步骤的多个, 在时间上有极大的提高。
人力上," 文生图 " 和 NeRF 可以完成多个角色的工作,同时也更加快速。
来源:华尔街见闻