虚拟现实的新血液,AI 赋能下的 3D 建模行业
生成式 AI 的上限在哪里?这个问题的答案或许在短时间内都不会有答案,至少现在生成式 AI 似乎又征服了一个新的领域。此前,生成式 AI 的工作范凑主要集中在文字处理、绘画、声音处理等方面,但是生成式 AI 的能力显然远不止于此。
近日,开源生成式 AI 公司 Stability AI 正式发布了 Stable Animation SDK,以及备受关注的 Stable Diffusion 模型(以下简称 Stable)也正式公布新版本, 现在用户可以更好的控制 AI 生成的 3D 模型,并且对特定参数进行修改。
或许很多人看到这个消息的想法是:"3D 模型?是指方块、长条之类的东西?",毕竟在多数人看来,真正的 3D 建模复杂性恐怕是普通 AI 难以处理的。不过,生成式 AI 的魅力就在这里,通过对数据的处理与分析,配合对自然语言的理解,如今的 AI 可以根据描述生成更加复杂、完善的模型,并不仅限于简单的方块模型。
不仅仅是 2D 变 3D
在此之前,Stable 就因为可以将 2D 画面、描述直接转换成 3D 模型而引起了许多关注,Stable 生成的 3D 模型在精细度上虽然比不上专业人员花长时间搭建的模型,但是考虑到生成所需的时间,也足以带给大家不小的震撼。
而在 Stability AI 公布的最新演示视频中,Stable 的 3D 模型已经不仅限于静物, 即使是一直在运动的人物形象,也可以轻松转变为 3D 模型,并且运动的幅度、姿势都与原版十分接近。 类似的技术在动画制作中其实经常被用到,一些动画为了让画面、物体显得更具有立体感时,就会通过 2D 转 3D 的方式来制作这段画面,凸显画面的张力
图源:Stability AI
而在传统的动画行业里,想要将 2D 画面转为 3D,需要不少工作人员忙碌一段时间,而在 Stable 的帮助下,只需要将 2D 画面输入模型中,即可获得高质量的起始 3D 模型,大幅度降低建模所需的时间与成本。
当然,如果只是这样,或许也就从业者会高兴,对于广大网友来说,Stable 又有什么用呢?关键就在于 Stable 的 3D 模型生成并不需要精细的引导, 即使只是简笔画,Stable 也可以生成出大差不差的 3D 模型,比如这幅如图幼儿园小孩般的涂鸦,经过 Stable 的 " 润色 " 后就变成了一个还算能看的 3D 画面。
图源:YouTube
让你的一切绘画作品,甚至文字动起来,这就是 Stable 的期盼与目标。所以,Stability AI 的所有成果都是直接公开,以开源的方式提供给网友使用,对于广大二次元爱好者来说,或许这是让他们的 " 纸片老婆 " 们动起来的最简单方法。
而且从 Stable 的 3D 动态模型生成能力中,我们也可以看到一些未来的应用场景,比如更低廉、便利的动作捕捉系统,理论上只要算力足够,就可以通过摄像头捕捉的画面实时生成对应的 3D 模型动作。
除此之外还有什么妙用呢?不知道大家是否有看过近日的一个热闻,海外网红 Caryn Marjorie 通过与 AI 团队合作,用 GPT-4 复制了一个数字版的自己,然后将数字版的使用权以每分钟一美元的价格出售给自己的粉丝。
在短短的一周里,Caryn Marjorie 就以此获得了 7.1 万美元的收入,而她提供的仅仅是语音对话闲聊服务。作为视觉生物,我们对于声音的敏感度其实要低于画面, 如果 Stable 也被应用到相关领域,是否可能打造出真正意义上的 AI 女友呢? 可动、可聊,足以抚慰你空虚的内心。
咳咳,好吧,这个话题先打住,至少在目前的模型效率和算力规模下,个人想要实现实时且高规格的 3D 动态模型生成,恐怕还十分困难,但是考虑到半导体行业的进步速度,或许这一天离我们并不遥远。
全新的生产力工具
Stable 此前最大的问题在于只能根据描述或图像来生成 3D 模型,如果生成的效果不好,只能重新调整图像或文字信息来重新生成,根据显卡的性能不同,3D 模型的生成时间也会有所区别,相较于 ChatGPT 等传统问答式 AI,Stable 的时间成本高很多。
所以,虽然 Stable 的 3D 模型生成效果远优于以往的类似应用,使用场景却十分受限,仅仅是能够给社区爱好者提供一个简单便利的 3D 模型生成工具。一直以来,社区用户都希望 Stability AI 就可以给 Stabel 增加参数调整功能,这样就可以对不满意的模型细节进行修改。
Stability AI 给出的回应就是 Stable Animation SDK, 该接口可以被加载到 Stabel 的模型中,用户在使用 Stabel 生成 3D 模型后,可以通过接口直接输入对应的参数,调整或增加模型的细节,让模型更符合用户的要求。
从接口的描述文件来看,支持修改的参数非常多,从基础的颜色、形状、大小、纹理到动作姿势等都可以进行调节,而且调节过程并不需要输入专业数据或是名词,只需要如图生成 3D 模型时一样输入文字信息即可。
比如你生成了一只小狗的 3D 模型,然后觉得小狗身上的花纹不太满意,只需要从接口输入你想要的花纹描述,Stabel 就会根据描述对模型进行修改并重新渲染相关图层。
除此之外,Stable Animation SDK 还支持动作命令的输入, 可以让静态的 3D 模型直接执行你的动作指令,比如你渲染了一只飞龙,然后输入指令 " 让龙飞起来喷火 ",Stable 就会开始对 3D 模型进行动作渲染。
而且 Stable 还提供摄影功能,用户可以调整拍摄机位、照明效果、背景等一系列的参数,对 3D 模型进行静态和动态的录像。是的,大家估计都猜到了,3D 建模、3D 动画等与 3D 建模有关的行业,都将会感受到来自 AI 的 " 温暖 "。
另外,部分网友认为 Stable 与虚拟现实设备结合,或许会让虚拟现实设备的生产力表现得到飞跃式提升。大家应该都看过漫威电影《钢铁侠》,电影主角史塔克就拥有一个高级人工智能程序 " 贾维斯 ",在史塔克制造钢铁侠铠甲时给予了许多帮助。
其中一个片段就是史塔克通过对话直接生成了一个零件的 3D 模型,然后对其进行调整并应用到铠甲上,这套流程听起来是不是有点耳熟?没错,某种意义上这就是 Stable+ChatGPT 的未来版本,通过对话直接创造出 3D 模型,让设计师可以在虚拟现实设备中直接检视物品的外观、使用效果等。
将这个过程放到现实生活照,就相当于将产品设计中最耗时的打样、调整过程简化,实质性的提高产品从设计到落地的整个流程效率。而且, 结合虚拟现实设备的功能,甚至可以让设计师提前在虚拟现实中使用和体验自己的产品。
当然,现在的产品设计流程中,其实就已经广泛利用类似的 3D 模型软件来渲染场景,但是 Stable 的优势在于生成的速度,本来需要数小时甚至数天进行调整渲染的模型,如今只需要十分之一或更短的时间即可生成,背后所带来的效率提升不言而喻。
随着生成式 AI 的遍地开花,可以看到 AI 对我们的社会、生产等方面会造成十分深远的影响,今天是 3D 模型,明天又会是什么?我非常期待。
来源: 雷 科技 Ieitech