Google基于大模型技术推出服装预览应用 | 速途网

速途网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

速途网6月15日讯(报道:乔志斌)近日,Google推出了一项全新的生成式人工智能功能,让用户可以在不同的模特身上预览服装。作为Google Shopping即将推出的一系列更新的一部分,这项虚拟试穿工具可以将服装的图像与一组真实模特的不同姿势进行匹配,尝试预测服装的垂坠、褶皱、紧贴度、拉伸以及产生的皱纹和阴影。

虚拟试穿功能是由Google内部开发的一种基于扩散模型的技术支持的。扩散模型包括文本生成艺术模型Stable Diffusion和DALL-E 2,它们学习逐步从由噪音组成的起始图像中减去噪音,使其逐步接近目标图像。

Google通过使用许多图像对对模型进行训练,每个图像对包含一个人以两种不同的姿势穿着服装的照片,例如一个侧身站立的人的图像和一个向前站立的人的图像。为了使模型更加强大(即解决褶皱看起来畸形和不自然的视觉缺陷),使用随机图像对进行了重复处理,其中包括衣物和人的图像对。

Google基于大模型技术推出服装预览应用 | 速途网

Google的消费者购物产品高级总监Lilian Rincon表示:“当你在商店里试穿衣服时,你可以立即判断它们是否适合你。”她援引了一项调查结果,显示42%的在线购物者觉得模特的形象与他们不符,而59%的人因为在网上购买的商品与期望的不同而感到不满意。“你在网上购物时应该同样自信,”Rincon继续说道。

虚拟试穿技术并不新鲜。亚马逊和Adobe一直在尝试生成式服装建模,沃尔玛也从去年开始提供在线功能,使用客户的照片进行服装建模。AI初创公司AIMIRR则采用实时服装渲染技术,在人的实时视频上叠加服装图像。

随意打赏

提交建议
微信扫一扫,分享给好友吧。