豆包新模型VideoWorld无需依赖语言、仅通过“视觉信息”认知世界

i黑马  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

2月10日,豆包大模型团队联合北京交通大学、中国科学技术大学共同开发的视频生成实验模型“VideoWorld”正式开源。不同于主流多模态模型,VideoWorld 在业界首次实现无需依赖语言模型,即可认知世界。传统的多模态模型,如Sora、DALL-E和Midjourney等,大多依赖于语言或标签数据来学习知识,而VideoWorld则通过纯视觉信号进行学习和推理。这一特性使得VideoWorld在处理如折纸、打领结等难以通过语言清晰表达的任务时,具有显著优势。此外,该模型还具有扩展到自动驾驶、智能监控等领域的潜力。

文章评价
豆包新模型VideoWorld无需依赖语言、仅通过“视觉信息”认知世界 匿名用户
发布
发布

    随意打赏

    提交建议
    微信扫一扫,分享给好友吧。