豆包新模型VideoWorld无需依赖语言、仅通过“视觉信息”认知世界
2月10日,豆包大模型团队联合北京交通大学、中国科学技术大学共同开发的视频生成实验模型“VideoWorld”正式开源。不同于主流多模态模型,VideoWorld 在业界首次实现无需依赖语言模型,即可认知世界。传统的多模态模型,如Sora、DALL-E和Midjourney等,大多依赖于语言或标签数据来学习知识,而VideoWorld则通过纯视觉信号进行学习和推理。这一特性使得VideoWorld在处理如折纸、打领结等难以通过语言清晰表达的任务时,具有显著优势。此外,该模型还具有扩展到自动驾驶、智能监控等领域的潜力。
文章评价

发布
发布