字节猛踩油门

虎嗅网  •  扫码分享

最近几天,AI赛道挤满了新品。


4月17日凌晨,先是OpenAI正式将预热许久的o3和o4-mini正式对外,凭借“用图像思考”能力瞬间占据热搜头条。


几个小时后,杭州,字节跳动旗下火山引擎面向企业市场发布了豆包1.5深度思考模型,同步升级文生图模型3.0、视觉理解模型,并推出OS Agent解决方案及AI云原生推理套件,用于企业客户构建与部署Agent应用。


其中,豆包1.5深度思考模型作为字节首款推理模型,具备“边想边搜”能力,同时借助视觉推理能力,可以综合理解图片中的各类信息。官方介绍,目前这款模型的人类评估表现超出DeepSeek R1 8%,且采用MoE架构,在总参数量为200B的情况下,激活参数仅为20B,在训练和推理成本方面相比同类模型可降低50%。


其实,豆包在对推理模型的响应上,稍慢了一拍。


去年9月,OpenAI发布o1模型,揭开了推理模型的序幕,之后就是今年年初,DeepSeek R1凭借超低训练成本和优异性能表现,将推理模型的热度推向高潮,一举改变了大模型领域的竞争格局,国内外大厂巨头、AI初创企业迅速跟进,不管是选择自研推理模型,还是接入DeepSeek,都在持续发力……


字节在这方面,稍显迟疑。但这似乎也符合字节的一贯风格,虽然并非最早出发,但一旦开始行动,就会以一种饱和式方式加速挺进,最明显的就是豆包大模型背后的火山引擎。


去年5月,火山引擎发布豆包大模型,并将价格降至0.0008元/千Tokens,低于行业均价99.3%,之后阿里云、百度智能云接连跟进,以更低的价格甚至免费形式,短时间内将大模型拉进“价格战”白热化阶段。


半年后的12月份,火山引擎再次加速,发布豆包视觉理解模型,并再次以0.003元/千tokens、低于行业85%的价格出圈。彼时,官方透露,豆包大模型12月日均tokens使用量超过4万亿,较5月发布时期增长超过33倍。


而这一次,数据再次刷新。火山引擎总裁谭待表示,截至2025年3月底,豆包大模型日均tokens调用量已达到12.7万亿,较发布之初增长超106倍。


另外,根据IDC发布的《中国公有云大模型服务市场格局分析,1 Q25》数据显示,火山引擎以46.4%的市场份额位居第一,成为企业落地大模型的首选平台。


此次,在模型发布后,虎嗅等媒体与谭待进行了交流,他分享了关于火山引擎这几个月来的变化、以及当下大模型领域的行业新思考。以下为交流实录,部分内容略有删减:


提问:目前市场对于云服务的需求有哪些变化?具体提出了哪些新需求?


谭待: 我觉得可以把这个问题更宽泛地理解为AI时代大家对云有什么要求。


传统的云是伴随着互联网发展起来的,那时的云原生很多是互联网应用( 如 web、APP )在实践中涉及的中间件、数据库、容器等方面,是人通过编写软件规则、中间件等来实现对业务的抽象,现在范式发生了变化,则是利用“数据+模型”自动去解决更多的问题。那这种情况下,( 大家 )对云的要求越来越多,也催生出新的产品,我们把这类产品叫做AI云原生。


原来的云原生是为了适应互联网发展,现在的AI云原生则是为了满足AI和Agent发展的需求。


首先,云厂商需要有更好的模型、更低的成本,多模态也是更好模型的一种体现,但这还不够。AI应用从聊天、信息处理到Agent的发展过程中,需要更多的解决方案。比如今天发布的OS Agent,需要Agent去操作电脑、手机,这就需要电脑和手机的相关组件Sandbox,以及能够操作界面的模型。


此外,还包括强化学习框架、安全保障以及底层数据处理等方面。未来,火山引擎将围绕AI云原生,在存储、计算、数据、安全以及新的中间件如Sandbox等方面推出一系列的产品。


提问:刚才你讲到Agent,今年也被称为Agent元年,包括字节在内的很多厂商都在挖掘Agent的应用场景,那从火山引擎的角度来看,如何看待Agent市场的机会?


谭待: 我觉得不能简单说是押注( Agent ) ,随着AI发展,聊天和信息处理只是其中一小部分,要真正为各行各业带来变革,Agent是必经之路,如果做不好相关工作,就难以实现AI的社会和经济价值。


我认为Agent大概分为垂直类Agent和通用型Agent两种类型。对于垂直类Agent,火山引擎会基于自身优势领域进行探索,比如之前推出的数据Agent,通过构建数据飞轮,将数据处理能力发挥到极致。所以我们会在这类垂直领域打造自己的Agent产品,这次提到的Trae也是类似情况,数据和代码虽然属于垂直领域,但非常基础,这类垂直Agent我们会参与开发。


对于通用型Agent,它能操作电脑、手机等,应用场景涵盖企业内部、个人或特定领域,并且需要根据不同场景进行特别制定。对火山引擎来说,更重要的是搭建好基础框架、提供好用的工具。所以我们推出了OS Agent解决方案,借助新的AI云原生组件、SandBox和新模型,让开发者和企业能更轻松地打造自己的通用Agent,这是火山引擎未来的重要发展方向。


提问:在Agent的布局上,现在可以看到,既有字节这样的大厂,也有发布Manus的Monica这类初创企业,那在你看来,谁在这一领域的机会更大?


谭待: 机会大小取决于企业的创新能力,而非企业规模,所以不能以公司大小来判断,持续保持创新能力才是关键。


提问:DeepSeek的R2正在筹划中,可能不久也要推出,面对这一强劲的竞争对手,字节是如何看待开源与闭源策略?


谭待: 我主要从火山引擎的视角来回答。首先对于模型来说,开源或闭源不是关键,优劣才是关键。因为模型数量众多,并非所有都有很大影响力,更关键还是在于质量。不管是去年还是今年,业界都处于你追我赶的状态,比如17日凌晨OpenAI还发布了o3和o4-mini,与字节出现“撞车”情况( )。


我觉得竞争是非常好的事情,若把当前的AI发展看作一场马拉松,可能现在才跑了500米。大家在竞争中相互推动,无论对于技术还是行业应用来说都能快速发展,而竞争的关键在于能否把模型做好,与开源和闭源关系不大。


提问:那在后续的商业化上有什么规划?


谭待: 提到商业模式的影响,从火山引擎的角度来说,我们本身是云厂商,目标是做AI时代最好的云。要把最好的模型提供给大家,核心在于两点:一是做好基础设施AI云原生;二是提供最好的模型以及模型上的各种应用。这次我们就推出了OS Agent这一层,更偏向于Agent这样的模型。


当我们的云原生做好了,使用者和企业用户既可以在上面用豆包,也可以用开源模型。刚才提到DeepSeek,它推出后,所有云厂商中对其适配最好的就是火山引擎,据我了解,市面上第三方在使用 DeepSeek云服务时,选择火山引擎的最多。所以对于火山引擎来说,好的模型越多越好。


提问:预估未来2年火山引擎的大模型tokens调用情况如何,还会保持近百倍的增长吗?


谭待: 对于技术发展而言,人们通常会“短期高估、长期低估”。


从长期来看,百倍甚至更高的增长是有可能的,但具体是2年还是3年,最关键的取决于模型是否有重大突破。去年到今年( 调用量 )增长很快,是因为( 豆包 )模型有几个重大突破:一是最基础的聊天和信息处理能力提升且成本下降;二是今年深度思考功能的推出,这也是一个突破。往后发展还有很多关键节点,比如视觉推理能否做得更好、Agent相关技术能否取得更大进展。


每一次大的模型( 技术 )突破都肯定能激发一次大的变化,但2年内能否再翻100倍,要谨慎乐观。


提问:目前火山引擎在对内支持和对外扩张上是怎样的比重?接下来在团队扩招上有没有计划?


谭待: 对于火山引擎而言,内部很多业务都依托于火山平台,比如抖音等产品,同时我们也对外提供支持。从成立之初,我们就坚持技术内外统一,这样既能保障对内服务,也能做好对外支持。通过技术和资源复用,我们能为内外客户提供性价比更高的服务,像我们的MaaS和云服务,性价比优势就源于此,而且实现统一后,无需纠结资源分配偏向内部还是外部,因为技术需求基本一致,全球优秀的云服务提供商( 如AWS )也是如此运作。


关于业务扩张,我们会根据业务增长情况进行规划。


一方面,与规模相关的业务如服务更多客户,需要扩充销售团队、增加解决方案和客户成功经理,这部分人员会相应增加。另一方面,产品研发更注重质量。当下AI正改变各行各业,我们也在思考如何借助AI提升自身产品研发和维护的效率。比如我们内部使用Data Agent进行数据分析等,火山引擎要成为AI原生、AI实践的典范,这样才能助力客户和开发者实现AI转型。


文章标题:字节猛踩油门

文章链接:https://www.huxiu.com/article/4252412.html

阅读原文:字节猛踩油门_虎嗅网

随意打赏

提交建议
微信扫一扫,分享给好友吧。