文心一言的四次进化论
“两个多月,四次迭代,核心场景推理性能提高50倍。”
这是百度在过去70天间为文心一言交出的成绩单。仅仅在两周前的技术交流会上,文心一言性能提升还不过十倍。
也是在那次交流会上,百度首次现场演示了大模型微调过程,文心一言背后的绝对功臣“文心千帆”才开始悄然走进公众视野。
此前,公众对于百度更为熟知的一直是“文心一言”这一对话式AI产品,鲜少有人看到为其提供支撑的文心千帆大模型平台。
而现在,它终于适时地开始浮出水面,这对于热衷拥抱大模型的企业而言,无疑是一个好消息。
1、文心一言幕后的支撑者
文心一言的迭代速度令人惊叹,在5月23日的技术交流会上,百度智能云副总裁朱勇表示,自内测以来,通过算法和模型的持续优化,文心一言的推理性能已经大幅提升50倍。
仅仅在两个多星期以前,文心一言的推理性能还停留在提升10倍的水平。在刚刚过去的二十天,基于文心千帆大模型平台百度通过四层架构(芯片-框架-模型-应用)的端到端优化,文心一言将高频场景下的推理性能进一步提升了5倍。此前,文心一言的推理成本已经降到最初的十分之一,性能的提升也意味着相关成本进一步的下降。
不少人可能还在好奇,文心千帆和文心一言有什么区别,是什么关系。如果用最通俗的话,文心一言更像一个To C产品,为用户提供大模型对话的能力,而文心千帆则是开发、训练到应用大模型的平台。
更具体的讲,文心千帆提供的服务能够覆盖人工智能研发的全生命周期,包括:数据管理、模型训练、模型评估、预测部署和插件服务等,能够端到端地帮助客户开发和部署大模型应用。
在5月9日的技术交流会上,百度智能云就曾对外展示“文心千帆大模型平台”,表示其是全球首个一站式的企业级大模型平台。
5月23日的交流会中,百度智能云AI与大数据平台总经理忻舟对这一定义做了进一步阐述。前述概念中有两组关键字:其一是“一站式”,这意味着,文心千帆将提供从模型开发、应用、推理,到数据回流、开发的全闭环过程,涵盖大模型整个开发生命周期;其二是“企业级”,也就是文心千帆将提供众多企业相关服务,比如智能管控、数据安全、账号管理等等。
过去一段时间,文心一言的迭代速度已经侧面证明了文心千帆在训练大模型方面的能力。我们看到百度成为国内第一个发布大语言模型的企业,也欣喜看到过去几十天间文心一言火箭般的升级速度。
基于这样的变化,我们可以预见,未来的一段时间,在文心千帆的加持下,文心一言的升级速度或许会更加超出我们的想象。
与此同时,文心一言快速的迭代充分证明了文心千帆平台的能力,让更多想用大模型能力的企业坚定拥抱。
从企业侧来看,文心千帆近期举办的四场技术交流会,场场爆满,参会的几乎都是企业客户。据悉,截至目前,已经有15万家企业申请文心千帆的内测。300余生态伙伴与百度签约,展开在400多种场景内的探索。
值得注意的是,文心千帆不仅支持文心一言的大模型服务,也支持第三方的大模型。换句话说,客户使用第三方大模型也可以在文心千帆上进行部署和训练。
从企业需求侧来看,当今企业拥抱大模型,最关注的三个焦点是模型效果、成本和安全。即大模型与能给自身企业带来多大的业务提升,以及自己是否用得起,以及数据是否能保证安全。
先来看效果,文心一言的训练成果已然从侧面反映出,文心千帆作为大模型平台的能力。此前,5月9日的现场演示显示,仅十分钟左右的微调以后,模型效果就得到了明显提升。据了解,这样的微调过程每次大约仅需标注100条数据,且模型能够在类似的问题中产生一定的泛化能力。据百度智能云介绍,文心千帆开发效果的提升主要依托于AI大底座的能力,AI大底座的千卡并行线性加速比可以达到90%以上,训练资源利用率超过70%,模型开发迭代效率提升100%。而来自客户的反馈也在证明这一点,AI大底座提供的端到端优化能力大大提高了模型迭代速度,这打动了成立35年的金山办公,双方很快一拍即合,并且已经开始逐渐在具体产品上落实。
就成本侧而言,百度杰出系统架构师王雁鹏表示,企业主要关注点集中于开发成本,即算力。但实际上,它占总成本的比例可能并不高,且这一成本可以通过很多方法降低,比如四层架构端到端的优化。算法、框架、系统和芯片,是一体化的。百度智能云副总裁朱勇表示,除了算力等整个底层资源的消耗,整个智能应用的开发,需要大量人力成本,大模型的出现使得这些工作门槛足够低,这些工作交给文心千帆都将是个不错的选择。
在安全层面,忻舟坦言,公有云需要非常高的安全机制,有完善的指令监控、日志监控、审核以及资源隔离机制,可以保证数据安全。从而在一定程度上保证用户私域的数据安全。此外,客户还可以选择私有化部署的方式。同时,为了保护用户的数据隐私,百度不会拿用户数据做模型训练和迭代优化。并且在符合政策要求情况下,这些数会被删除。
会后的交流中,忻舟进一步解释道:“我们要把这个功能每一个角度都做的足够好,不用做的太复杂,其实更多的是灵活性更强一些,让我们的客户和用户基于足够的灵活性,能够根据自己的业务需求开发自己所需要的场景的应用,这是从产品角度来讲需要精心设计的。”
2、从大模型到千行万业
大模型的落地场景远不止文心一言。在更具体的行业层面,大模型的应用场景拥有更大的想象空间。
刚刚过去的一季度,百度智能云首次实现盈利。百度智能云副总裁朱勇告诉雷峰网,百度云能够盈利,一方面在于不断提升的产品标准化程度,是产品驱动;另一方面,基于芯片、框架、模型、应用的四层架构以及端到端优化,都使得其成本不断降低。
当然,朱勇也表示,“大模型出现之后,我们也看到业界、客户、合作伙伴的热情,当前都在积极联合测试开发,这对于我们接下来很多的项目,或者说很多产品落地、产品的发布节奏是非常有帮助的,未来可能会产生更多的收入来源。”
百度智能云六大智能产品正基于文心一言升级,经安全评估完成后将会上线。包括金融、政务、客服、写作等行业和领域。
以智能创作为例,平台将全方位赋能内容生产者高效创作,高品质内容一步到位。从选题策划、文本创作到图片、视频制作,涵盖各个层面。
在选题上,智能创作平台将提供新闻线索、热点发现、事件脉络梳理等一系列功能;基于大模型的辅助创作将升级为AI自动创作,单篇创作时间从小时级缩减到分钟级,实现文章全流程自动化写作且支持交互式内容修订;提供16类场景化图片,且提供图片编辑、图生图等功能;实现图文到视频一站式生成和处理。
据百度智能云AI应用产品部总经理刘倩介绍,智能客服的应答辅助、会话小结、智能工单、客服知识库等功能在基于大模型完成升级后,知识生产效率提升9倍,多轮对话构建成本下降65%,可让终端用户获得到更聪明更拟人的的体验。
再如,在政务行业,百度基于大模型打造了一网办|政务服务助手、一问通|社区咨询服务助手、一问通|社区咨询服务助手、一网管|城运洞察助手、一屏观|智能分析助手等一系列产品,助力政府机构实现数字智能和政务体验的双增长。
可以看到,大模型已经不再是遥不可及的前沿技术,基于它的应用场景正逐渐深入到企业的生产链路中以及人们的日常生活。
除一系列智能应用外,预计未来将会有越来越多的产品基于大模型升级,最先从中获益的是百度网盘等七大企业级产品。据悉,基于大模型的百度网盘企业版,将为企业提供数字智能管理平台。升级后的百度网盘能够通过对话式交互,帮助企业版用户对文件内容进行总结、翻译、问答等加工处理。据百度智能云副总裁朱勇透露,百度将在所有业务中都集成文心一言的能力,内部做了非常详细的规划。
3、企业何去何从
此前,在《从智能云首次盈利,看百度如何在大模型时代奔流》一文中,雷峰网 (公众号:雷峰网) 就曾提及,随着大模型到来,百度智能云的客户超出预期,不少过去不太愿意用的机构开始主动与百度沟通。换句话说,越来越多的企业正选择拥抱大模型。
在5月9日的发布会上,百度工程师首次现场通过“文心千帆”演示了大模型微调的过程。当时,忻舟还表示,“快且收敛,是大模型应用训练中一个非常重要的指标。只快不收敛,大模型的训练是没有用的。文心千帆在多机多卡训练性能方面,可以更快达到收敛的状态,在全球权威AI基准评测MLPerf榜单中排名世界第一。”在忻舟看来,企业想用好大模型,只有大模型仍不够,还需要有成熟完备的大模型生产平台。
事实上,也确实如此,客户的积极沟通和拥抱说明了一切。除却上文提到的金山办公外,金蝶、软通动力等不少企业都已经或正在与文心千帆沟通签约事宜。
5月18日,在百度智能云合作伙伴大会上,金蝶与文心千帆现场签约,正式成为文心千帆的合作伙伴。金蝶中国助理总裁韩革缨在演讲中表示,目前金蝶已经接入了百度文心一言大模型,不断在各种探索验证并产生了不错的成果。未来,金蝶还会结合百度文心一言等大模型,利用金蝶的行业知识、专有数据,在特定任务上进行行业模型的打造,不断去升级金蝶原有的NLP、OCR等应用,探索更多的业务场景。
朱勇坦言,文心千帆大模型平台,将为企业提供开发应用大模型的最好的环境,是客户拥抱AI的最佳路径。我们希望文心千帆大模型平台,能够让我们的客户和合作伙伴用最简单的方式,用上大模型,用好大模型。
如前所述,文心千帆不仅提供包括文心一言在内的大模型服务,也为客户提供了完整的工具链和开发训练环境,能充分满足客户需求。
未来,文心千帆主要将提供两种服务:
第一,以文心一言为核心,提供大模型服务,帮助客户改造产品和生产流程。朱勇表示,这有点“淘金”的意味,真正的挖掘金子,通过提供模型服务的方式赋能客户。
第二,作为大模型生产平台,企业可以在文心千帆上基于任何开源或闭源的大模型,开发自己的专属大模型。朱勇对此解释道,“从百度来说,作为业界头部的AI公司,百度还是希望能够更加全面,给客户提供各种各样的服务,只要跟大模型相关的,都是我们的‘菜’。”
此外,针对不同客户需求,文心千帆也将会针对性提供多样性的服务模式:公有云层面,文心千帆提供推理、微调、托管等服务;私有化部署方面,文心千帆则通过软件授权、软硬一体、租赁服务的方式交付给客户。
尽管文心千帆为客户提供了大模型从开发、训练、微调、数据回流等全闭环过程,涵盖整个生命周期,但并不是所有的企业都适于从头开发训练基础模型。
朱勇坦言,其实训练一个基础模型成本是非常高的,如果真的要做一个千亿级的大模型,需要单机群万卡以上的算力,不仅要有GPU卡,还要有能够把GPU的集群资源利用起来,这个往往不是很多的公司能做的。
在他看来,未来,基础模型(大的底层模型)可能就那么几家,但是基于此,会有很多不同专业和行业类型的大模型,这些不同领域的模型将来支撑上层非常繁荣的领域应用。
据忻舟介绍,从行业来看,目前大模型普及较多的领域以信息化和技术普及率较高行业为主,比如,金融、能源以及泛互联网行业等。
后记:生成式AI未来可期
近两月来,大模型遍地开花。企业关注的焦点,已经从大模型的产品功能,转向如何以更快的速度用好大模型,完成产业链的创新再造,实现弯道超车。
百度智能云方面透露,目前已有15万企业申请文心一言内测,其中有超300家生态伙伴在400多个具体场景取得测试成效,包括办公提效、知识管理、智能客服、智能营销等代表性场景。
作为国内最早发布大模型产品的企业,百度在大模型领域的探索一直在路上:从文心一言的发布,到一系列应用场景的展示,再到如今文心千帆步入内测阶段,为企业提供开发AI应用的各种工具链及整套环境,试图覆盖人工智能研发的全生命周期。
正如文心千帆负责人忻舟的话:“生成式AI是百年难见的技术变革,我们虽然在起步中,技术还在发展中,但我相信它的未来一定会为我们带来很多自己应用的创新和效率的提升。我们拥有最多的人、企业、场景,百度努力在生成式AI大模型路上。”
雷峰网原创文章,未经授权禁止转载。详情见 转载须知 。