从第二届百度搜索创新大赛优秀成果背后,探析AI大模型未来趋势
从去年底ChatGPT发布到现在,近一年的时间转瞬即逝。而在这段时间里,不仅可以看到市场对大模型和生成式AI的认知改变,同时也可以看到AI大模型正推动世界加速拥抱AI带来的变革。
近日,以「新搜索·新奇点」为主题的第二届百度搜索创新大赛,历经3个月的角逐,完美落下帷幕。此次大赛围绕人工智能、检索技术,面向全国高校、企业、科研机构、项目团队及个人广发英雄帖,旨在挖掘和培育搜索 AI 人才,促进业内交流、产教融合,推动产品、算法和技术应用创新,赋能AI原生时代加速高质量推进。
大赛如火如荼,成果亦较为亮眼。数据显示,战况激烈的五大赛道,最终吸引了2800多人报名,5万名同学直接参与相关课程学习,宣传覆盖100万开发者群体。
在12月1日举办的第二届百度搜索创新大赛颁奖典礼上,NVIDIA 全球副总裁何涛表示,“在这一年里,各行各业都经历了从通用计算到加速计算和生成式AI的平台转型。初创企业、 互联网 公司和云服务商,积极 投资 大模型、AI云和应用落地。希望在场的各位参赛者,能够顺应技术发展趋势,把握机会,提升自我竞争力,加速你们的职业成功。”
“因时而变,因势而变”
并非所有企业适合AI大模型
聚力创新,力量正在崛起,第二届百度搜索创新大赛成果印证一切。
较为直观的体现是,第2届百度搜索创新大赛设立了五大赛题,题目涉及搜索核心业务场景,如语义检索、多模态、软硬结合优化等丰富的技术方向,并且开设了产品赛道,广发英雄帖,号召参赛者“洞察用户在搜索场景的需求,并通过构建AI应用解决”。从数据来看,五大赛道报名 2800人,比去年多1000多人,赛题各有侧重,难点不一,成果亦较为亮眼。
以大赛为平台,引领大模型时代“新搜索”的未来,百度搜索创新大赛携手新一代“AI未来新星”,冲向无限可能。但从赛场过渡到行业当前境况来看,不禁需要思考:在创新力量的加持下,是不是所有企业都可以如百度一样适合自建大模型?
这需从大模型发展现状说起。从今年3月开始,国内的AI大模型如雨后春笋般涌现。《中国人工智能大模型地图研究报告》显示,截至2023年5月底,国内10亿级参数规模以上基础大模型至少已发布79个。
毫不夸张地说,“百模大战”已开启。IDC预测,2026年中国AI大模型市场规模将达到211亿美元,人工智能将进入大规模落地应用关键期。
“因时而变,因势而变”。比较具体的就是,AI大模型在创作、效率工具、教育、 营销 、 金融 等领域已经衍生了大量的创新业务,而微软发布的Fabric平台开始用大模型能力打造新一代的AI数据分析平台,更给这个领域带来了无限的想象力。那么在构建AI大模型的过程中,核心要做的是什么?即要清晰认识本企业/行业大模型应用的需求场景与价值,明确公司的目标和愿景。同时,选择适用于公司需求的最佳解决方案制定计划实施也较为重要。据NVIDIA方面表示,“大模型应用的建设路径可以有很多选择,除了上述自建专属大模型的方案,直接使用API或插件接入、基于平台公司的提供的基础大模型行业方案,公有云或混合方案来构建,现在市场上都有灵活的选择。比如,直接使用API或插件接入门槛最低,对注重快速应用上线,数据保密保护要求不高的企业可以选择效果不错;服务稳定可靠的平台公司的API或者提供有限个性化微调的公有云平台服务实现快速应用搭建;对希望能够自己控制基础设施以保护数据资产的企业,选择其他基础大模型平台提供的安全部署方式来做微调和部分定制,通过自有标注数据和配置参数来训练自己的大模型也是不错的选择。”
但不论采用哪种方式,重要的是要不断测试和优化,以最佳方式满足业务需求。
竞争与革新,
什么样的企业适合AI大模型
能够看到,构建AI大模型,并非一蹴而就,其建立的基础在于企业自身技术实力、投资预算以及需求定位等各方面的考量。
那么在这一点上,在人工智能领域深耕多年的头部 科技 企业百度显然较具代表性。以文心大模型4.0为例,在重构AI原生应用的底座文心大模型方面,今年10月份,百度发布文心大模型4.0,用户可以通过文心一言体验文心4.0版本,企业可以通过百度智能云千帆大模型平台调用文心4.0的API,并且百度智能云千帆大模型平台服务企业已超过2万家,覆盖近500个场景。目前,文心一言用户数达7000万,覆盖场景4300个。
事实上,过去几年在搜索领域,百度搜索已构建了多项关键技术。首当其冲的就是超大规模深度语义匹配模型。该模型当前每天在线可以提供万亿次服务,是业界最大的在线推理系统,让用户可以搜到更为精准的信息。
删格化索引亦是不容错过的关键。该项技术通过索引万亿网页、视频、图片和信息,可以确保任何用户想要的信息都能在几百毫秒中返回。
同时,百度搜索还打造了一套跨模态的问答系统,可以将视频、图片中的内容直接回答用户的问题。此外,今年百度还创新打造了一套全新的搜索系统,将大语言模型和搜索系统融合在一起,大幅提升了线上效果。比如,占搜索相当大比例的各种长尾问答需求,极致满足的比例提升到70%,也激发用户每天新增表达5000w问答需求。
其中,值得关注的是,为使得服务更具多元化,真正做到搜索的极致满足体验,百度搜索还上线了包括多答案决策系统、文本、图片创作产品等,进一步提升用户的新场景满足能力,探索新的交互形式,通过自然语言多轮、跨模态交互、为用户打造AI伙伴。
创新从不止步,服务更是精细化向前。在百度搜索的应用中,大模型对深度语义匹配、跨模态的内容理解和问答,以及百度全新推出的搜索系统长尾问答需求等很多领域效果提升明显。我们也看到,全新百度搜索系统不断推出大模型应用融合功能,比如多答案决策系统、文本、图片创作产品和对自然语言多轮、跨模态交互等新的交互方式的探索,不断融入大模型能力。
不过,需要关注的是,这些应用上线服务对于百度搜索这样每天万亿次在线服务级别的物理系统,在性能和吞吐上将面临极大的压力,如何解决?百度大模型与搜索团队的研究和工程团队不断的探索在模型规模压缩、量化和引擎优化等各方面方法的结合来优化系统性能,NVIDIA工程优化专家也在系统性的性能分析,方案分享甚至算子融合优化等各方面提供持续支持,通过搜索效率提升和资源节省实现大模型部署能力的支撑。NVIDIA工程师也在与文心大模型工程团队紧密合作,持续为训练推理的优化提供支持。
创新的领域,从来不乏竞争者。所以,更需不断革新。NVIDIA一直致力于从硬件到软件全栈的加速计算能力的持续改进,以满足不断增长的模型和数据规模带来的算力需求和压力。
何涛在大会上表示,“今年,NVIDIA也和百度大搜在Megatron LM/Nemo FW、基于SD的内容生成、ANN向量召回、性能优化等方面,开展了深入合作。未来,我们期望双方团队能够进一步加深合作,助力百度大搜在生成式AI的浪潮中取得更加辉煌的成绩。”
据了解,百度作为中国人工智能技术综合实力领先的互联网公司,在生成式AI和大模型的新兴机遇背景下,不断强化技术、改进产品, 重构了消费级、企业级产品及自身运营;在为用户带来AI原生体验的同时不断提升效率,Q3营收同比大涨23%,实现了爆发式增长。
NVIDIA 开发与技术部门亚太区总经理李曦鹏在颁奖典礼上表示,“从最早书籍检索、数据检索,到了数字化过后内容的检索,到现在如火如荼基于LLM生成式检索,都在说明一个好的领域可以不断地引领创新、不断地产生创新、同时不断地吸收创新。搜索业务本身是NLP、CV、语音这些最前沿Deep Learning的合集。基于此,大模型有创新,第一个落地场景就是搜索。对于大模型在搜索引擎里大放异彩,是非常值得期待的。”
未来与趋势
技术变革时代,创新力量不容忽视
大模型的不断发展和与其他技术产品结合的过程将是持续探索和尝试的过程。但无论如何,大模型的出现都是一个革命性的突破,而随着技术的不断推进,未来趋势也将更为明晰。
技术向前,创新从未停驻。今年10月,NVIDIA还公开发布了TensorRT-LLM,一个用于加速大语言模型(LLM)推理的库,是一款提升 AI 推理性能的开源软件。为支持 AI 开发者,该公司发布的TensorRT-LLMv0.6.0 更新将带来至高达5倍的推理性能提升,并支持更多热门的LLM,包括全新Mistral7B和Nemotron-38B。这些LLM版本将可在所有采用8GB及以上显存的GeForce RTX 30系列和40系列GPU上运行,从而使便携的WindowsPC设备也能获得快速、准确的本地运行LLM功能。
定制的生成式 AI 需要时间和精力来维护项目。特别是跨多个环境和平台进行协作和部署时,该过程可能会异常复杂和耗时。AI Workbench 是一个统一、易用的工具包,允许开发者在 PC 或工作站上快速创建、测试和定制预训练生成式 AI 模型和 LLM。它为开发者提供一个单一平台,用于组织他们的 AI 项目,并根据特定用户需求来调整模型。这使开发者能够进行无缝协作和部署,快速创建具有成本效益、可扩展的生成式 AI 模型。加入抢先体验名单,成为首批用户以率先了解不断更新的功能,并接收更新信息。
一切革新的背后,都离不开创新的力量。这股创新的力量就是人才。广发英雄帖,构建一个大型的AI舞台,百度搜索创新大赛所要做的就是广泛招揽优秀人才,为行业蓄能。而在生态建设和人才培养层面,NVIDIA与百度近年来也在不断加速推进。
“我们积极支持百度的Paddle平台框架在NVIDIA软硬件平台的加速优化,并通过技术大赛,技术社区共同推广的方式共同推动AI创新生态的发展,发掘和培育创新AI技术人才。” NVIDIA方面表示,“我们期待通过双方的合作,将百度在搜索领域包括AI大模型应用及各种搜索技术创新以最优的性能在NVIDIA加速计算平台上提供给客户,助力百度搜索不断推出创新服务,结合在AI大模型为客户提供多语言、多模态和包含更多领域知识的服务,为用户提供更丰富、个性化和智能化的搜索体验。”
此外,NVIDIA给开发者提供了许多学习交流的资源,NVIDIA 的开发者社区,目前在全球已经有450万开发者,CUDA加速库下载量也超过4800万次。面对生成式AI浪潮,NVIDIA非常欢迎广大同学们和参赛选手加入其开发者社区,以提升自我竞争力,加速职业成功。