刚刚,百度宣布!

i黑马  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

刚刚,百度智能云宣布:

文心大模型的两款主力模型ENIRE Speed、ENIRE Lite全面免费,即刻生效。

刚刚,百度宣布!

这意味着,大模型已进入免费时代!

据了解,这两款大模型发布于今年 3 月,支持 8K 和 128k 上下文长度。

ERNIE Speed 是百度 2024 年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。

ERNIE Lite 则是百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力 AI 加速卡推理使用。

近期,国产“百模大战”从算力战、规模战,已蔓延到最终的价格战,并“天价”到“骨折价”。

就在几个小时前, 阿里云刚宣布通义千问GPT-4级主力模型 Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%,再度刷新底价。

这意味着,1块钱可以买 200万tokens。这款模型最高支持1千万 tokens长文本输入,降价后约为GPT-4价格的1/400。

面对阿里咄咄逼人的降价策略,字节火山引擎相关负责人今日回应称, “非常欢迎通义千问大模型降价, 共同助力企业以更低成本探索AI转型,加速大模型应用场景落地。”

他还表示,据介绍,豆包大模型在大幅降价同时,还为客户提供了业内最高标准的TPM(每分钟Tokens)和RPM(每分钟请求数),每分钟处理Tokens限额达到业内同规格模型的数倍,能够支持大量并发请求,有助于企业在生产系统调用大模型。

5月15日,字节跳动豆包大模型在火山引擎原动力大会上,火山引擎总裁谭待给出了针对行业B端用户的豆包大模型的定价。

“豆包主力模型(小于等于32K)在企业市场的定价只有0.0008元/千Tokens,0.8厘就能处理1500多个汉字,比行业便宜99.3%。”

谭待表示,此外,128k的豆包通用模型也只需要0.005元/千Tokens,比行业价格低95.8%。

这一举动,让大模型从“以分计价”进入到“以厘计价”阶段,直接击穿了大模型行业的最底价,成为“价格屠夫”,当天一度掀起了行业巨震。

刚刚,百度宣布!

在字节调整大模型定价后,业内纷纷猜测阿里、百度等巨头是否会跟进降价。

当天,百度曾对外表示: “使用大模型不应该只看价格,更要看综合效果,只有让AI应用效果更好、响应速度更快、分发渠道更广,才能让人们切实感受AI为社会生产带来的便利。”

同时,百度还表示“闭源大模型+公有云”已经成为全球AI市场的主流趋势,能实现比开源大模型性能更好、成本更低的综合效果,并透露文心大模型日均处理tokens文本已达2490亿。

如今看来,面对各大友商步步紧逼的攻势,百度也坐不住了,直接放了一个大招。

随着多家公司相继宣布大幅降价,不少业界人士认为,一场腥风血雨的行业价格淘汰赛有愈演愈烈之势, B端企业与AI应用初创公司或从中直接受益,而模型层的小厂商或将面临更加巨大的压力。

华创证券研报认为,整体来看,降低成本是推动大模型快进到“价值创造阶段”的关键要素,更低的成本价格才能真正满足企业的复杂业务场景需求,充分验证大模型的应用价值。
尽管模型终端的价格压降或将促使大模型企业对上游加强成本管控,但目前我国企业正处于AI转型的关键时期,低成本下AI模型生态将进一步完善,终端应用亦将涌现出一批核心的创新应用。

文章评价
刚刚,百度宣布! 匿名用户
发布
发布

    随意打赏

    提交建议
    微信扫一扫,分享给好友吧。