字节率先发动大模型价格战

更新时间:2024-05-16 22:16:18作者:橙橘网

字节率先发动大模型价格战


01、击穿底价,字节有何底气?

“击穿底价”的情节,在行业进入到白热化竞争时,终究无可避免,只看先出手者为谁。突如其来,脚步曾有些迟滞的字节选择了后发制人,直接把大模型计算费用打到了“难以置信”的便宜。

5月15日,字节跳动旗下火山引擎在“FORCE原动力大会”上宣布,此前公布的云雀大模型,被统一更名升级为了“豆包”,并一口气发布了9个豆包大模型“家族全家桶”。

而面对海内外巨头接连上演“AI科技春晚”、轮番厮杀的局面,一度选择“等等看”的字节,还是拿出了价格大杀器。

发布会上,在展示豆包模型家族时,火山引擎总裁谭待甚至没有提及多少豆包的参数、性能信息,一上来就亮出价格:0.0008元/千Tokens,表示这是一个低于行业99.3%的“地板价”。


(图源/火山引擎)

此言不虚,这相当于1元钱即可买到豆包通用模型的200万汉字处理量。

以OpenAI刚刚发布的全新模型GPT-4o为例,其主打的就是便宜易用,价格为输入5美元 / 百万 Token(约为0.035 元/千tokens),输出15美元 / 百万 Tokens(0.1元/千tokens)。

国内的大模型厂商,目前均价在0.12元/千Tokens左右——而豆包大模型的价格,比上述竞对还要便宜很多,相当于1500个汉字的计算费用是0.8厘。在同参数对比下,豆包定价是GPT-4-32k收费的0.2%;百度文心一言和阿里通义千问收费的约0.6%。

另外,更名后的豆包大模型,除了支持to C版本App,也正式对外开放了to B和to 开发者端服务,将之前的云雀大模型升级为了Pro、Lite两大版本。

其中Pro版是字节跳动自研的LLM模型专业版,比照时下最火热的Kimi等长文本玩家,窗口尺寸最大支持128K长文本。Lite则是性价比更高的轻量版,对比Pro版,每千Tokens成本下降 84%、延迟降低 50%,更具经济性。

手中有了价格法宝,谭待在发布会上底气十足。他强调:此次降价是主力模型降价,不是用小模型降价来混淆视听;并直接向阿里和百度喊话:“很遗憾阿里和百度还没有128k可精调的模型,但我期待他们的更新。”

02、字节冲刺,不佛了

此次字节降价,是否会掀起行业内腥风血雨的“恶性竞争”?发布会上,谭待对此的解释是:大模型降价,不能只提供低价的轻量化版本,主力模型和最先进的模型也要够便宜。

而从行业角度看,很可能击破成本的价格战,当然意味着字节的海量资金投入,也标志着字节决心杀出重围。

在市场最为火热的2023年,火山引擎的大模型动作一度表现“佛系”。2023年3月、4月,百度文心一言、阿里通义千问先后公布。而字节是在2023年8月,首次上线了AI聊天机器人“豆包”;9月,字节云雀大模型才浮出水面。

动作偏“慢”背后,字节在AI大模型的技术积累相对较弱是原因之一。另据业内人士分析,字节有巨量的短视频流量作为底气,如何套用AI大模型与短视频相适应,既有信心等待,也存在没有想透彻的疑虑。

据媒体报道:在2024年1月召开的字节跳动年度全员会上,字节跳动 CEO梁汝波曾经提到,公司直到 2023年才开始讨论 GPT,而业内较头部的大模型创业公司都是在 2018年至 2021年创立。

2023年2月,字节在大模型上部署了代号为“seed”的团队,专注于模型层,由历任今日头条CEO以及TikTok产品技术负责人的朱文佳带队。

据“凤凰科技”报道:2023年底,字节的AI布局陡然提速:正式组建了Flow部门,专注于AI大模型的应用研发。2024年3月,飞书产品副总裁齐俊元调至Flow部门,主要负责豆包的PC端业务。2024年4月,朱文佳开始整体负责字节AI业务,向梁汝波汇报。

战略提速后,字节内部开始了一段时间的冲刺。一位来自豆包的产品人士向“凤凰科技”透露:2024年Q1,字节的AI业务(主要指Flow部门)一直保持着高强度作业,“基本上都是单休,但有几个产品的数据表现还不错,特别是豆包,内部士气正旺”。

字节将AI策略升级后,叠加流量扶持等策略,豆包等应用DAU也发生迅猛增长。2023年底,据媒体多方统计,豆包的月活用户还远逊于文心一言和通义千问。而到今年3月前后,据QuestMobile最新报告显示:2024年3月,“豆包”App月活用户为2328.2万,在AIGC类应用中排名第一。

加紧获客,也被字节提上日程。一家企业用户告诉「市界」:近日火山引擎方面正与其密切接触:“我们做的是法律科技产品,接入的是智谱AI的API。火山最近频繁找我,希望我转用豆包。”

不过站在市场角度,低价打法能够帮助豆包拿下用户心智,仍存许多不确定性。

一家大模型企业销售人士看到:2024年1-4月,国内大模型的中标项目便达到了200多个,大模型的产品正在经受市场的快速检验。他告诉「市界」:“大模型卷价格是好事,但‘用得起’不等于‘用得好’,客户真正关心的是效果、性能、响应速度等,不计成本的低价是不可持续的。”

作者|董温淑

编辑|李原

本文标签: 字节  豆包  ai  大模型  kimi