导读:近期,包括字节跳动、阿里、百度、科大讯飞、腾讯等多家国内大模型厂商纷纷宣布调整旗下大模型产品的定价策略,通过降价或免费的模式打响了大模型领域的价格战。
在继一年多的国产大模型鏖战后,大模型赛道又“卷”起了价格战。
近期,包括字节跳动、阿里、百度、科大讯飞、腾讯等多家国内大模型厂商纷纷宣布调整旗下大模型产品的定价策略,通过降价或免费的模式打响了大模型领域的价格战。
不是降价就是免费,大模型厂商打响“价格战”
5月11日,智谱大模型开放平台(bigmodel.cn)上线了新的价格体系。入门级产品GLM-3 Turbo模型调用价格下调80%,从5元/百万tokens降至1元/百万tokens。
5月15日,字节跳动正式发布豆包大模型,并宣布大模型价格进入“厘时代”。豆包主力模型在企业市场的定价只有0.0008元/千Tokens,0.8厘就能处理1500多个汉字,比行业便宜99.3%。
5月21日,阿里云宣布通义千问4款商业化模型和5款开源模型大降价。其中,通义千问主力模型Qwen-Long的API输入价格降至0.0005元/千tokens,降幅达97%。
图源:阿里云微信公众号
百度紧随其后,直接宣布文心大模型的两款主力模型ERNIE Speed、ERNIE Lite全面免费,即刻生效。
图源:百度智能云微信公众号
5月22日,科大讯飞也宣布,旗下讯飞星火API能力正式免费开放。其中,讯飞星火Lite API永久免费开放,讯飞星火Pro/Max API低至0.21元/万tokens,而在顶配的Spark 3.5 Max版本上,价格也降到0.21-0.3元/万Tokens,即0.021-0.03元/千Tokens。
图源:科大讯飞微信公众号
5月23日,腾讯云同样也宣布全面下调大模型价格,其主力模型之一混元-lite模型价格从0.008元/千tokens调整为全面免费。
图源:腾讯云微信公众号
实际上,不只是国产大模型在“卷”价格,OpenAI等国外大模型也在不断下调价格。据了解,从2023年年初以来,OpenAI已经进行了多次降价,而且近期发布的GPT-4o不仅性能有大幅的提升,且所有用户均可免费试用,调用API的价格也比GPT-4-turbo降低了一半。
降价潮或是为“做大蛋糕”,加速AI应用爆发?
都知道,训练一个大模型的成本需要上亿美元,且随着训练数据量的增长和所属设备的升级,其训练成本仍居高不上,各厂商一直在源源不断的“烧钱”。
有关数据显示,2023年,开发AI大模型的上市公司平均研发投入达59.56亿元,其中13家研发投入超百亿元,最高达640.78亿元。
在这样一个持续“烧钱”的行业里,各大厂商为何又偏偏打起了价格战?
业界普遍认为,随着大模型性能的逐渐提升,AI应用创新正进入密集探索期,但推理成本过高仍旧是制约大模型规模化应用的关键因素。因此,大模型降价甚至免费,或是各家厂商为进一步抢占市场份额,加速AI应用商业化进程的战略打法。
按照阿里云的说法,此次降价就是希望加速AI应用的爆发。阿里云预计调价后,未来大模型API的调用量会有成千上万倍的增长。
另外,字节跳动旗下云服务平台火山引擎的总裁谭待表示,大模型的降价是因为公司有降低成本的能力、市场对降价有需求、使用量的增加,而这都有利于大模型的性能提升以及吸引B端用户使用。当然也希望通过大模型的降价,能够帮助企业以更低成本加速业务创新,加速AI大模型的应用场景落地。
价格战比拼的背后:受益or受伤?
且不看此轮价格战比拼过后,这些厂商争夺了多少用户,占据了多少市场份额。但有一点能肯定的是,AI大模型市场的低价策略,必将导致市场格局的重塑。
对于像字节跳动、阿里、百度、腾讯等这样的头部企业而言,其能够利用自身的规模效应和资源优势,通过其他方式来平衡降价带来的影响。
但对于中小企业或是创业公司而言,算力本身就是一笔难以忽视的支出,在成本压力和价格战的双重夹击下,公司的生存空间变得越来越狭小,甚至是让企业直接淘汰出局。
所以,在本身资源就不如头部企业的前提下,眼下这些中小厂商需要积极寻求转型,走出差异化的变现之路,才能在激烈的市场竞争中求得生存和发展。
写在最后
当下,席卷着科技领域的AIGC浪潮,正在各行各业泛起涟漪。而在这场波涛汹涌的AI浪潮下,如何实现AI大模型的商业化应用落地,一直是行业的头号难题。如今,借助这场降价风暴,厂商究竟是突破行业困局,打通大模型成果商业路径?还是深陷被动的价格战泥潭中,还需看后续发展。