在刚刚结束的春季功能更新会上,OpenAI宣布了其最新模型GPT-4o,不仅性能有大幅提升,价格也下调了50%。据悉,这是去年以来,OpenAI进行的第4次降价。不只有OpenAI,今年以来,为了加速应用端的落地,国内大模型也开始顺应降价的趋势。
大模型或将迎来“百模价格战”
继“百模大战”以后,大模型又迎来“百模价格战”的趋势。近日,国内多家大模型厂商纷纷宣布降价策略,推动大模型从“以分计价”的定价模式向更“以厘计价”新时代迈进。
5月21日,阿里云宣布,通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%,这意味着1块钱可以买200万tokens,相当于5本《新华字典》的文字量。阿里云方面称,降价后约为GPT-4价格的400分之一,“击穿全球底价”。
所谓token,是大模型中可以理解和生成的最小意义的单位,它可以对应一个词、一个数字或一个标点符号等等。据悉,Qwen-Long是通义千问的长文本增强版模型,性能对标GPT-4,上下文长度最高达1千万。除了输入价格降至0.0005元/千tokens,Qwen-Long输出价格也直降90%至0.002元/千tokens。相比之下,国内外厂商GPT-4、Gemini1.5Pro、Claude3Sonnet及Ernie-4.0每千tokens的输入价格分别为0.22元、0.025元、0.022元及0.12元。
在阿里云宣布大降价后没多久,百度智能云宣布,百度文心大模型的两款主力模型ENIRE Speed、ENIRE Lite全面免费,即刻生效。
阿里与百度激进的价格战略,直接的导火索是一周以前字节跳动大幅降价的举动。5月15日,字节跳动宣布豆包大模型正式开启对外服务,豆包通用模型pro-32k版、pro-128k版在企业市场的推理输入价格仅为0.0008元/千tokens、0.005元/千tokens,较行业降幅分别达99.3%、95.8%,推动大模型从“以分计价”进入到了“以厘计价”阶段,并声称已经击穿了大模型行业的最底价。
实际上,席卷大模型企业的这股降价风潮并非中国独有。上周,OpenAI发布的GPT-4o就支持免费试用,调用API的价格也比GPT-4-turbo降低了一半,为5美元/百万tokens。去年至今,OpenAI已经进行了多轮降价。
AI应用有望加速普及
在业内看来,此轮大模型降价潮是各家厂商为了抢占市场份额,加速AI应用的商业化落地而采取的策略。
“这对整个行业来说是好消息”,针对友商们的降价动作,零一万物董事长兼CEO李开复回应时说道,“行业每年降低10倍推理成本是可以期待的,而且也是必然发生的。”他不久前也曾提出预测,大模型推理成本的下降会推动着中国AI大模型进入落地为王的阶段,今年会迎来“大模型应用爆发元年”。
阿里云智能集团资深副总裁、公共云事业部总裁刘伟光也解释,此轮降价得益于公共云技术规模之后的红利和规模效应,带来了成本和性能优势。
谈及字节跳动大模型降价原因,火山引擎总裁谭待指出,今年大模型技术显著提升,应用环节至关重要。繁荣生态是推广应用的关键。市场上,许多客户都渴望尝试大模型,但创新风险高,尤其是AI风险。“要减少不确定性,我们必须大幅降低试错成本,使大模型能被广泛采用,无论大企业还是个人开发者。市场呼吁我们提供更低成本的核心技术。”他表示。
不过,尽管降价是大势所趋,但李开复认为,疯狂降价式的价格战是“双输”打法,“我觉得大模型公司不会这么不理智,因为技术还是最重要的”,当其团队认定自己的技术值得的时候,就会坚持一个合适的价格,而绝不会靠贴钱、赔钱去做生意。
头图来源:图虫