第587章 大模型价格战卷至“厘时代”!阿里云通义千问降价97%
推荐阅读:我的弟子全是大帝之资、种菜骷髅的异域开荒、苟成神君,宗门让我入赘、史事讲将1、从死亡之中诞生、国潮1980、美漫:完蛋,我被父愁者包围了!、从渔民开始长生、双生星火、人生重启二十年、
近日,阿里云宣布推出通义千问GPT-4级主力模型Qwen-Long,其API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。此消息一出,立即引发了业界的广泛关注和热议。
值得一提的是,本月智谱AI、字节跳动的大模型也都纷纷宣布降价。其中,字节的豆包主力模型的定价为0.0008元/千Tokens,即0.8厘/千tokens,被认为带动大模型定价进入了“厘时代”。
此轮大模型降价潮,是各家厂商希望进一步抢占市场,从而加速AI应用的商业化落地。
9款商业化及开源系列模型降价
Qwen-Long是通义千问的长文本增强版模型,性能对标GPT-4,上下文长度最高1千万。除了输入价格降至0.0005元/千tokens,Qwen-Long输出价格也降90%至0.002元/千tokens。相比之下,国内外厂商GPT-4、Gemini1.5 Pro、Claude 3 Sonnet及Ernie-4.0每千tokens输入价格分别为0.22元、0.025元、0.022元及0.12元。
通义千问本次降价共覆盖9款商业化及开源系列模型。不久前发布的通义千问旗舰款大模型Qwen-Max,API输入价格降至0.04元/千tokens,降幅为67%。
智谱AI、字节跳动旗下火山引擎也纷纷宣布了降价
5月11日,智谱AI大模型的新注册用户获得额度从500万tokens提升至2500万tokens,个人版 GLM-3Turbo模型产品的调用价格从5元/百万tokens降低至1元/百万tokens。GLM-3 Turbo Batch 批处理API也便宜了50%,价格为1元/200万tokens。
15日,火山引擎宣布豆包Pro 32k模型定价是0.8厘/千tokens。此外,豆包Pro 128k模型定价是5厘钱/千tokens。
大模型已经开始从“卷大模型技术”向“卷大模型应用”转变
对于此轮降价潮,不少业内分析指出,大模型已经开始从“卷大模型技术”向“卷大模型应用”转变,但推理成本过高依然是制约大模型规模化应用的关键因素。
在武汉AI智领者峰会现场,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光称:“阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计2024年大模型API的日调用次数有望突破100亿。”
刘伟光判断,不管是开源模型还是商业化模型,公共云+API将成为企业使用大模型的主流方式。云上调用成本远对于私有云部署。在追求更大尺寸的模型时,企业要面对GPU采购、软件部署、网络费用、电费、人力成本等等。随着大模型的规模变大,对于私有化部署的成本和复杂性会越来越高。去年还有不少企业考虑购买上百台GPU服务器,来搭建计算网络集群。但今年很多公司已经放弃了自建百台集群的大模型研发。
百度创始人李彦宏也在业绩会表示,模型推理是最重要的长期机会之一,这将成为云业务的关键驱动力。4月,文心大模型API日调用量为2亿次。去年12月时,该数据为5000万次。
谁能抢抓模型推理的市场机遇?
谈及通义千问的这次降价幅度,多名大模型行业专家在接受《科创板日报》记者采访时评价,“力度很大”、“很便宜了”。
不过,实际作用还是要看“疗效”。市面上大模型太多了。疗效好,多少都不贵;如果疗效不好,多少都是贵。
目前头部企业都会选择多家模型接入,在不同应用场景选择更合适的模型,这意味大模型厂商之间的竞争十分激烈。
比如,小米在接入文心大模型API的同时,小米旗下的人工智能助手“小爱同学”也宣布与阿里云通义大模型展开合作,强化其在图片生成、图片理解等方面的多模态AI生成能力。
在刚刚发布的今年一季度财报中,阿里、百度均提及了生成式AI对收入增长带来的正面影响。百度智能云收入为47亿人民币,同比增长12%,其中生成式AI带来的收入占比6.9%。测算下来,百度的生成式AI一季度收入约为3.24亿元。
在阿里财报电话会上,阿里集团CEO吴泳铭表示,预计今年下半年云业务将恢复双位数增长,而收入增长主要来自AI新产品的驱动。对于大模型的未来目标,吴泳铭称,“我们将会把”通义千问“大模型与阿里云的先进AI基础设施进行软硬件协同优化,来为中国的开发者或者中国的企业提供AI能力非常强、性价比非常高的AI大模型推理服务。”
开源闭源路线之争
值得一提的是,百度和阿里在大模型是否开源上选择了截然不同的路线。
4月底,阿里云开源了1100亿参数模型Qwen1.5-110B。迄今通义开源大模型的累计下载量超过了700万。
“通义的开源模型在中文世界的开发者使用最广泛,当开发者使用阿里云的开源模型,需要把应用部署到线上的时候,就会自然而然地选用阿里云的服务。”吴泳铭称。
百度方面,李彦宏则多次宣传闭源的优势。在Create 2024百度AI开发者大会上,他曾直言“开源模型会越来越落后”。5月15日,百度还发布公告称:“闭源大模型+公有云”已经成为全球AI市场的主流趋势。“闭源大模型+公有云”能实现比开源大模型性能更好、成本更低的综合效果,并以此促进AI应用生态繁荣。
当下,国际厂商在开闭源路线上各有侧重。比如OpenAI的GPT-4模型就是采用闭源模式,而Meta选择完全开源。其余大模型公司则将模型“低配版”开源,更高参数量的模型闭源。比如,谷歌Gemini多模态模型闭源,今年2月宣布开源单模态Gemma语言模型。
IDC中国研究总监卢言霞称,未来到底是开源还是闭源。跟头部企业的选择有很大关系。这个领域目前还是有很大不确定。
一位大模型青年学者对记者表示,开源和闭源路线各有特色,但开源肯定更为促进行业发展。
艾瑞咨询在一份AIGC产业报告中分析,大模型技术前沿厂商出于打造自身先进模型壁垒、构建技术护城河的商业考虑,会选择闭源或逐步从开源走向闭源,以保证模型的先进性、稳定性、安全性。而开源可以促进广大开发者和研究者的创新,从商用角度加速大模型的商业化进程与落地效果。艾瑞咨询认为:“未来,开源和闭源的大模型会并存和互补。”
结语
大模型降价潮的到来,无疑为AI应用的商业化落地提供了更多的可能性。各大厂商纷纷降价,意在抢占市场份额,加速AI应用的爆发。然而,大模型的应用并非一蹴而就,需要在技术、成本、效率等多方面进行综合考虑。在这个过程中,谁能抓住市场机遇,谁就能在未来的AI竞争中占据优势。
同时,开源与闭源的路线之争也将持续存在。不同的路线有各自的优势和局限,企业和开发者需要根据自身的需求和目标进行选择。在这个过程中,开源和闭源的大模型将会并存和互补,共同推动AI技术的发展和应用。
www.llewen.cc。m.llewen.cc
值得一提的是,本月智谱AI、字节跳动的大模型也都纷纷宣布降价。其中,字节的豆包主力模型的定价为0.0008元/千Tokens,即0.8厘/千tokens,被认为带动大模型定价进入了“厘时代”。
此轮大模型降价潮,是各家厂商希望进一步抢占市场,从而加速AI应用的商业化落地。
9款商业化及开源系列模型降价
Qwen-Long是通义千问的长文本增强版模型,性能对标GPT-4,上下文长度最高1千万。除了输入价格降至0.0005元/千tokens,Qwen-Long输出价格也降90%至0.002元/千tokens。相比之下,国内外厂商GPT-4、Gemini1.5 Pro、Claude 3 Sonnet及Ernie-4.0每千tokens输入价格分别为0.22元、0.025元、0.022元及0.12元。
通义千问本次降价共覆盖9款商业化及开源系列模型。不久前发布的通义千问旗舰款大模型Qwen-Max,API输入价格降至0.04元/千tokens,降幅为67%。
智谱AI、字节跳动旗下火山引擎也纷纷宣布了降价
5月11日,智谱AI大模型的新注册用户获得额度从500万tokens提升至2500万tokens,个人版 GLM-3Turbo模型产品的调用价格从5元/百万tokens降低至1元/百万tokens。GLM-3 Turbo Batch 批处理API也便宜了50%,价格为1元/200万tokens。
15日,火山引擎宣布豆包Pro 32k模型定价是0.8厘/千tokens。此外,豆包Pro 128k模型定价是5厘钱/千tokens。
大模型已经开始从“卷大模型技术”向“卷大模型应用”转变
对于此轮降价潮,不少业内分析指出,大模型已经开始从“卷大模型技术”向“卷大模型应用”转变,但推理成本过高依然是制约大模型规模化应用的关键因素。
在武汉AI智领者峰会现场,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光称:“阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计2024年大模型API的日调用次数有望突破100亿。”
刘伟光判断,不管是开源模型还是商业化模型,公共云+API将成为企业使用大模型的主流方式。云上调用成本远对于私有云部署。在追求更大尺寸的模型时,企业要面对GPU采购、软件部署、网络费用、电费、人力成本等等。随着大模型的规模变大,对于私有化部署的成本和复杂性会越来越高。去年还有不少企业考虑购买上百台GPU服务器,来搭建计算网络集群。但今年很多公司已经放弃了自建百台集群的大模型研发。
百度创始人李彦宏也在业绩会表示,模型推理是最重要的长期机会之一,这将成为云业务的关键驱动力。4月,文心大模型API日调用量为2亿次。去年12月时,该数据为5000万次。
谁能抢抓模型推理的市场机遇?
谈及通义千问的这次降价幅度,多名大模型行业专家在接受《科创板日报》记者采访时评价,“力度很大”、“很便宜了”。
不过,实际作用还是要看“疗效”。市面上大模型太多了。疗效好,多少都不贵;如果疗效不好,多少都是贵。
目前头部企业都会选择多家模型接入,在不同应用场景选择更合适的模型,这意味大模型厂商之间的竞争十分激烈。
比如,小米在接入文心大模型API的同时,小米旗下的人工智能助手“小爱同学”也宣布与阿里云通义大模型展开合作,强化其在图片生成、图片理解等方面的多模态AI生成能力。
在刚刚发布的今年一季度财报中,阿里、百度均提及了生成式AI对收入增长带来的正面影响。百度智能云收入为47亿人民币,同比增长12%,其中生成式AI带来的收入占比6.9%。测算下来,百度的生成式AI一季度收入约为3.24亿元。
在阿里财报电话会上,阿里集团CEO吴泳铭表示,预计今年下半年云业务将恢复双位数增长,而收入增长主要来自AI新产品的驱动。对于大模型的未来目标,吴泳铭称,“我们将会把”通义千问“大模型与阿里云的先进AI基础设施进行软硬件协同优化,来为中国的开发者或者中国的企业提供AI能力非常强、性价比非常高的AI大模型推理服务。”
开源闭源路线之争
值得一提的是,百度和阿里在大模型是否开源上选择了截然不同的路线。
4月底,阿里云开源了1100亿参数模型Qwen1.5-110B。迄今通义开源大模型的累计下载量超过了700万。
“通义的开源模型在中文世界的开发者使用最广泛,当开发者使用阿里云的开源模型,需要把应用部署到线上的时候,就会自然而然地选用阿里云的服务。”吴泳铭称。
百度方面,李彦宏则多次宣传闭源的优势。在Create 2024百度AI开发者大会上,他曾直言“开源模型会越来越落后”。5月15日,百度还发布公告称:“闭源大模型+公有云”已经成为全球AI市场的主流趋势。“闭源大模型+公有云”能实现比开源大模型性能更好、成本更低的综合效果,并以此促进AI应用生态繁荣。
当下,国际厂商在开闭源路线上各有侧重。比如OpenAI的GPT-4模型就是采用闭源模式,而Meta选择完全开源。其余大模型公司则将模型“低配版”开源,更高参数量的模型闭源。比如,谷歌Gemini多模态模型闭源,今年2月宣布开源单模态Gemma语言模型。
IDC中国研究总监卢言霞称,未来到底是开源还是闭源。跟头部企业的选择有很大关系。这个领域目前还是有很大不确定。
一位大模型青年学者对记者表示,开源和闭源路线各有特色,但开源肯定更为促进行业发展。
艾瑞咨询在一份AIGC产业报告中分析,大模型技术前沿厂商出于打造自身先进模型壁垒、构建技术护城河的商业考虑,会选择闭源或逐步从开源走向闭源,以保证模型的先进性、稳定性、安全性。而开源可以促进广大开发者和研究者的创新,从商用角度加速大模型的商业化进程与落地效果。艾瑞咨询认为:“未来,开源和闭源的大模型会并存和互补。”
结语
大模型降价潮的到来,无疑为AI应用的商业化落地提供了更多的可能性。各大厂商纷纷降价,意在抢占市场份额,加速AI应用的爆发。然而,大模型的应用并非一蹴而就,需要在技术、成本、效率等多方面进行综合考虑。在这个过程中,谁能抓住市场机遇,谁就能在未来的AI竞争中占据优势。
同时,开源与闭源的路线之争也将持续存在。不同的路线有各自的优势和局限,企业和开发者需要根据自身的需求和目标进行选择。在这个过程中,开源和闭源的大模型将会并存和互补,共同推动AI技术的发展和应用。
www.llewen.cc。m.llewen.cc
本文网址:http://www.5518a.com/xs/6/6590/5241686.html,手机用户请浏览:m.5518a.com享受更优质的阅读体验。
温馨提示:按 回车[Enter]键 返回书目,按 ←键 返回上一页, 按 →键 进入下一页,加入书签方便您下次继续阅读。章节错误?点此举报