国产大模型“价格战”爆发
目前国产大模型对比chatgpt4o那就是弱智。同样的图片在问一下通义大模型
这分析就离谱。
然而如果单独考核chatgpt4o,就发现他跟人差远了。
所以现阶段生成是AI就是糊弄文科那帮小傻子的,当然国产大模型面对的对象属于大学扩招后才能上大学。
国内什么产业都可以发生价格战,国产大模型也不例外。
5月21日,阿里云宣布将旗下通义千问的9款商业化及开源模型进行大幅降价。
其中,对标GPT-4的模型Qwen-Long的API(应用程序编程接口)输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%;输出价格从0.02元/千tokens降至0.002元/千tokens,直降90%。
阿里大模型全面降价后,百度紧随其后,直接宣布模型免费使用。
21日下午,百度智能云发布公告称,百度文心大模型的两款主力模型ENIRESpeed、ENIRELite将全面免费,并即刻生效。
而在四天前的17日,腾讯云也对混元大模型进行了大幅降价:
窗口尺寸为32K的hunyuan-standard模型和hunyuan-pro模型,推理输入价格分别为0.0069元/千tokens和0.069元/千tokens,较之前的刊例价降了30%以上。
虽然以上两个模型价格大大高于友商,但新用户可免费享受1年的模型资源包,文本生成模型共享10万token。
业内猜测,BAT三巨头此举是为了应对字节此前发布的豆包大模型。
15日,字节跳动旗下火山引擎推出豆包大模型,并将豆包Pro 32k模型推理输入价格定为0.0008元/千tokens,较行业价格低99.3%,大模型从“以分计价”进入“以厘计价”时代。
根据火山引擎公布的价格计算,一元钱就能买到豆包主力模型的125万Tokens,大约是200万个汉字,相当于三本《三国演义》。
字节一记重磅炸弹,把大模型市场炸翻了天,阿里、百度、腾讯被动入局。
小厂似乎更早看到了价格战的苗头,纷纷在大厂之前就祭出了“白菜价”。
被称为大模型界“拼多多”的DeepSeek最早行动,5月6日将大模型DeepSeek-V2价格降至每百万token输入1元、输出2元(32K上下文)。开发者登录 DeepSeek 开放平台送 500万 tokens。
五天后,智谱AI将旗下入门级大模型GLM-3-Turbo(上下文长度128k)的价格,从0.005元 / 千tokens降低到0.001元 / 千tokens。开放平台新注册用户获赠从500万tokens提升至2500万tokens(包含2000万GLM3-Turbo和500万GLM4)。
大模型厂商集体“卷”价格,折射出了AI缓解研发成本压力的迫切需求。
首先,技术的快速迭代,让chatgpt4o大模型的能力不断提升,但要真正创造商业价值,还需要深入行业场景,解决实际问题。而国产大模型与之对比狗屁不是。
在武汉AI智领者峰会现场,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光称:“阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计2024年大模型API的日调用次数有望突破100亿。”
其次,大模型的研发成本高企。华为大模型负责人田奇曾提到,大模型开发和训练一次需要约1200万美元(约合8700万元人民币),百川智能创始人CEO王小川则称,每1亿参数对应训练成本在1.5到3万人民币之间。
动辄上亿的训练费用,再加上水涨船高的算力成本,即便是大厂也感到吃力。
因此,降价成为厂商们破局的制胜法宝。通过大幅下调API调用费用,吸引更多中小企业和开发者尝鲜,加速大模型在各行各业的渗透,打开更广阔的应用空间。这对于盘活前期投入,加速商业闭环的形成至关重要。
其实最早 ChatGPT 发布时,大家对大模型直接作为服务被调用的商业模式有很大期待。毕竟,与上一波 AI 烟囱式的项目交付方式相比,大模型带来了更通用的 AI 能力,作为标准化服务被调用,道理上也说得通。
就拿 OpenAI 来说,有两大商业化手段,一是像 ChatGPT Plus 20 美元/月这样的会员订阅模式,另一个是开发者 API 调用服务。在这两大标准化服务的拉动下,2023 年 12 月 31 日,The information 爆出 OpenAI 的年度经常性收入(Annual Recurring Revenue,ARR)已经达到了 16 亿美元。
但即便强如 OpenAI 的模型能力,这个体量的营收相比其百亿美金级别的研发成本而言,目前看也还是杯水车薪。
事实上,只提供模型的 API,距离 AI 应用在场景中落地还有很大距离,大部分 AI 应用还需要在一个通用的模型 API 之上,在场景里喂数据、做微调等来优化模型引擎。看到这一瓶颈后,国内大模型厂商在过去一年也做了一系列探索来降低 AI 应用的门槛,以期扩大大模型的调用量。
尽管模型厂商做了很多尝试,但标准化的模型 API 并没有迎来确定性的增长。
这是本周大厂模型推理价格降低的大前提和背景。理解了模型 API 调用的需求现状,也就不难理解这一波降价动作——降价并没有真的损失多少收入,不如激活下市场,赚个吆喝,促进很多企业从「免费试用」开始下水,早点启动对 AI 进入业务流的尝试。
对于各家不同的降价策略,已经有一些质疑声音称一些降价的模型本身吞吐量就低,而高性能模型并没有降价。并且还有很多细节条款会让最终企业用起来没有宣传的那么便宜,从这个角度看,降价更多是模型厂商出于市场和品牌的考量,进行的一波内卷。
归根结底,能形成价格战的连锁反应,也是当前各大模型的能力放在可用的场景中,尚未拉开差距,用户甚至有免费开源的产品可以用。
一位 SaaS 厂商创始人向极客公园表示,「对我来说用谁的其实无所谓,因为他们最后跑得都差不多,当把时间线拉长来看,最后这些厂商提供的模型 API 服务,99.9% 的概率跟今天的云是差不多的概念。另外,如果一个通用的模型 API 无法深度适配场景,还是要自己基于开源模型,用场景数据做专门的深度训练,也不会接通用的模型 API。」
最终的的客户需求,其实是端到端的诉求,是可以用、可以看到效果的东西,而不是模型调用。
模型技术的攀升,才是 API 调用商业模式能继续增长的前提。其实细看今天宣布降价的模型产品也是一样,真正大规模、高性能、支持高并发的模型推理还是要收费,降价幅度是有限的。
但长期来看,API 模式最终考验的还是模型能力,如果技术拉不开差距,价格也一定拉不开差距,最终模型调用的价值会被稀释,虽然依旧是重要的基础设施,但价值大小就从油变水了。
换一个角度看,今天一个通用的模型 API 可能不是迫切的需求。就像 Lepton.ai 的创始人贾扬清在朋友圈表达的观点,「站在整个 AI 业界的角度我想说,降价是个拍脑袋就可以做的简单策略,但是真正的 To B 商业成功更难。」今天企业在使用 AI 的时候,并不是成本驱动的,「今天不是说 API 贵才没有人用,而是因为要搞清楚,到底怎么用起来产生业务价值」。
从这个角度看,如何把大模型能力推动到企业的业务里的很大一部分任务,可能又回落到传统 SaaS 厂商(用 AI 升级产品之后)手里,需要他们作为智能生产力的「干线物流」+「前置仓」,输送到各个场景中。
随着模型 API 直供模式的高度内卷,巨头其实已经在向能交付价值的 SaaS 看,微软今天宣称 GitHub Copilot 订阅者已经有 180 万付费用户。谷歌近日也正在与 CRM 营销巨头 Hubspot 谈高达 300 亿美金收购可能性,因为前者可能会利用这次收购来加强其在 AI 领域产品整合。
对于巨头而言,模型技术和实际场景,两个都要抓,才能有规模化的收入。但归根结底,模型能力和别人拉开距离,才是 API 模式可以产生价值的「华山一条路」的挑战。
智能的能力不会是免费的,但是怎么规模化的创造价值,巨头和创业公司,都还在寻找答案。
点评
大模型迎来降价潮,不管是阿里的通义千问还是字节的豆包都卷到了以厘计算的时代,百度更是直接宣布两款主力大模型完全免费,所以我还是想问,有什么用吗?
这些大模型能产出什么对于公众有优秀使用体感的应用吗?不能的,所以一个个的高调宣布降价之后有什么用呢?无非是拿着更多用户的数据去喂你的模型。
话说回来,用户提供数据让你们训练模型,不是应该你们给我们钱吗?怎么降价还吹上了呢?
时间久了,越来越觉得国产大模型是个闹剧,国内家家都弄一个大模型,然后死命的吹多厉害多牛x。
页:
[1]