618 的风刮到了大模型圈。仅仅一周,大模型从 " 厘 " 时代跨入了 " 免费 " 时代。

大模型没有免费午餐

据统计,此次降价潮共涉及 21 款大模型厂家。从手机大战、网约车大战、共享单车大战、社区团购大战,再到后来的造车大战和如今的大模型大战。热闹的大模型降价潮是否能再次 " 便宜 " 消费者?中小企业、云厂商、大模型厂家,谁才是真正的赢家?

而随着降价潮带来的推理成本的降低,大模型商业化的进程也许加速 C 端应用的爆发。

01 大模型有免费午餐吗?

谁也没想到,大模型降价潮的多米诺首先被一家小公司推开了。

5 月 6 日,幻方旗下 DeepSeek 发布的 DeepSeek-V2,其价格为 GPT-4-Turbo 的近百分之一。5 月 11 日,智谱 AI 大模型开放平台也将入门级产品 GLM-3 Turbo 模型调用价格下调 80%。

国内大模型厂商价格战随即开启。5 月 15 日,在春季火山引擎 Force 原动力大会上,字节主力模型在企业市场定价只有 0.0008 元 / 千 Tokens,比行业价格低 99.3%,让大模型从 " 以分计价 " 进入到 " 以厘计价 " 阶段。

其他大厂纷纷跟进,5 月 21 日,阿里云宣布将旗下通义千问的多款商业化及开源模型进行大幅降价,其中对标 GPT-4 的商业化模型 Qwen-Long 的 API 输入价格从 0.02 元 / 千 Tokens 降至 0.0005 元 / 千 Tokens,下降 97%;输出价格从 0.02 元 / 千 Tokens 降至 0.002 元 / 千 Tokens,下降 90%。同时,百度智能云也发布公告称,百度文心大模型的两款主力模型 ENIRESpeed、ENIRElite 将全面免费,并立即生效。

腾讯、科大讯飞等厂商也宣布降价。科大讯飞宣布讯飞星火 API 能力正式免费开放,讯飞星火 Lite API 永久免费开放,顶配版(Spark3.5 Max)API 价格为 0.21 元 / 万 Tokens。

又是降价,又是免费," 亏本买卖 " 的厂商们是要把大模型推向免费时代吗?

仔细分析下,率先降价的豆包大模型只是降低输入价格,输出价格降幅并不明显。阿里云降低了输入和输出价格,但 Qwen-Max 的输出价格并没有降低,这是千问系列当中参数规模更大、成本更高的模型,百度降低了也是两款参数规模较小的模型,文心 4.0 并不在此次降价范畴。大幅降价的都是小规模模型,虽然对外声称水平可以对标 GPT-4,但实际上连 GPT-3.5 都不如,模型水平不达标,根本无法在实际的生产环境中运行。

降价的诚意让人怀疑,看上去像拿几个不好吃的小菜出来,还声称可以免费吃饭。难怪网友怀疑,大模型企业把开发者和企业吸引过来使用,也许就要开始卡调用速度、推理速度、任务处理量等关键指标了。" 逼你变成 vip,再逼你成为 svip" 的套路很让人熟悉。

02 降价只是简单的市场策略

目前,AIGC 产业的商业模式主要包括按调用量收费、SaaS(Software as a Service)订阅收费、增值服务和解决方案等多种形式,覆盖了从内容生产公司到普通消费者的广泛客户群体。

以 OpenAI 为例,其主要收入来源有三:一是针对 C 端的会员收取订阅服务费用;二是为企业端开发者提供 API 调用服务,通过付费接入 OpenAI 端口后,B 端用户可在金融、医疗、绘画等领域调用 GPT 系列大模型、DALL · E 系列文生图模型、Whisper 语音识别模型进行应用开发,这也是 OpenAI 最核心的业务;三是来自微软 Azure 云服务的分成。凭借这三项主要业务,2023 年 OpenAI 收入突破了 13 亿元。

由于处于相同的赛道,目前国内大厂的收费模式也基本类似于 OpenAI,但无论是 C 端还是 B 端,国内大模型发展的瓶颈早已是现实。大模型推理价格的降低,主要是因为各个厂商为了抢占市场份额、加速商业化进程。

一个现实是,国内大模型的使用人数还是太少且用户增长乏力,使用数据不够丰富。其次,国内大模型在应用层面,即基于 AIGC 应用端的用户数量也不高。因此,通过免费扩大用户规模,增加用户交互和训练数据是这次价格战的主要目标。

市场普遍认为,价格战的本质是国内大模型技术差异不大,用户难以感知技术上的区分。互联网大厂通过雄厚的资金,快速削弱和踢出资金实力薄弱的公司。从当年的手机大战、网约车大战、共享单车大战、社区团购大战,再到后来的造车大战都是相似的套路,背后都是技术差距过小导致的。

但大模型 " 价格战 " 不只是简单的市场竞争策略。不少人认为,降价标志着国产大模型发展的商业化拐点已到。申万宏源研究所信息化研究部总监、TMT 行业首席分析师刘洋在公开采访中表示,国内大模型企业重视产业价值优于财务价值,用户端以及增值版本已经到了可以大规模推广的时候。科大讯飞在发布会中表示,当前公司基于国产自主可控大模型工程化优势,讯飞星火 API 能力正式免费开放,有利于帮助开发者降低调用成本,驱动产品创新验证,加速大模型赋能及 AI 普惠化的到来。

人类每一次技术进步的结果,就是技术成本的不断降低,大模型同样遵循着一种 " 摩尔定律 " 和规模效应。OpenAI 等国外公司早已率先实现了降价,模型能力和算力成本的双重困境下的国内大模型敢于降价,未尝不是算力成本下降的结果。

对于坚持做大模型的云厂商来说,抢占市场份额之外,更大的算盘其实在公有云市场。

公有云是大模型的技术基础。OpenAI 发布 4o 大模型后,引起了社交媒体的一段鼓吹,但亦有专业人士指出,基于 Transformer 架构下的 ChatGpt 如果一直依赖公有云,就必然要面对大量用户使用时低延迟无法得到满足的现实。

公共云在生成式人工智能时代神经 *** 和启动机器般基石作用的体现。因此,大模型行业的快速发展,公有云仍然是巨大的获利方。如果大模型应用真正爆发,AI 推理市场也将迎来爆发,打造了具有基座大模型能力的公共云厂商,通过公共云 +API 的模式,才能走出新的增长曲线,获取更大的盈利空间。以阿里云为代表的云计算厂商,通过从底层算力、AI 平台再到模型服务的不断创新,同时 AI 也反哺了云从管理、应用、计算、基础架构能力的提升。

03 枪响之后,谁是赢家

像网约车大战时用户能极低价格打车一样,每次价格大战都是消费者再次收割红利的时候,但不同的是,此次大模型的降价也许受益者并不是普通消费者。

一直以来,大模型面临的尴尬是:用户增长乏力不可避免,写复杂的提示词仍然是普通用户更大的障碍。目前面向 C 端的主要是各手机厂商植入式的 AI 助手,但这些 AI 工具难以从消费者手中变现。

大模型降价究竟谁能得利?

透过 AIGC 产业链中各层级关系来看,目前位于产业更底层的是基础设施层,核心是支撑算力的 AI 服务器,如 CPU、GPU 等,这一产业领域以英伟达和 AMD 为代表;往上是需要诸多顶尖科学家进行长时期投入的模型层,国外的 OpenAI 和 Google 以及国内大厂目前主要在这一领域竞争。基于大模型的应用层,则是致力于解决 C 端用户的消费终端以及为 B 端用户提供行业解决方案。

对于大模型行业来说,仅仅具有技术的先进性并不能带来应用的落地,如果不能降低大模型的推理成本,任何商业化都将是一种昂贵的尝试,尤其是 C 端应用,成本可能是个无底洞。

由此可见,大模型全面降价更大的利好仍然是进行应用开发的中小企业,成本的降低有助于这一类企业的百花齐放。

以 AI 大模型为技术底座打造具有针对性的应用软件,最典型的就是今年首个爆火的国产生成式 AI 产品 Remini。丑萌搞怪的黏土风滤镜,一跃让 Remini 直接冲上了国内 iOS 免费 APP 下载榜榜首。Remini 的爆火让人们想起了另一款图像生成软件妙鸭,仅用 9.9 元和 20 张日常照就可以生成自己的 " 数字分身 ",效果堪比市场价数百元的艺术 *** 。和妙鸭一样,Remini 的结局也许只是昙花一现,和那些不温不火的 AI 应用产品一起,让人不得不对生成式 AI 的商业化应用路径及其稳定性担忧。

所以 API 贵是限制应用端发展的主要原因吗?显然不是。正如阿里巴巴原副总裁贾扬清所言,今天企业在使用 AI 时,并不是成本驱动的。企业如果搞不清怎样才能产生业务价值,再便宜也不过是一种浪费。

360 董事长兼 CEO 也公开表示了自己对当下大模型产业的看法。他认为,公用大模型到应用大模型转变才是行业正确的思路。针对 C 端用户,需要找到用户需求进行个性化定制;另一方面为企业定制专业的大模型并进行私有化部署。" 未来的企业内部应该拥有多个垂直大模型,这样的模型既要简约又要便于使用,提高企业内部效率。" 例如,最近国产自研的聚焦财税领域的垂类大模型—— BPai 财税大模型。

既要抓模型技术,又要抓商业应用,价格战之后的路还很远。

" 便宜赢得不了商战,谁能落地获得利润才是笑到最后。"