驶入价值竞争"深水区"
作者/ IT 时报 贾天荣
编辑/ 钱立富 孙妍
上周,深度求索(DeepSeek)正式推出 DeepSeek-V3.1 大语言模型,并宣布自 9 月 6 日起调整 API 定价并取消夜间优惠。根据最新定价策略,输入部分在缓存命中时为 0.5 元 / 百万 tokens,缓存未命中为 4 元 / 百万 tokens;输出部分定价为 12 元 / 百万 tokens。相比之下,此前 V3 版本的输入价格为 0.5 元 / 百万 tokens(缓存命中)和 2 元 / 百万 tokens(未命中),输出价格为 8 元 / 百万 tokens,且在 0 点 30 分至 8 点 30 分的夜间时段还可享受五折优惠。
值得关注的是,根据官方说明,V3.1 采用的 UE8M0 FP8 精度是针对下一代国产芯片设计的,这可能意味着 DeepSeek 在硬件适配方面投入了更多资源,而这些成本最终体现在 API 价格上。
《IT 时报》注意到,今年越来越多 AI 大模型企业不再继续降价,而是开始上调价格。国内多家大模型的优惠期将在 9 月结束,不少厂商的新一代产品定价已显著高于前代。
当以"性价比"著称的国产大模型,从单纯的价格竞争转向价值竞争,背后是成本压力的集中爆发,还是意味着价格战告一段落,行业正步入真正的"深水区"?
涨价后
DeepSeek 仍具价格优势
相比 DeepSeek-V3 发布之初的优惠价格,DeepSeek-V3.1 输入输出价格上涨了数倍。尽管如此,DeepSeek-V3 的价格仍远低于目前最顶尖的闭源大模型,如 GPT-5 和 Claude Opus 4.1。
记者注意到,GPT-5 的输入价格为 1.25 美元(约 8.9 元人民币)/ 百万 tokens,输出价格为 10 美元 / 百万 tokens。
Google 的 Gemini 2.5 Pro 基础定价与 GPT-5 一致:输入价格为 1.25 美元 / 百万 tokens,输出为 10 美元 / 百万 tokens。然而,在处理超过 20 万 tokens 的长文本时,其价格会翻倍——输入价格提升至 2.5 美元,输出价格提升至 15 美元。
在众多大模型中,Anthropic 的 Claude Opus 4.1 定价甚高:输入价格为 15 美元 / 百万 tokens,输出更是高达 75 美元。
即便与"中档"模型相比,DeepSeek-V3.1 仍具备一定的价格优势。例如:Claude Sonnet 4 的输入价格为 6 美元 / 百万 tokens、输出为 15 美元;GPT - 5-mini 的输入价格为 0.25 美元,输出为 2 美元。
多家厂商开始涨价
值得注意的是,这并非 DeepSeek 首次调整 API 价格。
2025 年 2 月 9 日,DeepSeek-V3 结束了发布初期的优惠政策。当时,其每百万 tokens 输入价格(缓存命中 / 未命中)分别为 0.1 元和 1 元,输出价格为 2 元。优惠取消后,价格全面上调:输入价格调整为 0.5 元(命中)和 2 元(未命中),输出价格升至 8 元。
回顾过去一年,大模型市场价格几经起伏。去年 7 月,《IT 时报》曾报道,大模型厂商掀起空前降价潮:字节跳动率先出手,BAT 等企业紧随其后,纷纷将百万 tokens 价格压至 1 元,甚至打出"免费、全面免费、永久免费"的口号,力度之大堪称"炸场"。
当时,百度智能云市场部相关负责人在接受《IT 时报》采访时表示:"价格战至少持续一年。三类企业可能被淘汰:套壳类企业、云基础设施薄弱的企业,以及缺乏数据飞轮能力的厂商。真正能存活下来的企业,将占据市场份额并实现盈利。待市场格局趋于成熟和稳定,大模型才能真正进入客户核心业务流,即所谓的‘深水区’。"
同样在那一轮"价格战"期间,一家 AI 智能体公司负责人也向《IT 时报》表示:"大模型的定价已无法覆盖成本,但厂商仍选择降价,核心目的是收集数据。"他举例称,GPT-4o 采取"对公众免费、对开发者半价"的策略,以此获取大量多轮对话等交互数据,这些动态数据比静态数据更能快速提升模型能力。国产大模型同样处于这一"烧钱换数据"的阶段。
进入 2025 年,市场出现转折。越来越多厂商选择停止降价,甚至开始涨价。记者注意到,国内多家大模型的优惠期将在今年 9 月结束,不少厂商的新一代产品定价已显著高于前代。
以"大模型六小龙"为例,智谱、月之暗面、MiniMax、阶跃星辰等企业近期发布的产品价格均有所上涨。
智谱"全系模型享受五折优惠"活动截止日期为 2025 年 8 月 31 日。以其面向智能体打造的旗舰 GLM-4.5 系列为例,优惠结束后,最高档产品 GLM-4.5-X 的输入价格将达 16 元 / 百万 tokens,输出价格为 64 元。相比之下,其上一代旗舰 GLM-4-Plus 发售之初定价为 50 元 / 百万 tokens,而今年 4 月曾一度降至 5 元 / 百万 tokens。
月之暗面于 8 月 1 日推出 Kimi K2 高速版(Kimi-K2-turbo-preview),其参数与 Kimi-K2 一致,但输出速度从每秒 10 tokens 提升至 40 tokens。目前,该模型处于五折优惠期,9 月 1 日后恢复原价,届时输入价格(缓存命中)为 4 元 / 百万 tokens、未命中为 16 元,输出价格为 64 元。
MiniMax 在 2024 年 8 月将旗舰模型 abab-6.5s 大幅降价至 1 元 / 百万 tokens(输入输出同价)。今年 1 月,其发布新一代文本生成模型 MiniMax-Text-01,定价为输入 1 元 / 百万 tokens,输出 8 元 / 百万 tokens。6 月上线的推理模型 MiniMax-M1 采用阶梯定价,最高档为输入 2.4 元 / 百万 tokens、输出 24 元 / 百万 tokens。
阶跃星辰的情况也类似。今年 4 月发布的 Step-R1-V-Mini 多模态推理模型输出价格为 8 元 / 百万 tokens,而 7 月推出的新一代模型 Step 3 改为阶梯定价,低档位价格略有下降,但最高档(4k 上下文)输出价格升至 10 元 / 百万 tokens。
飞速发展难掩成本压力
从去年的"价格战"到如今的"涨价潮",大模型行业正经历重要转折。一方面,市场格局趋于稳定,大模型企业进入"深水区"竞争;另一方面,运营成本压力日益凸显。
传神语联创始人何恩培在接受《IT 时报》记者采访时直言,大模型涨价是"必然的"。"完全免费的模式难以长期持续。"他解释,互联网时代的主要成本集中在带宽,而大模型的运行不仅依赖数据流量,还需要庞大算力和算法优化,这些都会带来高昂的开支。相比传统互联网服务,大模型的运营成本显然更高,因此"免费阶段注定短暂,涨价不可避免"。
过去一年大模型厂商在算力、数据和人才上的投入推动了技术快速迭代,然而与之形成鲜明反差的是,盈利难题仍未解决,即便是行业龙头企业也尚未摸索出长期可行的商业路径。
当地时间 8 月 20 日,OpenAI 首席财务官 Sarah Friar 表示,OpenAI 在 7 月首次实现 10 亿美元的单月营收,但公司仍面临人工智能算力短缺的压力。
此前有消息称,OpenAI 预计今年营收将增长 3 倍,达到 127 亿美元。收入增长的同时,算力成本巨大。OpenAI CEO 山姆 · 奥尔特曼(Sam Altman)表示,公司未来将投入上万亿美元建设数据中心。如何平摊这些成本、吸引更多付费用户,成为 OpenAI 面临的挑战。
何恩培进一步指出,如果大模型长期依赖免费或低价策略,可能对市场生态造成一定影响。他认为,从免费到收费、从低价到涨价的转变,可能引发市场认知混乱,增加企业的市场教育成本。
对于 API 涨价是否会削弱客户需求,何恩培认为差异主要存在于 B 端和 C 端:B 端客户更关注综合成本,尤其重视定制化、安全性和稳定性;而 C 端用户往往忽视"免费"背后的潜在成本。"在 B 端,所谓的‘免费’并不真正免费,客户最终仍需为定制化服务和开发付费。"他表示。
不过,何恩培也强调,随着技术进步和算力价格逐渐下降,大模型长期成本压力有望缓解。但这并不意味着价格会立刻下调,其变化仍取决于市场需求和竞争环境。"大模型的商业化仍处于初期,行业面临诸多挑战。未来能否找到收费模式与技术成本之间的平衡,将成为发展的关键。"
亿策略配资-配资证券-股票配资门户网-加杠杆买股票提示:文章来自网络,不代表本站观点。