玩家必备教程“金华房卡在哪买”获取房卡教程-哔哩哔哩2026年04月24日 16时53分58秒
炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!
每经记者|兰素英 每经编辑|王嘉琦

等了15个月,今天(4月24日),DeepSeek-V4(预览版本)终于发布了,而且是在OpenAI发布GPT-5.5几个小时后。
在约1000字的DeepSeek-V4产品介绍文章中,Agent(智能体)一词出现了多达11次。
DeepSeek-V4用专家模式(Pro)和快速模式(Flash)双版本配置,将大模型价格战从“聊天便宜”推进“Agent便宜”时代。
DeepSeek-V4凭借全新稀疏注意力与同策略蒸馏技术,把推理成本压到新低,V4-Flash版输出价仅为GPT-5.5 Pro的1.55‰,V4-Pro版性能比肩全球顶级闭源模型。
“低价快模型 + 高价强模型”组合,让DeepSeek-V4打通了Agent规模化落地的成本账。
DeepSeek-V4发布后不久,全球最大AI模型应用程序编程接口聚合平台OpenRouter上,就已经有用户进行了调用。截至4月24日15点,OpenRouter平台上DeepSeek-V4-Pro的调用量达到2.99亿Token,V4-Flash调用量达到3.99亿Token。
DeepSeek延续了一贯的“普惠”风格。
V4-Flash:缓存命中输入0.2元/百万Token,缓存未命中输入1元/百万Token,输出2元/百万Token。
V4-Pro:缓存命中输入1元/百万Token,缓存未命中输入12元/百万Token,输出24元/百万Token。
然而,不同于公司官方的API定价,OpenRouter平台会综合不同服务商渠道报价,按照各渠道实际调用流量加权计算得出的市场综合均价,也就是实际使用价格,该价格也会随时变动。
《每日经济新闻》记者统计OpenRouter数据发现,截至4月24日13:30,本周调用量领先的国内外主流AI大模型中,DeepSeek-V4-Flash的成本优势突出,每百万Token的平均输出价低至0.279美元,仅为OpenAI新发布的GPT-5.5 Pro(180美元)的1.55‰。
Anthropic Claude Opus系列、OpenAI GPT-5.4,以及谷歌Gemini 3.1 Pro Preview等大模型的输出价格均在12~25美元区间,是DeepSeek-V4-Flash的数十倍。
在输入端,DeepSeek-V4-Flash每百万Token平均输入价仅为0.07美元,只略高于阶跃星辰Step 3.5 Flash的0.031美元,显著低于其他国内外主流大模型。
值得一提的是,业界一直在关注DeepSeek-V4是否会使用国产算力。DeepSeek在产品介绍文章中用小字表示,受限于高端算力,目前V4-Pro的服务吞吐十分有限,预计下半年昇腾950超节点批量上市后,V4-Pro的价格会大幅下调。
DeepSeek-V4是如何实现低价的?
DeepSeek在58页的技术报告《DeepSeek V4:迈向高效的百万Token上下文智能》提到,V4开创了一种全新的注意力机制,在Token维度进行压缩,结合DSA稀疏注意力(DeepSeek Sparse Attention),相比于传统方法大幅降低了对计算和显存的需求。
这条路线和V3.2是一脉相承的。V3.2-Exp去年9月第一次引入DSA时,就把推理成本腰斩过一次。
真正让V4和V3.2在方法论上分岔的,是post-training(后训练)。技术报告中提到,V3.2的mixed RL(混合强化学习)阶段在V4被整体替换成了 On-Policy Distillation(同策略蒸馏)。
新的流水线分两段。先分别训练几十个领域专家模型,覆盖数学、代码、Agent、指令跟随,产出一个在各个领域内极强的“偏科生”。
在第二阶段,把十几个“教师模型”蒸馏到一个“学生模型”里。这种“先分头培养专家、再合并成通才”的路线,DeepSeek在报告里直接点名参考了思维机器实验室去年10月的on-policy distillation工作。
AI的使用场景已经从对话进入Agent。
