今天,AI圈又出了一个重磅消息:深度求索正式推出了DeepSeek-V4的预览版,并且一出手就把代码开源了。与此同时,做AI云服务的PPIO宣布,自己是业内首批全量上线这两个新模型的平台之一,开发者现在就能直接上手用。

这次新发布的DeepSeek-V4预览版一共有两个版本。一个叫DeepSeek-V4-Pro,1.6T 总参数、49B 激活参数,性能对标目前市面上顶级的闭源模型,在数学、STEM和竞赛代码这些场景里,跑赢了现有的开源模型。另一个叫DeepSeek-V4-Flash,284B总参数、13B激活参数,推理能力跟Pro版差不多,但价格更友好、响应更快,适合追求性价比的用户。
这两个模型的核心亮点是支持百万级上下文,单次可处理上百万字,相当于读完《三体》三部曲还有余量。DeepSeek-V4采用新型注意力机制和DSA稀疏注意力,大幅降低算力需求:在100万token场景下,V4-Pro的推理计算量仅为前代的27%,KV缓存降至10%;V4-Flash更分别低至10%和7%,长文本推理不再高能耗。
除了长上下文,DeepSeek-V4还在Agent能力上做了专项优化。像Claude Code、OpenClaw、CodeBuddy这些主流的Agent产品,在代码任务和文档生成任务上,用上新模型后表现都有提升。
那么问题来了:模型再好,普通人怎么用?PPIO给出的答案是“开箱即用”。
据PPIO方面介绍,开发者只要去官网注册,不需要自己部署,就能直接在线试用。截至目前,PPIO的模型服务平台已经累计上架了上百款国内主流的开源模型,覆盖文本、图像、视频等多种类型。2025年初DeepSeek-V3和R1发布后,PPIO也是在一周内就完成了全系列模型的上线,同时在2月SuperCLUE的稳定性测评报告中成为唯一一个在准确率上达到100%的DeepSeek-R1第三方平台。
有业内人士说,当前国内AI开源生态正处在一个转折点——从“能用”变成“好用”,甚至开始在某些方面“引领”。像DeepSeek-V4这种能拿出百万上下文、又大幅降低算力成本的模型,再加上PPIO这类平台提供的“即拿即用”服务,能让更多开发者和企业有机会以很低的门槛用到顶尖的AI能力。这也正是开源生态真正走向普及的关键一步。
文/广州日报新花城记者:陈庆辉
广州日报新花城编辑:李光曼












































