2月13日,国内人工智能领域近日迎来一波产品集中更新。多家厂商于本月11日同日发布了新一代模型,其中DeepSeek的最新动态尤为引人注目。
据悉,此次升级的核心在于模型上下文处理能力的显著增强。新一代模型支持的上下文长度达到1M(约100万字符),较其前代V3系列产品的128K容量提升了约7倍。
官方渠道已确认这一信息,表示其网页端及移动应用程序正在对支持1M上下文长度的新长文本模型架构进行测试。与此同时,官方强调,当前开放的API服务仍基于V3.2系列模型,上下文支持保持128K不变。
根据官方说明,新模型仍专注于文本处理,主要突破即在于上下文容量的扩展。这项改进对于需要长篇幅对话或复杂文档处理的应用场景至关重要,能有效避免因上下文长度限制导致的“记忆”缺失问题。
尽管已有部分测试反馈指出,新模型在代码生成、响应速度等方面亦有明显进步,但综合来看,此次更新与部分用户此前的高预期相比,仍存在一定差距。
分析认为,此次发布的模型很可能并非传闻中的V4旗舰版本,而更可能是其简化版(或称为V4 Lite)。有信息显示,该模型参数量约为2000亿,低于V3系列的6700亿,这或许能解释其在部分能力表现上与前代模型的差异。
业界推测,此次发布的简化版模型或为后续完整版V4系列的“探路”之作。未来的V4模型预计将包含多个版本,针对不同需求进行专门优化。当前版本的技术架构细节,官方尚未详尽披露,更多信息有待进一步公布。
据此前市场传闻,DeepSeek完整的V4版本参数量或将达到1.5万亿,并有望应用多项创新技术,旨在实现性能全面提升的同时优化运行成本,其最终表现值得持续关注。