deepseek 下一代v4 模型春节前后推出

DeepSeek要在2月13日公布的网页和APP,正在测试一种能把上下文扩展到1M的新型长文本模型结构。虽然API端目前仍采用V3.2版本,只提供128K的上下文支持,外界还是认为这可能预示着公司打算在春节再次推出大动作,重现去年的热烈反响。去年12月1日,DeepSeek发布了DeepSeek-V3.2和DeepSeek-V3.2-Speciale两个正式版。官方把网页端、APP和API都更新到了正式版的V3.2,而Special版本只是暂时以API形式开放给用户做评测研究。这个新版本的主要目标是让推理能力和输出长度达到平衡,非常适合日常的问答场景和通用Agent任务。在公开的Benchmark测试中,V3.2的表现已经赶上了GPT-5的水准,只稍微落后于Gemini-3.0-Pro。与Kimi-K2-Thinking相比,它的输出长度大大缩短了,这样可以明显减少计算负担和用户的等待时间。今年1月12日,DeepSeek发表了一篇新论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》。这篇文章的作者中包括了北京大学和梁文锋。论文的核心是解决大语言模型存在的记忆能力问题,提出了“条件记忆”这个新的概念。当时业内就猜测DeepSeek的下一代V4模型会在春节前后推出。 1月12日,DeepSeek发布了一篇名为《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》的新论文。梁文锋在作者名单里出现,这篇文章是北京大学和DeepSeek合作完成的。专家分析指出,这篇论文直接针对当前大语言模型存在的记忆缺陷,提出了“条件记忆”这个创新思路。当时市场上就普遍认为DeepSeek的下一代V4版本会在今年春节前后正式问世。