deepseek 30天服务中断,或在搞隐身测试

100%,3月31日上午的时候,那名技术社区负责人去看DeepSeek官方订阅公告,发现了一个事儿:这30天里头,网页对话服务虽然出了三回不同程度的问题,结果正常运行时间占比只有98.7%,可API服务却一直是稳的。2月11日那天,DeepSeek把模型上下文窗口给从128K扩展到了1M Tokens,知识截止时间也更新到了2025年5月。这让大家觉得DeepSeek肯定早就为测试V4把基础设施都准备好了。就在大家满心期待V4能空降的时候,DeepSeek却迎来了它成立以来最长的一次服务中断。有个跟很多模型厂商合作的供应商说,DeepSeek V4要是想在4月正式发布前先给C端用户搞个测试,得看看它那新增的“原生推理层”能不能扛得住高并发请求的冲击。那个国有企业安全产品线的负责人把DeepSeek这种国产大模型当成是“Token基座”,他担心DeepSeek要是停服12小时,后果会跟企业传统机房停电一样严重。但这位负责人也注意到,DeepSeek这次出问题对API调用方好像没造成啥影响。1月12日,DeepSeek还发了篇由梁文锋署名的论文呢,探讨了怎么通过Engram条件记忆架构来解决Transformer在记忆和长上下文方面的瓶颈。3月初的时候,DeepSeek网页端也做了更新显示代码能力和上下文处理都增强了,业内猜测这可能是在搞隐身测试。 结果呢?2月11日那个时间点一过,DeepSeek就开始让用户们等得挺难受的了。因为从2026年2月到现在它走过了不少预期发布窗口都没动静。等到3月29日晚到30日上午这段时间里,DeepSeek经历了长达12小时的大规模服务中断。官方服务状态网站显示那天21时35分就发现问题了。技术团队费了好大劲儿去修也没能一下子解决好问题。服务中断期间社交媒体上全是用户吐槽:页面转圈、反复提示服务器繁忙、卸载重装没用、核心功能限流甚至还出现了基础逻辑错误和虚构文献的情况。等到3月30日技术团队把故障彻底摆平后再去看API文档时会发现根本就没列出关于V4模型的ID这一栏信息。 多名国产模型供应商推断说这次只有C端的产品服务出问题了。深究其因是模型迭代过程中搞了灰度测试给弄出来的毛病。DeepSeek在冲击更高性能架构的时候扩张到了百万Tokens级别暴露了它在基础设施建设上的短板。新旧架构在底层存储聚合层那儿打架了嘛!等到2026年2月之后所有的预期发布窗口都过了还没见到新品影子的时候用户们都不淡定了啊!