最近OpenAI发布了一款叫GPT-5.3-Codex-Spark的新模型,能在一秒钟内给出超过1000个Tokens的回答。这个模型是和Cerebras合作推出的,目标是让程序员在写代码的时候能像聊天一样流畅。这次发布是OpenAI和Cerebras第一次联手展示成果,主要面向那些对速度要求很高的实时软件开发场景。 现在这个模型已经作为研究预览版本给了ChatGPT Pro用户使用了。这个模型最厉害的地方是它推理速度特别快,比之前的GPT-5.1-Codex-mini表现还要好,在SWE-Bench测试中也是跑赢了前代。而且OpenAI还强调了一点,就是这个模型虽然是个“小模型”,但能力很强,专门优化了快速推理场景。 之前大家都在说agentic coding这种模式改变了软件开发方式,机器可以自己干活好几天都不用管,但也有个问题就是开发者得等好久,还不能完全掌控过程。所以Codex-Spark就被设计出来让开发者随时能掌控方向、决定审美和决策。这个模型不仅能做精确的代码修改、计划调整,还能在代码库里问问题。 再说回硬件方面,Cerebras提供了Wafer-Scale Engine这种算力支持,能支撑每秒几千个Tokens的高速推理。他们计划在2026年把这种超高速推理能力扩展到更大规模的模型上。至于开放范围嘛,现在是向ChatGPT Pro用户推送研究预览版本,给大家用Codex应用、CLI还有VS Code扩展的时候体验一下。API访问这块也会逐步开放给部分设计合作伙伴。 总的来说这就是OpenAI这次推出的一个强力小模型,主要就是为了让程序员在写代码的时候更省心、更快、更可控。大家都可以去试试看它的效果怎么样!