就在1月23日上午10点,智谱AI为了应对市场上突然涌现的巨大需求,被迫把自家的GLM Coding Plan产品给限量销售了。这波操作主要是因为他们刚刚发布的新基座模型GLM-4.7太受欢迎,让用户量激增,服务器直接被挤爆了。为了不把老用户给坑了,他们把每天能卖的额度直接砍到了原先的20%,而且还专门给老客户留了通道,自动续订服务不受影响。这波操作其实是想把更多的算力资源腾出来给“老朋友”,好让他们在写代码的时候更流畅。 除了这招,智谱AI还专门加强了对账号的管理,打算严打那些恶意占用资源的家伙。毕竟大家都希望能用得顺畅,不能让少部分人的乱来破坏了整个环境。就在限流公告发出来的前一刻,他们还搞了个大动作:推出了一款开源的轻量化模型GLM-4.7-Flash。这玩意参数量有300亿,激活的只有30亿,性能非常强(SOTA),特别适合那些对成本和速度有要求的应用。 虽然暂时把流量给关小了,但智谱AI的算盘打得很精。他们想用开源的方式来分流压力——大家都不用挤在云端算题了,直接拿高效的轻量化模型在本地跑就行了。这一招既降低了中小开发者的门槛,又能减轻服务器负担。 业内人士看了都说这是在解燃眉之急的同时还在搞长远的布局。在中国AI圈里,像智谱AI这样既要保障服务又要推动创新的做法并不多见。这次事件给大家提了个醒:现在的比拼不光是看模型算法,更要看你有没有本事调度好资源、搭建好生态。只有这样,咱们才能在保证大家都能用得上的前提下,把这个行业搞得更健康、更有活力。