3月30日,千问科技重磅推出了全新的Qwen3.5-Omni大模型,把智能交互推到了新高度。这个家伙不光在架构上有突破,理解和生成多模态内容的本事也特别强。它用Hybrid-Attention MoE架构把Thinker和Talker模块连起来,给用户提供了更聪明的对话体验。现在的AI可不仅是纯文字聊天了,图片、声音、视频都能听懂,让交流变得更自然。 为了方便大家用,Qwen3.5-Omni还给了三种Instruct版本:Plus、Flash和Light。它们都支持256k长的上下文输入。这就意味着能处理超过10小时的语音,还能搞定400秒的720P音视频。 语言这块儿也有大升级,支持113种语言和方言的识别,以及36种语言的生成。这对全球用户来说简直是福音。 想要试试功能?用户可以直接用Offline API或者Realtime API就能搞定。不管是学习语言、写文章,还是商务会议的实时翻译,这模型都能撑场面。 未来的应用场景多得很,教育、医疗、娱乐、商业样样都行。Qwen3.5-Omni的上线不只是技术升级,更是重新定义了咱们怎么跟技术打交道的方式。期待它在各个领域发光发热,帮咱们更高效地获取信息、创造价值。