wan2.7-image的统一模型

阿里把发布的日期定在了4月1日,放出了一款叫Wan2.7-Image的统一模型。这个模型主要是为了解决现在AI画图常见的两个问题:大家都看腻了那种标准的“AI脸”,还有选颜色的时候像开盲盒一样不精准。为了让每张脸都不一样,有那种活生生的感觉,Wan2.7-Image特意强化了捏脸功能,不管是骨相还是五官细节都能全搞定。比如你可以通过Hex Code去控制颜色比例,直接用代码输入参考色来调色,像梵高那种亮黄色系或者毕加索的冷蓝色系都能精准还原。 这个模型不仅能写字画照片,还支持图生图、指令编辑这些全流程的工作。在盲测里它表现特别好,在“文生图”的能力上甚至超过了GPT-Image1.5还有国内的那些主流模型。特别是在渲染长文章和复杂公式方面,它用了Long Context Text Encoder这种长上下文编码器来处理超长的文字序列。就算是一页A4纸的论文内容也能清清楚楚地显示出来,支持12种语言输入,最高能接受3000个tokens的长文字。 对于那些喜欢DIY配色的人来说,“调色盘”功能真的很贴心。只要你能找到一张喜欢的图片,就能直接把它的颜色提取出来用在生成的图里。你还能自己设置颜色占比和数量,把马蒂斯那种浓红或者其他艺术家的风格直接套用上去。 总之这次发布就是为了让生成的图片更像人、更准、更高级。大家可以看看这个Nano Banana Pro能不能达到那种水准了。