(问题)近年来,扩散模型推动图像生成技术快速前进。其中,扩散变换器(DiT)因训练稳定、效果突出而被广泛采用。但在工程落地中,一个矛盾越来越明显:主流方法通常把图像均匀切分为固定大小的“补丁”,并对每块区域投入近似相同的计算与注意力。这样做虽然通用,但也带来“平均用力”的问题——大面积背景与高细节主体被同等对待,不仅增加无效计算,还可能挤占细节区域所需算力,影响生成质量与速度。 (原因)这个矛盾主要来自两点。其一,图像信息分布本就不均:天空、墙面等低频区域结构简单,而人物面部、纹理、边缘等高频区域信息密度更高。其二,扩散生成过程具有阶段特征:生成早期更关注整体布局与大色块关系,后期细节逐步显现,对局部精细建模的需求上升。固定分块与固定计算路径难以反映“内容差异”和“阶段差异”,导致算力调度与任务需求错配。 (影响)AMD研究团队在2026年3月发布的论文(arXiv:2603.06351v1)中提出DC-DiT,尝试从“计算分配方式”改变传统范式:不再把计算平均分摊到所有区域,而是引入动态分块与路由机制,让模型根据区域复杂度与生成进度自动决定处理粒度与资源投入。结果显示,在ImageNet 256×256图像生成实验中,该方法在相同计算资源约束下可提升生成质量;在计算压缩4倍至16倍的条件下仍保持较好的性能稳定性。这意味着,在更低成本下获得更高或相近质量的空间继续扩大。 (对策)从方法设计看,DC-DiT的关键在于实现“自适应”:通过引入评估区域重要性与复杂度的模块,对图像进行差异化处理,把更多计算分配给需要精细建模的部分,将背景或低信息区域以更粗粒度方式处理;同时,随着扩散步骤推进动态调整关注重点,使计算策略与生成阶段更匹配。与依赖人工规则或固定阈值的做法不同,该研究强调由模型在训练中形成“自动选择”能力,以减少手工设定带来的泛化风险,并提升对不同图像内容的适配性。对产业侧而言,“按需计算”也提供了更清晰的部署思路:在算力受限的终端设备、实时交互应用、云端大规模并发推理等场景中,动态压缩有助于降低时延与成本;在内容生产场景下,则有望在同等预算内进一步改善主体细节、纹理清晰度与整体一致性。 (前景)业界普遍认为,生成模型的下一阶段竞争不只在“能否生成”,更在“以多高效率生成”。随着多模态内容需求增长与推理成本压力上升,面向扩散模型的加速与压缩仍将是研究重点。DC-DiT所代表的自适应计算方向,可能与量化、剪枝、蒸馏、缓存复用、并行调度等工程技术互补,为构建更高性价比的生成系统提供更多组合空间。同时,动态路由与动态分块也对系统实现提出更高要求,包括跨硬件的并行友好性、调度开销控制、稳定性与可复现性评估等,仍需在更高分辨率、更复杂数据集以及真实应用链路中进一步验证。总体来看,这一进展为扩散模型从“堆算力”走向“精算力”提供了一条值得关注的路径。
从机械执行到智能判别的转变,意味着人工智能正在从“把算力用满”走向“把算力用对”。AMD此次工作不仅缓解了特定场景的效率瓶颈,也提示了下一代智能系统的一项关键能力:在复杂任务中根据价值与需求动态分配资源。当模型开始学会“取舍”,生成式AI也可能在效率与体验之间找到新的平衡点。