视觉自回归方法EAR开源:无需量化的连续空间生成技术
talkingdev • 2025-05-14
16519 views
近期GitHub开源项目EAR提出了一种突破性的视觉自回归生成方法,通过采用严格适当评分规则(如能量评分)绕过了传统量化步骤,直接在连续数据空间中进行生成。该技术摒弃了传统概率建模的约束,通过数学上严谨的评分规则体系,实现了对高维连续信号(如图像/视频)更精确的建模能力。其核心创新在于将自回归范式与连续空间优化相结合,在保持序列生成优势的同时避免了离散化带来的信息损失。这一进展对生成式AI领域具有双重意义:技术上为扩散模型等连续生成方法提供了新思路,应用上可提升医疗影像合成、物理仿真等需要高保真连续数据的场景效果。项目开源后已在GitHub获得大量星标,显示出学术界对非量化生成路径的强烈兴趣。