谷歌最新发布的Gemini Diffusion标志着大语言模型架构的重大突破,这是该公司首次采用扩散模型(Diffusion Model)完全替代传统的Transformer架构。技术文档显示,该模型在保持与Gemini 2.0 Flash-Lite相当性能表现...
Read MoreBLIP3-o作为一种新型的扩散Transformer架构,通过序列预训练方法实现了技术突破,并在多模态基准测试中取得了当前最优异的成绩。该研究不仅发布了完整的代码和权重文件,还附带了一个包含6万条指令的微调数据集,为...
Read MoreMeta旗下FAIR(基础人工智能研究)团队近日宣布推出多项重要开源成果,涵盖三大前沿领域:1) 分子属性预测数据集与模型,将加速药物发现与材料科学研发流程;2) 扩散模型(Diffusion Models)相关资源,为当前最热门...
Read More加州大学团队在GitHub开源了UCGM项目,为生成式AI领域带来突破性技术框架。该项目创新性地构建了统一架构,可同时支持多步(如扩散模型)和少步(如流模型)连续生成模型的训练与采样流程。通过数学层面的抽象整合,...
Read More近期GitHub开源项目EAR提出了一种突破性的视觉自回归生成方法,通过采用严格适当评分规则(如能量评分)绕过了传统量化步骤,直接在连续数据空间中进行生成。该技术摒弃了传统概率建模的约束,通过数学上严谨的评分...
Read More近日,GitHub上开源了一个名为DDT(Decoupled Diffusion Transformer)的项目,该项目实现了一种结合Transformer和扩散模型的新型架构。该架构采用Encoder-Decoder设计,其中Decoder部分由扩散模型构成。初步实验表...
Read More近日,一项名为'Attention Distillation for Diffusion-Based Image Stylization'的技术在图像生成领域取得重要进展。该技术通过利用预训练扩散模型中的自注意力特征,创新性地引入了注意力蒸馏损失函数,有效优化了...
Read MoreANFM研究团队在arXiv最新发表的论文中,提出了一种基于过滤技术(filtration techniques)的革命性图生成方法。该技术通过优化传统图生成模型的拓扑结构处理流程,实现了比扩散模型快100倍的训练速度,同时保持了具...
Read More