漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-22 talkingdev

谷歌推出Gemini Diffusion:首个采用扩散模型替代Transformer的大语言模型

谷歌最新发布的Gemini Diffusion标志着大语言模型架构的重大突破,这是该公司首次采用扩散模型(Diffusion Model)完全替代传统的Transformer架构。技术文档显示,该模型在保持与Gemini 2.0 Flash-Lite相当性能表现...

Read More
2025-05-16 talkingdev

[论文推荐]BLIP3-o:新型扩散Transformer架构在多模态基准测试中创下最优成绩

BLIP3-o作为一种新型的扩散Transformer架构,通过序列预训练方法实现了技术突破,并在多模态基准测试中取得了当前最优异的成绩。该研究不仅发布了完整的代码和权重文件,还附带了一个包含6万条指令的微调数据集,为...

Read More
2025-05-16 talkingdev

Meta FAIR团队发布支持分子属性预测、扩散建模和语言学习神经科学的新数据集与模型

Meta旗下FAIR(基础人工智能研究)团队近日宣布推出多项重要开源成果,涵盖三大前沿领域:1) 分子属性预测数据集与模型,将加速药物发现与材料科学研发流程;2) 扩散模型(Diffusion Models)相关资源,为当前最热门...

Read More
2025-05-14 talkingdev

[开源]UCGM:统一框架实现连续生成模型的训练与采样

加州大学团队在GitHub开源了UCGM项目,为生成式AI领域带来突破性技术框架。该项目创新性地构建了统一架构,可同时支持多步(如扩散模型)和少步(如流模型)连续生成模型的训练与采样流程。通过数学层面的抽象整合,...

Read More
2025-05-14 talkingdev

视觉自回归方法EAR开源:无需量化的连续空间生成技术

近期GitHub开源项目EAR提出了一种突破性的视觉自回归生成方法,通过采用严格适当评分规则(如能量评分)绕过了传统量化步骤,直接在连续数据空间中进行生成。该技术摒弃了传统概率建模的约束,通过数学上严谨的评分...

Read More
2025-05-07 talkingdev

DDT开源:解耦扩散Transformer

近日,GitHub上开源了一个名为DDT(Decoupled Diffusion Transformer)的项目,该项目实现了一种结合Transformer和扩散模型的新型架构。该架构采用Encoder-Decoder设计,其中Decoder部分由扩散模型构成。初步实验表...

Read More
2025-05-05 talkingdev

基于注意力蒸馏的扩散模型图像风格化方法取得新突破

近日,一项名为'Attention Distillation for Diffusion-Based Image Stylization'的技术在图像生成领域取得重要进展。该技术通过利用预训练扩散模型中的自注意力特征,创新性地引入了注意力蒸馏损失函数,有效优化了...

Read More
2025-04-24 talkingdev

[论文推荐]ANFM提出基于过滤技术的快速图生成新方法

ANFM研究团队在arXiv最新发表的论文中,提出了一种基于过滤技术(filtration techniques)的革命性图生成方法。该技术通过优化传统图生成模型的拓扑结构处理流程,实现了比扩散模型快100倍的训练速度,同时保持了具...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page