漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-07 talkingdev

[开源]Object Counting:基于特征图与自注意力机制的全自动零样本物体计数方法

GitHub开源项目Object Counting提出了一种突破性的全自动零样本物体计数方法,该方法通过融合深度特征图与自注意力机制,在FSC147数据集上实现了当前最先进的计数精度。该技术的核心创新在于:1)利用预训练视觉模型...

Read More
2025-04-07 talkingdev

[论文推荐]Rope to Nope:混合注意力机制突破长上下文处理极限

Meta最新发布的Llama 4模型通过创新性的混合位置编码策略,实现了超过1000万tokens的上下文处理能力。该技术核心在于交替使用无位置嵌入(NoPE)和旋转位置嵌入(RoPE),在保持计算效率的同时显著扩展了上下文窗口...

Read More
2025-04-04 talkingdev

[开源]Nebius推出Kvax:基于JAX的Flash Attention优化实现,助力长上下文训练

Nebius近日开源了Kvax项目,这是一个基于JAX框架的Flash Attention实现,专门针对长上下文训练场景进行了优化。Kvax通过创新的上下文并行技术和高效的文档掩码计算,实现了更快的训练速度和更高的数据密度压缩,在性...

Read More
2025-03-31 talkingdev

[论文推荐]Kyutai发布高保真实时语音互译系统

法国人工智能研究机构Kyutai最新推出突破性语音互译系统,该系统基于多流Transformer架构,可实现高保真度的实时语音到语音翻译。该技术突破传统文本中转翻译模式,直接在声学层面进行跨语言转换,并保持原说话者的...

Read More
2025-03-28 talkingdev

Flux Inpainting技术登陆Hugging Face Hub:扩散模型再添新功能

近日,Hugging Face Hub上线了Flux扩散模型的图像修复(Inpainting)功能,标志着这一前沿技术在计算机视觉领域的又一重要突破。Flux作为新一代高性能扩散模型,其独特的架构设计显著提升了生成图像的质量和效率。此...

Read More
2025-03-13 talkingdev

[开源] Motion Anything:基于注意力掩码建模的多模态运动生成技术

近期,Motion Anything项目通过引入基于注意力的掩码建模(Attention-based Mask Modeling)技术,显著提升了条件运动生成的能力。这项技术不仅在空间控制上实现了更精细的调节,还在时间维度上提供了更高的灵活性,...

Read More
2025-03-06 talkingdev

BodyGen推出拓扑感知自注意力机制,提升机器人形态与控制协同设计效率

近日,BodyGen公司宣布推出一种创新的拓扑感知自注意力机制和时序信用分配机制,旨在显著提升机器人形态与控制协同设计的效率。这一技术突破通过优化机器人形态的拓扑结构,结合自注意力机制,能够更精准地捕捉机器...

Read More
2025-03-04 talkingdev

FlexPrefill推出动态稀疏注意力机制,提升LLM长序列处理效率

近日,FlexPrefill技术通过动态调整稀疏注意力模式和计算预算,显著提升了大型语言模型(LLM)的推理效率。该技术通过查询感知模式确定和累积注意力索引选择,优化了长序列处理的速度和准确性。FlexPrefill的核心在...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page