漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-03-24 talkingdev

[开源] 探索潜在多跳推理:大语言模型的多知识连接能力研究

近期,一项关于大语言模型(LLMs)的研究揭示了其在处理复杂提示时是否具备多跳推理能力——即连接多个知识片段的推理过程。研究发现,这种潜在的推理过程确实存在,尤其在初始步骤中表现明显。然而,模型对连接知识的...

Read More
2025-03-20 talkingdev

[开源] Hugging Face的R1项目复现(GitHub仓库)

Hugging Face的Open-R1项目旨在提供一个更为稳健和功能完备的解决方案,同时保持其最小化和可扩展性。该项目通过增加监督微调(SFT)步骤和数据蒸馏技术,进一步提升了模型的性能和适应性。这些改进使得Open-R1在处...

Read More
2025-03-20 talkingdev

微软推出KBLAM:为LLM引入即插即用的外部知识

微软研究院最近推出了一项名为KBLAM的创新技术,旨在为大型语言模型(LLMs)引入即插即用的外部知识。这项技术的主要亮点在于,它无需重新训练模型即可实现知识的无缝集成,从而支持在线和实时学习。KBLAM的核心优势...

Read More
2025-03-20 talkingdev

Concierge AI:用自然语言与你的应用程序对话

随着人工智能技术的飞速发展,Concierge AI 提供了一个创新的解决方案,使用户能够通过自然语言无缝连接和操作各种应用程序。无论是电子邮件、日历、文件管理还是支付系统,用户只需选择其偏好的 AI 模型(如 GPT、C...

Read More
2025-03-19 talkingdev

[论文推荐]reWordBench:揭示奖励模型在提示词重述下的脆弱性

近期,一项名为reWordBench的研究揭示了当前流行的奖励模型在面对提示词(prompt)的简单重述时表现出的脆弱性。该研究不仅提出了一个基准测试,还探讨了一种潜在的策略,以增强这些模型的鲁棒性。奖励模型在人工智...

Read More
2025-03-17 talkingdev

Luma推出多模态模型预训练新方法:Inductive Moment Matching

Luma首席科学家宋嘉明,作为最早为扩散模型开发加速算法的先驱,近日发布了新的多模态预训练方法——Inductive Moment Matching(IMM)。这一新方法不仅超越了传统扩散模型在样本质量上的表现,还实现了10倍以上的效率...

Read More
2025-03-17 talkingdev

[论文推荐] 无需归一化的Transformer模型

Transformer模型在自然语言处理和其他领域取得了显著的成功,而其核心之一是层归一化(Layer Normalization)。然而,最新的研究提出了一种替代方案:通过精心设计的tanh函数,可以在不依赖层归一化的情况下保持模型...

Read More
2025-03-13 talkingdev

[开源] 感应矩匹配:连续数据扩散模型的统一与简化

近日,Luma Labs在GitHub上开源了一个名为感应矩匹配(Inductive Moment Matching, IMM)的项目,该项目通过一种新的矩匹配框架,为连续数据的扩散模型提供了一种统一且简化的解决方案。这一技术不仅显著减少了生成...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page