漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-22 talkingdev

优化rav1d视频解码器性能:在M3芯片MacOS上提升1%速度

近日,开发者Ohad Ravid在其博客中分享了优化开源视频解码器rav1d性能的经验。通过在特定基准测试中针对搭载M3芯片的macOS系统进行优化,成功将解码速度提升了略高于1%,且未引入任何新的不安全代码。这一改进虽然看...

Read More
2025-05-22 talkingdev

谷歌推出Gemini Diffusion:首个采用扩散模型替代Transformer的大语言模型

谷歌最新发布的Gemini Diffusion标志着大语言模型架构的重大突破,这是该公司首次采用扩散模型(Diffusion Model)完全替代传统的Transformer架构。技术文档显示,该模型在保持与Gemini 2.0 Flash-Lite相当性能表现...

Read More
2025-05-21 talkingdev

[论文推荐]ARC-AGI-2发布:下一代AI推理基准测试,顶尖模型仅得3%

由François Chollet和ARC Prize团队推出的ARC-AGI-2基准测试,作为抽象推理领域的新一代评估标准,其难度较前代显著提升。初步测试结果显示,即便是最先进的AI系统也表现不佳,其中o3模型仅获得3%的准确率,远低于原...

Read More
2025-05-21 talkingdev

Fastino推出TLMs:专精任务的语言模型,性能超越LLMs

在人工智能领域,通用大模型(LLMs)虽然功能强大,但对于特定任务而言,其庞大的计算资源消耗和较高的成本并不总是最优选择。为此,Fastino公司推出了专精任务的语言模型(TLMs),旨在为特定任务提供更高效、更精...

Read More
2025-05-20 talkingdev

开源:.NET平台迎来零分配LINQ库“ZLinq”,性能优化新选择

近日,开发者社区热议一款名为“ZLinq”的新型LINQ库,其主打零内存分配特性,专为.NET平台设计。LINQ(Language Integrated Query)作为.NET生态中数据查询的核心技术,长期面临性能损耗问题,尤其在频繁操作时易产生...

Read More
2025-05-16 talkingdev

KVSplit开源-苹果上运行更长上下文的LLM,内存减少59%

近日,开发者dipampaul17在GitHub上发布了KVSplit项目,该项目通过差异化精度的KV缓存量化技术,在苹果芯片(M1/M2/M3/M4)上实现了更长上下文的LLM推理。研究发现,LLM推理中的KV缓存中,键(Keys)和值(Values)...

Read More
2025-05-16 talkingdev

[论文推荐]BLIP3-o:新型扩散Transformer架构在多模态基准测试中创下最优成绩

BLIP3-o作为一种新型的扩散Transformer架构,通过序列预训练方法实现了技术突破,并在多模态基准测试中取得了当前最优异的成绩。该研究不仅发布了完整的代码和权重文件,还附带了一个包含6万条指令的微调数据集,为...

Read More
2025-05-16 talkingdev

Meta FAIR团队发布支持分子属性预测、扩散建模和语言学习神经科学的新数据集与模型

Meta旗下FAIR(基础人工智能研究)团队近日宣布推出多项重要开源成果,涵盖三大前沿领域:1) 分子属性预测数据集与模型,将加速药物发现与材料科学研发流程;2) 扩散模型(Diffusion Models)相关资源,为当前最热门...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page