漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-04 talkingdev

[开源]Perplexity发布Pplx Cuda Kernels,MoE性能超越DeepSeek

人工智能领域迎来重要技术突破,Perplexity公司近日在GitHub开源了其混合专家系统(MoE)的核心计算库Pplx Cuda Kernels。这套基于CUDA的高性能计算内核在实际测试中展现出显著优势,在大规模运算场景下性能超越知名AI...

Read More
2025-04-03 talkingdev

[开源]大规模医学推理数据集MedReason发布,推动可解释医疗AI研究

加州大学圣克鲁兹分校视觉、语言与行为实验室(VLAA)在GitHub开源了MedReason项目,这是一个专为提升大语言模型(LLM)医疗推理能力构建的大规模数据集。该数据集通过结构化临床案例、医学知识图谱和多模态数据,旨...

Read More
2025-04-02 talkingdev

[开源]SEED-Bench-R1:基于强化学习的视频理解新基准

腾讯ARC实验室最新发布的SEED-Bench-R1基准测试,为多模态大语言模型(MLLM)在复杂视频任务中的表现提供了系统评估框架。该研究重点关注强化学习(RL)和监督微调(SFT)等后训练方法,揭示了RL在视觉感知任务和数...

Read More
2025-04-01 talkingdev

[论文推荐]LLM敏感内容选择性遗忘技术取得突破

最新发表在arXiv的论文提出了一种创新的模型融合技术,能够从大型语言模型(LLM)中精准移除敏感内容,同时保持模型的通用知识能力。这项突破性研究通过参数空间分析,识别并分离与敏感信息相关的神经网络连接,实现了...

Read More
2025-03-27 talkingdev

Continue (YC S23)发布:打造定制化AI代码助手

近日,Continue (YC S23)正式发布了一款创新产品——支持用户创建定制化AI代码助手的平台。该平台旨在通过灵活的配置和强大的AI能力,帮助开发者根据自身需求打造专属的编程助手,从而提升开发效率。Continue的核心技...

Read More
2025-03-27 talkingdev

揭秘大型语言模型的思维轨迹

随着人工智能技术的飞速发展,大型语言模型(LLM)的复杂性和能力不断提升,但其内部决策过程仍被视为“黑箱”。近日,研究人员通过先进的追踪技术,成功揭示了LLM在生成文本时的思维路径。这一突破不仅有助于提升模型...

Read More
2025-03-27 talkingdev

开发者技能在Agentic Coding中的关键作用

随着AI技术的快速发展,agentic coding正逐渐成为软件开发领域的新趋势。在这一过程中,开发者的技能水平显得尤为重要。agentic coding不仅要求开发者具备传统的编程能力,还需要他们熟悉LLM、embedding等先进技术,...

Read More
2025-03-25 talkingdev

[论文推荐] LLaVA-MORE:多模态大语言模型的系统性评估框架

LLaVA-MORE 是一项关于多模态大语言模型(Multimodal Large Language Models, MLLMs)的系统性研究,旨在评估不同语言模型和视觉骨干网络在 MLLMs 中的表现,并提供一个可复现的框架来比较这些架构。通过该研究,研...

Read More
  1. Prev Page
  2. 3
  3. 4
  4. 5
  5. Next Page