漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-03-26 talkingdev

[开源] Qwen 2.5 32B 视觉语言模型发布,性能卓越且支持消费级硬件

近日,Qwen团队发布了一款名为Qwen 2.5 32B的视觉语言模型,该模型不仅具备强大的多模态处理能力,而且完全开源,能够在消费级硬件上高效运行。这一重大突破为AI领域的研究者和开发者提供了更加灵活和便捷的工具,尤...

Read More
2025-03-19 talkingdev

[开源] MaTVLM:融合Mamba-2层的混合视觉语言模型

MaTVLM是一个创新的混合视觉语言模型,通过将Mamba-2层集成到预训练的视觉语言模型(VLM)中,显著提升了其收敛速度与整体性能。这一技术突破不仅在学术界引起了广泛关注,也为工业界的应用带来了新的可能性。视觉语...

Read More
2025-03-17 talkingdev

[开源] Visual reasoning models:提升视觉语言模型推理能力的新工具包

近日,GitHub上发布了一个名为'Visual reasoning models'的开源工具包,旨在训练视觉语言模型(VLMs)以提升其基础逻辑和推理能力。该工具包由groundlight团队开发,主要专注于增强模型在处理复杂视觉数据时的理解和...

Read More
2025-03-11 talkingdev

视觉语言模型的新突破:简单可验证奖励与规模化强化学习的结合

近期,一项关于视觉语言模型(Vision Language Models)的研究引起了广泛关注。该研究通过结合简单可验证奖励机制与规模化强化学习(Scaled Reinforcement Learning),显著提升了模型的性能。研究团队在论文中详细...

Read More
2025-02-21 talkingdev

Qwen 2.5 VL技术报告发布:最强开源视觉语言模型亮相

近日,Qwen团队发布了Qwen 2.5 VL技术报告,详细介绍了其最新研发的视觉语言模型。该模型被誉为目前最强的开源权重视觉语言模型,具备卓越的多模态处理能力,能够高效地理解和生成图像与文本的结合内容。Qwen 2.5 VL...

Read More
2025-02-13 talkingdev

DeepMind突破视觉语言模型预训练规模,1000亿图像助力全球任务性能提升

DeepMind近期在视觉语言模型(VLM)预训练领域取得了重大突破,将训练数据规模提升至前所未有的1000亿张图像。这一规模远超以往尝试,显著提升了模型在多样化全球任务中的表现。尽管在西方中心化任务上的性能已趋于...

Read More
2025-01-31 talkingdev

Qwen2.5-VL Cookbooks发布:助力多任务视觉语言模型应用

近日,Qwen2.5-VL这一全新的视觉语言模型推出了配套的Cookbooks,详细展示了如何利用该模型完成多种不同的任务。Qwen2.5-VL作为一款先进的视觉语言模型,具备强大的多模态处理能力,能够同时理解图像和文本信息。此...

Read More
2025-01-24 talkingdev

LOKI:多模态检测模型的合成基准测试

LOKI 是一个用于评估视觉语言模型(VLMs)在检测新颖和具有挑战性项目方面表现的合成基准测试工具。该基准测试通过生成复杂的多模态数据,帮助研究人员更好地理解模型在处理未知或复杂场景时的能力。LOKI 的设计旨在...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page