漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-02-26 talkingdev

EmbodiedEval:全新交互式基准测试助力MLLM在具身任务中的能力评估

近日,EmbodiedEval作为一种全面且交互式的基准测试工具正式亮相,旨在评估多模态大语言模型(MLLMs)在具身任务中的表现。具身任务是指模型需要在物理环境中执行具体操作的任务,这对模型的感知、推理和执行能力提...

Read More
2025-02-24 talkingdev

谷歌发布SigLIP2:图像与文本编码模型的重大升级

SigLIP2作为SigLIP的升级版本,在多个方面实现了显著改进。SigLIP原本是一款广受欢迎的联合图像与文本编码模型,而SigLIP2在零样本分类性能上取得了重大突破,这一性能曾是CLIP模型的标志性成果。此次升级不仅提升了...

Read More
2025-02-21 talkingdev

Qwen 2.5 VL技术报告发布:最强开源视觉语言模型亮相

近日,Qwen团队发布了Qwen 2.5 VL技术报告,详细介绍了其最新研发的视觉语言模型。该模型被誉为目前最强的开源权重视觉语言模型,具备卓越的多模态处理能力,能够高效地理解和生成图像与文本的结合内容。Qwen 2.5 VL...

Read More
2025-02-13 talkingdev

DeepMind突破视觉语言模型预训练规模,1000亿图像助力全球任务性能提升

DeepMind近期在视觉语言模型(VLM)预训练领域取得了重大突破,将训练数据规模提升至前所未有的1000亿张图像。这一规模远超以往尝试,显著提升了模型在多样化全球任务中的表现。尽管在西方中心化任务上的性能已趋于...

Read More
2025-02-01 talkingdev

Ratzilla:新一代AI技术的突破与应用

近日,一款名为Ratzilla的新型AI技术引起了广泛关注。Ratzilla结合了LLM、agent、embedding、LoRA和RAG等先进技术,展现了在自然语言处理、智能代理和多模态学习领域的强大潜力。该技术通过高效的模型训练和推理机制...

Read More
2025-01-31 talkingdev

OpenAI O3-Mini技术解析:小型化AI模型的新突破

近日,OpenAI发布了其最新研发的O3-Mini模型,这一小型化AI模型在性能和效率上取得了显著突破。O3-Mini采用了先进的embedding技术和LoRA优化策略,使其在保持高精度的同时,大幅降低了计算资源的消耗。该模型特别适...

Read More
2025-01-31 talkingdev

Qwen2.5-VL Cookbooks发布:助力多任务视觉语言模型应用

近日,Qwen2.5-VL这一全新的视觉语言模型推出了配套的Cookbooks,详细展示了如何利用该模型完成多种不同的任务。Qwen2.5-VL作为一款先进的视觉语言模型,具备强大的多模态处理能力,能够同时理解图像和文本信息。此...

Read More
2025-01-24 talkingdev

LOKI:多模态检测模型的合成基准测试

LOKI 是一个用于评估视觉语言模型(VLMs)在检测新颖和具有挑战性项目方面表现的合成基准测试工具。该基准测试通过生成复杂的多模态数据,帮助研究人员更好地理解模型在处理未知或复杂场景时的能力。LOKI 的设计旨在...

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page