漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-06-20 talkingdev

TroL-高效大型语言和视觉模型开源

近日,一种名为TroL的新型高效大型语言和视觉模型 (LLVMs) 在GitHub上发布,其模型规模分别为18亿、38亿和70亿参数。这些模型能够精确地处理和理解大量的语言和图像信息,其性能和效率都达到了非常高的水平。这些模...

Read More
2024-06-20 talkingdev

微软发布全新顶尖视觉模型Florence-2

微软最近发布了一套名为Florence-2的MIT许可的小型视觉语言模型(VLMs)。这套模型在图像标注、边界识别和分类等任务上,表现出色,大大超过了许多体型更大的模型。Florence-2模型的发布,标志着微软在人工智能和机...

Read More
2024-06-19 talkingdev

论文:使用ERASE更新语言模型

ERASE是一种全新的更新语言模型的方法。这种方法与传统的注重在预测过程中提高检索效率的方法有所不同,ERASE在新的文档被添加时,会逐步删除或重写知识库中的条目。这种方法的出现,为语言模型的更新提供了一种全新...

Read More
2024-06-19 talkingdev

Nvidia在最新AI测试中表现出色

在MLPerf的两项新测试中,由Nvidia的Hopper架构驱动的系统表现突出,这两项测试分别比较了大型语言模型的微调和图神经网络的训练。MLPerf是一个AI基准测试套件,用于比较不同系统在AI任务上的性能。Nvidia的Hopper架...

Read More
2024-06-12 talkingdev

Meta如何规模化训练大型语言模型

近日,Meta公司公布了一篇关于其如何规模化训练大型语言模型的论文。该论文详细介绍了Meta公司的训练方法,该方法可以同时训练多达14亿个参数的语言模型。该规模远超以往的语言模型训练规模,并且可以在更短的时间内...

Read More
2024-06-12 talkingdev

论文:评估医疗模型的可信度,CARES全面评估框架

CARES是一个全面的评估框架,用于评估医疗大视觉语言模型(Med-LVLMs)的可信度。该框架的目标是确保这些模型能够在医疗环境中提供可靠且准确的结果。就像其他的人工智能模型一样,医疗大视觉语言模型的可信度是其成...

Read More
2024-06-12 talkingdev

PHATGOOSE:增强零样本学习的新方法

PHATGOOSE是一种显著提高AI在没有先前暴露的情况下概括和学习新任务能力的方法。这种方法通过智能地在不同专业的语言模型之间进行路由,以完成任务的各个部分。零样本学习是一种让机器学习模型在没有见过任何训练样...

Read More
2024-06-08 talkingdev

RAG应用中的分块:精准切分很难做到?

在自然语言处理(NLP)中,分块是指将句子分成更小的组块(块)的过程,每个块都有自己的语法和含义。在RAG(Retrieval-Augmented Generation)应用程序中,分块是生成响应的重要步骤。不同于传统的基于规则或基于统...

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page