漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-13 talkingdev

Phidata-构建AI助手工具包开源

Phidata是一个使用函数调用构建AI助手的工具包。它不仅可以帮助开发者更快地构建AI助手,还可以通过模块化设计轻松扩展其功能。Phidata基于Python语言,支持各种功能,包括自然语言处理、语音识别和图像识别。它还提...

Read More
2024-02-13 talkingdev

RLX: 基于MLX的强化学习框架

RLX是一个基于MLX的强化学习框架,旨在为研究人员和工程师提供一个易于使用的平台,以便开发和实现强化学习算法。 RLX提供了一组易于使用的API和工具,可以帮助用户轻松地构建和训练强化学习模型。此外,RLX还提供了...

Read More
2024-02-06 talkingdev

优秀演员还是一般演员:利用LLM检测假新闻

研究表明,经过调整的BERT模型在检测假新闻方面比通用的LLM模型(如GPT-3.5-turbo)更有效。BERT模型是一种预训练的自然语言处理模型,可用于各种文本任务。由于假新闻的传播日益严重,利用AI技术检测假新闻变得越来...

Read More
2024-02-06 talkingdev

自然语言SQL-7B模型现身,强大的文本转SQL模型

最近,谷歌AI团队发布了一篇论文,介绍了他们新开发的自然语言SQL-7B模型。这一模型使用了一种名为T5的预训练语言模型。这种模型可以将人类语言转换为SQL查询。自然语言SQL-7B模型是目前最强大的文本转SQL模型之一,...

Read More
2024-02-05 talkingdev

论文:共享网络预训练提升视频文本学习效果

近日,研究人员提出了一种名为共享网络预训练(SNP)的方法,用于提高视频和文本的联合学习效果。相较于以往的模型,这种方法更加高效和多功能,并且包含了一种独特的策略,称为显著语义强化(S3),以更好地理解句...

Read More
2024-02-01 talkingdev

论文:苹果应用“Up captioning”技术,加快预训练收敛速度

苹果公司在人工智能系统中应用“Up captioning”技术来提高训练时的标签质量。该公司将此技术应用于预训练中,通过将C4重述为问题/答案对、指令等,加快了模型的收敛速度10倍,使模型的样本效率显著提高。但这也会增加...

Read More
2024-01-24 talkingdev

DepthAnything:通过大规模数据集提高单目深度估计精度

Depth Anything是一种新的单目深度估计方法,它依赖于约6200万张图像的大规模数据集来提高其精度。通过使用数据增强和预训练编码器的辅助监督,该模型实现了令人印象深刻的泛化能力,并在深度估计方面树立了新的标准...

Read More
2024-01-23 talkingdev

提升视觉基础模型性能:ViSFT开源

针对图像-文本训练中使用的视觉基础模型,研究人员提出了一种名为ViSFT的新方法,以提高其性能。ViSFT使用类似于语言模型中的微调的两阶段过程来增强视觉基础模型。首先,该模型使用大规模的无监督预训练来学习图像...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page