漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-06-07 talkingdev

利用软提示改善LLMs的指令传达:InstructZero

研究团队提出了InstructZero,一种新的方法,可以使大型语言模型(LLMs)更好地遵循指令,即使您无法直接调整它们(即“黑盒”模型)。该方法使用“软提示”进行优化,以创建更好的指令。我们的测试表明,在不同任务和各...

Read More
2023-06-07 talkingdev

Aviary:让你在一个平台上与各种大型语言模型互动

近日,一款名为 Aviary 的应用在开源代码托管平台 GitHub 上正式发布。这款应用能够让用户在一个平台上与各种大型语言模型互动,具有以下特点: - 在一个平台上与多个语言模型互动,无需频繁切换; - 直接比较不...

Read More
2023-06-06 talkingdev

GPT最佳实践指南

## 概述 该指南分享了使用GPT时获得更好结果的策略和技巧。 ## 主要内容 - GPT简介 - 改进GPT结果的方法和技巧 - 最佳实践 ## GPT简介 - GPT是一种自然语言处理技术,可生成高质量的文本。 - GPT的工作原理是基于...

Read More
2023-06-02 talkingdev

加速MPT 65K上下文模型

最近MosaicML MPT模型仍然备受欢迎。其中一个重要的贡献是“Storywriter”模型,它可以在上下文中使用高达65k个标记。但是,使用这个模型进行推理非常缓慢。通过添加键/值缓存,我们可以将生成速度提高近10倍。 ## 内...

Read More
2023-06-02 talkingdev

GitHub推出GPT4Tools:控制视觉基础模型

近日,GitHub推出了GPT4Tools系统,该系统能够通过分析语言内容,管理多个视觉基础模型,使其能够根据用户在对话中的需求自动决定、控制和使用不同的模型。与众不同的是,它还可以通过简单的自我指导和LoRA方法,让...

Read More
2023-06-02 talkingdev

谷歌代码历史记录助力编码效率提升

谷歌多年来记录了其代码库的每一次更改,包括详细的描述、更改和修复。他们将其视为序列建模问题,并创建了一组强大的内部工具,可以帮助软件工程师提高效率。他们发现,这种方法即使在像“基于历史信息的生成”这样的...

Read More
2023-06-01 talkingdev

本地GPT:使用Vicuna-7B模型和InstructorEmbeddings实现离线问答

近日,开发者们在GitHub上发布了一个名为localGPT的Repo,该项目利用Vicuna-7B模型和InstructorEmbeddings实现了离线文档问答功能。以下是该项目的主要亮点: - 使用Vicuna-7B模型:该模型是由EleutherAI开发的巨型...

Read More
2023-06-01 talkingdev

巨型语言人工智能:从工具使用者到工具创造者 (GitHub代码库)

最近的一项研究引入了一种开创性的方法,其中大型人工智能(AI)语言系统(LLMs)不仅被训练使用工具,还可以创建自己的工具以更有效地解决问题。这些LLMs开发了自己的“实用函数”,就像小型软件工具包一样,可以用于...

Read More
  1. Prev Page
  2. 34
  3. 35
  4. 36
  5. Next Page