漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-06-23 talkingdev

Tart: 提升LLMs推理能力的新方法

这项研究揭示了大型语言模型(LLMs)在处理不同任务时可以胜任,但在概率推理方面存在困难,从而限制了它们的性能。作者提出了一种名为Tart的解决方案 - 一种在通用方式下训练的推理模块,当与任何现有模型结合时,...

Read More
2023-06-17 talkingdev

{

"title": "LLMs为软件可移植性提供帮助", "content": "人工智能编码助手在构建多个规范之间的兼容性层面上表现出色。", "summary": [ "人工智能编码助手提供了软件可移植性的帮助。", "兼容...

Read More
2023-06-13 talkingdev

将LLMs应用于增强互联网推荐系统

## 新闻摘要: 近期有一篇论文对LLMs在自然语言处理方面的强大能力进行了详细的研究,探讨了如何将LLMs应用于互联网推荐系统的改进。该论文检查了LLMs在推荐过程的各个阶段中可能扮演的角色,并探究了将这些模型整...

Read More
2023-06-12 talkingdev

新技术SpQR:高效LLM压缩技术

近日,研究人员提出了一种名为Sparse-Quantized Representation(SpQR)的新技术,可以实现对大型语言模型(LLMs)的几乎无损压缩,克服了量化带来的精度损失。这项技术使得强大的LLMs可以在像笔记本电脑和手机这样...

Read More
2023-06-07 talkingdev

利用软提示改善LLMs的指令传达:InstructZero

研究团队提出了InstructZero,一种新的方法,可以使大型语言模型(LLMs)更好地遵循指令,即使您无法直接调整它们(即“黑盒”模型)。该方法使用“软提示”进行优化,以创建更好的指令。我们的测试表明,在不同任务和各...

Read More
2023-06-06 talkingdev

QLoRA: 优化量化LLMs的有效微调

本文介绍了一个名为"QLoRA"的开源代码库,旨在支持论文"QLoRA: Efficient Finetuning of Quantized LLMs",该论文旨在民主化LLM研究的资源获取。 ## 三个核心要点: - QLoRA是一个开源代码库,支持LLM研究领域的民...

Read More
2023-06-05 talkingdev

开源项目:AWQ技术让大型AI模型更小更快

最近,一篇名为“Activation-aware Weight Quantization (AWQ)”的论文在GitHub上开源。这篇论文提出了一种新的方法,可以更高效地压缩大型语言模型(LLMs),克服了高硬件要求和慢速令牌生成的问题。AWQ可以选择性地...

Read More
2023-06-02 talkingdev

智能GPT程序现已上线GitHub

--- 智能GPT程序是一款能够帮助LLMs使用插件完成复杂任务的程序,现已在GitHub上线。 ### 核心要点 - 智能GPT程序上线GitHub。 - 该程序可为LLMs提供插件来完成复杂任务。 - 这个程序可以提高LLMs的工作效率。

Read More
  1. Prev Page
  2. 18
  3. 19
  4. 20
  5. Next Page