漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-06-21 talkingdev

LOMO:高效的LLM训练(GitHub开源)

这项研究介绍了LOw-Memory Optimization(LOMO),这是一种旨在显著减少大型语言模型(LLM)训练所需资源的优化器,目前这一过程需要大量的GPU资源。LOMO的创新方法使得只需使用一台具有8个RTX 3090 GPU(每个具有24...

Read More
2023-06-21 talkingdev

新兴架构为LLM应用提供新机遇

这篇文章由a16z撰写,讨论了一些新兴的LLM应用架构,包括联邦学习、边缘计算和无服务器计算。这些架构为LLM提供了新的扩展方式和更高效的运行方式,可能会在未来推动LLM的广泛应用。

Read More
2023-06-19 talkingdev

百万上下文窗口背后的秘密武器

本文讨论了几种加速大型语言模型(LLM)训练和推理的技术,以使用高达100K个输入令牌的大上下文窗口。这些技术包括:ALiBi位置嵌入,稀疏注意力,闪电注意力,多查询注意力,条件计算以及使用80GB的A100 GPU。

Read More
2023-06-17 talkingdev

{

"title": "LLMs为软件可移植性提供帮助", "content": "人工智能编码助手在构建多个规范之间的兼容性层面上表现出色。", "summary": [ "人工智能编码助手提供了软件可移植性的帮助。", "兼容...

Read More
2023-06-13 talkingdev

基础模型能否像人类一样标记数据?

最近,关于语言模型的热潮导致了各种各样的声明,比如“我们的模型被 ChatGPT N% 的时间所偏好”。但这种声明通常隐藏了一个事实,那就是 ChatGPT 实际上是偏向 GPT4 模型的。这其中涉及到各种各样的问题,包括校准、...

Read More
2023-06-13 talkingdev

LLMs应用于增强互联网推荐系统

## 新闻摘要: 近期有一篇论文对LLMs在自然语言处理方面的强大能力进行了详细的研究,探讨了如何将LLMs应用于互联网推荐系统的改进。该论文检查了LLMs在推荐过程的各个阶段中可能扮演的角色,并探究了将这些模型整...

Read More
2023-06-12 talkingdev

LLM表现出惊人的人类特征

LLM是指语言模型,近来备受瞩目。它们是一种基于人工智能的算法,可以模拟人类的语言能力,甚至表现出惊人的人类特征。下面是该技术的三个核心点: - LLM可以模拟人类的语言能力,包括语法、语义和语用。 - LLM可以...

Read More
2023-06-12 talkingdev

新技术SpQR:高效LLM压缩技术

近日,研究人员提出了一种名为Sparse-Quantized Representation(SpQR)的新技术,可以实现对大型语言模型(LLMs)的几乎无损压缩,克服了量化带来的精度损失。这项技术使得强大的LLMs可以在像笔记本电脑和手机这样...

Read More
  1. Prev Page
  2. 50
  3. 51
  4. 52
  5. Next Page