漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-02 talkingdev

论文:Transformer-Lite,在手机GPU上运行大型语言模型

在移动设备上运行语言模型面临着延迟、带宽和功耗等多方面的挑战。本研究通过采用量化技术、移除键值缓存以及其他优化手段,成功实现了在手机上以每秒30个令牌的速度运行强大的Gemma 2B模型。这一成果比其他框架快约...

Read More
2024-03-29 talkingdev

1比特语言模型:后训练量化技术助力在消费级GPU上运行700亿参数模型

1比特语言模型的研究为深度学习领域带来了新的突破。该技术通过在不损失性能的前提下,对语言模型中的线性层进行量化处理,实现了模型大小的大幅压缩。这一创新使得原本只能在高性能计算平台上运行的700亿参数模型,...

Read More
2024-03-04 talkingdev

关于LLM量化的全面研究

随着人工智能模型的不断发展,越来越多的研究人员开始研究如何在不影响模型准确性的前提下,提高模型的计算效率和内存利用率。LLM量化是一种后训练量化技术,可以使像OPT和LLaMA2这样的大型语言模型更具内存和计算效...

Read More
2024-02-01 talkingdev

Mistral CEO确认新的开源AI模型泄露,接近GPT-4的性能

本周,Mistral公司的CEO确认了Mistral的一个量化版本文件在HuggingFace上泄露,该技术使得在较弱的电脑和芯片上运行某些AI模型成为可能。据报道,该模型在EQ-Bench上超过了全球所有其他LLM模型,仅次于GPT-4。Mistra...

Read More
2023-10-27 talkingdev

论文:LLM模型中的4位量化技术

本研究介绍了LLM-FP4,这是一种新的方法,通过在训练后将大型语言模型的权重和操作转换为4位浮点值来压缩它们。近年来,由于NLP任务的快速发展,语言模型的大小和计算需求不断增加,这给模型的部署和使用带来了很多...

Read More
2023-05-25 talkingdev

QLoRA 65B参数模型在48GB GPU上进行微调

在技术领域中,微调是一种比完全微调更便宜的模型微调方式。它通过仅更新模型的一个小而精心选择的子集来工作。然而,即使如此,在普通硬件上微调大型(超过13B参数)模型的成本仍然太高。量化减少了模型中参数的精...

Read More
2023-05-22 talkingdev

HuggingFace发布4位标准浮点数模型 (GitHub仓库)

HuggingFace发布了新的研究成果,使得在普通硬件上能够完成对65B参数模型的微调。这项研究使得量化技术不再局限于推理阶段,而是可以应用于训练过程中,从而大幅减少了模型所需空间。以下是该研究的三个核心点: -...

Read More
  1. Prev Page