漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-09-14 talkingdev

ExLlamaV2:在消费级GPU上运行本地LLMs的推理库

ExLlamaV2是一个在GitHub上开源的项目,它是为现代消费级图像处理单元(GPU)上运行本地语言模型(LLMs)而设计的推理库。这款推理库的出现,可以帮助用户在个人电脑上使用现代GPU进行深度学习模型的推理计算,而无...

Read More
2023-09-12 talkingdev

构建基于LLM系统与产品的七大实用模式

本文分享了七种实用模式,用于将大型语言模型(LLM)整合到系统中:性能测量、添加最新知识、微调任务、缓存以节省时间/成本、确保质量输出、错误管理以及利用用户反馈。首先,性能测量是衡量模型在实际应用中的效果...

Read More
2023-08-31 talkingdev

轻量级图像增采样器DySample,提升图像分辨率新思路

传统的提升图像分辨率方法,如CARAFE和SAPA,常常需要大量的计算资源,并且其应用领域存在限制。而DySample作为一种更简洁、更高效的方式,已在各种图像任务中展现出良好的性能。相较于传统方法,DySample的优势在于...

Read More
2023-08-01 talkingdev

当GPT-3.5的成本低于Llama 2时

训练吞吐量、提示处理吞吐量和生成吞吐量都有不同的成本,并且受到不同计算资源的瓶颈制约。因此,某些工作负载在Llama 70B上实际上比支付GPT-3.5更昂贵。这篇博客写得非常优雅,围绕模型部署考虑问题有一些非常好的...

Read More
2023-05-29 talkingdev

新混合模型将Transformer和RNN的优势结合在一起

最近,研究人员提出了一种新的模型,称为接受加权键值(RWKV),它将Transformer的高效并行训练和RNN的高效操作结合起来。RWKV采用线性注意机制的独特方法,可以在不同阶段像Transformer或RNN一样使用,证明了与Tran...

Read More
2023-05-09 talkingdev

百万美元AI微调挑战赛

**内容简介:** - Kaggle的微调语言模型类比赛 - 通过社区的协力,提高语言模型的安全性 - 提供计算资源合作和奖励机制 - 比赛将于6月10日开始 **核心要点:** - Kaggle平台为微调语言模型提供了竞赛机会 - 通过...

Read More
2023-05-03 talkingdev

Mojo——一种面向AI开发人员的新编程语言

新闻内容: Mojo是一种新的编程语言,专门为AI开发人员设计。以下是该语言的三个核心要点: - Mojo具有高度的灵活性和可扩展性,可以轻松应对不同类型和规模的项目。 - Mojo的语法简单明了,易于学习和使用。该语...

Read More
2023-04-19 talkingdev

OctoML推出按需计算服务,支持生产环境中的生成式AI模型

OctoML正在构建一个计算层,可以像OpenAI一样易于使用,但灵活性更高,可以在任何云上运行。该服务的目标是使开发最新的生成式AI模型的应用程序变得简单:选择您的模型,启动模型服务API,并在成本最优的计算资源上...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6