漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-20 talkingdev

使用纯Pytorch加速分割任务

我们可以通过使用Torch编译、稀疏化、与Triton一起使用自定义内核以及其他PyTorch性能特性,将分割任务的速度提高8倍。

Read More
2023-09-29 talkingdev

Meta的文字转图片模型超越SDXL,引领新AI助手之路

Meta公司新推出的Emu图像生成模型已在用户偏好调查中超越SDXL。Emu模型是在11亿图像对上进行预训练的,只在几千张精心策划的图像上进行了微调。此模型将作为Meta新AI助手计划的主要支柱。Emu的高效性能,证明了大规...

Read More
2023-09-05 talkingdev

LLM微调Hub:专为使用场景优化的大型语言模型

LLM微调中心是一个包含代码和洞察的平台,专门用于微调各种大型语言模型以适应您的使用场景。不论您是开发者,还是研究人员,甚至是业务决策者,都可以在此找到有用的资源。通过微调,大型语言模型的性能可以得到显...

Read More
2023-09-04 talkingdev

RLHF与RLAIF的首次公开比较:性能相当,受人类青睐

近日,研究人员第一次公开比较了RLHF和RLAIF两种技术的性能。结果发现,这两种技术在最终模型性能方面基本相同,相比于基线模型,有大约70%的人类用户更青睐使用这两种技术。RLHF和RLAIF的研究和开发,推动了人工智...

Read More
2023-08-31 talkingdev

CUDA图表助力深度学习模型性能提升,加速Llama 2速度达2.3倍

近日,一篇深度解析如何使用PyTorch 2.0的torch.compile和Nvidia CUDA图表功能提升深度学习模型性能的文章引起了广泛关注。该文章详细介绍了借助CUDA图表在Llama 2上实现了2.3倍的速度提升。这对于对性能敏感的AI从...

Read More
2023-08-28 talkingdev

WizardLM团队利用新技术突破开源代码模型性能瓶颈,超越Phind模型

近日,WizardLM团队利用他们的Evol instruct技术显著提升了Llama代码的性能,甚至击败了Phind模型。此次成果尽管受到一些质疑,因为他们生成的指令直接提升了评估分数,而未使用固定的数据集,也没有把评估视为固定...

Read More
2023-08-25 talkingdev

人类反馈改善语言模型:DPO在Llama 2的应用

人类反馈在改善语言模型对齐和整体性能方面扮演着关键角色。然而,使用近端策略优化进行训练的过程中存在一些挑战。最近的研究表明,可以直接针对人类偏好进行优化,从而绕过奖励模型。借助基于文本的强化学习,你可...

Read More
2023-08-18 talkingdev

LoRA探索者:改变模型性能的低阶适配器

LoRA,全称低阶适配器,可以帮助改变模型性能。这意味着,你不需要对模型中的每个参数进行微调,只需训练一个可以轻松插入的子集。在这种情况下,社区中训练了许多可以改变SDXL行为的LoRA。这个空间可以帮助你探索其...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page