漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-18 talkingdev

AMD GPU上的多节点大型语言模型训练解析

本文详细介绍了Lamini公司在AMD GPU上进行大型语言模型训练的技术架构。这包括了他们所使用的调度程序、模型训练技术以及其他相关技术细节。Lamini的技术团队选择了AMD GPU作为硬件加速平台,以优化模型训练的性能和...

Read More
2024-02-22 talkingdev

LoRA+:优化模型微调的新方案

本文介绍了LoRA+,一种优于现有Low-Rank Adaptation (LoRA)方法的微调大模型的方法。LoRA+通过为过程中的关键部分使用不同的学习速率来实现更好的性能和更快的微调,而无需增加计算需求。

Read More
2023-11-20 talkingdev

使用纯Pytorch加速分割任务

我们可以通过使用Torch编译、稀疏化、与Triton一起使用自定义内核以及其他PyTorch性能特性,将分割任务的速度提高8倍。

Read More
2023-11-17 talkingdev

论文:直接偏好优化提高模型的真实性

根据偏好优化模型是促进ChatGPT普及的突破之一。类似的技术也可以用来提高模型的正确性和真实性,将医学回忆中的错误减少50%以上。

Read More
2023-10-16 talkingdev

Anyscale-将Llama 2的冷启动时间缩短至30秒

将模型从云存储加载到节点GPU通常需要大部分推理时间。通过一些巧妙的技巧,例如内存流,Anyscale将其缩短了20倍,仅需30秒即可到达Llama 2 70B。

Read More
2023-09-25 talkingdev

高效免费的边缘机器学习课程

本课程主要介绍如何在边缘设备上高效地进行低资源机器学习。课程包括讲座和作业。在这个课程中,我们将探讨在边缘设备上进行机器学习的技术,包括如何有效地使用有限的计算和存储资源,如何优化模型以适应边缘设备,...

Read More
2023-09-12 talkingdev

构建基于LLM系统与产品的七大实用模式

本文分享了七种实用模式,用于将大型语言模型(LLM)整合到系统中:性能测量、添加最新知识、微调任务、缓存以节省时间/成本、确保质量输出、错误管理以及利用用户反馈。首先,性能测量是衡量模型在实际应用中的效果...

Read More
2023-08-09 talkingdev

评估大型语言模型作为代理的能力:AgentBench工具

该项目引入了AgentBench,一个用于测试大型语言模型(LLMs)在各种交互环境中的基准工具。在对25个LLMs进行的初步测试中,结果显示商业模型的表现超过了开源模型。这项研究为我们理解和评估大型语言模型的交互性能提供...

Read More
  1. Prev Page
  2. 1
  3. 2
  4. 3