漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-02 talkingdev

ReaLHF开源-提高训练效率

ReaLHF是一个创新的系统,通过在训练过程中动态重新分配参数并优化并行化,提升了人类反馈的强化学习(RLHF)的效率。这一技术的主要特点在于,它可以根据训练的实际需求,灵活调整系统参数和并行化优化策略,从而实...

Read More
2024-06-24 talkingdev

ReaLHF训练技术开源,刷新训练效率新高度

ReaLHF是一种全新的系统,它通过在训练过程中动态地重新分配参数和优化并行化,以提高来自人类反馈的强化学习(RLHF)的效率。ReaLHF通过创新的技术手段,实现了动态参数分配和并行化优化,从而达到了提高训练效率的...

Read More
2024-02-21 talkingdev

OpenRLHF开源,提供基于Ray的RLHF实现

近日,GitHub上有一个新的仓库OpenRLHF发布了。这是一个基于Ray的RLHF实现,专为Llama样式模型设计。该仓库集成了多种PPO稳定技巧,以提高性能。Ray是一款新型的分布式计算框架,它具有高效、易用等特点,支持快速构...

Read More
2024-01-25 talkingdev

论文:权重平均奖励模型的应用

奖励模型在RLHF中用于表示人类偏好,尽管被对齐的模型通常“破解奖励”并实现不利的性能。通过合并多个奖励模型,这些模型保持线性模式连接,得到的对齐模型被79%的人更喜欢,而不是一个对齐单一奖励模型的模型。模型...

Read More
2024-01-09 talkingdev

对比激活下的Steering Llama 2技术

有很多方式可以对齐语言模型,例如SFT、LoRa、RLHF、DPO、Prompting和Threatening。本研究提出使用负嵌入加到偏置项中,以将模型生成推向期望的结果。

Read More
2024-01-04 talkingdev

Pykoi开源:采用RLHF提高LLMs性能

Pykoi是一个开源的Python库,旨在通过RLHF(Reinforcement Learning with Hamiltonian Flows)提高LLMs(Latent Linear Models)的性能。Pykoi是一个基于TensorFlow 2的库,提供了一系列的LLMs和RLHF的实现,可以直...

Read More
2023-12-18 talkingdev

OpenAI超级对齐团队新成果:从弱到强泛化

OpenAI超级对齐团队最新成果表明,您可以使用更弱的监督模型来引导或对齐更强大的模型,类似于弱人类对齐超级智能模型。他们使用GPT-2恢复了GPT-4的大部分对齐性能。他们指出,这种方法具有可行的路径,可以实现显著...

Read More
2023-11-28 talkingdev

RLHF的替代方案,DPO实现方案开源

直接偏好优化是使用非常相似的数据的RLHF的稳定替代方法。该存储库包含一个实现,用于学习该技术。虽然DPO是一种新兴的技术,但它在许多情况下都能够提供比强化学习更好的结果。它非常适合解决一些现实世界中的问题...

Read More
  1. Next Page