漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-01 talkingdev

Distilabel-框架用于对齐数据收集

Distilabel是为AI工程师设计的框架,使用人类反馈的强化学习方法(例如奖励模型和DPO)对大型语言模型进行对齐。 它主要专注于LLM微调和适应性。 Distilabel可协助数据收集,清洗和训练。

Read More
2024-01-25 talkingdev

论文:权重平均奖励模型的应用

奖励模型在RLHF中用于表示人类偏好,尽管被对齐的模型通常“破解奖励”并实现不利的性能。通过合并多个奖励模型,这些模型保持线性模式连接,得到的对齐模型被79%的人更喜欢,而不是一个对齐单一奖励模型的模型。模型...

Read More
2023-11-29 talkingdev

Berkeley的研究人员通过RLAIF提高Starling-7B模型的帮助性和无害性

伯克利的一组研究人员使用合成偏好数据训练了一个新的最先进的7B参数模型。本文讨论了训练奖励模型的新挑战(例如,示例在列表中的位置会改变其排名)以及他们如何克服这些挑战。结果模型可与经过训练的奖励模型一起...

Read More
2023-09-28 talkingdev

RL在扩散模型上的应用库

利用RL调整语言模型正逐渐成为模型部署流程中的标准步骤。现在,这将通过扩散模型以及DRLX的发布变得更加容易,DRLX允许用户指定奖励模型或使用预定义的模型。扩散模型通过简化了RL在语言模型调整中的实现,为AI技术...

Read More
2023-08-25 talkingdev

人类反馈改善语言模型:DPO在Llama 2的应用

人类反馈在改善语言模型对齐和整体性能方面扮演着关键角色。然而,使用近端策略优化进行训练的过程中存在一些挑战。最近的研究表明,可以直接针对人类偏好进行优化,从而绕过奖励模型。借助基于文本的强化学习,你可...

Read More
2023-08-17 talkingdev

强化学习:微型故事模型的对齐工具

强化学习可能是当前对齐大型语言模型(甚至视觉模型)最好的工具。然而,当你需要大量的人类数据来训练一个奖励模型时,这就成为了一项挑战。如果你可以只使用“提示”呢?这是RLCF(强化学习计算框架)趋势的又一绝佳...

Read More
2023-05-23 talkingdev

通过强化学习训练扩散模型

在最近的工作中,强化学习一直备受关注,主要集中在人类反馈方面。但事实证明,您也可以使用计算反馈作为奖励模型。在这项工作中,他们使用LLaVA视觉问答系统为多个不同任务给出bert分数。有趣的是,他们能够显着提...

Read More
2023-04-18 talkingdev

GPT-4指令调整实现突破性进展

以下为新闻内容的主要要点: - 研究人员利用GPT-4生成的指令跟踪数据进行LLaMA微调,实现了在英语和中文两种语言中新任务的零-shot表现优于之前的最先进模型。 - 该突破性进展伴随着全面的评估和奖励模型训练,数据...

Read More