漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-06-26 talkingdev

AI与Morph Labs联手优化信息检索增强型生成模型

近日,AI与Morph Labs联合发布了一篇关于信息检索增强型生成(RAG)模型微调的优秀博客文章。在文章中,他们展示了一些合成数据的使用情况。信息检索增强型生成模型是一种新型的深度学习模型,它结合了信息检索技术...

Read More
2024-05-13 talkingdev

Cohere发布Command R微调功能,性能领先业界

Cohere公司近日推出了其Command R的微调功能,该功能以极低的成本提供了业界领先的性能。在对企业最重要的关键性能指标上,具有微调功能的Command R始终优于更大的模型。该微调功能现已在Cohere的平台和亚马逊Sagema...

Read More
2024-04-08 talkingdev

ReFT:一种高效节省参数的微调语言模型方法

近期在GitHub上发布的ReFT(Representation Fine-Tuning)项目,为微调语言模型带来了一种新的参数高效方法。与传统的PeFT相比,ReFT在保持强大性能的同时,大大降低了成本。该方法通过精细化调整模型参数,使得在进...

Read More
2024-03-25 talkingdev

Mistral发布7B模型v0.2版本,公布语言模型微调代码

Mistral公司近期举办了一场黑客马拉松活动,并在此期间宣布了其7B语言模型的v0.2版本。同时,Mistral还发布了如何对其语言模型进行微调的代码。这些代码编写得整洁而简明,易于理解和使用。微调代码的发布,将有助于...

Read More
2024-02-28 talkingdev

LazyA一键微调语言模型的Colab Notebook

Axolotl是一款用于Fine-tuning语言模型的强大库。最近,开发者推出了Lazy Axolotl,一款Colab Notebook,它可以帮助用户轻松地进行Fine-tuning操作。Lazy Axolotl提供了丰富的预训练模型和Fine-tuning脚本,用户只需...

Read More
2023-09-06 talkingdev

论文:提升数学技能的研究新突破

这项研究探讨了大型语言模型(LLMs)解决数学问题的能力,及各种不同因素如何影响它们的能力。研究人员发现,一种名为“拒绝采样精细调整”(Rejection sampling Fine-Tuning, RFT)的方法有助于这些模型在数学上的提...

Read More
2023-08-23 talkingdev

聊天机器人GPT-3.5-turbo现可进行微调操作

您现在可以在自定义数据上微调gpt-3.5-turbo模型了。微调后的模型完全属于您,且不会利用您的数据训练其他模型。这种方法可以大大降低成本、提升控制性,并改善整体性能。此外,GPT-4的微调功能也将在今年秋季推出。

Read More
2023-07-08 talkingdev

提升LLMs问题解决能力的新技术——FLACUNA

最近一份技术报告详细介绍了FLACUNA,这是一种可以提高问题解决能力的语言模型。FLACUNA是通过使用一个名为FLANMINI的自定义指令数据集对VICUNA进行微调而创建的,VICUNA是另一种大型语言模型。FLACUNA的出现,对于...

Read More