漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-06-26 talkingdev

AI与Morph Labs联手优化信息检索增强型生成模型

近日,AI与Morph Labs联合发布了一篇关于信息检索增强型生成(RAG)模型微调的优秀博客文章。在文章中,他们展示了一些合成数据的使用情况。信息检索增强型生成模型是一种新型的深度学习模型,它结合了信息检索技术...

Read More
2024-05-27 talkingdev

Mistral发布其官方模型微调开源仓库

Mistral近日宣布推出其官方模型微调仓库,这一举措将为开发者提供更方便的工具来优化和定制Mistral的模型。该官方仓库已经在GitHub上开放,用户可以通过访问该仓库获取相关资源和文档。Mistral的微调仓库支持多种机...

Read More
2024-05-20 talkingdev

让LoRA学习更少遗忘更少,优化模型微调调优的新方法

LoRA(Learning of Rate Adjustor)是一种被广泛应用于模型微调的方法,用于注入风格或知识。近期的一篇研究论文深入探讨了在使用LoRA时,学习能力和遗忘之间的权衡关系。研究发现,LoRA相比于全面微调,虽然学习的...

Read More
2024-04-08 talkingdev

ReFT:一种高效节省参数的微调语言模型方法

近期在GitHub上发布的ReFT(Representation Fine-Tuning)项目,为微调语言模型带来了一种新的参数高效方法。与传统的PeFT相比,ReFT在保持强大性能的同时,大大降低了成本。该方法通过精细化调整模型参数,使得在进...

Read More
2024-03-25 talkingdev

Mistral发布7B模型v0.2版本,公布语言模型微调代码

Mistral公司近期举办了一场黑客马拉松活动,并在此期间宣布了其7B语言模型的v0.2版本。同时,Mistral还发布了如何对其语言模型进行微调的代码。这些代码编写得整洁而简明,易于理解和使用。微调代码的发布,将有助于...

Read More
2024-03-22 talkingdev

Meta推出Torchtune库,助力PyTorch语言模型微调

Meta公司近日发布了一个名为Torchtune的原生PyTorch库,专门用于精细调整语言模型。该库旨在为开发者提供更为便捷的工具,以便在PyTorch框架中进行语言模型的微调工作。通过Torchtune,开发者可以更容易地实现模型性...

Read More
2024-02-22 talkingdev

LoRA+:优化模型微调的新方案

本文介绍了LoRA+,一种优于现有Low-Rank Adaptation (LoRA)方法的微调大模型的方法。LoRA+通过为过程中的关键部分使用不同的学习速率来实现更好的性能和更快的微调,而无需增加计算需求。

Read More
2024-01-02 talkingdev

2023年人工智能发展亮点盘点

本文总结了2023年人工智能发展的亮点,包括如何在个人设备上运行LLM,微调模型,易受欺骗的问题,LLM应用等等。LLM可以为有效使用它们的人提供显著的生活质量提升。它们实际上相当容易构建,但仍有很多未知数,对于...

Read More
  1. Next Page