漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-10-26 talkingdev

利用LLM提升测试实践的创新探索

随着人工智能技术的迅猛发展,LLM(大语言模型)在各个领域的应用持续扩展,尤其在软件测试领域显示出巨大的潜力。通过使用LLM,测试团队能够自动生成测试用例、提升代码覆盖率,并通过智能分析加快缺陷检测的速度。...

Read More
2024-09-20 talkingdev

MemoRAG:通过记忆驱动的知识发现提升长文本的RAG能力

MemoRAG是一种新兴的技术,旨在通过记忆驱动的知识发现,提升RAG在处理长文本方面的能力。传统的RAG模型在面对长文本时,往往会因为信息量过大而导致性能下降。MemoRAG通过引入记忆机制,有效地存储和检索关键信息,...

Read More
2024-06-26 talkingdev

AI与Morph Labs联手优化信息检索增强型生成模型

近日,AI与Morph Labs联合发布了一篇关于信息检索增强型生成(RAG)模型微调的优秀博客文章。在文章中,他们展示了一些合成数据的使用情况。信息检索增强型生成模型是一种新型的深度学习模型,它结合了信息检索技术...

Read More
2024-05-27 talkingdev

Mistral发布其官方模型微调开源仓库

Mistral近日宣布推出其官方模型微调仓库,这一举措将为开发者提供更方便的工具来优化和定制Mistral的模型。该官方仓库已经在GitHub上开放,用户可以通过访问该仓库获取相关资源和文档。Mistral的微调仓库支持多种机...

Read More
2024-05-20 talkingdev

让LoRA学习更少遗忘更少,优化模型微调调优的新方法

LoRA(Learning of Rate Adjustor)是一种被广泛应用于模型微调的方法,用于注入风格或知识。近期的一篇研究论文深入探讨了在使用LoRA时,学习能力和遗忘之间的权衡关系。研究发现,LoRA相比于全面微调,虽然学习的...

Read More
2024-04-08 talkingdev

ReFT:一种高效节省参数的微调语言模型方法

近期在GitHub上发布的ReFT(Representation Fine-Tuning)项目,为微调语言模型带来了一种新的参数高效方法。与传统的PeFT相比,ReFT在保持强大性能的同时,大大降低了成本。该方法通过精细化调整模型参数,使得在进...

Read More
2024-03-25 talkingdev

Mistral发布7B模型v0.2版本,公布语言模型微调代码

Mistral公司近期举办了一场黑客马拉松活动,并在此期间宣布了其7B语言模型的v0.2版本。同时,Mistral还发布了如何对其语言模型进行微调的代码。这些代码编写得整洁而简明,易于理解和使用。微调代码的发布,将有助于...

Read More
2024-03-22 talkingdev

Meta推出Torchtune库,助力PyTorch语言模型微调

Meta公司近日发布了一个名为Torchtune的原生PyTorch库,专门用于精细调整语言模型。该库旨在为开发者提供更为便捷的工具,以便在PyTorch框架中进行语言模型的微调工作。通过Torchtune,开发者可以更容易地实现模型性...

Read More
  1. Next Page