随着人工智能技术的迅猛发展,LLM(大语言模型)在各个领域的应用持续扩展,尤其在软件测试领域显示出巨大的潜力。通过使用LLM,测试团队能够自动生成测试用例、提升代码覆盖率,并通过智能分析加快缺陷检测的速度。...
Read MoreMemoRAG是一种新兴的技术,旨在通过记忆驱动的知识发现,提升RAG在处理长文本方面的能力。传统的RAG模型在面对长文本时,往往会因为信息量过大而导致性能下降。MemoRAG通过引入记忆机制,有效地存储和检索关键信息,...
Read More近日,AI与Morph Labs联合发布了一篇关于信息检索增强型生成(RAG)模型微调的优秀博客文章。在文章中,他们展示了一些合成数据的使用情况。信息检索增强型生成模型是一种新型的深度学习模型,它结合了信息检索技术...
Read MoreMistral近日宣布推出其官方模型微调仓库,这一举措将为开发者提供更方便的工具来优化和定制Mistral的模型。该官方仓库已经在GitHub上开放,用户可以通过访问该仓库获取相关资源和文档。Mistral的微调仓库支持多种机...
Read MoreLoRA(Learning of Rate Adjustor)是一种被广泛应用于模型微调的方法,用于注入风格或知识。近期的一篇研究论文深入探讨了在使用LoRA时,学习能力和遗忘之间的权衡关系。研究发现,LoRA相比于全面微调,虽然学习的...
Read More近期在GitHub上发布的ReFT(Representation Fine-Tuning)项目,为微调语言模型带来了一种新的参数高效方法。与传统的PeFT相比,ReFT在保持强大性能的同时,大大降低了成本。该方法通过精细化调整模型参数,使得在进...
Read MoreMistral公司近期举办了一场黑客马拉松活动,并在此期间宣布了其7B语言模型的v0.2版本。同时,Mistral还发布了如何对其语言模型进行微调的代码。这些代码编写得整洁而简明,易于理解和使用。微调代码的发布,将有助于...
Read MoreMeta公司近日发布了一个名为Torchtune的原生PyTorch库,专门用于精细调整语言模型。该库旨在为开发者提供更为便捷的工具,以便在PyTorch框架中进行语言模型的微调工作。通过Torchtune,开发者可以更容易地实现模型性...
Read More