最新研究揭示了现有防御有害微调攻击(Harmful Fine-Tuning Attacks)方法的脆弱性,并提出了一种名为Panacea的创新解决方案。该方案采用自适应扰动技术,在保持模型微调性能的同时有效维护模型安全性。这一突破性进...
Read More近日,Flat Color LoRA 模型在 Hugging Face Hub 上正式发布,这一模型的推出为 Wan 视频模型技术注入了新的活力。LoRA(Low-Rank Adaptation)技术作为一种高效的模型微调方法,能够在保持模型原有性能的同时,显著...
Read More近日,LLM-SRec技术通过将用户序列行为直接整合到LLM(大语言模型)中,显著提升了推荐系统的准确性,且无需进行额外的模型微调。这一创新方法不仅简化了推荐系统的开发流程,还实现了推荐精度的新突破,成为当前推...
Read More随着人工智能技术的迅猛发展,LLM(大语言模型)在各个领域的应用持续扩展,尤其在软件测试领域显示出巨大的潜力。通过使用LLM,测试团队能够自动生成测试用例、提升代码覆盖率,并通过智能分析加快缺陷检测的速度。...
Read MoreMemoRAG是一种新兴的技术,旨在通过记忆驱动的知识发现,提升RAG在处理长文本方面的能力。传统的RAG模型在面对长文本时,往往会因为信息量过大而导致性能下降。MemoRAG通过引入记忆机制,有效地存储和检索关键信息,...
Read More近日,AI与Morph Labs联合发布了一篇关于信息检索增强型生成(RAG)模型微调的优秀博客文章。在文章中,他们展示了一些合成数据的使用情况。信息检索增强型生成模型是一种新型的深度学习模型,它结合了信息检索技术...
Read MoreMistral近日宣布推出其官方模型微调仓库,这一举措将为开发者提供更方便的工具来优化和定制Mistral的模型。该官方仓库已经在GitHub上开放,用户可以通过访问该仓库获取相关资源和文档。Mistral的微调仓库支持多种机...
Read MoreLoRA(Learning of Rate Adjustor)是一种被广泛应用于模型微调的方法,用于注入风格或知识。近期的一篇研究论文深入探讨了在使用LoRA时,学习能力和遗忘之间的权衡关系。研究发现,LoRA相比于全面微调,虽然学习的...
Read More