让LoRA学习更少遗忘更少,优化模型微调调优的新方法
talkingdev • 2024-05-20
624655 views
LoRA(Learning of Rate Adjustor)是一种被广泛应用于模型微调的方法,用于注入风格或知识。近期的一篇研究论文深入探讨了在使用LoRA时,学习能力和遗忘之间的权衡关系。研究发现,LoRA相比于全面微调,虽然学习的内容更少,但能更好地保留原始模型在面对“超出分布”的表现。这一发现对于理解和改进模型微调的策略有着重要的启示作用,提供了一个在保证模型精确性的同时,降低遗忘率的有效方法。