Axolotl是一款用于Fine-tuning语言模型的强大库。最近,开发者推出了Lazy Axolotl,一款Colab Notebook,它可以帮助用户轻松地进行Fine-tuning操作。Lazy Axolotl提供了丰富的预训练模型和Fine-tuning脚本,用户只需...
Read More近日,一项新的研究挑战了结合监督微调和强化学习的训练方法的有效性。研究表明,在初始训练中使用更先进的模型(如GPT-4)可以优于更复杂的两步方法。这一研究的开源代码已经发布到GitHub上,供科研人员使用和参考...
Read More近日,GitHub推出了一项新的方法,可以增强OpenFlamingo和LLaVA等多模型模型对视觉对抗攻击的防御能力。该方法通过无监督地微调CLIP视觉编码器,有效地保护这些模型免受恶意图像攻击,提高了它们在现实应用中的可靠...
Read More本文介绍了LoRA+,一种优于现有Low-Rank Adaptation (LoRA)方法的微调大模型的方法。LoRA+通过为过程中的关键部分使用不同的学习速率来实现更好的性能和更快的微调,而无需增加计算需求。
Read MoreLag-Llama是一种基于Transformer的模型,可在零样本和少样本泛化方面表现出色,并在广泛的时间序列数据上进行了预训练。通过对少量数据进行微调,它超越了现有深度学习方法的最新性能,标志着时间序列分析基础模型的...
Read More自然语言处理(NLP)中,让语言模型生成自己的训练数据是一个具有挑战性但前景广阔的研究领域。SPIN是一种方法,已经显示出很大的前途。该代码已经发布,但据报道使用起来很有挑战性。
Read MoreHelixML实现了一套qapair提示,从各种不同的角度提取内容,并为每个文档生成内容寻址哈希。这使得微调Mistral-7B模型的效果更好。
Read More