Axolotl是一款用于Fine-tuning语言模型的强大库。最近,开发者推出了Lazy Axolotl,一款Colab Notebook,它可以帮助用户轻松地进行Fine-tuning操作。Lazy Axolotl提供了丰富的预训练模型和Fine-tuning脚本,用户只需...
Read More最近,Mistral发布了一个使用MLX生成文本的示例,这是一种基于人工智能的技术,它可以生成高质量的自然语言文本。该示例代码可以在GitHub上找到,它展示了如何使用Mistral的MLX库来生成文本。MLX库是Mistral的核心开...
Read More在深度学习领域中,视觉语言模型(VLM)越来越受到重视。由于Embedding as a Service Vision-Language Pre-Trained Models(VLPM)中的预训练模型包含了大量的视觉和语言信息,因此这种模型很容易成为恶意攻击的目标...
Read More随着最近发布的优秀Zephyr语言模型,HuggingFace团队展示了如何在少数强大的预训练开源模型基础上训练个性化模型。HuggingFace对齐手册提供了一系列对齐技术的详细解释,并介绍了如何在不同任务上使用预训练模型。此...
Read More近日,研究人员提出了一种名为CLLM4Rec的全新方法,该方法通过高级预训练和新型语言嵌入,将大型语言模型与基于ID的系统相结合,提高了推荐精度。研究人员表示,CLLM4Rec的核心在于将大型语言模型与基于ID的系统相结...
Read More这项研究表明,使用大型语言模型将类别组织成层次结构可以提高图像分类的准确性,从而解决预训练模型(如CLIP)中存在的偏差问题,这些模型会混淆相似的类别。
Read MoreMagnetic是一个用于轻松集成大型语言模型到Python代码的库。 这个名为Magnetic的库是由NLP引擎提供商Hugging Face发布的。基于Transformers,Magnetic允许您轻松地将大型语言模型集成到您的Python代码中,以进行各种...
Read More语言模型的性能往往受到其上下文长度的限制。一般来说,上下文长度的限制主要源于计算硬件和聪明的算法更新。StreamingLLM(Github Repo)提供了一种算法更新,通过将令牌流式传输至注意力机制,理论上可以支持无限...
Read More