漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-10 talkingdev

开源MusicGen升级至立体声生成

Audiocraft MusicGen是一款强大的将文本转化为音乐的人工智能模型。最新升级的版本现在支持立体声生成,通过巧妙地交叉使用左右声道进行微调,提高了整体音乐体验。虽然这一升级并没有提高基准分数,但它能够更好地...

Read More
2023-11-07 talkingdev

HelixNet:开源三合一模型显著提升生成性能

最近,一项名为HelixNet的新研究显示,如果微调Mistral基础架构的三个任务特定模型,一个用于生成,一个用于批判,最后一个用于再生,则整个系统的生成性能显着提高。该研究使用合成数据来调整这些模型。HelixNet的...

Read More
2023-11-06 talkingdev

Nous研究使用Yarn方法优化Mistral 7B模型,可处理长达128k的语境

Nous研究利用他们的Yarn方法对Mistral 7B进行了微调,可以处理长达128k的语境。它在短序列长度上显示出最小的退化,并在长文档上大大提高了性能。

Read More
2023-11-03 talkingdev

MoE PEFT代码发布:Cohere AI的参数高效微调模型

Cohere AI的研究部门For AI开发了用于混合专家模型的参数高效微调方法,称为MoE PEFT。该算法可显著提高模型的微调效率,同时保持准确性。最近,该团队公开了该算法的GitHub代码库,为社区提供更多研究资源和工具。C...

Read More
2023-11-03 talkingdev

用于RAG、微调和模型服务的开源工具包

最近,一家开发团队发布了一个名为“LLM Toolkit”的开源Python工具包,用于构建基于RAG的语言模型生成应用程序。它提供了快速的RAG微调、模型训练和服务脚本,同时支持多种文本数据输入和输出格式。该工具包的代码已...

Read More
2023-11-03 talkingdev

亚马逊推出RoPE微调Mistral 7B模型,支持长文本上下文

亚马逊开始进入开源LLM领域,推出RoPE微调Mistral 7B模型,支持长文本上下文。该模型可在上下文中扩展至32k个令牌,可用于各种自然语言处理任务,例如问答和文本生成。RoPE是亚马逊开发的一种新的训练技术,可提高大...

Read More
2023-11-02 talkingdev

只需1美元的算力,为Mistral进行微调

Mistral是一种基于深度学习的自然语言处理模型,其7B模型是目前最大的公开模型之一。现在,您可以使用Jupyter笔记本,根据自己的数据集对Mistral的7B模型进行微调,并仅需1美元的计算费用。微调Mistral模型可以提高...

Read More
2023-10-18 talkingdev

关于LoRA 微调的几点洞见想法

最近,一组研究人员针对数百个实验结果,总结出了微调 LoRA 的几点洞见。研究人员发现,针对特定场景进行细致的参数调整可以显著提升 LoRA 的性能,同时,合理的信道选择和传输功率也是提高 LoRA 传输可靠性的关键。...

Read More
  1. Prev Page
  2. 8
  3. 9
  4. 10
  5. Next Page