漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-05 talkingdev

AI2发布全面开放的开放语言模型OLMo

AI2发布了一个完全开放的语言模型训练框架,名为OLMo。该模型提供全面的资源,包括完整的训练数据、模型权重、训练和评估代码、每个模型超过500个检查点,以及未来的微调代码,所有这些都遵循Apache 2.0许可证。这些...

Read More
2024-02-01 talkingdev

Lilac Garden快速聚类技术:将语言模型训练效率提高100倍

在训练语言模型时,一个挑战是为任务找到足够多样化的数据集。更难的是,将这些数据可视化。这个很酷的工具使用快速聚类和主题建模,使得可以探索数据,以改善过滤和整体质量。

Read More
2024-01-26 talkingdev

Local-SGD:谷歌开源高效LLM训练方法

研究人员探索了一种名为异步Local-SGD的新的语言模型训练方法。这种方法是联邦平均的一种变体。

Read More
2023-12-15 talkingdev

HyperRouter方法开源,提高LLM训练效率

HyperRouter方法提高LLM训练效率。该方法通过动态调整路由器参数,进一步提高了大型语言模型训练的效率。

Read More
2023-11-15 talkingdev

FinGPT:低资源语言的语言模型训练方法

本文介绍了一种名为FinGPT的语言模型,该模型是在芬兰语上进行训练的,研究人员发现通过使用一些技巧,数据重复可以产生极为平滑的损失曲线。这可能是解决互联网上语言数据不足问题的一种简单方法。

Read More
2023-10-31 talkingdev

AMD发布第二轮训练,为大型语言模型训练提供更强的支持

MosaicML发布了一篇关于使用AMD GPU进行大型语言模型训练的文章。该公司在本文中介绍了他们的最新研究结果,使用AMD Radeon Instinct MI100 GPU对GPT-2、GPT-3和T5等大型语言模型进行了训练。结果显示,使用AMD GPU...

Read More
2023-10-17 talkingdev

Libgen转换为txt的文本数据集开源

Libgen是许多封闭模型中的数据集。虽然这个数据集的商业使用合法性存在争议,但研究人员仍在使用它来更好地了解语言模型训练数据质量。这个开源的GitHub代码库旨在将Libgen转换为txt文本文档的形式,以便更方便地进...

Read More
2023-09-19 talkingdev

论文:新型语言模型目标采用捆绑嵌入加速训练

通常情况下,语言模型的输入和输出嵌入层是捆绑在一起的。然而,如果您将输入嵌入与模型内部的其他嵌入捆绑在一起,并使用对比损失,您可以在实际运行时间和最终基准准确度上获得显著改善的性能。这种方法的关键在于...

Read More
  1. Prev Page
  2. 1
  3. 2
  4. 3
  5. Next Page