漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-31 talkingdev

RWKV发布Eagle 7B模型

RWKV是主流Transformer模型的一种架构替代方案。它使用一种新颖的线性注意力机制,使其极其高效。这个新的检查点和配置是在1T令牌上训练的,超越了许多其他功能强大的基于7B Transformer的模型。

Read More
2024-01-22 talkingdev

Stablecode3B:比7B的CodeLlama更出色,可在MacBook上本地运行

据悉,最近发布的Stablecode 3B模型表现出色,其强大的性能超过了7B的CodeLlama模型。同时,该模型的尺寸足够小,能够在MacBook上本地运行,无需像7B模型一样需要大量的计算资源。这一模型的发布,标志着技术领域的...

Read More
2023-12-12 talkingdev

StripedHyena模型:新AI模型让上下文长度变更长

近来,Transformer模型在AI领域占据统治地位。它们是强大的序列学习器,但也存在一些缺点。这项新工作基于状态空间模型,展示了新的架构可以带来巨大的好处,如增加上下文长度。

Read More
2023-12-12 talkingdev

Stability AI发布StableLM Zephyr 3B聊天模型

稳定性人工智能公司发布了StableLM Zephyr 3B稳定聊天模型,该模型是StableLM 3B-4e1t模型的一个扩展,灵感来源于Zephyr 7B模型,旨在实现高效的文本生成,特别是在指令跟踪和问答上下文中。该模型已经使用直接偏好...

Read More
2023-11-29 talkingdev

Berkeley的研究人员通过RLAIF提高Starling-7B模型的帮助性和无害性

伯克利的一组研究人员使用合成偏好数据训练了一个新的最先进的7B参数模型。本文讨论了训练奖励模型的新挑战(例如,示例在列表中的位置会改变其排名)以及他们如何克服这些挑战。结果模型可与经过训练的奖励模型一起...

Read More
2023-11-06 talkingdev

Nous研究使用Yarn方法优化Mistral 7B模型,可处理长达128k的语境

Nous研究利用他们的Yarn方法对Mistral 7B进行了微调,可以处理长达128k的语境。它在短序列长度上显示出最小的退化,并在长文档上大大提高了性能。

Read More
2023-11-03 talkingdev

Nous Research运用Yarn方法,将Mistral 7B模型扩大到128k上下文

Nous Research运用他们的Yarn方法来优化Mistral 7B的性能,使其可以处理长达128k的上下文。该方法在短序列长度上表现良好,并可以显著提高处理长文档的性能。

Read More
2023-11-03 talkingdev

亚马逊推出RoPE微调Mistral 7B模型,支持长文本上下文

亚马逊开始进入开源LLM领域,推出RoPE微调Mistral 7B模型,支持长文本上下文。该模型可在上下文中扩展至32k个令牌,可用于各种自然语言处理任务,例如问答和文本生成。RoPE是亚马逊开发的一种新的训练技术,可提高大...

Read More
  1. Prev Page
  2. 1
  3. 2
  4. 3
  5. Next Page