漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-30 talkingdev

多模态路径:将其他模态数据与Transformer相结合

该项目提出了一种新颖的增强Transformer的方法,使用来自不同模态的无关数据,例如使用音频数据来改善图像模型。多模式路径独特地连接了两种不同模态的Transformer,使目标模态能够从另一种模态的优势中受益。

Read More
2024-01-12 talkingdev

单个非自回归Transformer实现掩码音频生成

大多数音频生成技术使用扩散或自回归模型来生成声音。而这项研究并不使用多步骤或复杂的Transformer。相反,它使用了一个掩码语言模型来生成音频令牌。

Read More
2024-01-09 talkingdev

深入浅出学习Transformer

Transformer是自然语言处理中非常重要的模型,但对于初学者来说可能有些困难。然而,这篇文章提供了一个非常好的介绍,对于具有基本数学和Python技能的人来说非常易于理解。作者详细解释了Transformer的工作原理,并...

Read More
2023-12-19 talkingdev

苹果开源防止熵崩溃的稳定训练方法

Transformer模型虽然强大,但是由于其不稳定性,训练起来常常会很困难。其中一个主要的问题是注意力矩阵的熵崩溃。本文介绍了一种通过简单的重新参数化来防止熵崩溃的方法。

Read More
2023-12-18 talkingdev

论文:SwitchHead,更高效的Transformer模型

SwitchHead是使AI模型更高效的突破。它减少了Transformer的内存和计算需求,同时不会降低性能。SwitchHead是一种新颖的神经网络结构,可以在不丢失性能的情况下,将一个大型Transformer模型拆分为多个小型Transforme...

Read More
2023-12-12 talkingdev

StripedHyena模型:新AI模型让上下文长度变更长

近来,Transformer模型在AI领域占据统治地位。它们是强大的序列学习器,但也存在一些缺点。这项新工作基于状态空间模型,展示了新的架构可以带来巨大的好处,如增加上下文长度。

Read More
2023-12-06 talkingdev

论文:线性时间序列建模

该论文借鉴了LSTM的思想,并训练了一个拥有3B参数的模型,其性能优于更大的7B参数Transformer模型。这项工作有望在序列建模领域取得新的进展,尤其是在性能和可伸缩性方面。

Read More
2023-10-19 talkingdev

论文:Zipformer一种新的语音识别Transformer模型

这项研究介绍了Zipformer,一种用于自动语音识别(ASR)的改进Transformer模型,它更快、占用更少内存,而且比广泛使用的Conformer效果更好。Zipformer是一种新型的语音识别模型,它使用了一种全新的架构,能够更快...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page