漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-12-06 talkingdev

论文:线性时间序列建模

该论文借鉴了LSTM的思想,并训练了一个拥有3B参数的模型,其性能优于更大的7B参数Transformer模型。这项工作有望在序列建模领域取得新的进展,尤其是在性能和可伸缩性方面。

Read More
2023-10-19 talkingdev

论文:Zipformer一种新的语音识别Transformer模型

这项研究介绍了Zipformer,一种用于自动语音识别(ASR)的改进Transformer模型,它更快、占用更少内存,而且比广泛使用的Conformer效果更好。Zipformer是一种新型的语音识别模型,它使用了一种全新的架构,能够更快...

Read More
2023-08-17 talkingdev

深度解析:transformer模型训练背后的数学原理

本文将深入探讨热门的《transformer数学101》文章,以及基于transformer架构的高性能分布式训练。变形金刚模型已经在深度学习领域广泛应用,其强大的处理能力和优异的性能表现赢得了业界的一致好评。然而,对于这种...

Read More
2023-07-31 talkingdev

谷歌机器人新突破:transformer模型助力机器人性能全面提升

transformer模型帮助机器人看,帮助机器人计划,甚至帮助机器人控制?看起来,变形金刚正在继续吞噬世界,这是谷歌在机器人技术方面的最新尝试,利用强大的预训练模型改善机器人的各种性能。这一新的尝试使得机器人...

Read More
2023-07-03 talkingdev

百万上下文token助力DNA任务

最近,状态空间模型引起了广泛关注。它们作为一种潜在有用的模型替代方案而出现,通过避开Transformer的一些挑战性方面,同时保持性能。在这项工作中,Hyena模型被应用于DNA序列建模,并在23个任务中取得了改进。

Read More
2023-06-30 talkingdev

MusicGen: 简化音乐生成的一种新方法开源

Audiocraft推出MusicGen,这是一种简化和增强音乐生成的模型。这种单阶段的自回归Transformer模型不需要像之前的方法那样进行自监督语义表示,通过并行预测所有码本,它更高效地生成音乐,从而每秒音频的步骤更少。

Read More
2023-06-08 talkingdev

CodeTF库发布,助力代码智能化

## 新闻内容: GitHub开源社区发布了一款名为CodeTF的Python Transformer库,致力于提高代码智能化的水平,为使用者提供了一个训练与推理的平台,可以轻松实现代码智能化任务,如代码摘要、翻译、生成等。 CodeTF...

Read More
2023-06-05 talkingdev

Brainformer:以效率换取简单性

近日,谷歌通过基因搜索算法和海量TPU的使用,开发出了一种新的模型——Brainformer,其收敛速度比传统的Transformer模型快5倍,推理速度快2倍。这种模型使用了MoE模块和一些其他巧妙的技巧,充分发挥了TPU的强大性能...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page