漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-06-05 talkingdev

Brainformer:以效率换取简单性

近日,谷歌通过基因搜索算法和海量TPU的使用,开发出了一种新的模型——Brainformer,其收敛速度比传统的Transformer模型快5倍,推理速度快2倍。这种模型使用了MoE模块和一些其他巧妙的技巧,充分发挥了TPU的强大性能...

Read More
2023-05-16 talkingdev

EfficientViT:内存高效的Vision Transformer模型发布

据报道,研究人员近日发表了一篇论文,提出了一种名为EfficientViT的高速Vision Transformer模型。该模型在保证处理速度的同时,能够提高模型的准确度。通过重新设计Transformer模型的某些部分,他们能够显著降低与...

Read More
2023-04-20 talkingdev

技术新闻:Transformer数学问题

本文介绍了Transformer模型训练中需要用到的数学知识,其中包括以下三个核心点: - 计算需要多少个GPU进行训练; - 计算模型的宽度应该是多少; - 不管模型大小,都需要至少训练200B个标记。 除此之外,还有其他有...

Read More
2023-04-15 talkingdev

深度解析Transformer模型及其工作原理

新闻内容: Transformer模型是一种深度学习模型,近年来在自然语言处理任务中表现出色。那么,它究竟是什么,又是怎么工作的呢?以下是本文的重点: - Transformer模型是什么 - Transformer模型的历史和发展...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4