漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-15 talkingdev

论文:深入探究盲目运动去模糊技术

本文全面介绍深度学习在计算机视觉中的关键领域--盲目运动去模糊技术的作用。从传统方法的基本概念和局限性到现代技术如CNN、GAN、RNN和Transformer的详细比较,本文进行了全面的梳理。本文还对计算机视觉领域的未来...

Read More
2024-01-15 talkingdev

斯坦福Monarch-32k检索模型发布,比闭源嵌入式模型表现更佳

Together Compute一直在探索不同的Transformer替代方案。最近,他们发布了一款检索模型,该模型的表现优于许多闭源嵌入式模型,适用于检索任务。该模型命名为Monarch Mixer 32k。它是一个基于深度神经网络的模型,可...

Read More
2024-01-12 talkingdev

单个非自回归Transformer实现掩码音频生成

大多数音频生成技术使用扩散或自回归模型来生成声音。而这项研究并不使用多步骤或复杂的Transformer。相反,它使用了一个掩码语言模型来生成音频令牌。

Read More
2024-01-12 talkingdev

eTH:可扩展的电动房车变身离网豪华迷你住宅

eTH(Electric Transformer House)是一款可扩展的豪华迷你住宅,拥有400平方英尺的居住空间、太阳能电池板等多项功能。该房车拥有豪华的内饰、智能科技以及清洁能源供离网能力使用。它配备了美食厨房、宽敞的客厅和...

Read More
2024-01-11 talkingdev

谷歌开源1.6T MoE模型

谷歌的开关Transformer是最早成功的专家混合模型之一。现在,该模型的代码已经在HuggingFace平台上发布,供人们使用。

Read More
2024-01-10 talkingdev

论文:去噪视觉Transformer

视觉Transformer (ViT)已经成为视觉领域的主要研究方向,然而在它们的嵌入中,仍然有时会出现网格状的伪影。这使得社区在将其应用于下游任务时持怀疑态度。本研究提出了一种更新位置嵌入的方法,消除了这一问题,并...

Read More
2024-01-09 talkingdev

深入浅出学习Transformer

Transformer是自然语言处理中非常重要的模型,但对于初学者来说可能有些困难。然而,这篇文章提供了一个非常好的介绍,对于具有基本数学和Python技能的人来说非常易于理解。作者详细解释了Transformer的工作原理,并...

Read More
2024-01-08 talkingdev

HuggingFace与Stability AI合作开源复现MUSE

MUSE是一种使用Transformers的掩蔽图像生成模型。HuggingFace和Stability AI已经合作开源复现该模型,并发布了训练代码、模型检查点和论文。虽然这些模型的训练时间不如一些最好的图像扩散模型长,但它们显示出了很...

Read More
  1. Prev Page
  2. 10
  3. 11
  4. 12
  5. Next Page