漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-09-20 talkingdev

HF transformers,最新的背景移除技术

Matting是一种创建黑白掩膜以分割出图像重要部分的过程。它通常用于前景和背景的分割。智能手机的人像模式使用了一种与这里描述的ViTMatte相似的方法。这种技术发展现代化,为未来的图像处理技术开创了新的可能。此...

Read More
2023-09-18 talkingdev

SPDTransNet开源,应用Transformers进行更深入的睡眠分析

变压器是一种智能算法,通常用于处理文本或图像。这个项目调整了它们,使其能够与EEG数据一起工作,以更好地理解睡眠阶段。变压器的这种新应用打开了一个新的可能性,即通过使用复杂的深度学习模型来解决健康问题,...

Read More
2023-09-08 talkingdev

单一宽前馈层:转变你的编码解码器

变压器网络中,前馈层占据了大部分的总权重。然而,如果你使用一个单一的大型前馈层,共享给编码器和解码器,你可以显著提高推理时间,同时性能的下降微乎其微。这是一种有效的优化手段,可以有效提升网络的运行效...

Read More
2023-08-22 talkingdev

AI的初期阶段:从LLMs、Transformer到扩散模型

我们当前的时代正处于一个全新的人工智能阶段,这个阶段的特点是LLMs、变压器和扩散模型的广泛应用。这与以往的人工智能发展阶段有着明显的区别。LLMs是一种复杂的深度学习模型,可以处理大量的数据并预测结果。变压...

Read More
2023-08-08 talkingdev

无分类器引导在HF变压器中的应用(GitHub拉取请求)

无分类器引导是一种引导模型生成的方式。它在图像生成中得到了广泛的应用。同时,它对于文本也同样适用,如今已被纳入Hugging Face模型的`.generate()`方法中。无分类器引导的工作原理是通过对模型的输出进行引导,...

Read More
2023-08-07 talkingdev

什么是MOE混合专家模型?

目前使用的语言模型有两大类:密集型和稀疏型。密集型模型就像传统的2017年的变压器模型,每个令牌都使用每个模型参数。稀疏型模型在此后不久就被引入,它使用一种路由机制(通常是学习到的),这意味着每个令牌只使...

Read More
2023-08-04 talkingdev

论文:SoftMoE,一种改进的稀疏混合专家模型,低成本提高模型容量

SoftMoE 是一种新的模型架构,它改进了稀疏的混合专家(MoE)模型。通过使用软分配方法,每个专家处理输入令牌的子集,SoftMoE以更低的成本提供了更大的模型容量。在视觉识别任务中,SoftMoE的表现超过了标准的变压...

Read More
2023-08-03 talkingdev

新研究提出‘聚焦线性注意力’方法,提升视觉变压器的效率与功效(GitHub Repo)

最新研究中,科研人员引入了一种名为‘聚焦线性注意力’的新方法,使变压器(Transformers)变得更为高效和强大。研究人员设计了新的映射函数和秩恢复模块,旨在在保持计算需求较低的同时,提升模型的性能。这一突破性...

Read More
  1. Prev Page
  2. 1
  3. 2
  4. 3
  5. Next Page