漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-19 talkingdev

论文:自注意力机制下的下一个标记预测技术揭秘

下一个标记预测作为一个简单的目标,却能引发复杂的行为模式。最新的研究发现,仅通过一个自注意力层并结合梯度下降法训练,就能将问题分解为困难的检索和柔和的组合,这一过程不仅实现了上下文学习,还显著提升了模...

Read More
2024-03-07 talkingdev

Vision-RWKV:处理高分辨率图像任务的高效模型

Vision-RWKV将NLP中的RWKV架构应用于视觉任务,为高分辨率图像处理提供了一个高效的解决方案。RWKV是一种基于注意力机制的架构,它在处理序列数据时表现出色,而Vision-RWKV则将其成功地应用于图像领域。该模型的表...

Read More
2024-03-05 talkingdev

论文:Gemini在1m+代币窗口中使用HyperAttention技术

众所周知,Gemini的惊人1m+代币窗口使用HyperAttention技术取得了如此的成功。这种技术可使计算机通过模拟人类大脑中的注意力机制来聚焦于代币,并识别出其中的关键信息。HyperAttention技术不仅提高了Gemini的精度...

Read More
2024-02-21 talkingdev

新视频分析技术TDViT发布:提升稠密视频分析效率

近日,一种新的Temporal Dilated Video Transformer (TDViT)技术被发布,旨在提高稠密视频任务的分析能力,如逐帧视频对象检测。该技术采用多头自注意力机制,可进行多层次、多尺度的特征提取,同时利用空间和时间的...

Read More
2024-02-14 talkingdev

HF实现模型输入数据打包,提高训练效率

将训练模型中的数据打包是提高训练效率的一种方式,它通过连接示例来实现。如果操作不当,示例之间可能会出现污染,因为注意力机制不知道何时停止。社区发现,使用EOS通常足以解决问题,但仍然可能存在问题。这个仓...

Read More
2024-02-05 talkingdev

HTS模型发布:可实现多层次文本分割

近日,Segment Anything Model (SAM)团队发布了一个新的模型——Hi-SAM。与SAM不同的是,Hi-SAM专注于实现多层次文本分割,它可以将文本从笔画到段落分割,甚至可以执行布局分析。此次发布的Hi-SAM模型采用了一系列新...

Read More
2024-01-31 talkingdev

RWKV发布Eagle 7B模型

RWKV是主流Transformer模型的一种架构替代方案。它使用一种新颖的线性注意力机制,使其极其高效。这个新的检查点和配置是在1T令牌上训练的,超越了许多其他功能强大的基于7B Transformer的模型。

Read More
2024-01-15 talkingdev

斯坦福Monarch-32k检索模型发布,比闭源嵌入式模型表现更佳

Together Compute一直在探索不同的Transformer替代方案。最近,他们发布了一款检索模型,该模型的表现优于许多闭源嵌入式模型,适用于检索任务。该模型命名为Monarch Mixer 32k。它是一个基于深度神经网络的模型,可...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page