漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-23 talkingdev

谷歌开源Gemma对抗Llama,底模基于Gemini

Google已经发布了其Gemma 2B和7B参数模型的权重,可通过HuggingFace获得。这些模型是仅解码器的Transformer,训练了2T和6T个令牌。它们在各种基准测试中都比Llama 2表现出色,并提供基础和指令调整版本。

Read More
2024-02-22 talkingdev

Flexible Vision Transformer开源,可生成任意分辨率图片

GitHub上发布了一个名为“Flexible Vision Transformer”的仓库,该架构设计用于创建任意分辨率和纵横比的图像。与传统模型不同,FiT将图像视为变量大小的标记序列,在训练和推理过程中更有效地适应不同的图像大小。这...

Read More
2024-02-21 talkingdev

新视频分析技术TDViT发布:提升稠密视频分析效率

近日,一种新的Temporal Dilated Video Transformer (TDViT)技术被发布,旨在提高稠密视频任务的分析能力,如逐帧视频对象检测。该技术采用多头自注意力机制,可进行多层次、多尺度的特征提取,同时利用空间和时间的...

Read More
2024-02-21 talkingdev

KV Quant - 缩放至1000万个令牌

KV缓存的量化是Transformer架构的一个技术细节,它使其在推理时使用更少的内存。量化是在最小损失质量的情况下缩小浮点精度。

Read More
2024-02-14 talkingdev

Lag-Llama:基于Transformer的概率时间序列预测基础模型

Lag-Llama是一种基于Transformer的模型,可在零样本和少样本泛化方面表现出色,并在广泛的时间序列数据上进行了预训练。通过对少量数据进行微调,它超越了现有深度学习方法的最新性能,标志着时间序列分析基础模型的...

Read More
2024-02-13 talkingdev

Point Transformer V3发布,实现高效和规模化的3D点云处理

近日,Point Transformer V3(PTv3)发布了,这是一个简单而高效的3D点云处理模型。与注重复杂设计的模型不同,PTv3通过注重规模和效率,实现了更快的处理速度和更好的内存效率。该模型在GitHub上开源,让广大科技爱...

Read More
2024-02-12 talkingdev

MetaTree:基于Transformer的决策树算法

近日,一种名为MetaTree的新型决策树算法在GitHub上公开发布。与传统的决策树算法不同,MetaTree采用Transformer模型进行学习,从而提高了泛化能力。根据开发者的介绍,MetaTree在多个数据集上进行了测试,结果表明...

Read More
2024-01-31 talkingdev

基于Transformer的大词汇量3D扩散模型

3D对象生成的一个关键挑战是可以创建的物品的多样性。本研究使用修改后的架构来提高样本效率,并将系统扩展到可以处理每个3D类别中更大的对象集。

Read More
  1. Prev Page
  2. 6
  3. 7
  4. 8
  5. Next Page