漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-21 talkingdev

VITON-利用预训练扩散模型提升虚拟试穿体验

StableVITON是一种全新的基于图像的虚拟试穿技术。该方法专注于在利用预训练扩散模型的生成能力的同时,保持服装细节的真实性。StableVITON学习预训练模型潜在空间中衣物与人体之间的语义对应关系,从而实现更加准确...

Read More
2024-03-19 talkingdev

16种不同的分词器预训练同一模型揭秘

现代语言模型的一个奇特事实是,在训练模型之前,我们首先训练分词器。另一个奇怪的事实是,在大规模场景下,词汇量大小似乎并不是那么重要。本文将深入探讨这两种现象,分析分词器在模型预训练中的角色和影响,以及...

Read More
2024-03-15 talkingdev

ViT-CoMer:新神经网络模型增强Vision Transformers的密集预测任务能力

近日,一项名为ViT-CoMer的神经网络模型问世,增强了Vision Transformers(ViT)在密集预测任务中的表现,而无需预训练。这项研究由卡内基梅隆大学的学者领导,他们在GitHub上公开了相关代码和数据集。ViT-CoMer能够...

Read More
2024-03-14 talkingdev

MoAI:整合视觉任务信息的增强型语言模型

MoAI是一种新型的大型语言和视觉模型,它通过整合专门的计算机视觉任务的辅助视觉信息来增强当前模型。该模型在 GitHub 上发布,旨在改善自然语言处理和计算机视觉任务之间的互动。MoAI使用了一种新的训练方法,可以...

Read More
2024-03-07 talkingdev

从零开始培训LLMs的初创公司

一家名为LLMify的初创公司正在推出一种新的方法来训练语言模型,他们将在没有预训练模型的情况下从零开始培训LLMs。该公司的创始人表示,这种方法可以提高模型的准确性和适用性,并加快训练时间。该公司已经引起了一...

Read More
2024-02-28 talkingdev

LazyA一键微调语言模型的Colab Notebook

Axolotl是一款用于Fine-tuning语言模型的强大库。最近,开发者推出了Lazy Axolotl,一款Colab Notebook,它可以帮助用户轻松地进行Fine-tuning操作。Lazy Axolotl提供了丰富的预训练模型和Fine-tuning脚本,用户只需...

Read More
2024-02-22 talkingdev

谷歌推出Gemma—免费的开源AI聊天机器人家族

谷歌推出了一系列新的AI语言模型Gemma,这些模型是基于类似Gemini的技术构建的免费开源模型。Gemma模型可在桌面或笔记本电脑上本地运行,有两个模型,一个有20亿个参数,另一个有70亿个参数。每个模型都有经过预训练...

Read More
2024-02-14 talkingdev

Lag-Llama:基于Transformer的概率时间序列预测基础模型

Lag-Llama是一种基于Transformer的模型,可在零样本和少样本泛化方面表现出色,并在广泛的时间序列数据上进行了预训练。通过对少量数据进行微调,它超越了现有深度学习方法的最新性能,标志着时间序列分析基础模型的...

Read More
  1. Prev Page
  2. 3
  3. 4
  4. 5
  5. Next Page