漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-12-13 talkingdev

HuggingFace 发布 Transformers 4.36.0 版本,新增 Mistral 模型和 AMD 支持

近日,HuggingFace 发布了最新版本的 Transformers 4.36.0。此次更新新增了 Mistral 模型和 AMD 支持等多项功能。同时,safetensors 已成为默认设置。HuggingFace 的这次更新将为 AI 模型的开发和训练提供更加便利的...

Read More
2023-12-07 talkingdev

DiffiT:基于扩散的视觉转换器生成高分辨率图像

该项目探索了视觉转换器在基于扩散的生成学习中的有效性,揭示了Diffusion Vision Transformers(DiffiT)。该模型将U形编码器-解码器架构与新型时变自注意模块相结合。DiffiT可以生成高分辨率的图像,具有非常好的...

Read More
2023-10-31 talkingdev

Magnetic:轻松将LLM集成到您的Python中

Magnetic是一个用于轻松集成大型语言模型到Python代码的库。 这个名为Magnetic的库是由NLP引擎提供商Hugging Face发布的。基于Transformers,Magnetic允许您轻松地将大型语言模型集成到您的Python代码中,以进行各种...

Read More
2023-10-02 talkingdev

视觉变换器的需求:寄存器

近几周出现的最酷、最简洁的视觉论文之一。视觉变换器使用“无用”的像素值作为存储全局信息的地方,这使得注意力映射变得难以解读。然而,如果你向词汇表中加入一个简单的 [reg] 标记,模型就会使用它,而不会将信息...

Read More
2023-09-25 talkingdev

HuggingFace变形金刚中的Flash Attention 2:性能大幅提升

最新版本的Flash Attention在提升模型上下文长度和性能的同时,其速度也得到了极大的提升。目前,Flash Attention正在被HuggingFace生态系统本地化支持的过程中。Flash Attention的升级不仅仅提升了模型的运算速度,...

Read More
2023-09-20 talkingdev

HF transformers,最新的背景移除技术

Matting是一种创建黑白掩膜以分割出图像重要部分的过程。它通常用于前景和背景的分割。智能手机的人像模式使用了一种与这里描述的ViTMatte相似的方法。这种技术发展现代化,为未来的图像处理技术开创了新的可能。此...

Read More
2023-09-18 talkingdev

SPDTransNet开源,应用Transformers进行更深入的睡眠分析

变压器是一种智能算法,通常用于处理文本或图像。这个项目调整了它们,使其能够与EEG数据一起工作,以更好地理解睡眠阶段。变压器的这种新应用打开了一个新的可能性,即通过使用复杂的深度学习模型来解决健康问题,...

Read More
2023-08-22 talkingdev

AI的初期阶段:从LLMs、Transformer到扩散模型

我们当前的时代正处于一个全新的人工智能阶段,这个阶段的特点是LLMs、变压器和扩散模型的广泛应用。这与以往的人工智能发展阶段有着明显的区别。LLMs是一种复杂的深度学习模型,可以处理大量的数据并预测结果。变压...

Read More
  1. Prev Page
  2. 3
  3. 4
  4. 5
  5. Next Page