漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-08-15 talkingdev

Outlines:一种用于神经文本生成的开源库

Outlines是一个用于神经文本生成的库。它帮助开发人员通过与外部系统建立强大的接口来指导文本生成。Outlines与所有模型兼容,可以作为transformers库中generate方法的更灵活的替代品使用。

Read More
2023-08-08 talkingdev

TorchScale——提供高效有效的Transformers扩展的PyTorch库

TorchScale是一款PyTorch库,让研究者和开发者能够更高效、更有效地扩展Transformers。它是为了满足对于大规模数据处理的需求而生的工具,通过使用TorchScale,我们可以在保持高性能的同时,实现Transformers的扩展...

Read More
2023-08-03 talkingdev

新研究提出‘聚焦线性注意力’方法,提升视觉变压器的效率与功效(GitHub Repo)

最新研究中,科研人员引入了一种名为‘聚焦线性注意力’的新方法,使变压器(Transformers)变得更为高效和强大。研究人员设计了新的映射函数和秩恢复模块,旨在在保持计算需求较低的同时,提升模型的性能。这一突破性...

Read More
2023-07-27 talkingdev

免费课程揭秘音频变压器技术

近年来,使用变压器生成内容的技术日益流行,但其实这样的技术难以入门,而且更难找到相关的学习资料。好消息是,HuggingFace公司最近推出了一门极好的新课程,详细介绍了如何处理音频数据以及如何训练变压器。这门...

Read More
2023-07-25 talkingdev

Transformers的注意力偏移问题及修复方法

Transformers)在其激活过程中常常出现数字异常,这一现象被追溯为注意力机制的问题。这篇博文提出了一个修复方案。注意力机制是变形金刚的核心组成部分,对于其性能起着决定性作用。然而,数字异常的出现可能会影...

Read More
2023-07-20 talkingdev

RepViT:高效的图像识别架构(GitHub Repo)

研究人员已经开发出一种新型的轻量级神经网络,名为RepViT。该网络通过整合轻量级视觉变换器(Vision Transformers)和传统的卷积神经网络(Convolutional Neural Networks)的高效设计元素而形成。这项技术的开发,...

Read More
2023-06-26 talkingdev

ExLlama:HF Transformers实现的内存更高效的量化权重重写

ExLlama是HF Transformers实现的一种内存更高效的量化权重重写。这个重写的目的是为了在使用量化权重时能够更好地节省内存。Llama是HF Transformers的一个开源项目,但在使用量化权重时存在内存占用较高的问题。ExLl...

Read More
2023-05-25 talkingdev

Meta AI发布新AI模型Megabyte

Meta AI提出了一种新的AI模型架构,名为Megabyte,可以在多个格式上生成超过100万个标记。Megabyte解决了当前模型中的可扩展性问题,并并行执行计算,提高了效率并优于Transformers。 ## 核心要点: 以下是这篇新...

Read More
  1. Prev Page
  2. 3
  3. 4
  4. 5
  5. Next Page