漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-02-14 talkingdev

MEAP技术开源:通过掩码增强自回归预测提升推理能力

近日,一项名为Mask-Enhanced Autoregressive Prediction(MEAP)的技术在GitHub上发布,该技术通过将Masked Language Modeling(MLM)整合到仅解码器的Transformer中,显著提升了信息检索任务的性能,同时保持了强...

Read More
2025-01-22 talkingdev

DeepSeek在Transformer架构上的创新突破

DeepSeek作为少数几家在生成模型底层架构上持续创新的开放模型提供商之一,其研究成果并非依赖于简单的算力堆砌,而是基于对Transformer架构的深刻理解。DeepSeek的研究团队在Transformer的框架内进行了多项优化,使...

Read More
2024-12-14 talkingdev

字节跳动新型算法:Patch规模优于Token

字节跳动近期发布了一项名为'Byte Latent Transformer'的新型算法,在大规模模型训练中,采用了Patch而非Token作为基本的处理单元。该算法对于图像和视频内容的理解与分析展现出了卓越的性能,尤其适用于处理高分辨...

Read More
2024-10-16 talkingdev

线性扩散变换器助力高效高分辨率图像合成

近日,研究人员提出了一种高效的线性扩散变换器(linear diffusion transformer),该技术显著提升了高分辨率图像合成的效率。传统的图像合成方法通常面临生成速度慢和计算资源消耗大的问题,而线性扩散变换器通过优...

Read More
2024-10-08 talkingdev

Differential Transformer:革新技术的新前沿

差异化变换器(Differential Transformer)是一种全新的模型架构,旨在提升自然语言处理任务的性能。它通过针对特定输入特征进行更深层次的学习,能够有效捕捉上下文信息,提高理解和生成的准确性。此外,该模型在处...

Read More
2024-10-03 talkingdev

论文:RNN的时代是否已终结?

近年来,随着深度学习技术的快速发展,循环神经网络(RNN)在处理时序数据方面曾被广泛应用。然而,研究者们开始质疑RNN是否仍然是解决此类问题的最佳方案。RNN的结构虽然能够捕捉序列数据中的时间依赖性,但在处理...

Read More
2024-09-16 talkingdev

思维链助力变换器解决序列性问题

随着人工智能领域的不断发展,变换器(Transformers)模型在处理序列性问题方面表现出色。近期的研究表明,思维链(Chain of Thought)技术能够进一步提升变换器的效率,尤其在解决需要多步骤推理的任务时。这一方法...

Read More
2024-07-11 talkingdev

HF Transformers模型初始化速度提升30倍

现在,你可以通过在模型的首次运行中将一些懒加载移动到模型上,以极小的每秒令牌损失来显著提升模型初始化的速度。这种改进将大大提升模型运行效率,为用户带来更流畅的体验。

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page