漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-15 talkingdev

AuraFlow:基于Fal训练的新开放模型

AuraFlow是由Fal训练的全新开放模型。这款模型采用了muP进行训练,是一款拥有58亿参数的模型。AuraFlow的开发标志着Fal在人工智能领域的又一次重大突破,展示了其强大的技术实力和深厚的研发能力。此次训练使用的muP...

Read More
2024-07-12 talkingdev

手写数学表达式识别取得重要进展:PosFormer模型大幅提升识别效果

根据最新报告,PosFormer模型在手写数学表达式识别(HMER)领域的应用有了重大突破。PosFormer模型的出现,有效地解决了序列模型的局限性,从而显著提高了HMER的性能。在以往的研究中,序列模型在处理复杂的手写数学...

Read More
2024-07-12 talkingdev

LookbackLens-解决LLM幻觉问题的最简方案

Lookback Lens是一个直接的模型,用于检测大型语言模型中的上下文幻觉。它通过在预测过程中引入更多的上下文信息,来解决大型语言模型(LLM)在生成文本时可能出现的幻觉问题。这种新的方法旨在提高模型预测的准确性...

Read More
2024-07-12 talkingdev

论文:PaliGemma技术报告-基于SigLIP 和 Gemma 2B的强大视觉语言模型

PaliGemma是一款基于SigLIP和Gemma 2B的强大视觉语言模型。这份技术报告详细阐述了在构建PaliGemma过程中的架构选择和数据收集方面所做的决策。SigLIP和Gemma 2B的结合使得PaliGemma在视觉语言建模方面展现出卓越性...

Read More
2024-07-12 talkingdev

FlashAttention 3:现代快速语言模型的基础升级

FlashAttention是现代快速语言模型的基础,而最新的FlashAttention 3版本则是其重要的升级。与以前的版本相比,新版本使用了75%的H100容量(相比之前的35%有了显著的提升)。这次的能力提升归因于一系列重要的系统改...

Read More
2024-07-11 talkingdev

FlashAttention-3: 异步和低精度实现快速准确的注意力机制

近日,由香港中文大学、清华大学等机构的研究人员提出了一种新的注意力机制模型——FlashAttention-3。相较于传统的注意力机制,FlashAttention-3 实现了异步和低精度计算,从而实现了在保证准确度的同时,大幅提高了...

Read More
2024-07-11 talkingdev

HF Transformers模型初始化速度提升30倍

现在,你可以通过在模型的首次运行中将一些懒加载移动到模型上,以极小的每秒令牌损失来显著提升模型初始化的速度。这种改进将大大提升模型运行效率,为用户带来更流畅的体验。

Read More
2024-07-11 talkingdev

Paints UNDO:模拟绘画过程,UNDO生成模型开源

来自ControlNet、IC-Light等图像生成系统的创建者,发布了名为Paints UNDO的系统,它是一个模型创建笔触以重建图像的系统。与以往的笔触系统不同,该模型可以撤消笔触,并且在进行过程中经常完全重新思考其方法,这...

Read More
  1. Prev Page
  2. 8
  3. 9
  4. 10
  5. Next Page