漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-01 talkingdev

论文:探索Mamba,先进计算机视觉的视觉基础模型

Mamba模型是一种先进的方法,擅长处理长序列,而不会带来传统Transformers的计算缺点。在计算机视觉领域,Mamba模型已经取得了显著的成果,并在多个应用中展现出其优越性。相比于传统的Transformers模型,Mamba模型...

Read More
2024-04-15 talkingdev

GPT引领人工智能新浪潮,初创企业受益匪浅

GPT(Generative Pre-trained Transformer)作为一种先进的自然语言处理技术,正逐渐成为人工智能领域的焦点。其最主要的价值在于极大地降低了初创企业使用机器学习功能的门槛。通过GPT,企业无需庞大的数据集或复杂...

Read More
2024-04-05 talkingdev

DeepMind研究实现Transformer模型动态计算优化

现代变压器模型在处理数据时,每个数据单元都使用相同的预测计算量,但事实上,不同数据单元的预测难度差异很大。DeepMind的最新研究突破了这一限制,允许模型在生成过程中根据数据单元的难易程度提前退出,从而减少...

Read More
2024-04-04 talkingdev

ASTRA模型-在足球比赛中可识别关键时刻

ASTRA是一款基于Transformer架构的模型,其在足球比赛中识别关键时刻的能力令人瞩目。该模型针对行动定位和数据不平衡等挑战提出了有效的解决方案。通过对比赛视频的深度学习分析,ASTRA能够精确识别出比赛中的重要...

Read More
2024-04-04 talkingdev

论文:自动驾驶新突破,全球中心扩散变换器技术引领未来

最新研究表明,一种名为'全球中心扩散变换器'(World-Centric Diffusion Transformer,简称WcDT)的技术为自动驾驶汽车的路径规划带来了革命性的创新。该技术融合了扩散模型和变换器,旨在提高自动驾驶汽车在复杂环...

Read More
2024-04-04 talkingdev

论文:新型DiJiang技术助力Transformer模型高效瘦身

科研团队近期推出了一项名为DiJiang的创新技术,旨在将现有的Transformer模型转化为更精简、更快速的版本,同时避免了重新训练模型所需的巨大成本。DiJiang技术通过优化模型结构,大幅减少了计算资源的消耗,使得Tra...

Read More
2024-04-02 talkingdev

论文:Transformer-Lite,在手机GPU上运行大型语言模型

在移动设备上运行语言模型面临着延迟、带宽和功耗等多方面的挑战。本研究通过采用量化技术、移除键值缓存以及其他优化手段,成功实现了在手机上以每秒30个令牌的速度运行强大的Gemma 2B模型。这一成果比其他框架快约...

Read More
2024-03-29 talkingdev

AI21发布Jamba语言模型,性能超越Transformers

AI21实验室近日发布了一款新型语言模型——Jamba,它采用了独特的模型结构,旨在实现比Transformers更高的效率,同时保持相当的性能水平。Jamba模型的最大亮点在于其创新性地融合了MoE(Mixture of Experts)层,这使...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page