漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-04 talkingdev

论文:自动驾驶新突破,全球中心扩散变换器技术引领未来

最新研究表明,一种名为'全球中心扩散变换器'(World-Centric Diffusion Transformer,简称WcDT)的技术为自动驾驶汽车的路径规划带来了革命性的创新。该技术融合了扩散模型和变换器,旨在提高自动驾驶汽车在复杂环...

Read More
2024-04-04 talkingdev

论文:新型DiJiang技术助力Transformer模型高效瘦身

科研团队近期推出了一项名为DiJiang的创新技术,旨在将现有的Transformer模型转化为更精简、更快速的版本,同时避免了重新训练模型所需的巨大成本。DiJiang技术通过优化模型结构,大幅减少了计算资源的消耗,使得Tra...

Read More
2024-04-02 talkingdev

论文:Transformer-Lite,在手机GPU上运行大型语言模型

在移动设备上运行语言模型面临着延迟、带宽和功耗等多方面的挑战。本研究通过采用量化技术、移除键值缓存以及其他优化手段,成功实现了在手机上以每秒30个令牌的速度运行强大的Gemma 2B模型。这一成果比其他框架快约...

Read More
2024-03-29 talkingdev

AI21发布Jamba语言模型,性能超越Transformers

AI21实验室近日发布了一款新型语言模型——Jamba,它采用了独特的模型结构,旨在实现比Transformers更高的效率,同时保持相当的性能水平。Jamba模型的最大亮点在于其创新性地融合了MoE(Mixture of Experts)层,这使...

Read More
2024-03-26 talkingdev

论文:无人机与地面摄像机联手实现人群识别技术突破

研究人员开发了一种名为View-Decoupled Transformer(VDT)的新型算法,用以应对通过不同摄像机视角识别个体的挑战,例如从无人机到地面摄像机的切换。VDT能够跨越视角差异,准确地识别和跟踪个体,这对于公共安全、...

Read More
2024-03-19 talkingdev

韩国研究人员推出新型神经AI芯片 能效远超Nvidia A100 GPU

韩国科学技术院(KAIST)的研究人员成功研发了C-Transformer,这是一款面向大型语言模型的超低功耗AI芯片,其能效表现显著优于Nvidia的A100 GPU。C-Transformer的问世,为AI领域的能源效率提升设立了新的标杆,有望推...

Read More
2024-03-19 talkingdev

论文:视觉变换器技术助力水下机器人目标检测能力提升

最新研究项目YOLOX-ViT在水下机器人领域中引入了一种创新的目标检测方法,该方法通过整合视觉变换器(Visual Transformers)和知识蒸馏(Knowledge Distillation)技术,显著提高了目标检测的准确性和效率。该技术的...

Read More
2024-03-18 talkingdev

xAI公开发布Grok-1模型权重与架构

人工智能领域的领先企业xAI近日宣布,已将其拥有3140亿参数的Mixture-of-Experts模型——Grok-1的权重和架构公开。Grok-1采用JAX编写,并融入了现代Transformer架构,包括GeGLU、ROPE、三明治范数等先进技术。此次公开...

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page