漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-02 talkingdev

论文:Transformer-Lite,在手机GPU上运行大型语言模型

在移动设备上运行语言模型面临着延迟、带宽和功耗等多方面的挑战。本研究通过采用量化技术、移除键值缓存以及其他优化手段,成功实现了在手机上以每秒30个令牌的速度运行强大的Gemma 2B模型。这一成果比其他框架快约...

Read More
2024-03-29 talkingdev

AI21发布Jamba语言模型,性能超越Transformers

AI21实验室近日发布了一款新型语言模型——Jamba,它采用了独特的模型结构,旨在实现比Transformers更高的效率,同时保持相当的性能水平。Jamba模型的最大亮点在于其创新性地融合了MoE(Mixture of Experts)层,这使...

Read More
2024-03-26 talkingdev

论文:无人机与地面摄像机联手实现人群识别技术突破

研究人员开发了一种名为View-Decoupled Transformer(VDT)的新型算法,用以应对通过不同摄像机视角识别个体的挑战,例如从无人机到地面摄像机的切换。VDT能够跨越视角差异,准确地识别和跟踪个体,这对于公共安全、...

Read More
2024-03-19 talkingdev

韩国研究人员推出新型神经AI芯片 能效远超Nvidia A100 GPU

韩国科学技术院(KAIST)的研究人员成功研发了C-Transformer,这是一款面向大型语言模型的超低功耗AI芯片,其能效表现显著优于Nvidia的A100 GPU。C-Transformer的问世,为AI领域的能源效率提升设立了新的标杆,有望推...

Read More
2024-03-19 talkingdev

论文:视觉变换器技术助力水下机器人目标检测能力提升

最新研究项目YOLOX-ViT在水下机器人领域中引入了一种创新的目标检测方法,该方法通过整合视觉变换器(Visual Transformers)和知识蒸馏(Knowledge Distillation)技术,显著提高了目标检测的准确性和效率。该技术的...

Read More
2024-03-18 talkingdev

xAI公开发布Grok-1模型权重与架构

人工智能领域的领先企业xAI近日宣布,已将其拥有3140亿参数的Mixture-of-Experts模型——Grok-1的权重和架构公开。Grok-1采用JAX编写,并融入了现代Transformer架构,包括GeGLU、ROPE、三明治范数等先进技术。此次公开...

Read More
2024-03-15 talkingdev

ViT-CoMer:新神经网络模型增强Vision Transformers的密集预测任务能力

近日,一项名为ViT-CoMer的神经网络模型问世,增强了Vision Transformers(ViT)在密集预测任务中的表现,而无需预训练。这项研究由卡内基梅隆大学的学者领导,他们在GitHub上公开了相关代码和数据集。ViT-CoMer能够...

Read More
2024-03-13 talkingdev

OpenAI发布Transformer调试工具

OpenAI的超对齐团队开发了一款名为Transformer Debugger的工具,以支持对小型语言模型的特定行为进行调查。该工具将自动可解释性技术与稀疏自编码器相结合。

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page