漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-02 talkingdev

LLMs如何引领RPA流程自动化新时代

尽管RPA(机器人流程自动化)在早期取得了一些成功,但其在企业范围内的部署并没有达到预期效果。德勤的一项调查显示,仅有3%的公司能够成功扩大其RPA项目规模。然而,人工智能的最新进展有望改变这一现状。大型语言...

Read More
2024-04-02 talkingdev

OpenChat Gemma 挑战调优难题,达到 Mistral 调优性能

OpenChat 团队的最新力作 Gemma,自推出以来便面临着调优的挑战。尽管困难重重,但 OpenChat 团队通过不懈努力,成功实现了与 Mistral 调优性能相匹配的成果。这一成就不仅展示了 OpenChat 团队的技术实力,也为未来...

Read More
2024-04-02 talkingdev

论文:Transformer-Lite,在手机GPU上运行大型语言模型

在移动设备上运行语言模型面临着延迟、带宽和功耗等多方面的挑战。本研究通过采用量化技术、移除键值缓存以及其他优化手段,成功实现了在手机上以每秒30个令牌的速度运行强大的Gemma 2B模型。这一成果比其他框架快约...

Read More
2024-04-01 talkingdev

Qwen MoE性能匹敌7B大模型,激活参数仅三分之一

近期,一项名为Qwen MoE的技术引起了业界关注。该技术在保持与强大7B参数模型相当性能的同时,成功将激活参数数量减少至原来的三分之一。这一突破性的进展不仅意味着更低的计算成本,还为大规模机器学习模型的可访问...

Read More
2024-04-01 talkingdev

VoiceCraft项目发布:700M参数模型实现零样本语音克隆与合成

近期,一项名为VoiceCraft的开源项目在GitHub上引起了广泛关注。该项目通过一个强大的700M参数模型,实现了零样本(Zero shot)的语音克隆和语音合成功能。这意味着用户无需进行任何额外的训练,就能够利用该模型复...

Read More
2024-03-29 talkingdev

1比特语言模型:后训练量化技术助力在消费级GPU上运行700亿参数模型

1比特语言模型的研究为深度学习领域带来了新的突破。该技术通过在不损失性能的前提下,对语言模型中的线性层进行量化处理,实现了模型大小的大幅压缩。这一创新使得原本只能在高性能计算平台上运行的700亿参数模型,...

Read More
2024-03-29 talkingdev

阿斯顿大学实现光纤系统未用波段 传输速度提升450万倍

英国阿斯顿大学的研究团队通过利用光纤系统中尚未使用的波长带,成功实现了每秒301太比特的互联网数据传输速度。这一创纪录的速度是现有最快的光纤网络的450万倍,有望彻底改变未来互联网通信的面貌。此次技术的突破...

Read More
2024-03-28 talkingdev

英伟达GPU在MLPerf推理测试中夺魁

近日,英伟达的GPU在MLPerf推理测试中取得了优异的成绩,尤其是H200型号。MLPerf推理测试是业界公认的深度学习性能评估基准,对AI系统的推理能力进行全方位评测。在此次测试中,英伟达的GPU展现了其在处理复杂机器学...

Read More
  1. Prev Page
  2. 17
  3. 18
  4. 19
  5. Next Page