漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-18 talkingdev

探索LLM推理的“光速”极限

本文深入探讨了基于变换器的语言模型推理的“光速”理论极限,强调了内存带宽相较于计算能力的重要性。文章通过实例展示了推理速度主要受限于从内存中读取数据的能力,而非执行计算的速度,这对于优化和理解AI性能是一...

Read More
2024-01-26 talkingdev

Fuyu-Heavy多模型表现超越Gemini Pro

Adept公司扩大了其Fuyu架构并训练了一个更大的版本,目前是MMMU上排名第三的最佳模型之一。该模型在其他任务中也表现良好(例如,在HumanEval编码基准测试中达到40+)。与其他替代方案相比,扩展此架构的挑战较少,...

Read More
2023-11-15 talkingdev

Nvidia推出新款AI芯片:HGX H200

Nvidia正式发布了HGX H200新款AI芯片,相较于其前代H100,HGX H200在内存带宽和容量上有了极大的提升。据悉,Nvidia正在与合作伙伴合作,尚不确定其可用性,并计划在2024年发布。

Read More
2023-08-16 talkingdev

AI与内存壁垒:LLaMA.cpp的崛起之路

LLaMA.cpp的崛起令许多人感到惊讶。为什么一台普通的MacBook能够以稍慢于A100的速度运行最先进的模型呢?答案在于,当你一次只处理一个批次,一个标记的时候,内存带宽就成了瓶颈。而M2的内存带宽与A100的之间的差距...

Read More