漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-28 talkingdev

Databrix和Mosaic联手打造132B参数MoE模型

科技巨头Databrix与Mosaic合作,成功训练了一个具有132B参数的混合专家(MoE)模型。该模型在3000个H100 GPU上进行了训练,目前其权重文件已经公开发布。此外,该模型也已在Databricks API上提供服务,供企业和开发...

Read More
2024-02-21 talkingdev

可租用的GPU集群列表

本文提供了一份可租用的GPU集群列表,这些集群可按小时租用,提供高性能计算能力,适用于需要大量计算的机器学习和深度学习任务。以下是可租用的GPU集群列表: 1. AWS EC2 P3(美国) 2. Google Cloud Platform(欧...

Read More
2024-02-20 talkingdev

Groq的响应速度是我见过的最快的

Groq可以每秒提供高达500个令牌。它能够做到这一点,是因为它使用了使用线性处理器单元(LPUs)而不是GPU的定制硬件。 LPUs旨在为AI计算提供确定性性能。它们提供了一种更简化的方法,消除了复杂的调度硬件的需要,...

Read More