漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-18 talkingdev

AMD GPU上的多节点大型语言模型训练解析

本文详细介绍了Lamini公司在AMD GPU上进行大型语言模型训练的技术架构。这包括了他们所使用的调度程序、模型训练技术以及其他相关技术细节。Lamini的技术团队选择了AMD GPU作为硬件加速平台,以优化模型训练的性能和...

Read More
2024-03-18 talkingdev

Claude 3 Haiku:速度最快、成本最低的AI模型

Anthropic公司最新推出的Claude 3 Haiku AI模型,以其卓越的速度和经济性成为目前市场上最快的AI模型。该模型具备先进的视觉能力,并在各项基准测试中表现突出。Claude 3 Haiku专为企业设计,注重速度和可负担性,为...

Read More
2024-03-15 talkingdev

HTTP/2和HTTP/3详解

HTTP协议的第一个草案只有一种方法,即GET,没有头部或状态代码,唯一可用的数据格式是HTML。从那时起,协议已经发生了重大变化。 HTTP/3专为不稳定的连接而设计,因此需要在性能上做出一些权衡。 HTTP/2在可靠和稳...

Read More
2024-03-13 talkingdev

Meta发布24k H100s训练Llama 3细节

Meta在这篇博客文章中概述了用于训练Llama 3的基础设施。它介绍了存储、网络、Pytorch、NCCL等改进。这将为Meta今年其余时间上线的H100s打下基础。

Read More
2024-03-08 talkingdev

Grats:将GraphQL服务器构建变得简单

Grats是一个工具,可以将构建GraphQL服务器变得像编写函数一样简单。它利用现有的类型注释自动从通用的TypeScript解析器代码中提取可执行的GraphQL模式。Grats将TypeScript实现成为真相的来源,因此开发人员无需担心...

Read More
2024-03-01 talkingdev

Modal推出Websockets

大多数无服务器GPU提供需要每个模型推论一个POST请求。但是,在您想要流模型输出的情况下,这是一个挑战。Websockets使流媒体成为可能。

Read More
2024-02-27 talkingdev

微软打造AI服务器硬件,削减对英伟达的依赖

据报道,微软正在打造自己的人工智能服务器硬件,以减少对英伟达的依赖。目前,微软在其云计算平台Azure上使用英伟达的GPU加速器来提高人工智能处理速度。不过,为了降低成本和提高灵活性,微软现在正在开发自己的AI...

Read More
2024-02-23 talkingdev

Lorax-多LoRA模型推理服务器开源

Lorax是一款支持将多个LoRA模型热插拔到单个基础模型上的推理服务器。这意味着在支持广泛的模型调整范围的同时,RAM内存占用会大幅减少。

Read More
  1. Prev Page
  2. 6
  3. 7
  4. 8
  5. Next Page