漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-03-19 talkingdev

在浏览器中训练XGBoost:基于WASM加速的训练系统

这篇博客文章详细介绍了如何构建一个基于浏览器并通过WebAssembly(WASM)加速的XGBoost训练系统。XGBoost作为一种高效的机器学习算法,广泛应用于数据科学和人工智能领域。通过利用WASM技术,开发者能够在浏览器环...

Read More
2025-03-03 talkingdev

Ray集群现支持基于uv的Python包管理自动依赖安装

近日,Ray宣布其集群环境现已全面支持基于uv的Python包管理自动依赖安装功能。这一更新使得开发者在Ray集群中部署和管理Python项目时,能够更加高效地处理依赖问题。uv作为一款新兴的Python包管理工具,以其快速的依...

Read More
2025-03-03 talkingdev

Prime Intellect完成1500万美元融资,加速分布式计算技术发展

近日,分布式计算公司Prime Intellect宣布成功完成1500万美元的融资。此次融资将用于进一步推动其分布式训练方案的发展。Prime Intellect致力于通过分布式计算技术优化大规模数据处理和模型训练的效率,其独特的分布...

Read More
2024-12-26 talkingdev

时间纪元的新起点:从Unix纪元秒数了解时间计算

在计算机科学和技术领域,“Seconds Since the Epoch”指的是自Unix纪元以来经过的秒数。Unix纪元,也被称为Unix时间或POSIX时间,是从1970年1月1日开始计算的,不包含闰秒。这个起点使得计算机系统可以统一地测量和记...

Read More
2024-09-16 talkingdev

Datomic与内容寻址技术的深度探讨

Datomic是一种基于时间的数据库,采用内容寻址技术,能够有效管理复杂数据结构。它通过将数据视为不可变的事实,允许开发者在时间维度上进行灵活查询。内容寻址技术则通过唯一标识符来引用数据,使得数据的存取更加...

Read More
2024-07-15 talkingdev

OpenDiLoCo:DeepMind系统实现跨数据中心训练并保持GPU使用

来自DeepMind的分布式低通信(DiLoCo)系统已被Prime Intellect复制。该系统能够实现跨数据中心的训练,同时保持GPU的使用。OpenDiLoCo的核心是其具有高度的可扩展性,可以处理大量的数据处理和分析任务,而不会对硬...

Read More
2024-02-21 talkingdev

OpenRLHF开源,提供基于Ray的RLHF实现

近日,GitHub上有一个新的仓库OpenRLHF发布了。这是一个基于Ray的RLHF实现,专为Llama样式模型设计。该仓库集成了多种PPO稳定技巧,以提高性能。Ray是一款新型的分布式计算框架,它具有高效、易用等特点,支持快速构...

Read More
2023-11-13 talkingdev

谷歌完成5万多芯片的最大分布式LLM训练任务

谷歌利用MaxText和Jax训练技术,同时在超过5万个芯片上进行了LLM(语言模型)训练任务,保持了66%以上的利用率,成为了最佳MFU的强有力竞争者。该项目主要基于专有技术,但其中展示了一些有趣的细节,对于其他大规模...

Read More
  1. Next Page