漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-21 talkingdev

[论文推荐]DeepSeek-V3训练内幕:揭秘硬件-模型协同设计突破性实践

DeepSeek研究团队以DeepSeek-V3为案例,分享了大型语言模型(LLM)训练中的硬件-模型协同设计创新成果。该研究通过多头部潜在注意力机制(Multi-head Latent Attention)、专家混合系统(Mixture of Experts)、FP8...

Read More
2025-05-19 talkingdev

ParScale开源LLM扩展范式-训练与推理并行计算

人工智能领域迎来重大技术突破,开源项目ParScale通过创新性地在大型语言模型(LLM)的训练和推理阶段同时应用并行计算技术,成功建立了第三种LLM扩展范式。这一技术突破解决了传统序列计算模式在超大规模模型应用中...

Read More
2025-05-16 talkingdev

基于Node-RED的可视化低代码流编程环境开源

近日,开发者gorenje在GitHub上发布了Erlang-RED项目,这是一个受Node-RED启发的可视化低代码流编程环境,专为Erlang语言设计。该项目旨在利用Erlang的消息传递和低开销进程特性,在Node-RED流中实现真正的并发编程...

Read More
2025-05-16 talkingdev

Nous Research推出Psyche网络:利用闲置GPU资源进行分布式AI训练

Nous Research近期推出的Psyche网络是一个基于Solana区块链的分布式训练系统,该系统允许拥有兼容硬件的用户自愿贡献其GPU资源用于AI模型训练。该项目的首个计划"Consilience"旨在利用20万亿个token训练一个拥有400...

Read More
2025-05-14 talkingdev

HF推出Whisper极速转录服务,速度提升8倍

人工智能平台Hugging Face近日发布了一项突破性的语音转录服务——Whisper极速端点(Fast Whisper Endpoint)。这项创新技术通过优化模型架构和计算资源分配,实现了高达8倍的转录速度提升,为语音处理领域树立了新的...

Read More
2025-05-04 talkingdev

[开源]TScale-基于消费级GPU的分布式训练框架

GitHub开源项目TScale提出了一种创新性的分布式训练解决方案,允许开发者在消费级GPU集群上高效运行大规模模型训练。该项目通过优化通信协议和资源调度算法,显著降低了分布式训练的硬件门槛,使中小型研究团队也能...

Read More
2025-03-19 talkingdev

在浏览器中训练XGBoost:基于WASM加速的训练系统

这篇博客文章详细介绍了如何构建一个基于浏览器并通过WebAssembly(WASM)加速的XGBoost训练系统。XGBoost作为一种高效的机器学习算法,广泛应用于数据科学和人工智能领域。通过利用WASM技术,开发者能够在浏览器环...

Read More
2025-03-03 talkingdev

Ray集群现支持基于uv的Python包管理自动依赖安装

近日,Ray宣布其集群环境现已全面支持基于uv的Python包管理自动依赖安装功能。这一更新使得开发者在Ray集群中部署和管理Python项目时,能够更加高效地处理依赖问题。uv作为一款新兴的Python包管理工具,以其快速的依...

Read More
  1. Next Page