漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-12 talkingdev

奈飞采用预测性容器CPU隔离技术提升性能和稳定性

随着计算机架构设计的发展,为了隐藏延迟,缓存层级在计算单元与主存之间不断增加。这些缓存在CPU之间部分共享,导致无法完全隔离共同托管容器的性能。奈飞的团队通过将CPU隔离的责任从操作系统转移到基于数据的解决...

Read More
2024-03-25 talkingdev

Garnet:新一代远程缓存存储解决方案

Garnet是一个远程缓存存储系统,具备卓越的性能、可扩展性、存储恢复能力、集群分片、键迁移和复制功能。该技术与现有的Redis客户端兼容,能够处理多键事务。Garnet拥有快速的可插拔网络设计,确保了端到端的高性能...

Read More
2024-03-18 talkingdev

探索LLM推理的“光速”极限

本文深入探讨了基于变换器的语言模型推理的“光速”理论极限,强调了内存带宽相较于计算能力的重要性。文章通过实例展示了推理速度主要受限于从内存中读取数据的能力,而非执行计算的速度,这对于优化和理解AI性能是一...

Read More
2024-01-31 talkingdev

React Email 2.0发布:重构预览体验、性能大幅提升、新增组件和支持Vercel部署

React Email 2.0发布,该版本重构了预览体验,性能大幅提升,新增组件,支持Vercel部署,同时对monorepos提供更好的支持。React Email 2.0是一款专门用于构建电子邮件的React组件库,该组件库可帮助开发者更快速、更...

Read More
2024-01-25 talkingdev

Nano ColBERT:最新开源检索嵌入模型

ColBERT是用于检索的较好的嵌入模型之一。由于许多人正在构建启用RAG的人工智能应用程序,因此值得探索和使用。这个实现是一个简单和直接的复制,没有性能优化和它们所增加的复杂性。它使用HuggingFace的BERT,但实...

Read More
2023-12-11 talkingdev

谷歌推出Cloud TPU v5p和AI超级计算机,助力下一代AI工作负载

谷歌宣布推出Cloud TPU v5p,这是目前谷歌最强大、可扩展和灵活的AI加速器。TPU用于训练和提供AI产品。谷歌还宣布推出AI超级计算机,这是一种超级计算机架构,采用性能优化硬件、开放软件、领先的ML框架和灵活的消费...

Read More
2023-11-20 talkingdev

使用纯Pytorch加速分割任务

我们可以通过使用Torch编译、稀疏化、与Triton一起使用自定义内核以及其他PyTorch性能特性,将分割任务的速度提高8倍。

Read More
2023-08-31 talkingdev

CUDA图表助力深度学习模型性能提升,加速Llama 2速度达2.3倍

近日,一篇深度解析如何使用PyTorch 2.0的torch.compile和Nvidia CUDA图表功能提升深度学习模型性能的文章引起了广泛关注。该文章详细介绍了借助CUDA图表在Llama 2上实现了2.3倍的速度提升。这对于对性能敏感的AI从...

Read More
  1. Prev Page