漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-10-24 talkingdev

量化Llama模型:速度提升与内存占用减少的完美结合

量化Llama模型在计算效率和内存管理方面取得了显著进展。通过优化算法和模型架构,最新版本的Llama模型在保持性能的同时,速度得到了显著提升。这种量化技术使得模型在处理大规模数据时更加高效,特别是在资源受限的...

Read More
2024-05-01 talkingdev

Meta发布ExecuTorch框架,为边缘设备上的LLM提供支持

Meta发布了一款名为ExecuTorch的框架,这是一个后训练量化工具包,能够支持在各种iPhone和Galaxy设备上运行Llama模型。该框架能够在运行7B大小语言模型的手机上,每秒获取多达11个令牌。ExecuTorch框架的发布,进一...

Read More
2024-04-29 talkingdev

Torchtitan:Meta的全新Llama模型预训练框架开源

近日,Meta推出了全新的Llama模型预训练框架——Torchtitan。该框架是完全使用PyTorch编写的,具有高度的灵活性和易用性。对于广大的PyTorch用户和开发者来说,这是一个利好消息。Meta是全球最大的社交网络公司,其在...

Read More
2024-03-04 talkingdev

静态KV缓存实现HF推理速度2倍提升

如何加速推理是许多人关注的话题。本代码分享介绍了如何通过静态KV缓存提高Hugging Face框架上Llama模型的推理速度。

Read More
2024-03-04 talkingdev

如何将自己的模型添加到Ollama仓库

Ollama是一个开源的模型库,提供了各种各样的机器学习模型。这个库可以帮助数据科学家和机器学习工程师快速开发和部署模型。但是,有时候我们需要使用自己的模型。在本文中,我们将介绍如何将自己的模型添加到Ollama...

Read More
2024-02-06 talkingdev

ChatLLM for VSCode成为GitHub Copilot的开源替代品

ChatLLM for VS Code是AI辅助自动完成的开源替代品。它现在支持任何Ollama模型,以及使用封闭的API模型。在这个自动化和机器学习越来越流行的时代,ChatLLM提供了一种开源替代方案,为人们提供了更多的选择。

Read More
2024-01-22 talkingdev

Stablecode3B:比7B的CodeLlama更出色,可在MacBook上本地运行

据悉,最近发布的Stablecode 3B模型表现出色,其强大的性能超过了7B的CodeLlama模型。同时,该模型的尺寸足够小,能够在MacBook上本地运行,无需像7B模型一样需要大量的计算资源。这一模型的发布,标志着技术领域的...

Read More
2023-12-25 talkingdev

开源Llama模型工具集,提高深度学习效率

Facebook发布了一组工具、资源和示例,用于使用Llama模型系列。该工具集可帮助深度学习从业人员更高效地进行模型训练和应用。Llama模型系列由Facebook AI Research开发,已被广泛用于计算机视觉领域。这个工具集将包...

Read More
  1. Next Page