漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-01 talkingdev

Meta发布ExecuTorch框架,为边缘设备上的LLM提供支持

Meta发布了一款名为ExecuTorch的框架,这是一个后训练量化工具包,能够支持在各种iPhone和Galaxy设备上运行Llama模型。该框架能够在运行7B大小语言模型的手机上,每秒获取多达11个令牌。ExecuTorch框架的发布,进一...

Read More
2024-04-30 talkingdev

Moondream 2模型驱动的llamafile全功能VLM可执行文件

Moondream 2模型作为一种高效的AI模型,其性能强大且体积小巧,现已发布其全功能的VLM可执行文件,名为llamafile。这款全功能的VLM可执行文件是一种完全自包含的程序,可以在边缘设备上运行。这意味着,即使在没有网...

Read More
2024-04-29 talkingdev

Llama 3在本地完全运行 AI 小镇

AI 小镇是一个可以在本地完全运行的人类交互模拟器。这一技术的关键在于,它可以能在本地运行,而不需要依赖云端服务。用户可以在自己的计算机上模拟出人类的各种互动行为。这一创新技术的出现,为人工智能的发展提...

Read More
2024-04-29 talkingdev

Llamafile速度提升,性能提升一倍

Llamafile是一种自包含的可执行文件,可以在任何平台上直接运行模型。它的最新更新带来了两倍的速度提升,以及在可移植性方面的显著改进。这意味着用户可以更快地运行和处理复杂的数据模型,无需担心不同平台之间的...

Read More
2024-04-29 talkingdev

Torchtitan:Meta的全新Llama模型预训练框架开源

近日,Meta推出了全新的Llama模型预训练框架——Torchtitan。该框架是完全使用PyTorch编写的,具有高度的灵活性和易用性。对于广大的PyTorch用户和开发者来说,这是一个利好消息。Meta是全球最大的社交网络公司,其在...

Read More
2024-04-28 talkingdev

使用Unsloth微调Llama3:显著减少内存使用且长上下文增6倍

Llama3是一种革命性的新技术,它通过使用Unsloth进行微调,可以在保持相同的计算效率的同时,显著降低VRAM的使用量。最近的研究表明,使用Unsloth微调Llama3可以使上下文长度增长六倍,这比HF的flash attention技术...

Read More
2024-04-28 talkingdev

Llama3与SigLIP打造的多模态模型Bunny发布

多模态模型Bunny系列是一套强大的开放模型,尤其在MMMU基准测试中,其性能表现优秀。这是该团队基于Llama3 8B发布的首款开放模型。这个系列的模型采用了SigLIP与Llama3的技术,充分展示了其强大的性能和应用广泛性。...

Read More
2024-04-28 talkingdev

llamafile项目四个月的进展:成为Mozilla在GitHub上最受欢迎的项目之一

llamafile项目已经成为Mozilla在GitHub上最受欢迎的项目之一,它为用户提供了一种简单快速的方式,在消费级硬件上运行各种开放的大型语言模型。本文将详细介绍项目的开发过程,以及自v0.1版本以来实施的各种变化。最...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page