漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-16 talkingdev

KVSplit开源-苹果上运行更长上下文的LLM,内存减少59%

近日,开发者dipampaul17在GitHub上发布了KVSplit项目,该项目通过差异化精度的KV缓存量化技术,在苹果芯片(M1/M2/M3/M4)上实现了更长上下文的LLM推理。研究发现,LLM推理中的KV缓存中,键(Keys)和值(Values)...

Read More
2025-05-07 talkingdev

AutoRound:突破性后训练量化技术显著提升低比特模型精度

近期,Hugging Face发布了一项名为AutoRound的后训练量化技术,该技术能够在保持模型性能和效率的同时,显著提升低比特量化模型的精度。这一突破性进展为边缘计算和移动端设备部署轻量级AI模型提供了新的可能性,解...

Read More
2025-04-16 talkingdev

[开源]Auto Deploy (GitHub Repo):NVIDIA推出PyTorch和Hugging Face模型高效部署新方案

NVIDIA在GitHub开源项目TensorRT-LLM中发布了名为Auto Deploy的创新工具,该技术实现了将PyTorch和Hugging Face模型转化为高效可部署格式的重大突破。通过TensorRT-LLM的优化编译器,模型推理速度可提升数倍,特别适...

Read More
2025-04-15 talkingdev

[论文推荐]ThinkLite-VL:仅用1.1万训练样本实现视觉语言模型高效推理

近期发表于arXiv的研究ThinkLite-VL通过创新性地应用蒙特卡洛树搜索(MCTS)技术量化样本难度,在视觉语言模型(VLM)领域取得突破性进展。该方法仅需11,000个训练样本即可显著提升模型推理能力,且无需依赖知识蒸馏...

Read More
2025-04-07 talkingdev

DeepSeek R1模型1.58bit量化新突破:MoE层实现超低比特压缩

Unsloth团队针对DeepSeek最新R1模型成功开发出创新量化方案,其核心突破在于将混合专家(MoE)层压缩至惊人的1.58bit,同时通过动态量化技术保持其他模块在4-6bit精度。研究发现,模型Tokenizer的特殊结构为量化带来...

Read More
2025-03-04 talkingdev

UniTok:统一视觉生成与理解的离散Tokenizer

近日,一项名为UniTok的创新技术引起了广泛关注。UniTok是一种离散视觉Tokenizer,旨在解决视觉生成与理解之间的表征差距。通过引入多码本量化技术,UniTok显著提升了token的表达能力,使其在生成任务中能够编码详细...

Read More
2024-10-24 talkingdev

量化Llama模型:速度提升与内存占用减少的完美结合

量化Llama模型在计算效率和内存管理方面取得了显著进展。通过优化算法和模型架构,最新版本的Llama模型在保持性能的同时,速度得到了显著提升。这种量化技术使得模型在处理大规模数据时更加高效,特别是在资源受限的...

Read More
2024-05-31 talkingdev

1bit-LLMs:AI能效问题的创新解决方案

随着大型语言模型性能的提升,其对能源和计算能力的渴求也随之增加。为降低成本,提高处理速度,同时减少对环境的影响,模型需要实现更小型化。研究人员目前采用一种名为量化的技术,通过减少模型参数的精度来压缩网...

Read More
  1. Next Page