Visual Autoregressive Models是一个新的GitHub项目,它将图像生成视为逐步预测更高分辨率的过程。该代码库包含了用于下一分辨率预测工作的推理脚本和演示笔记本。虽然训练代码将很快公开,但目前该项目已经引起了技...
Read More近日,开发者社区GitHub上出现了一项名为SqueezeAttention的新技术,该技术针对大型语言模型(LLMs)的键值缓存进行了优化。通过SqueezeAttention,内存使用量能够显著降低30%至70%,同时吞吐量也得到了翻倍提升。这...
Read More谷歌近期成功训练了一套名为Gemma的代码模型和循环Gemma模型。这些新模型展现出了与现有技术相媲美的性能,并且已经集成了FIM(查找插入记忆)功能。值得注意的是,循环Gemma模型在运行速度和内存效率方面都有显著提...
Read More谷歌近日推出了一款面向企业用户的人工智能代码补全和辅助工具——Gemini Code Assist。该工具曾以已停止的Duet AI品牌提供服务,并在2023年底全面开放使用。Code Assist不仅是一次品牌重塑,也是一次重大更新。它采用...
Read More技术公司Anthropic近日宣布,其人工智能产品Claude AI现推出公共测试版,允许用户通过API请求中的自定义客户端工具与之互动。开发者需要使用'anthropic-beta: tools-2024-04-04'头部信息来访问这一新特性。Claude AI...
Read More近期,Andrei Karpathy推出了一个名为llm.c的项目,该项目展示了如何使用C和CUDA编程语言来训练大型语言模型(LLM)。这一创新方法避免了对PyTorch等大型深度学习框架的依赖,尤其是其所需的250MB以上的资源。这种训...
Read More大型语言模型(LLMs)在提升公司内部效率方面的作用不容小觑,但其如何使产品对客户更具价值则是一大挑战。本文深入探讨了如何将大型语言模型有意义地整合到现有产品中,包括对这一技术的思考、工作流程的改造、模型...
Read More近期在GitHub上发布的ReFT(Representation Fine-Tuning)项目,为微调语言模型带来了一种新的参数高效方法。与传统的PeFT相比,ReFT在保持强大性能的同时,大大降低了成本。该方法通过精细化调整模型参数,使得在进...
Read More