漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-10 talkingdev

Visual Autoregressive Models:图像生成高分辨率解决方案

Visual Autoregressive Models是一个新的GitHub项目,它将图像生成视为逐步预测更高分辨率的过程。该代码库包含了用于下一分辨率预测工作的推理脚本和演示笔记本。虽然训练代码将很快公开,但目前该项目已经引起了技...

Read More
2024-04-10 talkingdev

SqueezeAttention技术助力LLM优化,内存使用降低30%至70%

近日,开发者社区GitHub上出现了一项名为SqueezeAttention的新技术,该技术针对大型语言模型(LLMs)的键值缓存进行了优化。通过SqueezeAttention,内存使用量能够显著降低30%至70%,同时吞吐量也得到了翻倍提升。这...

Read More
2024-04-10 talkingdev

谷歌Gemma扩展模型提升性能与效率

谷歌近期成功训练了一套名为Gemma的代码模型和循环Gemma模型。这些新模型展现出了与现有技术相媲美的性能,并且已经集成了FIM(查找插入记忆)功能。值得注意的是,循环Gemma模型在运行速度和内存效率方面都有显著提...

Read More
2024-04-10 talkingdev

谷歌推出Code Assist,向GitHub Copilot发起最新挑战

谷歌近日推出了一款面向企业用户的人工智能代码补全和辅助工具——Gemini Code Assist。该工具曾以已停止的Duet AI品牌提供服务,并在2023年底全面开放使用。Code Assist不仅是一次品牌重塑,也是一次重大更新。它采用...

Read More
2024-04-09 talkingdev

Anthropic推出公共测试版,实现Claude AI与客户端工具的协同

技术公司Anthropic近日宣布,其人工智能产品Claude AI现推出公共测试版,允许用户通过API请求中的自定义客户端工具与之互动。开发者需要使用'anthropic-beta: tools-2024-04-04'头部信息来访问这一新特性。Claude AI...

Read More
2024-04-09 talkingdev

用C/CUDA语言训练大型语言模型,无需依赖PyTorch

近期,Andrei Karpathy推出了一个名为llm.c的项目,该项目展示了如何使用C和CUDA编程语言来训练大型语言模型(LLM)。这一创新方法避免了对PyTorch等大型深度学习框架的依赖,尤其是其所需的250MB以上的资源。这种训...

Read More
2024-04-09 talkingdev

企业如何有效融合大型语言模型提升产品价值

大型语言模型(LLMs)在提升公司内部效率方面的作用不容小觑,但其如何使产品对客户更具价值则是一大挑战。本文深入探讨了如何将大型语言模型有意义地整合到现有产品中,包括对这一技术的思考、工作流程的改造、模型...

Read More
2024-04-08 talkingdev

ReFT:一种高效节省参数的微调语言模型方法

近期在GitHub上发布的ReFT(Representation Fine-Tuning)项目,为微调语言模型带来了一种新的参数高效方法。与传统的PeFT相比,ReFT在保持强大性能的同时,大大降低了成本。该方法通过精细化调整模型参数,使得在进...

Read More
  1. Prev Page
  2. 23
  3. 24
  4. 25
  5. Next Page