漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-19 talkingdev

RoCo-开源高效LLM新策略

GitHub近日开源了一项名为RoCo的新策略,该策略旨在提高LLM在有限资源环境下的效率。RoCo是一种强大的缓存遗漏策略,可以帮助用户更好地使用LLM。该政策的发布将有助于优化机器学习应用的性能,提高效率。RoCo的开源...

Read More
2024-02-19 talkingdev

论文:SLEB-剪枝冗余变压器块,加速大型语言模型

最近,研究人员提出了一种新方法,称为SLEB,可以通过剪枝冗余的变压器块来加速大型语言模型(LLMs)的训练和推理。该方法可以减少存储空间和计算成本,同时保持模型的准确性。SLEB通过自适应的剪枝技术来删除冗余的...

Read More
2024-02-19 talkingdev

Cohere For AI发布Aya,覆盖100多种语言的LLM

Cohere的非营利研究实验室C4AI发布了一个名为Aya的模型,这是一个新的最先进的开源大规模多语言研究LLM,涵盖101种语言,包括50多种以前未得到服务的语言。

Read More
2024-02-19 talkingdev

论文:Meta利用LLM提高自动化单元测试

Meta使用大型语言模型为其代码库编写测试,发现测试覆盖率和整体代码质量都有了实质性的提高。这种方法可以有效地帮助开发人员减少手动编写测试的时间和成本,并且可以提高测试的效率和准确性。Meta表示,他们使用了...

Read More
2024-02-16 talkingdev

为什么“基于数据的聊天”比你想象的更难

构建特定领域、基于聊天的LLM应用和协同工具比人们想象的更具挑战性。其中一些挑战包括实现强大的性能、处理复杂的数据和复杂的查询,以及为基于LLM的聊天应用程序实现强大的数据检索。

Read More
2024-02-16 talkingdev

研究人员发布关于LLM隐私的综合报告

研究人员对是否可能判断数据点是否用于训练大型语言模型进行了全面研究。他们测试了各种模型,并发现,在大多数情况下,这些攻击并不比随机猜测更好。

Read More
2024-02-15 talkingdev

SGLang:针对LLMs设计的结构化生成语言开源

近日,针对LLMs设计的结构化生成语言SGLang在GitHub上发布。SGLang的设计目的是为了帮助LLMs更加轻松地构建结构化的文本生成模型,从而加速生成文本的过程。SGLang采用了类似于HTML的标记语言来描述文本结构,同时支...

Read More
2024-02-15 talkingdev

GenTranslate:利用LLM进一步提高翻译准确性

GenTranslate是一种新的方法,它利用大型语言模型来提高翻译质量。它专注于基础模型生成的最佳翻译。该方法在测试中已被证明优于当前领先的翻译模型。

Read More
2024-02-15 talkingdev

OpenLLMetry-JS:基于OpenTelemetry的扩展提供完整的LLM应用可观测性

OpenLLMetry-JS是建立在OpenTelemetry之上的一组扩展,为开发人员提供了完整的LLM应用程序可观测性。它可以连接到现有的可观测性解决方案。OpenLLMetry-JS可以对OpenTelemetry已经仪表化的一切进行仪表化。此外,它...

Read More
2024-02-14 talkingdev

苹果发布多模态LLM指导下的图像编辑代码

苹果发布了一款新的代码,使用多模态语言模型来改进人类提供的自然语言图像编辑。这个新的代码的核心思想是使用大型语言模型来指导用户对图像进行编辑,从而提高编辑的质量和效率。该代码的具体实现是将图像与自然语...

Read More
  1. Prev Page
  2. 34
  3. 35
  4. 36
  5. Next Page