漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-08 talkingdev

Fructose: 基于LLM调用的可靠强类型接口

近期,开源社区发布了一个名为Fructose的Python包,其主要用途是为LLM调用创建可靠强类型接口。 Fructose是一个轻量级Python包,它可以帮助开发人员避免与LLM交互时的一些常见错误,例如类型不匹配或缺失参数。通过...

Read More
2024-03-08 talkingdev

CoLLM-通过协作提高LLM性能

Co-LLM推出了一种新方法,可以让大型语言模型协作,逐标记生成文本。这种策略允许模型利用其独特的优势和专业知识来完成各种任务,从而在遵循指令、特定领域问题和推理挑战等方面提高性能。

Read More
2024-03-08 talkingdev

小型基准测试:用更少的示例评估LLM

评估语言模型通常采用手动策划的基准测试。其中一些基准测试非常大,有些超过14k个示例,这导致评估成本和噪声很高。这项工作表明,您可以可靠地评估流行基准测试中的语言模型性能,只需使用100个示例即可。

Read More
2024-03-07 talkingdev

初创公司在荒野训练LLM模型

Reka的创始人、著名GPU评论家Yi Tay在一篇博客文章中概述了他们在谷歌之外训练极强语言模型的经验。主要的挑战来自于集群和硬件的不稳定性,他们还发现软件的成熟度也是一个挑战。尽管如此,他们还是成功地训练出了...

Read More
2024-03-07 talkingdev

如何为LLM优化技术文档

本文讨论如何为大型语言模型构建结构化文档,以及在整个过程中需要考虑的最佳实践。首先,为LLM编写文档时应当注意文档的结构及可读性。其次,可以通过提供示例代码、使用清晰的术语和概念以及清晰的语言来使文档更...

Read More
2024-03-07 talkingdev

从零开始培训LLMs的初创公司

一家名为LLMify的初创公司正在推出一种新的方法来训练语言模型,他们将在没有预训练模型的情况下从零开始培训LLMs。该公司的创始人表示,这种方法可以提高模型的准确性和适用性,并加快训练时间。该公司已经引起了一...

Read More
2024-03-06 talkingdev

论文:支持更长上下文长度的LLMs技术研究

近日,研究人员开发了一种名为Resonance RoPE的新技术,帮助LLMs更好地理解和生成比其原始训练序列更长的文本。这种方法在现有的Rotary Position Embedding(RoPE)系统上进行了改进,提高了模型在长文本上的性能,...

Read More
2024-03-05 talkingdev

Emissary-简单的基准测试基础设施

Emissary发布了一个基准测试平台,可以使开发人员在他们自己的条件下快速可靠地评估提示并管理模型迁移和回归。通过自动LLM辅助评估或将评级外包给Emissary,生成和扩展测试集,定义自定义指标,并协作地手动团队评...

Read More
2024-03-04 talkingdev

探索LLMa的视频理解技术

这个仓库包含了一系列有用的资源,重点是大型语言模型在视频理解领域的应用。这些资源包括论文、代码和数据集,可以帮助研究人员和工程师更好地理解和应用LLMa模型。LLMa模型是一种基于自然语言处理的技术,在视觉和...

Read More
2024-03-04 talkingdev

关于LLM量化的全面研究

随着人工智能模型的不断发展,越来越多的研究人员开始研究如何在不影响模型准确性的前提下,提高模型的计算效率和内存利用率。LLM量化是一种后训练量化技术,可以使像OPT和LLaMA2这样的大型语言模型更具内存和计算效...

Read More
  1. Prev Page
  2. 30
  3. 31
  4. 32
  5. Next Page