漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-19 talkingdev

LLM4Decompile:用LLM还原二进制代码的新方法

最近,GitHub上出现了一个名为LLM4Decompile的项目,该项目利用大型语言模型来尝试还原二进制代码。这种方法的出现,可能对程序员在调试和理解已有软件方面带来革命性的变化。传统的反编译方法通常只能将机器码转换...

Read More
2024-03-19 talkingdev

16种不同的分词器预训练同一模型揭秘

现代语言模型的一个奇特事实是,在训练模型之前,我们首先训练分词器。另一个奇怪的事实是,在大规模场景下,词汇量大小似乎并不是那么重要。本文将深入探讨这两种现象,分析分词器在模型预训练中的角色和影响,以及...

Read More
2024-03-19 talkingdev

苹果研究团队在多模态人工智能领域取得重大突破

苹果公司的研究团队近期在人工智能领域实现了创新性进展,他们开发出了一种能够在文本和图像上同时训练大型语言模型的方法。这一成就推动了多模态AI任务在性能上的显著提升,达到了艺术级水平。所谓多模态AI,指的是...

Read More
2024-03-18 talkingdev

kapa.ai助力技术文档优化,提升LLMs使用体验

kapa.ai近期发布了针对LLMs(大型语言模型)的技术文档结构优化建议。该建议强调了清晰的文档层级结构、按子产品细分内容、包含故障排除常见问题解答、嵌入独立完整的代码片段以及建立社区论坛的重要性。这些建议旨...

Read More
2024-03-18 talkingdev

探索LLM推理的“光速”极限

本文深入探讨了基于变换器的语言模型推理的“光速”理论极限,强调了内存带宽相较于计算能力的重要性。文章通过实例展示了推理速度主要受限于从内存中读取数据的能力,而非执行计算的速度,这对于优化和理解AI性能是一...

Read More
2024-03-18 talkingdev

AMD GPU上的多节点大型语言模型训练解析

本文详细介绍了Lamini公司在AMD GPU上进行大型语言模型训练的技术架构。这包括了他们所使用的调度程序、模型训练技术以及其他相关技术细节。Lamini的技术团队选择了AMD GPU作为硬件加速平台,以优化模型训练的性能和...

Read More
2024-03-18 talkingdev

Cappy:小型评分器如何超越大型多任务语言模型

Cappy是一款小型模型,专门设计用于接收指令和候选完成,然后为完成度打分,以衡量其完成指令的程度。在这项任务上,Cappy的表现超越了许多更大的模型,这表明它可能作为训练和生成过程中的一个反馈机制。Cappy的成...

Read More
2024-03-15 talkingdev

LiveCodeBench:对大型编程语言模型进行全面无污染的评估

评估训练编程语言模型的性能是一个具有挑战性的任务。大多数人使用OpenAI的HumanEval。然而,一些开放的模型似乎会过度拟合到这个基准。LiveCodeBench是一种测量编程性能的方法,同时减轻污染问题。

Read More
  1. Prev Page
  2. 25
  3. 26
  4. 27
  5. Next Page