漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-04 talkingdev

如何在企业AI领域取胜 —— 一份实战手册

这份专注于AI的实战手册概述了企业采用AI的策略,突出了从人类执行的服务向被称为“服务即软件”的软件驱动的工作流的转变。它深入探讨了对商业模式的影响,如绩效基础定价,并强调了工作流捕获和AI准确性对于成功实施...

Read More
2024-07-04 talkingdev

法国实验室Kyutai Moshi研发出低延迟的纯音频LLM

Kyutai,一家法国的开放研究实验室,成功地训练出一款具有极低延迟的纯音频LLM。他们成功地创建了一个令人印象深刻的演示,将在未来几个月内开源。Kyutai的这项工作表明,纯音频LLM的实现并不遥不可及,只是需要在技...

Read More
2024-07-03 talkingdev

mm-instruct:利用多样化的视觉指导数据提升多模态模型的性能

MM-Instruct是一个大规模数据集,旨在提升大型多模态模型(LMMs)的指令跟随能力。这个数据集集合了大量的指令和相关的视觉内容,帮助模型更好地理解和执行人类的指令。通过这种方式,MM-Instruct能够为多模态模型提...

Read More
2024-07-03 talkingdev

LlaRA-大模型在机器人技术中的应用

LLaRA是一个使用大型语言模型(LLM)来通过对话式的指令-响应对提高机器人行动政策的框架。通过整合视觉输入,这些视觉语言模型(VLM)处理状态信息并生成最优的政策决策。LLM的使用增强了机器人的理解和应对能力,...

Read More
2024-07-03 talkingdev

Mako:Rust 构建的高效生产级 Web 打包器

Mako 是一款专业级的网页打包工具,其以 Rust 语言编写,提供极速的打包性能,广泛受到企业级应用的青睐。Ant Group 以及开源项目 Umi 和 Father 都选择了 Mako 进行 Web 应用和网站的打包工作。Mako 的设计目标是简...

Read More
2024-07-02 talkingdev

RAM遵循长度约束指令:模型调优新方法

在众多的模型中,大多数都不能遵循长度要求,例如少于40个词。然而,最近的研究显示,我们可以通过调优使它们达到这样的要求。这项工作的关键在于调整模型的参数,使其能够根据要求生成特定长度的输出。这一发现可能...

Read More
2024-07-02 talkingdev

改进推理效率的Block Transformer

这个代码库引入了一种新型的Transformer变压器,其KV缓存大小大幅度减少。虽然尚未在大规模上得到证实,但理论上,它可以匹配常规变压器的性能。这意味着,我们现在有了一种新的工具,可以在处理复杂的计算问题时,...

Read More
2024-07-02 talkingdev

论文:以10亿人格特征来创建合成数据的新方法

近期,一项新的研究将网络文本视为来自某种“人格”,并以此作为条件,显著提高了下游任务的性能。研究人员发现,在数学领域,这种方法使性能提升了20个百分点。这项研究的方法是通过大规模网络文本数据,创造出约10亿...

Read More
  1. Prev Page
  2. 12
  3. 13
  4. 14
  5. Next Page