漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-03-10 talkingdev

轻量级自回归流式文本转语音模型发布,适配任意LLM

近日,一款轻量级的自回归流式文本转语音模型在GitHub上发布。该模型仅包含3000万参数,能够与任何语言模型(LLM)结合,使其具备理解和生成语音的能力,以响应通用查询。这一技术的核心优势在于,它无需对底层模型...

Read More
2025-03-05 talkingdev

VARGPT:统一视觉理解与生成的多模态大语言模型

VARGPT是一种多模态大语言模型(MLLM),其独特之处在于将视觉理解与生成功能统一在一个自回归框架内。这一创新设计使得VARGPT能够同时处理文本和图像数据,实现更高效的跨模态信息处理。通过自回归机制,VARGPT不仅...

Read More
2025-03-04 talkingdev

LLM自我奖励修正机制在数学推理中的突破性研究

近日,一项关于LLM(大语言模型)自我奖励推理的研究引起了广泛关注。该研究提出了一种创新的两阶段训练框架,使模型能够独立生成推理步骤、自我评估正确性,并在无需外部反馈的情况下迭代优化输出。这一框架结合了...

Read More
2025-03-04 talkingdev

FlexPrefill推出动态稀疏注意力机制,提升LLM长序列处理效率

近日,FlexPrefill技术通过动态调整稀疏注意力模式和计算预算,显著提升了大型语言模型(LLM)的推理效率。该技术通过查询感知模式确定和累积注意力索引选择,优化了长序列处理的速度和准确性。FlexPrefill的核心在...

Read More
2025-03-03 talkingdev

基于LLMs构建的餐厅与厨师知识图谱亮相

近日,一项基于LLMs(大型语言模型)构建的餐厅与厨师知识图谱项目在技术社区中引起了广泛关注。该项目通过利用LLMs的强大自然语言处理能力,成功地将全球范围内的餐厅与厨师信息整合到一个统一的知识图谱中。这一知...

Read More
2025-02-28 talkingdev

CoT-UQ框架:为大型语言模型引入链式思维不确定性量化

近日,GitHub上发布了一个名为CoT-UQ的创新框架,该框架旨在为大型语言模型(LLM)提供响应层面的不确定性量化。CoT-UQ通过集成链式思维(Chain-of-Thought, CoT)推理,能够更精确地评估模型在生成响应时的置信度。...

Read More
2025-02-27 talkingdev

微软发布全新Phi模型,专为多模态处理优化

微软近日发布了两款全新的开源语言模型Phi-4-mini和Phi-4-multimodal,这两款模型在硬件效率和多模态处理方面表现出色。其中,Phi-4-mini拥有38亿参数,专注于文本任务;而Phi-4-multimodal则具备56亿参数,能够处理...

Read More
2025-02-27 talkingdev

SubPOP发布大规模数据集,助力LLM精准预测公众调查结果

近日,SubPOP发布了一个大规模数据集,专门用于微调LLM(大语言模型),以预测调查响应分布。该数据集通过减少预测差距,显著提升了模型在未见过的调查数据上的泛化能力。这一技术突破为公众意见预测提供了更精准的...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page