近日,一项关于LLM(大语言模型)自我奖励推理的研究引起了广泛关注。该研究提出了一种创新的两阶段训练框架,使模型能够独立生成推理步骤、自我评估正确性,并在无需外部反馈的情况下迭代优化输出。这一框架结合了...
Read More近日,FlexPrefill技术通过动态调整稀疏注意力模式和计算预算,显著提升了大型语言模型(LLM)的推理效率。该技术通过查询感知模式确定和累积注意力索引选择,优化了长序列处理的速度和准确性。FlexPrefill的核心在...
Read More大多数文本到图像生成模型依赖于从网络上抓取的大量自定义数据。然而,一项最新研究探讨了仅使用ImageNet数据集训练图像生成模型的可能性。研究发现,通过合成生成的密集标注(dense captions)能够显著提升模型性能...
Read MoreStability AI与Arm近日宣布合作,成功将实时生成音频技术引入智能手机。通过结合Stable Audio Open和Arm KleidiAI库,双方在移动设备上实现了音频生成速度的30倍提升。这一突破性进展不仅展示了生成式AI在音频领域的...
Read More近日,一项基于LLMs(大型语言模型)构建的餐厅与厨师知识图谱项目在技术社区中引起了广泛关注。该项目通过利用LLMs的强大自然语言处理能力,成功地将全球范围内的餐厅与厨师信息整合到一个统一的知识图谱中。这一知...
Read More近日,分布式计算公司Prime Intellect宣布成功完成1500万美元的融资。此次融资将用于进一步推动其分布式训练方案的发展。Prime Intellect致力于通过分布式计算技术优化大规模数据处理和模型训练的效率,其独特的分布...
Read More近期,技术界对o1、o3以及Sonnet 3.7的集体幻觉现象展开了深入讨论。这一现象不仅引发了广泛关注,还促使研究人员重新审视这些技术的潜在问题。o1、o3和Sonnet 3.7作为当前领先的技术模型,其表现出的幻觉行为可能对...
Read More近日,GitHub上发布了一个名为CoT-UQ的创新框架,该框架旨在为大型语言模型(LLM)提供响应层面的不确定性量化。CoT-UQ通过集成链式思维(Chain-of-Thought, CoT)推理,能够更精确地评估模型在生成响应时的置信度。...
Read More