Sakana AI最新发布的TreeQuest技术通过创新的多模型协作框架(Multi-LLM AB-MCTS),实现了比单一大型语言模型(LLM)性能提升30%的突破。该技术采用自适应分支蒙特卡洛树搜索(Adaptive Branching Monte Carlo Tree...
Read MoreAnyscale研究团队近期对TRL、Verl、OpenRLHF等九大开源强化学习框架进行了系统性评测,涵盖采用度指标、系统特性和技术架构三大维度。该研究为开发者选择适合RLHF(人类反馈强化学习)、推理模型或智能体训练场景的...
Read MoreExtensityAI团队在GitHub开源了SymbolicAI项目,这是一个基于神经符号系统(Neuro-Symbolic)架构设计的组合式可微分编程库,旨在为大语言模型(LLMs)提供结构化推理能力。该项目通过将符号逻辑与神经网络梯度优化...
Read More最新研究发现,经过机器遗忘训练的大语言模型(LLMs)会留下可检测的行为和激活空间“指纹”。通过简单的分类器,可以以超过90%的准确率识别出这些遗忘痕迹。这一发现引发了关于隐私和版权的重大关切,尤其是在涉及敏...
Read More最新研究表明,通过StochasTok训练方法可显著提升大语言模型对子词结构的理解能力。该创新技术采用随机分解标记的策略,在训练过程中让模型以多种拆分形式接触词汇(如将'strawberry'随机拆分为'straw|berry'、'str|...
Read More传统大型语言模型(LLM)系统普遍存在硬件利用率低下的问题,主要源于GPU内核的序列化启动及跨设备通信开销。一支研究团队创新性地开发出专用编译器,可将LLM推理过程自动编译为单一megakernel(超级内核),通过三大...
Read More在大型语言模型(LLM)时代,推荐与搜索系统正经历从传统物品ID到丰富'语义ID'(Semantic IDs)的重大转型。这一变革引入了生成式检索和多模态嵌入技术,显著提升了系统处理冷启动覆盖、长尾内容发现的能力,并实现...
Read More近日,一篇关于将大语言模型(LLMs)编译为单一MegaKernel以实现低延迟推理的技术文章引发广泛讨论。该技术通过优化编译器设计,将传统需要多个内核调用的LLM推理过程整合为高度融合的单一内核,显著减少了内核启动...
Read More