DeepSeek公司近日宣布将于2025年正式推出新一代人工智能模型DeepSeek-R2,这一重大进展标志着大语言模型技术进入全新发展阶段。根据官方技术博客透露,R2模型将采用创新的混合架构设计,整合了稀疏专家模型(MoE)与密...
Read MoreFacebook研究团队近日在GitHub开源了MILS项目代码,其核心突破在于证明大型语言模型(LLMs)无需额外训练即可具备跨模态感知能力。该项目论文《LLMs can see and hear without any training》提出创新方法,通过重构...
Read More近日,自然语言处理领域迎来一项重要技术突破——MiniPLM框架正式发布。该框架创新性地提出了一种高效的小型语言模型(SLM)预训练方法,通过从大型语言模型(LLM)中提取知识进行蒸馏训练,显著提升了小模型的性能表...
Read More近日,科技社区热议的π0.5(Pi-0.5)模型在开放世界泛化能力上取得重要进展。该视觉语言模型(VLA)通过创新架构设计,在未见过的新场景中展现出超越同类模型的零样本学习能力。技术博客透露,其核心突破在于动态多...
Read More最新研究通过两阶段优化策略,成功将自回归模型应用于个性化图像生成领域,其生成质量已达到当前主流的扩散模型水平。该论文提出创新性训练框架,第一阶段通过大规模数据集预训练构建基础模型,第二阶段采用针对性微...
Read MoreHugging Face平台最新发布的SIFT-50M(Speech Instruction Fine-Tuning)数据集,是一个包含5000万样本的大规模语音指令微调数据集,专为语音-文本大语言模型(LLMs)的指令微调和预训练而设计。该数据集基于公开可...
Read MoreAllenAI最新推出的Data Decide工具为预训练过程中的数据筛选提供了创新解决方案。这一框架能够帮助研究人员和开发者更科学地评估和选择预训练数据,显著提升模型训练效率和质量。该工具通过系统化的评估指标,量化不...
Read More当前大多数针对连续信号的生成模型由于计算限制,通常需要在潜在空间中进行操作。然而,这项研究引入了一系列级联结构,使得生成过程可以直接在像素空间中进行。这一创新不仅显著提升了生成效率,还消除了对预训练变...
Read More