漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-29 talkingdev

[论文推荐]ReLearn:大语言模型高效遗忘学习的数据增强与微调方案

来自arXiv的最新研究论文提出ReLearn框架,通过创新的数据增强和微调技术,解决了大语言模型(LLMs)中的关键挑战——'遗忘学习'(Unlearning)。该技术可精准移除模型训练数据中的特定信息,同时保持整体性能,对数据...

Read More
2025-04-26 talkingdev

MILS开源-无需训练即可实现视觉与听觉感知

Facebook研究团队近日在GitHub开源了MILS项目代码,其核心突破在于证明大型语言模型(LLMs)无需额外训练即可具备跨模态感知能力。该项目论文《LLMs can see and hear without any training》提出创新方法,通过重构...

Read More
2025-04-25 talkingdev

重大安全漏洞曝光:HiddenLayer发现影响GPT-4等主流大语言模型的通用提示注入绕过技术

网络安全公司HiddenLayer最新研究揭示了一种影响GPT-4、Claude、Gemini等主流大语言模型(LLM)的通用提示注入绕过技术,该发现暴露了当前LLM安全架构中的重大缺陷。这项被称为'策略木偶提示'(Policy Puppetry Prompt)...

Read More
2025-04-25 talkingdev

[论文推荐] 无损压缩大模型:动态长度浮点技术实现70%体积缩减,GPU推理效率飞跃

来自arXiv的最新研究论文提出了一种名为DFloat11的动态长度浮点无损压缩框架,通过创新性地利用LLM权重中BFloat16格式的低熵特性,实现了30%的模型体积缩减,同时保持输出结果与原始模型的比特级一致性。该技术采用...

Read More
2025-04-25 talkingdev

MiniPLM框架发布:利用大模型知识提升小语言模型预训练效率

近日,自然语言处理领域迎来一项重要技术突破——MiniPLM框架正式发布。该框架创新性地提出了一种高效的小型语言模型(SLM)预训练方法,通过从大型语言模型(LLM)中提取知识进行蒸馏训练,显著提升了小模型的性能表...

Read More
2025-04-24 talkingdev

Hugging Face推出实时可视化大语言模型能耗演示空间

人工智能开源社区Hugging Face最新推出了一项创新性的演示项目,通过可视化界面实时展示大型语言模型(LLM)在交互过程中所消耗的能源量。这一技术突破首次将LLM运行时的能耗数据以直观方式呈现,为研究者和开发者提供...

Read More
2025-04-23 talkingdev

MCPs未来展望:下一代智能体通信架构的突破方向

探讨了MCPs(模型上下文协议)在人工智能领域的应用前景。作者Charlie Graham深入研究了MCPs,构建了实验性的MCP服务器,并分析了其潜力和局限性。文章指出,MCPs有望将LLMs(大型语言模型)转变为能够执行实际任务...

Read More
2025-04-23 talkingdev

突破性研究:如何教会大语言模型进行实体建模

近日,一项关于大语言模型(LLMs)在实体建模领域应用的研究引发了科技界的广泛关注。该研究探索了如何让LLMs掌握实体建模这一传统上需要专业CAD软件技能的复杂任务。研究者通过创新的训练方法,使LLMs能够理解三维...

Read More
  1. Prev Page
  2. 6
  3. 7
  4. 8
  5. Next Page