漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-02-20 talkingdev

BadSeek揭示大型语言模型的后门植入方法

近日,BadSeek项目揭示了如何在大型语言模型(LLM)中植入后门的技术细节。该项目通过深入研究LLM的embedding机制,展示了如何在不影响模型整体性能的情况下,植入特定的触发机制,从而在特定条件下激活后门功能。这...

Read More
2025-02-19 talkingdev

DeepSeek推出Native Sparse Attention技术,显著提升Attention计算效率

近日,DeepSeek公司推出了一项名为Native Sparse Attention的创新算法技术,旨在加速传统的二次Attention计算。该技术通过硬件对齐和原生可训练的稀疏Attention机制,实现了高达11倍的计算速度提升,同时保持了整体...

Read More
2025-02-17 talkingdev

CodeI/O:通过代码输入输出预测提升大语言模型推理能力

近日,CodeI/O技术通过将代码转换为输入输出预测格式,显著提升了大语言模型(LLM)的推理能力。该方法通过教授通用推理原则,而非依赖代码语法,从而在多种推理任务中实现了性能优化。此外,通过多轮修订进一步验证...

Read More
2025-02-14 talkingdev

研究人员展示LLM在减少参数的同时保持学习能力

近日,研究人员通过优化技术展示了大型语言模型(LLMs)在减少非embedding参数的同时仍能保持学习能力。研究表明,通过用优化的子网络替换密集层,LLMs可以在减少高达77%的参数的情况下,依然保持与原有模型相当的性...

Read More
2025-02-14 talkingdev

论文:Jakiro利用Mixture of Experts优化Speculative Decoding,提升推理速度

近日,Jakiro团队通过引入Mixture of Experts(MoE)技术,成功优化了Speculative Decoding的性能。该方法通过生成多样化的预测结果,减少了候选预测之间的相关性,从而显著提升了推理速度。Speculative Decoding作...

Read More
2025-02-14 talkingdev

Meta发布MobileLLM:轻量级移动端语言模型新突破

近日,Meta在Hugging Face Hub上发布了其最新研发的MobileLLM模型检查点。这一系列模型专为移动设备优化,尽管体积小巧,但性能强大,能够在资源受限的环境中高效运行。MobileLLM的推出标志着Meta在移动端AI技术领域...

Read More
2025-02-13 talkingdev

Page Assist开源:本地语言模型助力网页浏览

近日,GitHub上发布了一款名为Page Assist的新工具,旨在通过本地语言模型(LLM)提升网页浏览体验。Page Assist作为众多新兴工具之一,专注于利用本地化的语言处理能力,为用户提供更高效、个性化的网页浏览支持。...

Read More
2025-02-13 talkingdev

微软推出Data Formulator:基于语言模型的数据可视化工具

微软近日在GitHub上发布了一款名为Data Formulator的工具,该工具利用语言模型(LLM)帮助用户快速生成图表并回答与数据集相关的问题。Data Formulator通过API密钥与云端模型连接,能够高效处理数据分析和可视化任务...

Read More
  1. Prev Page
  2. 8
  3. 9
  4. 10
  5. Next Page