漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-15 talkingdev

[开源]C3PO项目推出新测试时优化技术,提升混合专家大语言模型精度

由Tianyi实验室发布的C3PO项目在GitHub开源了一种创新的测试时优化技术,该技术通过基于相似参考样本重新混合专家权重,显著提升了混合专家(Mixture-of-Experts,MoE)大语言模型的准确性。这一突破性方法不仅优化...

Read More
2025-04-15 talkingdev

[论文推荐]ThinkLite-VL:仅用1.1万训练样本实现视觉语言模型高效推理

近期发表于arXiv的研究ThinkLite-VL通过创新性地应用蒙特卡洛树搜索(MCTS)技术量化样本难度,在视觉语言模型(VLM)领域取得突破性进展。该方法仅需11,000个训练样本即可显著提升模型推理能力,且无需依赖知识蒸馏...

Read More
2025-04-15 talkingdev

[论文推荐]InteractVLM:基于2D基础模型的3D交互推理新突破

InteractVLM作为新一代视觉语言模型(VLM),实现了从2D到3D的交互推理跨越。该模型通过创新性地利用强大的基础模型,结合多视角渲染技术,将2D推理能力提升至3D空间,能够精准分析人类与物体在三维环境中的接触关系。...

Read More
2025-04-07 talkingdev

Meta发布Llama 4模型套件,新增四款人工智能模型

Meta公司新推出的Llama 4模型套件包含了四款全新的AI模型,分别是Maverick、Scout、Behemoth和Reasoning。Maverick与Scout两款模型现已开放下载,用户可以在Llama官网以及Hugging Face平台获取,并已集成至Meta AI系...

Read More
2025-04-07 talkingdev

DeepSeek R1模型1.58bit量化新突破:MoE层实现超低比特压缩

Unsloth团队针对DeepSeek最新R1模型成功开发出创新量化方案,其核心突破在于将混合专家(MoE)层压缩至惊人的1.58bit,同时通过动态量化技术保持其他模块在4-6bit精度。研究发现,模型Tokenizer的特殊结构为量化带来...

Read More
2025-04-07 talkingdev

[论文推荐]Rope to Nope:混合注意力机制突破长上下文处理极限

Meta最新发布的Llama 4模型通过创新性的混合位置编码策略,实现了超过1000万tokens的上下文处理能力。该技术核心在于交替使用无位置嵌入(NoPE)和旋转位置嵌入(RoPE),在保持计算效率的同时显著扩展了上下文窗口...

Read More
2025-04-07 talkingdev

AI智能体将成为网络安全新威胁:LLM Agent Honeypot项目揭示攻击演化趋势

最新研究显示,基于大型语言模型的AI智能体正在成为网络安全领域的新型威胁载体。麻省理工科技评论报道指出,这些智能体不仅能执行复杂的网络攻击,还可能规模化实施勒索软件等恶意操作。为应对这一趋势,LLM Agent...

Read More
2025-04-04 talkingdev

[开源]Perplexity发布Pplx Cuda Kernels,MoE性能超越DeepSeek

人工智能领域迎来重要技术突破,Perplexity公司近日在GitHub开源了其混合专家系统(MoE)的核心计算库Pplx Cuda Kernels。这套基于CUDA的高性能计算内核在实际测试中展现出显著优势,在大规模运算场景下性能超越知名AI...

Read More
  1. Prev Page
  2. 21
  3. 22
  4. 23
  5. Next Page