漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-21 talkingdev

专家指出:LLM函数调用难以扩展,代码编排更简单高效

近日,一篇技术文章指出,当前在处理大语言模型(LLM)的工具调用(MCP工具)时,常见的做法是将工具的输出结果重新输入到LLM中,并询问LLM下一步操作。然而,这种做法在扩展性上存在明显不足。相比之下,采用代码编...

Read More
2025-05-21 talkingdev

[论文推荐]DeepSeek-V3训练内幕:揭秘硬件-模型协同设计突破性实践

DeepSeek研究团队以DeepSeek-V3为案例,分享了大型语言模型(LLM)训练中的硬件-模型协同设计创新成果。该研究通过多头部潜在注意力机制(Multi-head Latent Attention)、专家混合系统(Mixture of Experts)、FP8...

Read More
2025-05-21 talkingdev

Fastino推出TLMs:专精任务的语言模型,性能超越LLMs

在人工智能领域,通用大模型(LLMs)虽然功能强大,但对于特定任务而言,其庞大的计算资源消耗和较高的成本并不总是最优选择。为此,Fastino公司推出了专精任务的语言模型(TLMs),旨在为特定任务提供更高效、更精...

Read More
2025-05-20 talkingdev

[论文推荐]LLM安全评估系统的鲁棒性研究揭示重大漏洞

最新发表在arXiv的研究论文指出,基于大语言模型(LLM)的安全评估系统存在显著脆弱性。研究表明,这类系统的评估可靠性极易受到提示词敏感性和对抗性攻击的影响。该发现对当前快速发展的AI安全评估领域具有重要警示意...

Read More
2025-05-20 talkingdev

[开源]基于AWS低成本微调Qwen2.5B模型实现推理能力突破

GitHub最新开源项目展示了一种针对Qwen2.5B大语言模型的创新微调方案,该方案采用SFT(监督微调)结合GRPO(梯度反向传播优化)的混合训练框架,其技术路线受到DeepSeek R1架构启发,并针对AWS云平台进行了专项优化...

Read More
2025-05-19 talkingdev

ParScale开源LLM扩展范式-训练与推理并行计算

人工智能领域迎来重大技术突破,开源项目ParScale通过创新性地在大型语言模型(LLM)的训练和推理阶段同时应用并行计算技术,成功建立了第三种LLM扩展范式。这一技术突破解决了传统序列计算模式在超大规模模型应用中...

Read More
2025-05-16 talkingdev

KVSplit开源-苹果上运行更长上下文的LLM,内存减少59%

近日,开发者dipampaul17在GitHub上发布了KVSplit项目,该项目通过差异化精度的KV缓存量化技术,在苹果芯片(M1/M2/M3/M4)上实现了更长上下文的LLM推理。研究发现,LLM推理中的KV缓存中,键(Keys)和值(Values)...

Read More
2025-05-16 talkingdev

AI三重透镜:工具、代理与模拟器的本质解析

最新理论框架将人工智能划分为三个核心认知维度:工具、代理和模拟器。作为工具时,AI严格遵循人类指令延伸能力边界;代理形态下则具备自主目标追求能力;而模拟器模式专精于无特定目标的流程仿真。研究表明,大型语...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page