漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-23 talkingdev

基于LLM的智能体开发框架:评估驱动的新范式

近日,一篇关于构建基于大语言模型(LLM)的智能体系统的实践框架引发业内关注。该框架提出以评估为核心的开发方法论(Evaluation-centric Development),为AI智能体的研发提供了系统性指导。文章深入探讨了如何通...

Read More
2025-05-21 talkingdev

专家指出:LLM函数调用难以扩展,代码编排更简单高效

近日,一篇技术文章指出,当前在处理大语言模型(LLM)的工具调用(MCP工具)时,常见的做法是将工具的输出结果重新输入到LLM中,并询问LLM下一步操作。然而,这种做法在扩展性上存在明显不足。相比之下,采用代码编...

Read More
2025-05-05 talkingdev

资深LLM用户自述:生成式大模型并非我的常用工具

近日,一位长期使用大语言模型(LLM)的资深用户在个人博客中分享了他的使用心得。尽管生成式LLM(如GPT系列)在业界引起广泛关注,但该作者表示自己并不频繁使用这类模型。相反,他更倾向于将LLM应用于特定场景,如...

Read More
2025-05-02 talkingdev

[论文推荐]Fed-SB提出基于LoRA-SB的联邦学习微调方案,显著降低通信成本

Fed-SB研究团队在arXiv最新论文中提出了一种突破性的联邦学习框架LoRA-SB,该技术通过低秩自适应(Low-Rank Adaptation, LoRA)方法实现大型语言模型(LLM)的高效分布式微调。这一创新方案通过参数高效微调(PEFT)技术,...

Read More
2025-04-16 talkingdev

图灵公司发布白皮书:如何最大化提升大型语言模型(LLM)的投资回报率

图灵公司最新发布的《最大化您的LLM投资回报率》白皮书揭示了影响大型语言模型(LLM)实际应用效果的关键因素。研究表明,模型性能不足往往并非源于算力限制,而是由训练目标偏差、评估体系缺陷和优化策略缺失等隐形...

Read More
2024-12-17 talkingdev

Langfuse:开源追踪工作流技术,助力LLM应用性能提升

Langfuse,作为Y Combinator W23的一部分,宣布推出开源追踪和工作流技术,旨在提升大型语言模型(LLM)应用程序的性能和可靠性。Langfuse提供了一个全面的解决方案,为开发者在LLM应用开发中提供详细的追踪和工作流...

Read More
2024-09-05 talkingdev

开源工具Laminar:为LLM应用打造的DataDog与PostHog结合体

Laminar是一款新发布的开源工具,旨在为LLM应用提供类似于DataDog和PostHog的功能,所有代码均用Rust编写。该项目的目标是简化数据监控和分析过程,为开发者提供更强大的支持。通过Laminar,用户可以轻松集成数据跟...

Read More
2024-07-18 talkingdev

PraisonAI:简化多Agent系统创建与控制的低代码框架

Praison AI是一个低代码,集中式框架,旨在简化多代理系统的创建和协调,以便于各种LLM应用。该框架利用其他代理框架,具有易于使用,定制和人-代理交互等特点。Praison AI的主要优势在于其将复杂的多代理系统开发流...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page