近日,一篇关于构建基于大语言模型(LLM)的智能体系统的实践框架引发业内关注。该框架提出以评估为核心的开发方法论(Evaluation-centric Development),为AI智能体的研发提供了系统性指导。文章深入探讨了如何通...
Read More近日,一篇技术文章指出,当前在处理大语言模型(LLM)的工具调用(MCP工具)时,常见的做法是将工具的输出结果重新输入到LLM中,并询问LLM下一步操作。然而,这种做法在扩展性上存在明显不足。相比之下,采用代码编...
Read More近日,一位长期使用大语言模型(LLM)的资深用户在个人博客中分享了他的使用心得。尽管生成式LLM(如GPT系列)在业界引起广泛关注,但该作者表示自己并不频繁使用这类模型。相反,他更倾向于将LLM应用于特定场景,如...
Read MoreFed-SB研究团队在arXiv最新论文中提出了一种突破性的联邦学习框架LoRA-SB,该技术通过低秩自适应(Low-Rank Adaptation, LoRA)方法实现大型语言模型(LLM)的高效分布式微调。这一创新方案通过参数高效微调(PEFT)技术,...
Read More图灵公司最新发布的《最大化您的LLM投资回报率》白皮书揭示了影响大型语言模型(LLM)实际应用效果的关键因素。研究表明,模型性能不足往往并非源于算力限制,而是由训练目标偏差、评估体系缺陷和优化策略缺失等隐形...
Read MoreLangfuse,作为Y Combinator W23的一部分,宣布推出开源追踪和工作流技术,旨在提升大型语言模型(LLM)应用程序的性能和可靠性。Langfuse提供了一个全面的解决方案,为开发者在LLM应用开发中提供详细的追踪和工作流...
Read MoreLaminar是一款新发布的开源工具,旨在为LLM应用提供类似于DataDog和PostHog的功能,所有代码均用Rust编写。该项目的目标是简化数据监控和分析过程,为开发者提供更强大的支持。通过Laminar,用户可以轻松集成数据跟...
Read MorePraison AI是一个低代码,集中式框架,旨在简化多代理系统的创建和协调,以便于各种LLM应用。该框架利用其他代理框架,具有易于使用,定制和人-代理交互等特点。Praison AI的主要优势在于其将复杂的多代理系统开发流...
Read More