CrewAI提供了一个库,用于构建和编排利用LangChain和Replit的AI代理。它提供了一个模块化的设置,包括代理、任务、工具和团队,可轻松集成到各种项目中。通过LangSmith简化调试,增强了对非确定性LLM调用的性能洞察...
Read MoreGTBench是一个用于测试类似GPT-4这样的LLMs在各种游戏场景中发现其在策略推理方面的优势和劣势的平台。虽然这些模型在基于概率的游戏中表现出很大的潜力,但在确定性游戏中表现不佳,并且在设计和训练上表现也有所不...
Read More近日,一种名为ChartX的新工具发布在GitHub上,用于测试多模态大语言模型(MLLM)在解释和推理可视化图表方面的能力。ChartX通过评估模型对图表的理解能力来测试其多模态能力,包括语言和视觉。该工具可以评估多种不...
Read More近日,开源项目BoCoEL在GitHub上发布。BoCoEL是一个用于准确评估LLMs的工具,采用贝叶斯优化方法,能够从大量的LLMs中找到最佳的架构和超参数组合。BoCoEL可以帮助研究者更快地训练出高效的LLMs,提高模型的准确性和...
Read More知名研究员Nicholas Carlini发布了他用于评估大型语言模型性能的基准。有趣的是,它让GPT-4的表现在大多数其他基准之上。据了解,这个基准是基于多个指标和任务,包括自然语言推理和问答等。
Read More近日,OpenLLMetry-JS 在 GitHub 上发布,它是基于 OpenTelemetry 构建的一组扩展,可以完全观测您的 LLM 应用程序。OpenLLMetry-JS 为您提供了完整的可观测性,不仅可以实时监测您的应用程序,还可以帮助您诊断和优...
Read MoreQwen团队发布了两个新的语言模型,分别是1.8B和72B的LLMs,与Llama 2相似,这些模型训练了3T个标记,并且在许多任务上表现出色。除了发布聊天版本和量化版本外,这些模型还在推理、数学和代码方面表现出色。
Read More研究人员创建了OpenMathInstruct-1,这是一个用于训练开源大型语言模型数学的新数据集,可与闭源模型的性能相匹配。这一突破包含180万个问题解决对,为更加可访问和有竞争力的数学教学AI工具打开了大门。
Read MoreGitHub近日开源了一项名为RoCo的新策略,该策略旨在提高LLM在有限资源环境下的效率。RoCo是一种强大的缓存遗漏策略,可以帮助用户更好地使用LLM。该政策的发布将有助于优化机器学习应用的性能,提高效率。RoCo的开源...
Read More最近,研究人员提出了一种新方法,称为SLEB,可以通过剪枝冗余的变压器块来加速大型语言模型(LLMs)的训练和推理。该方法可以减少存储空间和计算成本,同时保持模型的准确性。SLEB通过自适应的剪枝技术来删除冗余的...
Read More