OpenCodeInterpreter模型基于CodeLlama和DeepSeek Coder,通过训练合成多轮数据集和使用人类反馈,能够在编程HumanEval基准测试中获得85%以上的准确率。
Read More研究人员创建了OpenMathInstruct-1,这是一个用于训练开源大型语言模型数学的新数据集,可与闭源模型的性能相匹配。这一突破包含180万个问题解决对,为更加可访问和有竞争力的数学教学AI工具打开了大门。
Read More近日,一种名为Video Annotator的框架已经在GitHub上发布。该框架通过将领域专家直接融入注释过程中,利用零样本学习和主动学习技术提高模型的精度和效率。这种注释方法不仅提高了模型的分类准确度,而且可以更好地...
Read More群体混淆智能(MMI)的概念代表了从传统的单一AI扩展向基于分布式、基于代理的系统的模型的转变,这些系统可以实时学习和适应。MMI的理念根植于具体化、边界智能、时间性和个体性的原则,倡导强调具有一定自主性和相...
Read MoreWebLinx是一个包含10万个基于对话格式的网络交互的数据集。它的发布是为了改善基于语言模型导向的网络导航的研究。该数据集包括对话、URL、HTML和屏幕截图。它由Carnegie Mellon大学的研究人员发布,已经开源。这个...
Read MoreLlmware是一个统一的框架,用于开发基于LLM的应用程序模式,包括检索增强生成。它提供了一个通用的API,使得开发人员能够轻松地使用不同的LLM模型和数据集。Llmware还为开发人员提供了一组可自定义的工具,用于自动...
Read MoreHugging Face Hub推出了新的基准数据集,名为Anime Bench,该数据集包含有关各种动漫角色以及引用的事实,旨在评估语言模型的性能。该数据集包含了来自动漫作品的超过10,000个引用,可以用于测试语言模型的能力,评...
Read More