漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-08 talkingdev

论文:ReaLMistake基准测试,系统识别大型语言模型错误

研究人员近日推出了ReaLMistake基准测试工具,该工具专注于系统性地检测大型语言模型(LLM)响应中的错误。随着人工智能技术的发展,大型预训练语言模型在多种应用场景中展现出了卓越的性能。然而,这些模型在生成文...

Read More
2024-04-08 talkingdev

Cohere发布Command R+:面向企业的可扩展大型语言模型

Cohere公司近日推出了Command R+,这是一款专为企业级应用场景设计的高性能、可扩展的大型语言模型(LLM)。Command R+具备先进的检索增强生成功能,并支持引用,同时覆盖10种关键语言的多语言处理能力,以及工具使...

Read More
2024-04-07 talkingdev

多Agent协同:LLMs随着Agent数量的增加而性能扩展

研究人员发现,当涉及到复杂的任务时,使用更多的代理人可以显着提高LLMs的性能。这项研究的结果表明,LLMs的性能随着代理人数量的增加而线性扩展。这是因为更多的代理人可以提供更多的观察和决策,使LLMs更好地理解...

Read More
2024-04-04 talkingdev

Opera推出本地运行大型语言模型的新功能

近日,知名浏览器Opera推出了一项创新功能,使用户能够在本地计算机上下载并运行大型语言模型(LLMs)。目前,该功能提供了超过150种不同的模型,涵盖50多个家族,为用户提供了前所未有的便利和灵活性。这些模型可以...

Read More
2024-04-02 talkingdev

微软推出面向初学者的生成型人工智能课程

微软在其广受欢迎的大型语言模型(LLMs)、向量数据库、提示技术以及低代码应用课程的基础上,发布了第二版的课程内容,现已上线GitHub。该课程共包含18课,虽然部分内容具有前瞻性,但依然是踏入该领域的良好起点。...

Read More
2024-04-02 talkingdev

LLMs如何引领RPA流程自动化新时代

尽管RPA(机器人流程自动化)在早期取得了一些成功,但其在企业范围内的部署并没有达到预期效果。德勤的一项调查显示,仅有3%的公司能够成功扩大其RPA项目规模。然而,人工智能的最新进展有望改变这一现状。大型语言...

Read More
2024-04-01 talkingdev

EvoEval:全新代码基准测试套件,全面提升大型语言模型编程能力评估

EvoEval是一套全新的基准测试工具,专为评估大型语言模型(LLMs)的编码能力而设计。该测试套件采用了比以往更加严格的测试标准,以确保对LLMs编程能力的全面检测。EvoEval的发布意味着开发者和研究人员现在可以更准...

Read More
2024-03-29 talkingdev

论文:LLM中的长篇文章真实性研究

谷歌发布了一份数据集和基准测试,用以展示各语言模型生成事实信息的能力。本报告深入分析了如何提升模型的真实性,并揭示在多数情况下语言模型胜过人类注释者。这一发现不仅对技术领域产生重大影响,也对如何使用人...

Read More
  1. Prev Page
  2. 15
  3. 16
  4. 17
  5. Next Page