漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-06-18 talkingdev

Spur - RISC IV:Lisp多处理器工作站

由加州大学伯克利分校的研究人员开发的Spur-RISC IV是一款Lisp多处理器工作站,旨在提供更高效、更灵活的Lisp编程体验。该工作站采用了自主研发的RISC IV芯片,并配备了多个处理器,使其可以同时处理多个计算任务。...

Read More
2024-04-11 talkingdev

Anthropic的Beta工具在伯克利函数调用基准测试中击败GPT-4 Turbo

Anthropic公司开发的Beta工具使用API,在伯克利函数调用基准测试中,有50%的案例表现优于GPT-4 Turbo。这一测试主要评估AI工具在调用函数和解决问题方面的能力。Anthropic的Beta工具展现出了更高效的问题解决能力和...

Read More
2024-03-21 talkingdev

矩阵乘法新突破,清华与伯克利联手推动理想计算

清华大学与加州大学伯克利分校的研究团队在矩阵乘法领域取得了重大突破,提出了一种创新技术,该技术已经激发了进一步的优化。这一在核心计算操作上的进步,可能在各种应用中带来显著的时间、能源和成本节省。自2010...

Read More
2024-03-21 talkingdev

Redis 采用双源可用许可模式

Redis 宣布,自 7.4 版本起,所有未来版本的 Redis 将采用源代码可用许可模式发布。这意味着 Redis 将不再使用三条款式伯克利软件发行许可,而是转为采用 Redis 源可用许可和服务器端公共许可的双许可模式。新的许可...

Read More
2024-02-29 talkingdev

伯克利函数调用排行榜

函数调用是指语言模型可以通过合成的函数访问工具来完成其给定的指令。这需要正确合成参数以传递给这些函数。这个排行榜旨在评估模型在函数调用任务上的能力。

Read More
2023-12-21 talkingdev

LLMLingua-对齐后的LLM检测提示中的无关标记,实现对黑盒LLM的压缩推理

近日,一项名为LLMLingua的新项目在GitHub上开源。该项目使用对齐后的小型语言模型检测提示中的无关标记,并实现对黑盒LLM的压缩推理,从而实现了高达20倍的压缩比,且性能损失最小。简言之,LLMLingua能够帮助开发...

Read More
2023-11-29 talkingdev

Berkeley的研究人员通过RLAIF提高Starling-7B模型的帮助性和无害性

伯克利的一组研究人员使用合成偏好数据训练了一个新的最先进的7B参数模型。本文讨论了训练奖励模型的新挑战(例如,示例在列表中的位置会改变其排名)以及他们如何克服这些挑战。结果模型可与经过训练的奖励模型一起...

Read More
2023-11-26 talkingdev

17世纪的ChatGPT是什么样子?MonadGPT揭秘

近日,美国加州伯克利分校的研究人员开发出了一款名为MonadGPT的人工智能模型,该模型基于GPT-3,旨在探究一个问题:如果ChatGPT在17世纪得以发明,会是怎样一番景象。MonadGPT通过对17世纪的语言和文化进行研究,成...

Read More
  1. Next Page