漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-17 talkingdev

Codestral Mamba:Mistral培训出的超高性能代码模型

Mistral最近成功训练出了一个名为Mamba 2的代码模型,该模型在长文本环境下具有极高的性能,而且在HumanEval上的表现也达到了75%。Mamba 2的出现,标志着Mistral在人工智能和机器学习领域取得了重大突破,这也为未来...

Read More
2024-05-06 talkingdev

人工智能硬件困境:创新还是挑战?

近期,一些人工智能驱动的硬件产品如Humane Pin和Rabbit R1在发布之后备受争议,但这并没有减少风险投资对该领域的关注和投入,著名投资人Sam Altman等人对其进行了大量投资。这种吸引力在于人工智能有可能通过创新...

Read More
2024-04-30 talkingdev

星际编程2 15B模型:人类与合成数据的混合训练成果

星际编程2 15B模型是一款在合成数据和人类数据上进行训练的人工智能模型。该模型在humaneval测试中获得了72.6的高分,表现出色。开发者在训练过程中不仅展示了他们的数据管道复制能力,还提供了将合成数据应用于其他...

Read More
2024-04-16 talkingdev

Humane's Ai Pin:AI 穿戴设备的技术挑战与未来展望

Humane's Ai Pin,一款AI驱动的可穿戴设备,因其技术问题备受争议。从音乐流媒体到AI助手故障,尽管该设备旨在营造一种环境计算体验,但其第一代产品却因性能延迟和缺乏基本功能而备受诟病。尽管承诺未来会通过软件...

Read More
2024-03-15 talkingdev

LiveCodeBench:对大型编程语言模型进行全面无污染的评估

评估训练编程语言模型的性能是一个具有挑战性的任务。大多数人使用OpenAI的HumanEval。然而,一些开放的模型似乎会过度拟合到这个基准。LiveCodeBench是一种测量编程性能的方法,同时减轻污染问题。

Read More
2024-02-27 talkingdev

OpenCodeInterpreter模型接近GPT-4的代码性能

OpenCodeInterpreter模型基于CodeLlama和DeepSeek Coder,通过训练合成多轮数据集和使用人类反馈,能够在编程HumanEval基准测试中获得85%以上的准确率。

Read More
2024-01-31 talkingdev

Meta发布CodeLlama 70B模型

Meta的新模型已经在大量代码上进行了精调和指令调整。它们在HumanEval测试中表现出色,在某些方面接近于GPT-4。这些模型可在Meta许可下和HuggingFace上使用。

Read More
2024-01-26 talkingdev

Fuyu-Heavy多模型表现超越Gemini Pro

Adept公司扩大了其Fuyu架构并训练了一个更大的版本,目前是MMMU上排名第三的最佳模型之一。该模型在其他任务中也表现良好(例如,在HumanEval编码基准测试中达到40+)。与其他替代方案相比,扩展此架构的挑战较少,...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page