漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-28 talkingdev

法国AI初创公司Mistral宣布推出新API模型并与Azure合作

法国AI初创公司Mistral宣布推出新的API模型,并与Azure达成合作。Mistral Large在多语言任务方面表现出色,在MMLU上仅比GPT-4差了几个百分点,性能强大。该初创公司还在其API中添加了一个新的mistral-small模型。

Read More
2024-02-27 talkingdev

OpenCodeInterpreter模型接近GPT-4的代码性能

OpenCodeInterpreter模型基于CodeLlama和DeepSeek Coder,通过训练合成多轮数据集和使用人类反馈,能够在编程HumanEval基准测试中获得85%以上的准确率。

Read More
2024-02-27 talkingdev

论文:简单的强化学习算法战胜PPO

REINFORCE是一种简单、标准且易于理解的强化学习方法。然而,在模拟器中使用它很难稳定地进行训练。PPO在一般情况下更为高效和稳定。Gemini使用REINFORCE算法,而据信GPT-4使用PPO算法。

Read More
2024-02-27 talkingdev

Mistral AI发布新模型,与GPT-4和自己的聊天助手竞争

Mistral AI推出了一款名为Mistral Large的新型语言大模型,以与GPT-4和Claude 2等顶级模型竞争。该公司还推出了一项名为Le Chat的新服务,以与ChatGPT竞争。通过该公司的API,访问Mistral Large的成本为每百万输入令...

Read More
2024-02-26 talkingdev

MMedLM-医学领域新突破,多语种医学语言模型

MMedLM 2是一种开创性的多语言语言模型,专为医学领域量身定制。它是在覆盖六种语言的新的255亿令牌语料库上训练的。在医学问答任务中,MMedLM 2的表现优于其他模型,包括GPT-4

Read More
2024-02-26 talkingdev

Phind 70B Code Model表现卓越,人类评估得分83%

Phind的70B代码模型在人类评估中获得83%的高分,与GPT-4表现相当。关键是它拥有显著较少的慵懒回应和拒绝。34B模型即将发布,更大的70B模型也将在未来发布。

Read More
2024-02-23 talkingdev

GTBench-评估游戏中的LLMs

GTBench是一个用于测试类似GPT-4这样的LLMs在各种游戏场景中发现其在策略推理方面的优势和劣势的平台。虽然这些模型在基于概率的游戏中表现出很大的潜力,但在确定性游戏中表现不佳,并且在设计和训练上表现也有所不...

Read More
2024-02-23 talkingdev

Predibase发布25个LoRA,超越GPT-4的Mistral模型

Predibase发布了25个狭窄的任务特定LoRA,每个在特定任务上都能超越GPT-4。这些任务特定的LoRA是建立在Mistral 7B模型之上的。这再次证明了本地模型在精确任务上表现异常出色的能力。

Read More
  1. Prev Page
  2. 8
  3. 9
  4. 10
  5. Next Page