漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-11 talkingdev

文本到3D模型的评估指标

研究人员开发了一种新的文本到3D生成模型的评估指标,解决了当前单一标准指标的局限性。这种先进的方法使用GPT-4V来创建提示并比较3D资产。它与人类偏好密切相关,并通过适应各种用户定义的标准来提供多样性。

Read More
2024-01-08 talkingdev

OpenAI发布官方Prompt工程指南

OpenAI发布了一份全面的、分步骤的指南,分享了如何从大型语言模型(如GPT-4)中获得更好的结果的策略和技巧。该指南提供了从选择Prompt到微调和优化的详细步骤,并介绍了一些最佳实践和调试技巧。此外,该指南还包...

Read More
2024-01-03 talkingdev

论文:微软研究使用LLM改进文本嵌入技术

微软的研究人员使用合成数据来训练基于Mistral的解码器,以改进嵌入技术。该技术是同类产品中最佳的。有趣的是,他们使用GPT-4的两步提示策略来生成合成检索训练数据。

Read More
2023-12-19 talkingdev

微调Mistral 7B在卡牌游戏中的应用

通过在魔法飞天卡牌游戏中进行微调实验,以提高GPT-4的性能,获得了一个精细调整的7B参数模型,其性能接近于人类水平。

Read More
2023-12-18 talkingdev

OpenAI超级对齐团队新成果:从弱到强泛化

OpenAI超级对齐团队最新成果表明,您可以使用更弱的监督模型来引导或对齐更强大的模型,类似于弱人类对齐超级智能模型。他们使用GPT-2恢复了GPT-4的大部分对齐性能。他们指出,这种方法具有可行的路径,可以实现显著...

Read More
2023-12-08 talkingdev

BenchLLM开源,测试大型多模态模型的基准

这个项目介绍了BenchLMM,一个专门设计用于测试GPT-4V和LLaVA等大型多模态模型对各种图像样式的鲁棒性的基准。

Read More
2023-11-23 talkingdev

亚马逊据称正在使用两倍于GPT-4的参数进行AI训练

亚马逊正在为进入AI竞赛做准备,推出Olympus,这是一个拥有2万亿参数的大型语言模型,旨在超越OpenAI的GPT-4和谷歌的Bard。这一举措有望将亚马逊推向人工智能技术的前沿。虽然目前尚不清楚Olympus的推出时间表,但它...

Read More
2023-11-23 talkingdev

谷歌推迟Gemini的发布

谷歌推迟了其大型语言模型(LLM)和GPT-4竞争对手Gemini的发布时间,直到2024年第一季度,原因是担心其无法达到或超越OpenAI的GPT-4,并且着重于在允许外部开发人员访问之前加强其消费者产品。

Read More
  1. Prev Page
  2. 14
  3. 15
  4. 16
  5. Next Page