漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-27 talkingdev

AI领域的新星:Adept如何改变游戏规则

在这篇访谈中,我们深入探讨了David Luan的职业历程,他曾是OpenAI的早期员工、Google大型语言模型项目的领导者之一,以及Google Brain的共同领导。Luan也是Adept的创始人,该公司是AI代理领域的佼佼者。他分享了在...

Read More
2024-02-23 talkingdev

斯坦福发布HELM Instruct基准测试

斯坦福大学语言建模团队发布了一项广泛使用的基准测试,名为Holistic Evaluation of Language Models (HELM)。他们还发布了一份面向指令跟随的版本,名为HELM-Instruct。该测试是多维的、开放式的和绝对的。

Read More
2023-11-23 talkingdev

Yoyozo:如何用39K制作Playdate游戏

Yoyozo是独立游戏开发者,最近他在39K的预算下制作了一款名为《小鸟寻宝》的Playdate游戏。这个游戏是用Lua语言编写的,涉及了一系列的技术挑战,包括如何在小尺寸屏幕上显示复杂的图形和动画。Yoyozo分享了他的制作...

Read More
2023-09-15 talkingdev

论文:无需训练即可对齐语言模型,效果提升至81%

对齐技术有助于使语言模型更有用且无害。虽然有时可能会损害性能,但总的来说,这是一项正面的技术。对齐是昂贵的,需要大量的对齐数据。然而,如果您允许模型在生成后评估自身的输出并进行回溯,它可以提高冻结模型...

Read More
2023-09-05 talkingdev

ragas:助力评估检索增强生成管道的框架

ragas是一个框架,它可以帮助你评估你的检索增强生成(Retrieval Augmented Generation,简称RAG)管道,这是一类使用外部数据来增强LLM(语言模型学习)上下文的应用程序。RAG管道是近年来人工智能领域的重要研究方...

Read More
2023-08-21 talkingdev

论文:高效评估文字至图像生成的新方法

目前,评价从文本生成的图像质量的方法存在一些问题,如无法真实捕获图像的美观程度或与文本的匹配程度。最新的研究论文介绍了一种新的方法,该方法可以估计生成的图像与给定文本的匹配程度,重点关注图像的最重要部...

Read More
2023-08-02 talkingdev

PromptTools:自托管工具用于评估LLM和向量数据库

PromptTools是一套自托管工具,用于实验、测试和评估大型语言模型、向量数据库和提示。它允许开发者使用代码、笔记本和本地沙盒进行评估。开发者只需几行代码就可以测试不同模型上的提示和参数。PromptTools可以用于...

Read More
2023-04-19 talkingdev

Auto Evaluator (GitHub Repo) 为机器学习提供自动问答工具

以下是新闻的核心内容: - ML中有一项名为“问答”的任务,它试图自动化使用适当答案回答问题的过程。 - 该工具使用语言模型来自动生成和回答问题,解决了确定事实性或处理重新表述等问题的挑战。 - 这符合当今语言模...

Read More
  1. Prev Page
  2. Next Page