漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-09-05 talkingdev

LLM微调Hub:专为使用场景优化的大型语言模型

LLM微调中心是一个包含代码和洞察的平台,专门用于微调各种大型语言模型以适应您的使用场景。不论您是开发者,还是研究人员,甚至是业务决策者,都可以在此找到有用的资源。通过微调,大型语言模型的性能可以得到显...

Read More
2023-09-01 talkingdev

Sparse开源揭示反馈如何影响大型语言模型

在训练大型语言模型以理解和匹配人类价值时,我们是使用评分(rating)还是比较(ranking)作为反馈?这项研究发现,选择的方式对结果影响颇大。例如,通过比较评估时,使用排名训练的模型往往更受青睐,但在打分评...

Read More
2023-08-31 talkingdev

微软发布新型AI训练法“思想算法”

微软发布了一种名为“思想算法”(AoT)的新型AI训练方法,旨在使大型语言模型如ChatGPT的推理能力更加高效和类人化。这种新颖的AI训练方法是微软在人工智能领域的一项重要突破,表明了微软在深化机器学习和人工智能技...

Read More
2023-08-25 talkingdev

朝向AGI:我们还缺少什么?

本文探讨了为何现有的大型语言模型(LLMs)不太可能导致人工通用智能(AGI)的发展,以及为何物理学本身将阻止我们从现在的状态突然跃升到AGI。当前的LLMs,虽然在某些方面已经取得了显著的进步,但是在理解和推理的...

Read More
2023-08-25 talkingdev

Meta发布自己的AI代码编写工具:Code Llama

Meta发布了Code Llama,这是一个建立在Llama 2之上的大型语言模型,专门用于生成和调试代码。它还发布了一个针对Python的特定版本,以及另一个可以理解自然语言指令的版本。这些模型不能互换使用。Meta声称Code Llam...

Read More
2023-08-21 talkingdev

你可能不需要微调大型语言模型

对于大多数大型语言模型(LLM)应用,微调并非必要。使用少量提示或检索增强生成(RAG)可能是更好的选择。少量提示是指向LLM提供期望输出的示例,而RAG则涉及查询向量数据库,获取LLM未经训练的信息。这意味着,我...

Read More
2023-08-18 talkingdev

WizardLM,利用强化进化指令教大型语言模型进行推理

近期,WizardLM团队的研究进展备受关注。他们最新的论文探讨了用于指令调整的数据策划问题。WizardLM在强化学习部分做出了突破性的提升,成功超越了许多封闭源模型在数学和推理任务上的表现。他们的研究成果可能会对...

Read More
2023-08-17 talkingdev

强化学习:微型故事模型的对齐工具

强化学习可能是当前对齐大型语言模型(甚至视觉模型)最好的工具。然而,当你需要大量的人类数据来训练一个奖励模型时,这就成为了一项挑战。如果你可以只使用“提示”呢?这是RLCF(强化学习计算框架)趋势的又一绝佳...

Read More
  1. Prev Page
  2. 29
  3. 30
  4. 31
  5. Next Page