漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-09-20 talkingdev

RabbitMQ与Kafka - 架构师的抉择(第一部分)

RabbitMQ和Kafka是两个流行的消息代理平台,被广泛应用于大规模分布式系统中。然而,架构师在选择哪个平台来满足他们的需求时,常常会感到困惑。本系列文章将探讨RabbitMQ和Kafka的优缺点,帮助架构师做出明智的选择...

Read More
2023-09-19 talkingdev

论文:当LLM遇到外部冲突数据引发的智能混乱

像GPT-3这样的大型语言模型之所以聪明,是因为它们从大量数据中学习。那么,当新的信息与它们已经知道的信息冲突时,它们会如何反应呢?研究人员发现,这些模型可能会感到困惑,并给出错误的答案,尤其是当它们面临...

Read More
2023-09-19 talkingdev

论文:新型语言模型目标采用捆绑嵌入加速训练

通常情况下,语言模型的输入和输出嵌入层是捆绑在一起的。然而,如果您将输入嵌入与模型内部的其他嵌入捆绑在一起,并使用对比损失,您可以在实际运行时间和最终基准准确度上获得显著改善的性能。这种方法的关键在于...

Read More
2023-09-13 talkingdev

行星级规模的检索增强生成技术

Arcus公司通过使用分层检索器将检索增强生成(RAG)技术扩展到行星级规模。这种技术是通过将文件基于其语义内容进行分组聚类,然后逐步过滤这些组来缩小搜索空间。这样可以检索到更相关的上下文,减少幻觉,并在行星...

Read More
2023-09-12 talkingdev

Meta正在开发一款与GPT-4竞争的AI聊天机器人

Meta公司近期在积极采购AI训练芯片,并且正在大规模扩建数据中心,目的在于开发出一款更强大的新型AI聊天机器人,其预期该机器人将与OpenAI的GPT-4具有相似的复杂性和能力。为了实现这一目标,Meta正在大规模投资,...

Read More
2023-09-06 talkingdev

16亿参数模型在人类评估中取得32%的成绩

这是一个全新的、闪电般快速的代码生成模型。该模型是从零开始,基于1.2万亿个半代码半语言数据进行训练的。这一模型的出现,将为人工智能模型开发带来革新。通过大规模的参数训练,该模型已经在人类评估(HumanEval...

Read More
2023-09-05 talkingdev

Tiny Llama开源:1.1B参数模型训练

小型羊驼(Tiny Llama)项目旨在为3T代币训练出一个参数为11亿的羊驼2(Llama2)模型。根据扩展规律,这对于计算优化来说无疑是严重的过度训练,但它对于部署优化带来了显著的收益。此次的模型训练打破了传统的优化...

Read More
2023-09-04 talkingdev

DeepMind共同创始人谈如何限制人工智能的负面影响和潜在威胁

DeepMind的三位联合创始人之一Mustafa Suleyman接受了一档时长1小时的播客采访,讨论了限制新兴技术的负面和意外影响的方法以及其他与人工智能相关的话题。Suleyman认为,人工智能和生物技术很快就会让小团体有能力...

Read More
  1. Prev Page
  2. 20
  3. 21
  4. 22
  5. Next Page