漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-10 talkingdev

AI时代的影响力:创新或灭亡

MyCompanions.AI旨在将人类影响者与AI相结合,为用户提供引人入胜且个性化的体验。该平台计划解决AI影响者的预测性主导以及现有平台(如Patreon)的缺陷。承诺的功能包括定制角色扮演、强大的上下文和交谈记忆以及多...

Read More
2023-11-08 talkingdev

OpenAI Dev Day回顾

在本周的OpenAI Dev Day上,OpenAI发布了一款名为GPT-4 Turbo的API,它可以提供128k上下文的自然语言处理,以及自定义GPT和视觉功能。这款API的成本只有GPT-3的一小部分。此外,OpenAI还发布了一款名为Codex的API,...

Read More
2023-11-03 talkingdev

Nous Research运用Yarn方法,将Mistral 7B模型扩大到128k上下文

Nous Research运用他们的Yarn方法来优化Mistral 7B的性能,使其可以处理长达128k的上下文。该方法在短序列长度上表现良好,并可以显著提高处理长文档的性能。

Read More
2023-11-03 talkingdev

亚马逊推出RoPE微调Mistral 7B模型,支持长文本上下文

亚马逊开始进入开源LLM领域,推出RoPE微调Mistral 7B模型,支持长文本上下文。该模型可在上下文中扩展至32k个令牌,可用于各种自然语言处理任务,例如问答和文本生成。RoPE是亚马逊开发的一种新的训练技术,可提高大...

Read More
2023-11-01 talkingdev

Phind称其模型打败GPT-4,速度等同于GPT-3.5,支持16k上下文编码

据最新消息,Phind模型在编码方面的表现已经超过了目前最强的GPT-4。该模型支持16k上下文编码,在编码速度上也不逊于GPT-3.5。Phind模型是一种基于自然语言处理技术的编码器,可以用于编写各种程序代码。该模型采用...

Read More
2023-10-17 talkingdev

TabLiB 800B发布,推动大规模数据模型发展

近日,TabLiB 800B发布,这是目前最大的公开表格数据集,包括了6.27亿张表格和8670亿个上下文信息的令牌。这个数据集的发布旨在鼓励社区构建更好地理解表格数据的大型数据模型。此外,该数据集还包含了来自不同领域...

Read More
2023-10-17 talkingdev

MemGPT:永久记忆聊天机器人开源

MemGPT允许开发者创建带有自我编辑记忆的永久聊天机器人。它智能地管理LLMs中的不同记忆层,以有效地提供扩展上下文。MemGPT知道何时将关键信息购买到向量数据库中,以及何时在聊天中检索它,从而实现永久对话。该存...

Read More
2023-10-04 talkingdev

LangChain联合n8n推出低代码平台,让你分钟内构建下一个LLM应用

你的AI应用需要从其他API获取数据,你将如何得到它?大多数开发者都会费力地通过脚本和众多文档页来建立一个两周后就可能出故障的流水线。如果你能在没有API问题的情况下,以10倍的速度构建复杂的自动化工作流,你会...

Read More
  1. Prev Page
  2. 8
  3. 9
  4. 10
  5. Next Page