漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-06-27 talkingdev

基于LLM的Agent未来,如何扩展其能力范围

本篇文章分享了两种关键方法,帮助Agent从实验阶段走向真实世界:长期规划和系统级的鲁棒性。这些方法引入了为代理人制定高阶计划的能力,同时允许在剧情中途进行适应,以及采用系统方法智能地协调提供更高精度和性...

Read More
2024-06-26 talkingdev

LLM雷达:帮助你在AI大模型保持领先的免费工具

LLM雷达是一款免费的工具,它可以扫描新的LLM并直接发送到你的邮箱,让你在AI游戏中无需任何努力就能领先。这款产品的主要目标是帮助用户在快速发展且竞争激烈的人工智能领域中保持领先地位。使用LLM雷达,你可以接...

Read More
2024-06-26 talkingdev

利用RAG使本地LLM语音助手更快更具扩展性

研究人员已经发现,通过分类数据、预计算嵌入以及动态生成示例,可以使LLM语音助手更加高效和可扩展。他们利用RAG(Retrieval Augmented Generation)系统对语音助手进行优化,提高了其性能和扩展性。RAG是一种典型...

Read More
2024-06-26 talkingdev

Lamini如何解决LLM的幻觉问题

Lamini已经成功开发出了名为'记忆调整'的技术,该技术可以有效地减少95%的幻觉现象。这项技术的主要作用在于,能够将特定的数据更有效地嵌入到模型中,而不会影响到模型的一般知识。通过这种方式,Lamini不仅解决了L...

Read More
2024-06-26 talkingdev

苹果智能与AI极致主义:分化策略与新趋势

苹果正在对其人工智能(AI)进行细分处理,区分出'上下文'和'世界'模型。其中,像ChatGPT这样的'世界'模型,被用于处理开放式查询,但没有个人上下文。OpenAI的地位并不稳固,因为在大语言模型(LLMs)中缺乏防御壁...

Read More
2024-06-25 talkingdev

ParaLLM :Mac上基于MLX实现每秒1300个Token推理

在MLX中实施批量并行KV缓存,导致合成数据生成和模型完成的推理时间显著提速。这种新的技术实现方式大大加快了处理速度,从而在Mac上每秒可以处理1300个Token。这一突破性的技术进步,不仅可以提高处理效率,同时也...

Read More
2024-06-24 talkingdev

LLM101开源教程:用AI打造故事讲述者

Andrej Karpathy发布了一个新的仓库,这是他正在进行的一个新课程的大纲。课程涉及构建一个可以讲述故事的对齐语言模型。课程包括视频讲座、代码和其他学习材料。这是一个主要围绕人工智能和机器学习的课程,强调对...

Read More
2024-06-23 talkingdev

Llama.ttf:一种既是字体又是LLM的创新技术

Llama.ttf是一种新型字体技术,它不仅可以作为字体使用,还能充当LLM(低级语言模型)的一部分。该技术通过将LLM嵌入字体中,使得字体在呈现文本的同时,也能进行机器学习任务。这项技术的研究者表示,Llama.ttf可以...

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page