漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-06-21 talkingdev

自托管Llama-3 8B-Instruct的成本分析

自我托管像Llama-3 8B-Instruct这样的LLM,其成本可能远高于使用ChatGPT,大约每百万令牌需要花费17美元,而ChatGPT只需要1美元。不过,自我托管硬件的成本可以降低到每百万令牌不到0.01美元,尽管这需要大约5.5年的...

Read More
2024-06-20 talkingdev

Paramount开源,LLM Agent精度测量技术

近日,知名的开源平台GitHub上的Paramount项目公开了一项新的技术——LLMs(Large Language Models)的Agent精度测量。该技术旨在提升大型语言模型的代理精度,助力开发者更加准确地评估和优化模型性能。据了解,LLMs...

Read More
2024-06-20 talkingdev

开源Dot:让本地LLMs和TTS/RAG交互更便捷

近日,一个名为Dot(GitHub Repo)的开源应用引起了大家的关注。这是一个独立的开源应用,其主要目的是让用户更轻松地使用本地LLMs(语言模型)和RAG(重新生成的注意力引导)来与文档和文件进行交互。这种交互方式...

Read More
2024-06-20 talkingdev

论文:LLMs决策制定者

决策QA是LLMs的一项新任务,它能够基于复杂的数据分析来确定最佳的决策。在传统的决策制定过程中,我们需要人工对大量数据进行分析,这不仅耗时耗力,而且可能由于人为因素导致决策的偏差。而现在,LLMs的出现,让决...

Read More
2024-06-06 talkingdev

LlamaCare:革新医疗应用的大型语言模型

研究人员推出了LlamaCare,一个专门为医疗知识调优的大型语言模型(LLM)。LlamaCare不仅在处理医疗数据方面表现出色,还引入了扩展分类集成(ECI)技术,以解决LLM中的分类问题。该模型的推出标志着医疗领域人工智...

Read More
2024-06-04 talkingdev

LLMs在医疗领域的新突破

InvariantSelectPR是一种旨在提高大型多模态模型(LMMs)在特定领域如医疗保健中的适应性的方法。这种方法通过优化模型的选择和调整,使其能够更好地处理不同领域的数据,提高预测的准确性和可靠性。在医疗领域,数...

Read More
2024-06-03 talkingdev

Conifer开源:显著提升LLM对复杂指令的理解能力

Conifer通过引入一个专门的数据集和渐进式学习方法,显著提升了大规模语言模型(LLM)对复杂指令的理解能力。该方法不仅能让LLM在处理复杂任务时表现得更为精准,还能有效减少错误率。专门的数据集涵盖了各类复杂指...

Read More
2024-06-03 talkingdev

一年构建大型语言模型(LLMs)的洞见与心得

随着人工智能技术的飞速发展,利用AI构建产品和系统变得前所未有的便捷。然而,要超越简单的演示,打造真正有效的产品与系统,仍存在诸多挑战。本文通过作者一年来使用大型语言模型(LLMs)构建应用程序的经验,为读...

Read More
  1. Prev Page
  2. 8
  3. 9
  4. 10
  5. Next Page