漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-17 talkingdev

DeepMind最新气象预测模型开源

DeepMind近年来一直在研究气象预测。其最新模型基于图神经网络,对于10天的预测非常准确。DeepMind发布了代码和权重,让用户可以在本地运行(如果有卫星数据)。该模型的预测准确度是当前最高水平。

Read More
2023-11-14 talkingdev

基于RWKV可在本地运行的AI小镇开源

AI 小镇是一个令人惊叹的实验,在这里,数百个代理在语言模型的提示状态下过着日常生活。 RWKV 模型是一种线性语言模型,需要比标准 Transformer 更少的资源。此存储库使用这个更便宜的模型在您的本地计算机上运行 A...

Read More
2023-10-23 talkingdev

深度探讨:构建基于LLM的Web应用程序

大多数组织机构没有资源在GPU上运行大型模型,但是有一个强大的开源推动力量在本地运行这些模型。本文探讨了这种推动力量以及LangChain + Ollama集成。 LLN(Local Low Rank Normalization)是一种用于处理基于卷积...

Read More
2023-10-20 talkingdev

论点:小型LLMs的优势

小型LLMs可能会超越大型LLMs,因为它们具有更快的训练速度、能够在没有专门硬件的情况下本地运行、具有经济性、延迟较低、部署容易、可能具有更好的可解释性和可重现性等优势。

Read More
2023-06-19 talkingdev

以低廉的价格运行A100

Nvidia A100是市场上最强大的GPU之一。它们已被用于训练迄今为止最流行的模型之一。它们是数据中心的GPU,通常意味着您无法在自己的硬件上运行它们。本文探讨了如何以几千美元的价格自己组装一个本地运行的A100超级...

Read More
2023-06-07 talkingdev

GGML推出,以纯C语言框架降低本地运行成本

GGML以纯C语言编写的框架,让用户可以在MacBook电脑上轻松运行大型语言模型,这种模型通常在本地运行成本较高。目前,这一框架主要被业余爱好者使用,但在企业模型部署方面也有广泛的应用前景。 核心要点: - GGML...

Read More
2023-06-01 talkingdev

本地GPT:使用Vicuna-7B模型和InstructorEmbeddings实现离线问答

近日,开发者们在GitHub上发布了一个名为localGPT的Repo,该项目利用Vicuna-7B模型和InstructorEmbeddings实现了离线文档问答功能。以下是该项目的主要亮点: - 使用Vicuna-7B模型:该模型是由EleutherAI开发的巨型...

Read More
2023-05-04 talkingdev

人工智能歌手已经无处不在,唱功惊人

最近的报道指出,人工智能歌手已经开始变得普遍,并且其唱功已经非常惊人。以下是这个趋势的三个核心点: - 可以使用 SoftVC VITS Singing Voice Conversion(So-Vits-SVC),这是一个免费、开源、本地运行的程序,...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page