漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品

使用Ollama在本地运行LLMs

talkingdev • 2023-12-12

814172 views

Ollama就像是llama cpp模型周围的软件包管理器。它具有易用性和质量生活功能,甚至可以在CPU上轻松运行模型。本示例展示了如何运行两个优秀的模型,Dolphin和Samantha,它们是用于对话任务的优秀未过滤模型。

核心要点

  • Ollama是一个软件包管理器,可以使LLMs本地化
  • Ollama具有易用性和质量生活功能
  • 示例展示了如何在CPU上运行Dolphin和Samantha模型

Read more >