漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-30 talkingdev

llamafile:运行在多个CPU微架构上的单文件分发工具

近日,llamafile发布了新的GitHub Repo,它是一种新的单文件分发工具,允许任何人使用单个文件分发和运行LLMs。LLMs可以在多个CPU微架构上运行,而不需要用户在每个平台上编译。这种工具可以节省开发者的时间和精力...

Read More
2023-11-23 talkingdev

3分钟内部署任何GGUF模型

使用llama.cpp和GGUF服务器,您可以非常快速地部署一个服务于HuggingFace托管模型的端点。这意味着您可以在几分钟内将HuggingFace的最新自然语言处理模型部署到生产环境中。

Read More
2023-11-23 talkingdev

用LangChain在Go中集成LLM

LangChain是一款可以方便地将语言模型集成到您的Go程序中的工具。这包括使用Ollama等框架运行本地模型。

Read More
2023-11-16 talkingdev

You.com推出新API,为LLMs连接互联网提供支持

You.com已经推出了一系列API,价格从每月100美元起,使得像Meta的Llama 2这样的大型语言模型可以访问最新的互联网数据,并通过网络搜索和新闻功能提供增强的答案准确性。这些API有助于LLMs从更广泛的数据来源中汲取...

Read More
2023-11-15 talkingdev

LLaMA模型的增强:引入泰米尔语令牌

经过增强的LLaMA模型现已包含16,000个泰米尔语令牌,利用了LoRA方法进行高效训练。这个更新,连同Alpaca和OpenOrca数据集的新的泰米尔语版本,显著改进了泰米尔语文本处理,为印度语言人工智能的未来发展铺平了道路...

Read More
2023-11-06 talkingdev

Talk Llama开源:在终端上与LLaMA AI对话

最近,一个名为Talk Llama的Github仓库备受关注,该仓库提供了一种在终端上与LLaMA AI进行交互的方式。LLaMA AI是一个基于GPT-3的自然语言处理模型,它的名字是“Language Model for Multi-turn Dialogue with Latent...

Read More
2023-11-06 talkingdev

Meta人工智能研究负责人希望开源许可证改变

Meta的Llama 2被宣传为开源,但由于其有限的许可证未能符合所有开源倡议的要求而受到审查。尽管如此,Meta的人工智能研究副总裁Joelle Pineau强调了信息共享和商业成本之间的平衡,旨在实现类似于其先前的开源项目Py...

Read More
2023-11-02 talkingdev

Llama指南:如何开始使用

本指南提供信息和资源,帮助您设置Llama,包括如何访问模型、托管以及如何和集成指南。Llama是一个开源的自然语言处理模型,可以用于文本分类、情感分析和实体识别等任务。使用Llama能够提高文本处理的效率和准确性...

Read More
  1. Prev Page
  2. 11
  3. 12
  4. 13
  5. Next Page