漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-08-11 talkingdev

论文:通过在上下文中学习提升Llama-2模型的性能

在一篇新的研究报告中,研究人员在聊天式提示中通过检索9个演示示例,使用预训练的Llama-2语言模型进行了在上下文中的学习。这种方法并没有改变模型的权重,但它使得与文本达芬奇-003模型相比,赢率增加了7倍,使其...

Read More
2023-08-10 talkingdev

最快方式打造定制版Llama2模型

通过上传JSONL数据到你的云端硬盘,链接并运行带有QLoRA和SFT训练的笔记本,你就可以得到一个定制调整的Llama2模型。这似乎是我发现的最简单的调整例子,并且效果很好。最重要的是,该模型使用了(提示,响应)的格...

Read More
2023-08-10 talkingdev

从零开始训练Llama:一步步指导TinyShakespeare

本文将详细介绍如何使用Llama论文来训练TinyShakespeare。Llama是一个新型的人工智能训练模型,具有高效和精准的特性。TinyShakespeare是一个文本生成模型,其设计目标是模仿莎士比亚的写作风格生成文本。本指南将带...

Read More
2023-08-02 talkingdev

论文:ToolLlama-语言模型与API的强大结合

工具使用是一个范例,其中语言模型生成触发某些API被调用的词汇,其输出作为令牌被反馈到语言模型中。这意味着语言模型能够使用计算器,网络浏览器,甚至编码环境。随着最近强大的开源语言模型的发布,您可以收集40k...

Read More
2023-08-01 talkingdev

Rust Llama:用Rust复制llama2.c的新尝试

Rust Llama是一个在GitHub Repo上的项目,它是llama2.c的复制,但是使用的是Rust编程语言。这个项目的目的主要是为了学习,但也可能是为了内存安全。 Rust是一种面向系统的编程语言,强调并发和内存安全性,因此使用...

Read More
2023-08-01 talkingdev

当GPT-3.5的成本低于Llama 2时

训练吞吐量、提示处理吞吐量和生成吞吐量都有不同的成本,并且受到不同计算资源的瓶颈制约。因此,某些工作负载在Llama 70B上实际上比支付GPT-3.5更昂贵。这篇博客写得非常优雅,围绕模型部署考虑问题有一些非常好的...

Read More
2023-08-01 talkingdev

Ollama开源:运行、创建和分享大型语言模型

Ollama是一个发布在GitHub上的项目,专为运行、创建和分享大型语言模型而设计。它为开发者和研究者提供了一个集成的平台,可以方便的搭建、训练并分享他们的语言模型。这些模型可以应用于各种语言处理任务,如机器翻...

Read More
2023-07-31 talkingdev

优化后的Llama 2,上下文长度达到32k

最近获得2000万美元投资的together公司,已经对Llama 2进行了微调,通过在位置嵌入上进行线性扩展,使其在处理上下文时可以处理高达32k的token。他们在许多有趣的基准测试中进行了测试,但是他们警告说,现代语言模...

Read More
  1. Prev Page
  2. 15
  3. 16
  4. 17
  5. Next Page