漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-22 talkingdev

Stablecode3B:比7B的CodeLlama更出色,可在MacBook上本地运行

据悉,最近发布的Stablecode 3B模型表现出色,其强大的性能超过了7B的CodeLlama模型。同时,该模型的尺寸足够小,能够在MacBook上本地运行,无需像7B模型一样需要大量的计算资源。这一模型的发布,标志着技术领域的...

Read More
2024-01-12 talkingdev

本地部署AI模型现在也能拥有视觉能力

Ollama现在支持视觉模型啦,这意味着您可以在MacBook Pro上运行Llava,实现最先进的视觉和语言性能。 随着人工智能技术的发展,AI的应用场景越来越广泛。然而,由于许多私人AI的计算能力和算法限制,它们往往无法像...

Read More
2024-01-12 talkingdev

GitHub Actions成为分时共享超级计算机

GitHub Actions可以用于批处理作业。开发人员可以将工作提交到服务中,稍后异步地接收结果。actions-batch是一个命令行工具,本质上是将GitHub Actions转换为分时计算机的API。它创建新的GitHub存储库,编写在提交时...

Read More
2024-01-09 talkingdev

对比激活下的Steering Llama 2技术

有很多方式可以对齐语言模型,例如SFT、LoRa、RLHF、DPO、Prompting和Threatening。本研究提出使用负嵌入加到偏置项中,以将模型生成推向期望的结果。

Read More
2024-01-03 talkingdev

Llamafile-将模型和推理代码嵌入单个文件

Llamafile是一个将模型和推理代码嵌入单个便携式可执行文件的项目。此博客探讨了如何将命令行输出导入语言模型以进行进一步处理。

Read More
2023-12-25 talkingdev

开源Llama模型工具集,提高深度学习效率

Facebook发布了一组工具、资源和示例,用于使用Llama模型系列。该工具集可帮助深度学习从业人员更高效地进行模型训练和应用。Llama模型系列由Facebook AI Research开发,已被广泛用于计算机视觉领域。这个工具集将包...

Read More
2023-12-12 talkingdev

使用Ollama在本地运行LLMs

Ollama就像是llama cpp模型周围的软件包管理器。它具有易用性和质量生活功能,甚至可以在CPU上轻松运行模型。本示例展示了如何运行两个优秀的模型,Dolphin和Samantha,它们是用于对话任务的优秀未过滤模型。

Read More
2023-12-11 talkingdev

Llama 2模型成功在MLX上运行

仅仅在苹果公司推出MLX框架的一天后,人们已经成功将Llama 2模型运行在了新框架上。据悉,这是由于MLX框架的开放性,使得用户可以更加方便地进行模型的迁移和使用。同时,这也展示了MLX框架在机器学习领域的强大性能...

Read More
  1. Prev Page
  2. 10
  3. 11
  4. 12
  5. Next Page