漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-09-21 talkingdev

OpenPipe开源,将昂贵的提示工程转为更低价模型

OpenPipe是一种基于少数提示行为的模型简化工具。在当前的人工智能领域,模型的训练和部署往往需要大量的计算资源和时间,这对许多用户来说是一种负担。然而,OpenPipe的出现改变了这一状况。它通过利用少数提示行为...

Read More
2023-09-19 talkingdev

更高效的微调视觉变换器

对预训练的视觉模型进行特定任务的微调,通常需要大量额外的计算能力。然而,研究人员已经提出了一种名为“显著通道调整”(SCT)的方法,这种方法可以智能地选择模型中需要微调的部分,使用的额外设置要远少于其他方...

Read More
2023-09-19 talkingdev

66%的开发者认为生成型AI是工作的未来,但79%的人对此有所担忧

大多数开发者已经将AI工具,如Copilot和ChatGPT,融入到他们的日常工作中。然而,高达79%的开发者对隐私和安全问题感到担忧。在这些来自Nylas的实用技术资源中,探索AI创新如何与安全相结合:Nylas和Snyk的炉边谈话...

Read More
2023-09-18 talkingdev

IBM正式挑战语言模型领域,推出开源MoE模型

IBM近日发布了一系列混合专家模型(Mixture-of-Experts,MoE),并公开了它们的架构和部分代码。MoE模型是一种稀疏模型,意味着在不牺牲准确性的情况下,可以节省计算资源。然而,训练这种模型却颇具挑战性。这次IBM...

Read More
2023-09-14 talkingdev

ExLlamaV2:在消费级GPU上运行本地LLMs的推理库

ExLlamaV2是一个在GitHub上开源的项目,它是为现代消费级图像处理单元(GPU)上运行本地语言模型(LLMs)而设计的推理库。这款推理库的出现,可以帮助用户在个人电脑上使用现代GPU进行深度学习模型的推理计算,而无...

Read More
2023-09-12 talkingdev

构建基于LLM系统与产品的七大实用模式

本文分享了七种实用模式,用于将大型语言模型(LLM)整合到系统中:性能测量、添加最新知识、微调任务、缓存以节省时间/成本、确保质量输出、错误管理以及利用用户反馈。首先,性能测量是衡量模型在实际应用中的效果...

Read More
2023-09-07 talkingdev

如何构建企业级LLM应用:GitHub Copilot的经验教训)

本文讨论如何构建和扩展使用大型语言模型的应用程序。GitHub花费了三年时间,从想法到生产,开发了GitHub Copilot。该团队制定了一个三阶段计划进行开发:他们确定了LLM应用的有影响力的问题空间,创建了流畅的AI产...

Read More
2023-09-06 talkingdev

SAM.cpp:Meta全新纯C++运行部分的分割技术

Meta公司最新研发的SAM.cpp项目现已在GitHub仓库中开源。这是一项运行于纯C++环境下的分割技术,其底层驱动是GGML。SAM.cpp能够实现Meta上的任何内容的精细分割,不论是图像、视频,还是复杂的3D模型,都能够轻松应...

Read More
  1. Prev Page
  2. 22
  3. 23
  4. 24
  5. Next Page