漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-09-15 talkingdev

MLPerf结果强调了生成AI和存储的日益重要性

MLPerf发布了两个基准测试套件的结果:MLPerf Inference v3.1和MLPerf Storage v0.5。前者显示了创纪录的参与度和性能提升,后者评估了机器学习训练工作负载的存储系统性能。推理基准测试套件引入了一个大型语言模型...

Read More
2023-09-06 talkingdev

BLoRA开源,同一GPU上批量处理LoRAs

LoRAs是一种小型的参数适配器,通过插入到某些层次来改变底层模型的行为。你可以为基础模型进行批量生成,以提高性能。此外,你还可以对LoRA修改后的模型进行批量处理,并向不同的用户提供具有不同性能的模型。这种...

Read More
2023-09-05 talkingdev

从浏览器小子到后端老大:WASM会赢得网络战争吗?

WebAssembly是一种二进制格式,允许Web开发者以接近本地速度运行代码,这可能确实会成为后端软件开发的未来。WebAssembly(WASM)是一个开放标准,可以将几乎任何语言编写的代码编译成一种可在Web上运行的格式,使得...

Read More
2023-08-29 talkingdev

将Unix哲学的逻辑极致发挥到极致的WebAssembly

WebAssembly是一种新兴的二进制指令集,它可以在Web浏览器中运行高性能的应用程序。它的设计理念是将Unix哲学的原则发挥到极致,提供简洁、单一功能的组件,以实现更大的灵活性和可重用性。WebAssembly的核心目标是...

Read More
2023-08-17 talkingdev

深度解析:transformer模型训练背后的数学原理

本文将深入探讨热门的《transformer数学101》文章,以及基于transformer架构的高性能分布式训练。变形金刚模型已经在深度学习领域广泛应用,其强大的处理能力和优异的性能表现赢得了业界的一致好评。然而,对于这种...

Read More
2023-08-08 talkingdev

TorchScale——提供高效有效的Transformers扩展的PyTorch库

TorchScale是一款PyTorch库,让研究者和开发者能够更高效、更有效地扩展Transformers。它是为了满足对于大规模数据处理的需求而生的工具,通过使用TorchScale,我们可以在保持高性能的同时,实现Transformers的扩展...

Read More
2023-08-03 talkingdev

大型语言模型系统与产品的设计模式

本文讨论了将大型语言模型集成到系统和产品中的实用模式。它结合了学术研究、行业资源和从业者的专业知识。本文介绍了七种关键模式,涵盖了提高性能与降低成本/风险以及更接近数据与更接近用户之间的一系列模式。

Read More
2023-07-24 talkingdev

StabilityAI发布指令调整语言模型

稳定性公司近日发布了一套经过指令调整的语言模型,专为研究用途而设计。这套模型采用了先进的人工智能技术,通过对大量数据进行深度学习,实现了在各种场景下的高效语言处理和理解。这将有助于推动人工智能领域的发...

Read More
  1. Prev Page
  2. 9
  3. 10
  4. 11
  5. Next Page