漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-10 talkingdev

CLLM一致性语言模型:开创新的预测范式

预测多个令牌的同时生成是当前被积极研究的一个有趣的范式。如果成功,这将大大提高许多大型语言模型的生成速度。本篇文章中的方法,模仿了图像合成中的一致性模型,试图在精调的LLMs上使用并行解码策略来加快生成速...

Read More
2024-05-08 talkingdev

Consistency LLM:将LLMs转换为并行解码器可将推理加速3.5倍

Consistency LLM是一种新的自然语言处理模型,可以将其转换为并行解码器,从而将推理时间缩短至3.5倍。LLM模型是一种具有良好性能的模型,但推理速度较慢。该研究团队将LLM转换为并行解码器,使用了一种名为一致性训...

Read More
2024-05-07 talkingdev

Unsloth.ai:轻松微调和训练LLMs的新方式

Unsloth.ai的创始人近期发布了一段视频,详述了他们的团队如何使用PyTorch,编写他们的内核,以及设计他们的API界面。Unsloth的框架和库功能强大,易于使用。Unsloth通过这种方式,使得大量的开发者能够更好地进行深...

Read More
2024-04-28 talkingdev

AI历史上最大的开源周:多款大型语言模型亮相

2024年3月的最后一周,开源大型语言模型(LLMs)迎来了一次重要的时刻。包括Databricks的DBRX,A21 Labs的Jamba和SambaNova Systems的Samba-CoE在内的多款模型相继发布。这些发布标志着开源AI模型多样化和普及化的关...

Read More
2024-04-20 talkingdev

LLMs在金融市场的应用

近年来,随着人工智能技术的飞速发展,越来越多的金融机构开始将自然语言处理技术应用于金融市场分析中。在这方面,LLMs(大规模语言模型)无疑是最受关注的技术之一。LLMs是一种基于深度学习的自然语言处理技术,它...

Read More
2024-04-16 talkingdev

AI技术难以构建行业壁垒

人工智能(AI)的差异化挑战日益凸显。然而,真正的关键在于不是使用像大型语言模型(LLMs)这样的AI模型,因为这些模型正在变得商品化,而是在于输入这些模型的独特数据。有效的数据工程至关重要,因为它直接影响AI的表...

Read More
2024-04-10 talkingdev

SqueezeAttention技术助力LLM优化,内存使用降低30%至70%

近日,开发者社区GitHub上出现了一项名为SqueezeAttention的新技术,该技术针对大型语言模型(LLMs)的键值缓存进行了优化。通过SqueezeAttention,内存使用量能够显著降低30%至70%,同时吞吐量也得到了翻倍提升。这...

Read More
2024-04-09 talkingdev

企业如何有效融合大型语言模型提升产品价值

大型语言模型(LLMs)在提升公司内部效率方面的作用不容小觑,但其如何使产品对客户更具价值则是一大挑战。本文深入探讨了如何将大型语言模型有意义地整合到现有产品中,包括对这一技术的思考、工作流程的改造、模型...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page