漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-01 talkingdev

Phospho:开源的LLM应用文本数据分析平台

最近,GitHub仓库上新增了一款名为Phospho的文本分析平台。这款平台主要针对LLM应用进行文本分析,提供了一种全新的处理文本数据的方法。Phospho可以帮助开发者处理大量的文本数据,提取有用的信息,并进行深度分析...

Read More
2024-05-01 talkingdev

QUICK:加速LLM的新CUDA内核开源

QUICK是一套新的优化CUDA内核,通过解决内存问题,提升了大型语言模型的效率。这导致了NVIDIA GPU上的显著速度提升,使AI模型运行更快,效率更高。QUICK的出现,无疑为AI领域带来了新的可能性,通过优化内存处理方式...

Read More
2024-05-01 talkingdev

Meta发布ExecuTorch框架,为边缘设备上的LLM提供支持

Meta发布了一款名为ExecuTorch的框架,这是一个后训练量化工具包,能够支持在各种iPhone和Galaxy设备上运行Llama模型。该框架能够在运行7B大小语言模型的手机上,每秒获取多达11个令牌。ExecuTorch框架的发布,进一...

Read More
2024-04-30 talkingdev

Mistral.rs:一款快速的LLM开源推理平台

近日,一款名为Mistral.rs的LLM推理平台在GitHub上备受关注。它可以支持多种设备上的推理,支持量化,并且具有易于使用的应用程序,带有OpenAI API兼容的HTTP服务器和Python绑定。无论是在深度学习推理、设备兼容性...

Read More
2024-04-30 talkingdev

论文:以FP6-LLM新装包格式加速训练,实现全张量核心利用

浮点精度的降低能够提高训练速度,但可能会导致不稳定的现象。最新的研究论文展示,通过新的装包格式FP6-LLM,可以在不引发常见不稳定性或由于尝试不当引发的训练速度下降的情况下,实现全张量核心的利用。这一突破...

Read More
2024-04-30 talkingdev

Effort引擎实现Apple硅芯片上LLM模型推断的实时调整

Effort引擎为Apple硅芯片上的LLM模型推断提供了实时调整的可能,从而在速度和质量之间找到了平衡。这种方法无需重新训练,但需要转换和预计算,可以通过加载更少的权重使模型运行得更快。开发者正在寻求Swift/Metal...

Read More
2024-04-29 talkingdev

FrugalGPT:有效降低LLM API成本的策略

FrugalGPT是一套可以大幅度降低LLM API成本的策略。这些策略包括提示压缩、缓存等操作。提示压缩可以通过减少数据大小来降低传输和存储成本,同时也可以提高数据处理速度。而缓存则可以通过存储经常访问的数据来减少...

Read More
2024-04-29 talkingdev

OpenLit开源:实现GenAI应用可观察性的一键工具

OpenLIT是一个OpenTelemetry原生的GenAI和LLM应用观察性工具,旨在通过只需一行代码,就能实现观察性到GenAI项目的集成过程。OpenLIT的设计理念是简洁而强大,能够帮助开发者快速、有效地将观察性集成到他们的项目中...

Read More
  1. Prev Page
  2. 12
  3. 13
  4. 14
  5. Next Page