漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-30 talkingdev

Mistral.rs:一款快速的LLM开源推理平台

近日,一款名为Mistral.rs的LLM推理平台在GitHub上备受关注。它可以支持多种设备上的推理,支持量化,并且具有易于使用的应用程序,带有OpenAI API兼容的HTTP服务器和Python绑定。无论是在深度学习推理、设备兼容性...

Read More
2024-04-30 talkingdev

论文:以FP6-LLM新装包格式加速训练,实现全张量核心利用

浮点精度的降低能够提高训练速度,但可能会导致不稳定的现象。最新的研究论文展示,通过新的装包格式FP6-LLM,可以在不引发常见不稳定性或由于尝试不当引发的训练速度下降的情况下,实现全张量核心的利用。这一突破...

Read More
2024-04-30 talkingdev

开放式Gato复制:全面任务模型JAT的训练与评估

近日,与Hugging Face团队相关联的研究者们,训练并评估了一种名为JAT(Jack-of-All-Trades)的模型,这是一种全面任务模型,能在各种不同的任务上表现出相当的效果。此模型的出现,为深度学习领域的多任务学习提供...

Read More
2024-04-29 talkingdev

Luminal:以速度和简单性为核心的深度学习框架

Luminal 是一款基于深度学习的开源框架,它在GitHub上发布并得到了广泛的关注。这个框架以速度和简单性为出发点,把快速和简易性放在首位,让用户可以在最短的时间内实现深度学习模型的快速构建和部署。Luminal能够...

Read More
2024-04-28 talkingdev

微软开源BitBLAS:优化1.58位网络内核

微软近日发布了一组用于训练BitNet风格模型的GPU加速内核。这些模型在准确度上没有明显下降的情况下,大大降低了内存消耗。BitNet风格模型是一种新型的深度学习模型,它的特点是使用1.58位的数据表示方法,比传统的3...

Read More
2024-04-23 talkingdev

苹果发布CoreNet,用于训练深度神经网络库

苹果公司最近发布了一个名为CoreNet的库,用于训练深度神经网络。这个库旨在帮助开发者更快速、更方便地构建和训练深度学习模型,提高模型的准确性和性能。CoreNet提供了一系列的工具和接口,包括卷积神经网络、递归...

Read More
2024-04-20 talkingdev

LLMs在金融市场的应用

近年来,随着人工智能技术的飞速发展,越来越多的金融机构开始将自然语言处理技术应用于金融市场分析中。在这方面,LLMs(大规模语言模型)无疑是最受关注的技术之一。LLMs是一种基于深度学习的自然语言处理技术,它...

Read More
2024-04-16 talkingdev

GitHub2File:将GitHub仓库转换为文件,助力离线深度学习

GitHub2File是一个高效的实用工具,它可以将GitHub上的代码仓库转换成文件格式,供那些无法浏览网络的长文本模型使用。通过这个工具,研究人员和开发者可以在没有互联网连接的情况下,依然能够访问和研究GitHub上的...

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page