漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-17 talkingdev

轻巧的视觉语言模型:Xmodel-VLM开源

Xmodel-VLM是一种针对消费级GPU服务器优化的视觉语言模型。为解决高昂的服务成本限制了大规模多模态系统的应用,这个10亿规模的模型采用了LLaVA范式进行模态对齐。这是一种新的方法,它优化了视觉和语言之间的协同工...

Read More
2024-05-15 talkingdev

论文:深度学习新模型,无状态序列并行推理

深度学习领域有了一项新的突破。研究人员开发出了一个新的状态空间模型,这一模型使用双重转移函数表示。其主要特点是一个无状态的序列并行推理算法。这种新的推理算法能够在处理大规模数据时,有效提高计算效率和准...

Read More
2024-05-06 talkingdev

深度教程:通过视频进行交通密度分析

本深度教程将指导您如何构建一个可以报告车辆交通密度的系统。该系统使用现代计算机视觉技术来对一段时间内的车辆进行计数。通过这种方法,我们可以更准确地了解到车流量的情况,从而为城市规划、交通管理等提供有力...

Read More
2024-05-02 talkingdev

Lightplane-开源高效内存技术助力3D渲染

Lightplane Renderer和Splatter组件是一种全新的方法,它极大地降低了2D-3D映射中的内存使用。Lightplane Renderer技巧性地从神经3D字段生成图像,而Lightplane Splatter则高效地将这些图像投射到3D Hash结构中。通...

Read More
2024-05-02 talkingdev

Reka发布内部评估套件 Vibe-Eval,火速赶超顶级玩家

Reka是一家专业训练大型基础模型的公司,尽管资金规模只是顶级玩家的一小部分,但其发展速度却迅速赶超了一些业界最佳参与者。近日,Reka发布了其内部评估套件Vibe-Eval的一个子集,该套件被用于确定其模型的强度。...

Read More
2024-05-01 talkingdev

QUICK:加速LLM的新CUDA内核开源

QUICK是一套新的优化CUDA内核,通过解决内存问题,提升了大型语言模型的效率。这导致了NVIDIA GPU上的显著速度提升,使AI模型运行更快,效率更高。QUICK的出现,无疑为AI领域带来了新的可能性,通过优化内存处理方式...

Read More
2024-05-01 talkingdev

Meta发布ExecuTorch框架,为边缘设备上的LLM提供支持

Meta发布了一款名为ExecuTorch的框架,这是一个后训练量化工具包,能够支持在各种iPhone和Galaxy设备上运行Llama模型。该框架能够在运行7B大小语言模型的手机上,每秒获取多达11个令牌。ExecuTorch框架的发布,进一...

Read More
2024-04-30 talkingdev

Memary开源:长记忆Agent开启大规模知识图谱存储新篇章

近日,GitHub上出现了一个名为Memary的新项目。该项目允许Agent在知识图谱中存储大量信息,通过我们的记忆模块推断用户知识,只检索与结果相关的信息。Memary的核心是其强大的知识图谱,这是一种可以存储和组织大量...

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page