漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-07 talkingdev

使用Morph-Tokens增强视觉能力

研究人员已经开发出“Morph-Tokens”来提高AI的视觉理解和图像生成能力。这些令牌将用于理解的抽象概念转换为用于图像创建的详细视觉,利用MLLM框架的先进处理能力。Morph-Tokens的开发,不仅能够提高AI的图像理解和生...

Read More
2024-05-07 talkingdev

Unsloth.ai:轻松微调和训练LLMs的新方式

Unsloth.ai的创始人近期发布了一段视频,详述了他们的团队如何使用PyTorch,编写他们的内核,以及设计他们的API界面。Unsloth的框架和库功能强大,易于使用。Unsloth通过这种方式,使得大量的开发者能够更好地进行深...

Read More
2024-05-06 talkingdev

Lamini AI成功融资2500万美元A轮资金

企业级AI平台Lamini使企业内的软件团队能够开发出新的LLM能力,减少对专有数据的幻觉,安全地从云VPCs到现场运行他们的LLM,并通过模型评估来扩大他们的基础设施,这些模型评估优先考虑ROI和业务成果而非炒作。Lamin...

Read More
2024-05-06 talkingdev

苹果Ajax LLM技术升级iOS18 Siri AI 功能,Safari和Spotlight Search新增AI增强功能

苹果公司即将在iOS 18中,为Safari、Spotlight Search和Siri增强AI相关功能。Safari的其中一个关键功能是文本摘要。 Siri也将获得类似的更新,使其能够以简化的方式生成响应来传递消息的内容。苹果的AI模型将完全在...

Read More
2024-05-03 talkingdev

开源实现扩展LLM大模型到128K上下文长度

一项最新的研究揭示了一种能够显著扩展语言模型上下文长度至128K的方法。这项研究强调了大量和多样性的训练数据的重要性。语言模型的上下文长度是语言模型理解和生成连贯文本的能力的一个重要因素。此项新的研究方法...

Read More
2024-05-01 talkingdev

Phospho:开源的LLM应用文本数据分析平台

最近,GitHub仓库上新增了一款名为Phospho的文本分析平台。这款平台主要针对LLM应用进行文本分析,提供了一种全新的处理文本数据的方法。Phospho可以帮助开发者处理大量的文本数据,提取有用的信息,并进行深度分析...

Read More
2024-05-01 talkingdev

QUICK:加速LLM的新CUDA内核开源

QUICK是一套新的优化CUDA内核,通过解决内存问题,提升了大型语言模型的效率。这导致了NVIDIA GPU上的显著速度提升,使AI模型运行更快,效率更高。QUICK的出现,无疑为AI领域带来了新的可能性,通过优化内存处理方式...

Read More
2024-05-01 talkingdev

Meta发布ExecuTorch框架,为边缘设备上的LLM提供支持

Meta发布了一款名为ExecuTorch的框架,这是一个后训练量化工具包,能够支持在各种iPhone和Galaxy设备上运行Llama模型。该框架能够在运行7B大小语言模型的手机上,每秒获取多达11个令牌。ExecuTorch框架的发布,进一...

Read More
2024-04-30 talkingdev

Mistral.rs:一款快速的LLM开源推理平台

近日,一款名为Mistral.rs的LLM推理平台在GitHub上备受关注。它可以支持多种设备上的推理,支持量化,并且具有易于使用的应用程序,带有OpenAI API兼容的HTTP服务器和Python绑定。无论是在深度学习推理、设备兼容性...

Read More
2024-04-30 talkingdev

论文:以FP6-LLM新装包格式加速训练,实现全张量核心利用

浮点精度的降低能够提高训练速度,但可能会导致不稳定的现象。最新的研究论文展示,通过新的装包格式FP6-LLM,可以在不引发常见不稳定性或由于尝试不当引发的训练速度下降的情况下,实现全张量核心的利用。这一突破...

Read More
  1. Prev Page
  2. 23
  3. 24
  4. 25
  5. Next Page