漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-10 talkingdev

使用Colab在H100上训练超过20万上下文窗口的新梯度累积卸载技术

Longcontext Alpaca训练技术最近取得了重大突破,通过在H100硬件上使用新的梯度累积卸载技术,成功训练了超过200,000个上下文窗口。这种创新方法使得大规模深度学习模型的训练变得更加高效,显著提高了计算资源的利...

Read More
2024-04-09 talkingdev

用C/CUDA语言训练大型语言模型,无需依赖PyTorch

近期,Andrei Karpathy推出了一个名为llm.c的项目,该项目展示了如何使用C和CUDA编程语言来训练大型语言模型(LLM)。这一创新方法避免了对PyTorch等大型深度学习框架的依赖,尤其是其所需的250MB以上的资源。这种训...

Read More
2024-04-09 talkingdev

论文:机器学习模型如何革新医疗保健服务

最近的一份全面研究调查了医疗保健基础模型(Healthcare Foundation Models,简称HFMs)在改变医疗服务方面的潜力。这些模型预先在多样化的数据上进行训练,非常适合适应各种医疗保健任务,从而有可能在众多场景中提...

Read More
2024-04-08 talkingdev

ReFT:一种高效节省参数的微调语言模型方法

近期在GitHub上发布的ReFT(Representation Fine-Tuning)项目,为微调语言模型带来了一种新的参数高效方法。与传统的PeFT相比,ReFT在保持强大性能的同时,大大降低了成本。该方法通过精细化调整模型参数,使得在进...

Read More
2024-04-08 talkingdev

Qwen团队发布32B参数模型,实现强大性能并适应中等内存系统

Qwen团队最新力作——一个具备32B参数的AI模型,现已成功训练并对外发布。该模型在各类任务中展现出卓越的性能表现,同时其设计考虑到了内存的局限性,能够适配更为普遍的中等内存硬件系统。这意味着,即便是在资源有...

Read More
2024-04-08 talkingdev

Cohere发布Command R+:面向企业的可扩展大型语言模型

Cohere公司近日推出了Command R+,这是一款专为企业级应用场景设计的高性能、可扩展的大型语言模型(LLM)。Command R+具备先进的检索增强生成功能,并支持引用,同时覆盖10种关键语言的多语言处理能力,以及工具使...

Read More
2024-04-08 talkingdev

开发者大吐苦水:分享你最无用的项目经历(Hacker News讨论)

在软件开发的世界里,有时候任务的分配似乎并不总是有意义的。一个在Hacker News上的讨论串揭示了这一点,许多开发者分享了他们曾经参与过的看似毫无用处的项目。这些项目包括为已经废弃的工具进行修复、制作内部工...

Read More
2024-04-05 talkingdev

Gretel开源2300万文本至SQL数据集,助力自然语言处理技术发展

HuggingFace平台上新发布了一个由Gretel收集的大规模文本至SQL数据集,包含2300万条数据。该数据集旨在通过自然语言处理技术生成SQL查询语句,对RAG应用程序和合成数据生成领域具有重要意义。文本至SQL的任务一直是...

Read More
  1. Prev Page
  2. 9
  3. 10
  4. 11
  5. Next Page