漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-23 talkingdev

HuggingFace发布针对3D并行的代码库Nanotron

近日,HuggingFace发布了一个名为Nanotron的小型而强大的库,用于训练具有3D并行性的模型。这意味着它将数据、模型和模型中的层/张量分割开来。前两种并行性在PyTorch等库中得到了很好的支持。然而,将模型张量分割...

Read More
2024-01-22 talkingdev

Meta发布音乐和声音生成模型(HuggingFace Hub)

Meta最近推出了一系列令人难以置信的音乐和声音生成模型,并发布了推理代码。这些模型是通过机器学习训练的,可以生成高质量的音乐和声音效果。该公司表示,这些模型可以用于广泛的应用场景,包括游戏声音、虚拟现实...

Read More
2024-01-22 talkingdev

HuggingFace发布Haiku DPO数据集,助力模型写出正确的俳句

HuggingFace于近日发布了Haiku DPO数据集,旨在帮助AI模型写出正确的日本俳句。该数据集由多位专业诗人参与标注,包含数千条俳句及其正确的音律和形式,涵盖了从传统到现代的各个风格。据悉,该数据集可以用于训练和...

Read More
2024-01-11 talkingdev

谷歌开源1.6T MoE模型

谷歌的开关Transformer是最早成功的专家混合模型之一。现在,该模型的代码已经在HuggingFace平台上发布,供人们使用。

Read More
2024-01-08 talkingdev

HuggingFace与Stability AI合作开源复现MUSE

MUSE是一种使用Transformers的掩蔽图像生成模型。HuggingFace和Stability AI已经合作开源复现该模型,并发布了训练代码、模型检查点和论文。虽然这些模型的训练时间不如一些最好的图像扩散模型长,但它们显示出了很...

Read More
2023-12-15 talkingdev

微软轻量可部署本地的语言模型Phi-2发布

微软的最新模型现已在HuggingFace上提供研究用途。Phi-2是一种基于Transformers的语言生成模型,它被训练用于生成各种文本,包括问答、对话和自然语言生成。该模型采用的是自回归模式,即在生成下一个单词或字符时,...

Read More
2023-12-13 talkingdev

HuggingFace 发布 Transformers 4.36.0 版本,新增 Mistral 模型和 AMD 支持

近日,HuggingFace 发布了最新版本的 Transformers 4.36.0。此次更新新增了 Mistral 模型和 AMD 支持等多项功能。同时,safetensors 已成为默认设置。HuggingFace 的这次更新将为 AI 模型的开发和训练提供更加便利的...

Read More
2023-12-08 talkingdev

StableFast开源,更快的Diffusers推理引擎

Stable Fast是HuggingFace扩散模型的推理引擎,通过它可以进行快速的Diffusers推理。该推理引擎在多种硬件上实现了出色的性能,包括CPU和GPU。此外,Stable Fast还兼容多个框架,包括PyTorch和TensorFlow。在GitHub...

Read More
  1. Prev Page
  2. 3
  3. 4
  4. 5
  5. Next Page