漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-14 talkingdev

论文:利用2D扩散模型对3D网格进行图像风格化

这项研究提出了3DStyle-Diffusion模型,这是一种用于对3D网格进行细节风格化的新方法,整合了2D扩散模型以增加对外观和几何形状的控制。它通过首先使用隐式MLP网络将3D网格的纹理参数化为反射和照明,然后使用预训练...

Read More
2023-11-09 talkingdev

基于Transformer扩散模型的训练成本比基于UNet的模型便宜90%

PixArt是一种新的文本到图像模型,它使用T5文本编码、交叉注意力和扩散变压器,以比可比模型低得多的计算成本取得了出色的结果。这种新模型使用Transformer扩散模型,可以比使用UNet模型训练快90%。PixArt模型的训练...

Read More
2023-11-08 talkingdev

OpenAI开源其稳定扩散一致性解码器

OpenAI最近发布了用于稳定扩散的一致性解码器,这将极大地改善潜在扩散模型生成图像的性能。这是一个开源项目,可在GitHub上获得。随着这种技术的进步,我们可以期待AI在图像生成方面的更多突破。

Read More
2023-11-08 talkingdev

高斯混合解算器为扩散模型提供更清晰的图像

高斯混合解算器可以增强扩散模型,解决图像合成中的速度-质量平衡问题,为图像的细节和清晰度设定新标准。它基于高斯混合模型,通过聚类技术来确定数据的分布,进而提高图像质量。使用高斯混合模型可以更好地理解图...

Read More
2023-10-31 talkingdev

微软研究小组开放GPT-3.5-turbo,参数达到20B

微软研究小组在一篇论文中提到,GPT-3.5-turbo(ChatGPT背后的模型)是一个具有20B参数的模型,该小组研究扩散模型用于代码。据称原始模型的参数为175B,因此可能进行了重新训练或蒸馏。

Read More
2023-10-27 talkingdev

论文:基于开放数据训练的图像扩散模型

最受欢迎的扩散模型,如稳定扩散,已经在各种数据上进行了训练,但其中很多数据受到不同的版权限制。MosaicML提出的这种新模型纯粹基于创意共享数据进行训练,其性能与SD2相当,并且只需要训练数据的一小部分。

Read More
2023-10-16 talkingdev

ScaleCrafter: 高分辨率图像生成技术开源

研究人员使用预训练的扩散模型在较小的图像上进行训练,以生产大尺寸的高质量图像。他们发现在更大的图像中存在重复模式的问题,并将问题指向了模型结构的有限感知能力。

Read More
2023-10-11 talkingdev

提升文本生成中扩散模型的速度

研究人员推出了一种用于文本生成中的扩散模型的新技术。通过使用软吸收状态,他们改善了模型处理离散文本变化的方式,从而加快了学习速度和采样速度。扩散模型是一种能够模拟物质扩散过程的数学模型,能够以一种高效...

Read More
  1. Prev Page
  2. 9
  3. 10
  4. 11
  5. Next Page