漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-03 talkingdev

DSO技术突破:通过物理仿真反馈优化3D生成模型,实现物理合理性

当前大多数3D合成数据仅追求美学质量,导致其在物理环境中无法实现自立或自我支撑。DSO(Data Synthesis Optimization)项目通过微调生成模型,显著提升了3D对象的物理合理性。该技术采用物理仿真反馈机制,对生成结...

Read More
2025-04-01 talkingdev

TriplaneTurbo实现文本到3D模型的突破性进展

研究人员通过渐进式渲染蒸馏技术(Progressive Rendering Distillation),成功开发出无需真实3D网格数据即可从文本提示生成高质量3D模型的新方法。这一名为TriplaneTurbo的创新系统仅需1.2秒即可完成生成,在速度和...

Read More
2025-03-25 talkingdev

Roblox开源Cube 3D AI模型,文本生成3D对象助力创作效率提升

Roblox近日开源了其最新的AI模型Cube 3D,该模型能够通过文本提示生成3D对象,旨在提升创作效率。Cube 3D采用了先进的标记化技术,并通过授权和公开可用的数据集,以及Roblox自身的体验数据进行训练。未来,Cube 3D...

Read More
2025-03-24 talkingdev

[开源]LHM模型:单张图像秒速生成可动画的3D人体模型

近日,GitHub上发布了一个名为LHM(Large Animatable Human Reconstruction Model)的开源项目,该项目展示了如何通过单张图像快速生成一个完全可动画的3D人体模型。这一技术突破不仅展示了计算机视觉领域的重大进展...

Read More
2025-03-24 talkingdev

SynCity:无需训练,从文本生成精细3D世界的创新系统

SynCity是一种革命性的系统,能够直接从文本提示生成详细的3D世界,而无需任何训练。该系统结合了2D图像生成器和3D生成器的优势,前者确保了艺术质量,后者则提供了精确的几何结构。SynCity以分块的方式构建场景,并...

Read More
2025-03-20 talkingdev

Stability发布沉浸式3D视频生成技术:Stable Virtual Camera

近日,Stability推出了一项名为Stable Virtual Camera的创新技术,该技术基于一种多视角扩散模型,能够从单张或多张2D图像中生成沉浸式3D视频。这一技术允许用户自定义或预设相机轨迹,从而实现对3D场景的灵活控制。...

Read More
2025-03-14 talkingdev

Genies推出AIGC驱动系统,革新游戏资产创作流程

Game Art Forge近期推出的AI生成模板系统,旨在优化游戏资产创作的流程,提升开发者的速度、扩展性和创作控制力。该系统不仅支持高度定制化,还能保持设计一致性,为独立开发者及大型团队提供强有力的支持。通过结合...

Read More
2025-03-14 talkingdev

AnyMoLe:利用视频扩散模型生成任意角色的中间帧运动

在计算机视觉和图形学领域,生成角色的中间帧运动一直是一个具有挑战性的任务,尤其是当涉及个性化角色的动画生成时。传统的动画生成方法需要针对特定角色进行数据收集和模型训练,而新项目AnyMoLe通过引入视频扩散...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page