Command Palette
Search for a command to run...
Jiang Boyi ; Zhang Juyong ; Hong Yang ; Luo Jinhao ; Liu Ligang ; Bao Hujun

摘要
在本文中,我们研究了如何从单张接近正面视角的RGB图像自动重建衣物和人体形状的问题。为此,我们在SMPL模型基础上提出了一种分层的衣物表示方法,并创新性地使衣物的蒙皮权重独立于人体网格,这显著提高了我们衣物模型的表现能力。与现有方法相比,我们的方法可以支持更多的衣物类别,并且能够恢复更精确的几何结构。为了训练我们的模型,我们构建了两个大规模的数据集,其中包含真实的人体和衣物几何结构以及配对的颜色图像。与单一网格或非参数化表示相比,我们的方法通过分离的网格实现了更灵活的控制,使得重新姿态调整(re-pose)、衣物转移(garment transfer)和衣物纹理映射(garment texture mapping)等应用成为可能。代码和部分数据可在https://github.com/jby1993/BCNet 获取。
代码仓库
jby1993/BCNet
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 | 
|---|---|---|
| garment-reconstruction-on-4d-dress | BCNet_Upper | Chamfer (cm): 2.079 IOU: 0.700  | 
| garment-reconstruction-on-4d-dress | BCNet_Lower | Chamfer (cm): 2.533 IOU: 0.675  | 
| garment-reconstruction-on-4d-dress | BCNet_Outer | Chamfer (cm): 3.600 IOU: 0.639  |