HyperAI超神经

StyleMe3D:通过多个编码器在3D高斯分布上的解缠先验进行风格化

Cailin Zhuang, Yaoqi Hu, Xuanyang Zhang, Wei Cheng, Jiacheng Bao, Shengqi Liu, Yiying Yang, Xianfang Zeng, Gang Yu, Ming Li
发布日期: 4/23/2025
摘要

3D 高斯点云(3DGS)在逼真的场景重建方面表现出色,但由于纹理碎片化、语义对齐问题以及对抽象美学适应性有限,它在处理风格化场景(例如卡通、游戏)时遇到困难。我们提出了 StyleMe3D,一个全面的 3D GS 风格迁移框架,该框架集成了多模态风格条件、多层次语义对齐和感知质量增强。我们的主要见解包括:(1) 仅优化 RGB 属性可以在风格化过程中保持几何完整性;(2) 解耦低级、中级和高级语义对于一致的风格迁移至关重要;(3) 在孤立对象和复杂场景之间实现可扩展性对于实际部署是必不可少的。StyleMe3D 引入了四个新颖的组件:动态风格得分蒸馏(Dynamic Style Score Distillation, DSSD),利用 Stable Diffusion 的潜在空间进行语义对齐;对比风格描述符(Contrastive Style Descriptor, CSD),用于局部内容感知纹理迁移;同时优化尺度(Simultaneously Optimized Scale, SOS),以解耦风格细节和结构一致性;以及 3D 高斯质量评估(3D Gaussian Quality Assessment, 3DG-QA),这是一种基于人类评分数据训练的可微美学先验,用于抑制伪影并增强视觉和谐。在 NeRF 合成数据集(对象)和 tandt 数据库(场景)上进行评估时,StyleMe3D 在保持几何细节(例如雕塑上的雕刻)和确保跨场景的风格一致性(例如景观中的连贯光照)方面优于现有最先进方法,同时还能维持实时渲染能力。这项工作将逼真的 3D GS 和艺术风格化相结合,解锁了在游戏、虚拟世界和数字艺术中的应用潜力。 注:原文中“tandt db”未明确具体含义,在中文翻译中保留原词以确保信息完整。