Loading...

阿里巴巴推出OutfitAnyone:支持任何服装与任何人的高质量虚拟试穿

小野资讯7个月前更新 xxball
5,870 0 0

阿里巴巴推出OutfitAnyone:支持任何服装与任何人的高质量虚拟试穿

摘要

OutfitAnyone是阿里巴巴开发的一款基于扩散模型的2D虚拟试穿框架,旨在解决现有虚拟试穿技术在生成高保真、细节一致的结果时遇到的挑战。OutfitAnyone采用双流条件扩散模型,可以处理衣物变形,生成更加逼真的试穿效果。无论是不同的姿势、体型,还是从动漫到野外的广泛应用场景,OutfitAnyone都能适应并生成高质量的试穿效果。

主要特点

  1. 高保真度虚拟试穿:利用双流条件扩散模型,保持衣物的纹理、图案和形状一致。
  2. 多样化适用人群:适用于不同年龄、性别和肤色的人群,甚至可以生成动漫人物的虚拟试穿效果。
  3. 广泛的衣物支持:支持单件衣物和多件衣物的试穿,包括上装和下装的组合。
  4. 灵活的体型和姿势适应:通过姿势和体型指导,能适应不同的体型和姿势变化,生成逼真的穿衣效果。
  5. 背景和光照保留:在复杂的背景和光照条件下生成合理的试穿效果。
  6. 高质量图像生成:支持从384 x 684到1080 x 1920的灵活图像尺寸生成。
  7. 时装设计辅助:帮助时装设计师生成独特和流行的服装设计,并提供创意灵感。
    阿里巴巴推出OutfitAnyone:支持任何服装与任何人的高质量虚拟试穿阿里巴巴推出OutfitAnyone:支持任何服装与任何人的高质量虚拟试穿

技术方法

  1. 双流条件扩散模型:独立处理人体数据和衣物数据,并在融合网络中合并,生成最终试穿图像。
  2. 衣物特征注入:通过稳定扩散和ReferenceNet注入衣物特征,提升生成图像的质量。
  3. 无分类器指导:通过无条件分类器指导生成更精确、一致的结果。
  4. 背景和光照保留:保持生成图像与原始图像在背景和光照上的一致性。
  5. 姿势和体型指导:利用骨骼图像、密集姿势图像或SMPL模型图像实现姿势控制。
  6. 细节修饰器:通过构建高低质量图像对,训练扩散模型恢复细节。
    阿里巴巴推出OutfitAnyone:支持任何服装与任何人的高质量虚拟试穿

应用场景

  1. 个人肖像创作
  2. 广告设计
  3. 电影特效制作
  4. 虚拟人物塑造

相关链接

项目及演示:https://humanaigc.github.io/outfit-anyone/

论文:https://arxiv.org/pdf/2407.16224

GitHub:https://github.com/HumanAIGC/OutfitAnyone

在线体验:https://huggingface.co/spaces/HumanAIGC/OutfitAnyone

© 版权声明

相关文章