欢迎来到三一文库! | 帮助中心 三一文库31doc.com 一个上传文档投稿赚钱的网站
三一文库
全部分类
  • 研究报告>
  • 工作总结>
  • 合同范本>
  • 心得体会>
  • 工作报告>
  • 党团相关>
  • 幼儿/小学教育>
  • 高等教育>
  • 经济/贸易/财会>
  • 建筑/环境>
  • 金融/证券>
  • 医学/心理学>
  • ImageVerifierCode 换一换
    首页 三一文库 > 资源分类 > DOC文档下载  

    基于DensePose的姿势转换系统,仅根据一张输入图像和目标姿势.doc

    • 资源ID:3409776       资源大小:18.50KB        全文页数:4页
    • 资源格式: DOC        下载积分:2
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录 QQ登录   微博登录  
    二维码
    微信扫一扫登录
    下载资源需要2
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    基于DensePose的姿势转换系统,仅根据一张输入图像和目标姿势.doc

    基于DensePose的姿势转换系统,仅根据一张输入图像和目标姿势DensePose团队在ECCV 2018发表又一杰作:密集人体姿态转换!这是一个基于DensePose的姿势转换系统,仅根据一张输入图像和目标姿势,生成数字人物的动画效果。DensePose 是 Facebook 研究员 Natalia Neverova、Iasonas Kokkinos 和法国 INRIA 的 Rza Alp Guler 开发的一个令人惊叹的人体实时姿势识别系统,它在 2D 图像和人体3D 模型之间建立映射,最终实现密集人群的实时姿态识别。具体来说,DensePose 利用深度学习将 2D RPG 图像坐标映射到 3D 人体表面,把一个人分割成许多 UV 贴图(UV 坐标),然后处理密集坐标,实现动态人物的精确定位和姿态估计。DensePose 模型以及数据集已经开源,传送门:http:/densepose/最近,该团队更进一步,发布了基于 DensePose 的一个姿势转换系统:Dense Pose Transfer,仅根据一张输入图像和目标姿势,创造出 “数字化身” 的动画效果。在这项工作中,研究者希望仅依赖基于表面(surface-based)的对象表示(object representations),类似于在图形引擎中使用的对象表示,来获得对图像合成过程的更强把握。研究者关注的重点是人体。模型建立在最近的 SMPL 模型和 DensePose 系统的基础上,将这两个系统结合在一起,从而能够用完整的表面模型来说明一个人的图像。具体而言,这项技术是通过 surface-based 的神经合成,渲染同一个人的不同姿势,从而执行图像生成。目标姿势(target pose)是通过一个 “pose donor” 的图像表示的,也就是指导图像合成的另一个人。DensePose 系统用于将新的照片与公共表面坐标相关联,并复制预测的外观。我们在 DeepFashion 和 MVC 数据集进行了实验,结果表明我们可以获得比最新技术更好的定量结果。除了姿势转换的特定问题外,所提出的神经合成与 surface-based 的表示相结合的方法也有希望解决虚拟现实和增强现实的更广泛问题:由于 surface-based 的表示,合成的过程更加透明,也更容易与物理世界连接。未来,姿势转换任务可能对数据集增强、训练伪造检测器等应用很有用。Dense Pose Transfer研究人员以一种高效的、自下而上的方式,将每个人体像素与其在人体参数化的坐标关联起来,开发了围绕 DensePose 估计系统进行姿势转换的方法。我们以两种互补的方式利用 DensePose 输出,对应于预测模块和变形模块(warping module),如图 1 所示。图 1:pose transfer pipeline 的概览:给定输入图像和目标姿势,使用 DensePose 来执行生成过程。变形模块使用 DensePose 表面对应和图像修复(inpainting)来生成人物的新视图,而预测模块是一个通用的黑盒生成模型,以输入和目标的 DensePose 输出作为条件。这两个模块具有互补的优点:预测模块成功地利用密集条件输出来为熟悉的姿势生成合理的图像;但它不能推广的新的姿势,或转换纹理细节。相比之下,变形模块可以保留高质量的细节和纹理,允许在一个统一的、规范的坐标系中进行修复,并且可以自由地推广到各种各样的身体动作。但是,它是以身体为中心的,而不是以衣服为中心,因此没有考虑头发、衣服和配饰。将这两个模块的输出输入到一个混合模块(blending module)可以得到最好的结果。这个混合模块通过在一个端到端可训练的框架中使用重构、对抗和感知损失的组合,来融合和完善它们的预测。图 2:warping stream 上姿势转换的监控信号:通过 DensePose 驱动的空间变换网络,将左侧的输入图像扭曲到固有的表面坐标。图 3:Warping 模块的结果如图 3 所示,在修复过程(inpainting process),可以观察到一个均匀的表面,捕捉了皮肤和贴身衣服的外观,但没有考虑头发、裙子或外衣,因为这些不适合 DensePose的表面模型。实验和结果我们在 DeepFashion 数据集上进行实验,该数据集包含 52712 个时装模特图像,13029 件不同姿势的服装。我们选择了 12029 件衣服进行训练,其余 1000 件用于测试。表1:根据结构相似度 (SSIM)、 Inception Score(IS)41 和 detection score(DS)指标,对DeepFashion 数据集的几种 state-of-the-art 方法进行定量比较。我们首先将我们的框架与最近一些基于关键点的图像生成或多视图合成方法进行比较。表 1 显示,我们的 pipeline 在结构逼真度(structural fidelity)方面有显著优势。在以IS 作为指标的感知质量方面,我们模型的输出生成具有更高的质量,或可与现有工作相媲美。定性结果如图 4 所示。图 4:与最先进的 Deformable GAN (DSC) 方法的定性比较。密集人体姿态转换应用在这项工作中,我们介绍了一个利用密集人体姿态估计的 two-stream 姿态转换架构。我们已经证明,密集姿势估计对于数据驱动的人体姿势估计而言是一种明显优越的调节信号,并且通过 inpainting 的方法在自然的体表参数化过程中建立姿势转换。在未来的工作中,我们打算进一步探索这种方法在照片级真实图像合成,以及处理更多类别方面的潜力。作者:Rza Alp Güler,INRIA, CentraleSupélecNatalia Neverova,Facebook AI ResearchIasonas Kokkinos,Facebook AI Research

    注意事项

    本文(基于DensePose的姿势转换系统,仅根据一张输入图像和目标姿势.doc)为本站会员(白大夫)主动上传,三一文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一文库(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    经营许可证编号:宁ICP备18001539号-1

    三一文库
    收起
    展开