当前位置:   article > 正文

论文笔记_S2D.46_2013-3DV_基于点融合的动态场景实时三维重建_real-time 3d reconstruction in dynamic scenes usin

real-time 3d reconstruction in dynamic scenes using point-based fusion

基本情况

  • 题目:Real-time 3d reconstruction in dynamic scenes using point-based fusion
  • 出处:Keller M, Lefloch D, Lambers M, et al. Real-time 3d reconstruction in dynamic scenes using point-based fusion[C]//2013 International Conference on 3D Vision-3DV 2013. IEEE, 2013: 1-8.

摘要

实时或在线三维重建具有广泛的适用性,并由于消费者深度摄像机的可用性而受到进一步的关注。典型的方法是使用一个移动的传感器将深度测量数据累积到一个单一的模型中,然后不断地改进。设计这样的系统是一个复杂的平衡之间的重建质量,速度,空间尺度,和场景假设。现有的在线重建方法要么是缩小规模,以实现更高质量的小物体/场景重建。或者通过交易实时性能和/或质量来处理更大的场景,或者通过限制主动重建的边界。此外,许多系统假设一个静态场景,不能健壮地处理场景运动或重构,演变以反映场景变化。我们通过一种新的实时密集重建系统解决了这些限制,该系统与现有的在线方法质量相当,但在动态场景中支持额外的空间尺度和鲁棒性。我们的系统是围绕一个简单而扁平的基于点的表示而设计的,它直接与从距离/深度传感器获得的输入一起工作,没有在表示之间转换的开销。使用点使速度和内存效率,直接利用标准图形管道的所有核心操作;即相机姿态估计、数据关联、离群点去除、深度映射融合为单一去噪模型、动态对象检测与更新。我们通过定性和定量的结果得出结论,表明在

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/621473
推荐阅读
相关标签
  

闽ICP备14008679号