NeurIPS 2023|RayDF:实时渲染!基于射线的三维重建新方法

编辑 | 极市平台

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

点击进入→自动驾驶之心【NeRF】技术交流群

本文只做学术分享,如有侵权,联系删文

导读

 

本论文提出一个全新的维护了多视角几何一致性的基于射线的隐式表达方法RayDF。该方法基于简单的射线-表面距离场,通过引入全新的双射线可见性分类器和多视角一致性优化模块,学习得到满足多视角几何一致的射线-表面距离。

04342c537048be232c35f13f87191148.png

论文链接:https://arxiv.org/pdf/2310.19629

代码链接:https://github.com/vLAR-group/RayDF

主页:https://vlar-group.github.io/RayDF.html

方法流程:

6ffe3e16b0bda0e7e85e6c7f2009479c.jpeg
图 1 RayDF的整体流程和组成部分

一、Introduction

在机器视觉和机器人领域的许多前沿应用中,学习准确且高效的三维形状表达是十分重要的。然而,现有的基于三维坐标的隐式表达在表示三维形状或是渲染二维图像时,需要耗费昂贵的计算成本;相比之下,基于射线的方法则能够高效地推断出三维形状。但是,已有的基于射线的方法没有考虑到多视角下的几何一致性,以至于在未知视角下难以恢复出准确的几何形状。

针对这些问题,本论文提出一个全新的维护了多视角几何一致性的基于射线的隐式表达方法RayDF。该方法基于简单的射线-表面距离场(ray-surface distance field),通过引入全新的双射线可见性分类器(dual-ray visibility classifier)和多视角一致性优化模块(multi-view consistency optimization module),学习得到满足多视角几何一致的射线-表面距离。实验结果表明,改方法在三个数据集上实现了优越的三维表面重建性能,并达到了比基于坐标的方法快1000倍的渲染速度(见Table 1)。

cf6c3dde8a5de6ddf3b631aa2b339032.png

主要贡献如下:

  • 采用射线-表面距离场来表示三维形状,这个表达比现有的基于坐标的表达更高效。

  • 设计了全新的双射线可见性分类器,通过学习任意一对射线的空间关系,使得所学的射线-表面距离场能够在多视角下保持几何一致性。

  • 在多个数据集上证明了该方法在三维形状重建上的准确性和高效性。

二、Method

2.1 Overview

如图1所示,RayDF包含两个网络及一个优化模块。对于主网络ray-surface distance network,只需输入一条射线,即可得到射线起点到射线打到的几何表面点之间的距离值。其中,如图2所示,RayDF使用一个包围三维场景的球对输入的射线进行参数化,将参数化得到的四维球坐标(入射点和出射点)作为网络输入。对于辅助网络dual-ray visibility classifier,输入一对射线和一个几何表面点,预测两条射线之间的相互可见性。这个辅助网络在训练好之后,将在后续multi-view consistency optimization module中起到关键作用。

1dec39069bde8c3217359c21dc89381f.jpeg
图 2 射线-表面距离场的射线参数化及网络结构

2.2 Dual-ray Visibility Classifier

该方法中的辅助网络是一个预测输入的两条射线是否能同时看到一个表面点的二元分类器。如图3所示,将输入的两条射线所得特征取平均值,以确保预测的结果不受两条射线的顺序所影响。同时,将表面点进行单独编码得到的特征拼接在射线特征之后,以增强射线特征,从而提升分类器的准确性。

b35574d0b7e881ec7f160e30bf82eba2.jpeg
图 3 双射线可见性分类器的框架结构

2.3 Multi-view Consistency Optimization

以设计的主网络ray-surface distance network和辅助网络dual-ray visibility classifier为铺垫,引入多视角一致性优化这一关键模块,对两个网络进行two-stage训练。

(1) 首先为辅助网络dual-ray visibility classifier构造用于训练的射线对。对于一张图片中的一条射线(对应图片中的一个像素),通过其ray-surface distance可知对应的空间表面点,将其投影到训练集中的剩余视角下,即得到另一个射线;而该射线有其对应的ray- surface distance,文章设置阈值10毫米来判断两条射线是否相互可见。

(2) 第二阶段是训练主网络ray-surface distance network使其预测的距离场满足多视角一致性。如图4所示,对于一条主射线及其表面点,以该表面点为球心均匀采样,得到若干条multi-view ray。将主射线与这些multi-view ray一一配对,通过训练好的dual-ray visibility classifier即可得到其相互可见性。再通过ray-surface distance network预测这些射线的ray-surface distance;若主射线与某一条采样射线是相互可见的,那么两条射线的ray-surface distances计算得到的表面点应是同一个点;依此设计了对应的损失函数,并对主网络进行训练,最终可以使ray-surface distance field满足多视角一致性。   f8543577565fff3fcb73439d150cd293.jpeg

2.4 Surface Normal Derivation and Outlier Points Removal

由于在场景表面边缘处的深度值往往存在突变(存在不连续性),而神经网络又是连续函数,上述ray-surface distance field在表面边缘处容易预测出不够准确的距离值,从而导致边缘处的几何表面存在噪声。好在,设计的ray-surface distance field有一个很好的特性,如图5所示,每个估计的三维表面点的法向量都可以通过网络的自动微分以闭合形式轻松求出。因此,可以在网络推理阶段计算表面点的法向量欧氏距离,若该距离值大于阈值,则该表面点被视作离群点并剔除,从而得到干净的三维重建表面。

713c9668f428bd6cc23b8d063fa1c59b.png
图 5 Surface normal计算

三、Experiments

为了验证所提出方法的有效性,本文在三个数据集上进行了实验,分别是object-level的合成数据集Blender [1]、scene-level合成数据集DM-SR [2]、scene-level真实数据集ScanNet [3]。论文选取了七个baselines进行性能对比,其中OF [4]/DeepSDF [5]/NDF [6]/NeuS [7]是基于坐标的level-set方法、DS-NeRF [8]是有depth监督的NeRF-based方法,LFN [9]和PRIF [10]是基于射线的两个baselines。

由于RayDF方法很容易直接增加一个radiance分支来学习纹理,从而和上述支持预测radiance field的baselines进行比较。因此,论文对比实验分为两组,其中,Group 1只预测distances (几何),Group 2同时预测distances和radiances(几何和纹理)。

3.1 Evaluation on Blender Dataset

从Table 2和图6可以看出,在Group 1和2中,RayDF在表面重建上取得了更优的结果,尤其是在最重要的 ADE 指标上明显优于基于坐标和射线的baselines。同时在radiance field rendering上,RayDF也取得了与DS-NeRF相当的性能,并优于LFN和PRIF。

4ac8bd336cd7165a64560f8f27370959.png 32c827091c2a035b7b3dadce34e63305.png

图 6 Blender数据集可视化对比

3.2 Evaluation on DM-SR Dataset

从Table 3可以看出,在最关键的 ADE 指标上,RayDF超越了所有baselines。同时,在Group 2的实验中,RayDF能够在获得高质量的新视图合成的同时,保证恢复出准确的表面形状(见图7)。

7c618fc1578b2a7e4e3bcb335a0ae4d6.png a07226773e84989b1189687a604c5e21.png
图 7 DM-SR数据集可视化对比

3.3 Evaluation on ScanNet Dataset

Table 4比较了RayDF和baselines在具有挑战性的真实世界场景中的性能。在Group 1和2中,RayDF在几乎所有评估指标上都明显优于baselines,展示出了在恢复复杂的真实世界三维场景方面的明显优势。

5456d0e8cfa6ac459b8d406f007065b4.png 4c1a032d39f71c83f5efe0c2ba74c979.png
图 8 ScanNet数据集可视化对比

3.4 Ablation Study

论文在Blender数据集上进行了消融实验,其中Table 5展示了在十分关键的dual-ray visibility classifier上的消融实验结果。

  • 如Table 5 (1)所示,如果没有dual-ray visibility classifier的帮助,ray-surface distance field则会无法对新视角下的射线预测出合理的距离值(见图9)。

  • 在classifier的输入中,选择了输入表面点坐标来作为辅助,如Table 5 (2)和(3)所示,若选择输入表面点距离值作为辅助或是不提供辅助信息,分类器会获得较低的准确率和F1分数,导致为ray-surface distance network提供的可见性信息不够准确,进而预测出错误的距离值。

  • 如Table 5 (4)所示,以非对称的方式输入一对射线,所训练得到的分类器准确率较高,但F1分数较低。这表明,这种分类器的鲁棒性明显低于用对称输入射线训练的分类器。

其他ablations可在论文及论文附录中查看。

3fc4883fe1c872c0e3e182c56775af91.png 6dec361abcc08734e59fdce52a54b89d.png
图 9 使用与不使用分类器的可视化对比

四、Conclusion

总的来说,论文证明了通过使用基于射线的多视角一致性框架,确实可以高效、准确地学习三维形状表示。论文使用简单的射线-表面距离场来表示三维形状几何图形,并通过新颖的双射线可见性分类器进一步实现多视角几何一致性。在多个数据集上都证明了RayDF方法具有极高的渲染效率和出色的性能。欢迎进一步对RayDF框架进行扩展。更多可视化结果可在主页查看:

https://vlar-group.github.io/RayDF.html

① 全网独家视频课程

BEV感知、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测点云3D目标检测目标跟踪Occupancy、cuda与TensorRT模型部署协同感知语义分割、自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

b741d1009ae203dba128bd7a8f1a94fd.png 视频官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

近2000人的交流社区,涉及30+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(2D检测、分割、2D/3D车道线、BEV感知、3D目标检测、Occupancy、多传感器融合、多传感器标定、目标跟踪、光流估计)、自动驾驶定位建图(SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频,期待交流!

ba91e94e4269a992b945a0aa537f9b61.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多模态感知、Occupancy、多传感器融合、transformer、大模型、点云处理、端到端自动驾驶、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流等方向。扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

147cc38338f49360878c073295851c4b.jpeg

④【自动驾驶之心】平台矩阵,欢迎联系我们!

489608ef3258591c148ac5b72c6813a8.jpeg

猜你喜欢

转载自blog.csdn.net/CV_Autobot/article/details/134979420