基于双向融合纹理和深度信息的目标位姿检测

root 提交于 周日, 10/13/2024 - 19:35
针对在硬件设备资源有限的情况下,深度相机在非结构化场景如何获取物体精确的位姿信息问题,提出一种基于双向融合纹理和深度信息的目标位姿检测方法。在学习阶段,两个网络采用全流双向融合(FFB6D)模块,纹理信息提取部分引入轻量的 Ghost 模块,减少了网络的计算量,并加入能增强有用特征的注意力机制CBAM,深度信息提取部分扩展了局部特征并多层次特征融合,获取更全面的特征;在输出阶段,为提高效率利用实例语义分割结果过滤背景点,再进行3D关键点检测,最终通过最小二乘拟合算法得到位姿信息。在LINEMOD、Occlusion LINEMOD和YCB-Video公共数据集上验证,其精度分别达到了99.8%、66.3%和94%,且参数量减少了31%,表明改进的位姿估计方法在保证精度的同时,也减少了参数量。

相关内容

发布日期 10/08/2023 - 23:02
发布日期 06/17/2022 - 10:21
发布日期 01/11/2025 - 20:33
发布日期 12/08/2024 - 19:03
发布日期 01/10/2022 - 19:31
发布日期 01/10/2022 - 19:31
发布日期 08/17/2023 - 22:14
发布日期 10/29/2024 - 19:43
发布日期 04/26/2024 - 09:35
发布日期 06/17/2022 - 10:21