- 1次围观
针对在硬件设备资源有限的情况下,深度相机在非结构化场景如何获取物体精确的位姿信息问题,提出一种基于双向融合纹理和深度信息的目标位姿检测方法。在学习阶段,两个网络采用全流双向融合(FFB6D)模块,纹理信息提取部分引入轻量的 Ghost 模块,减少了网络的计算量,并加入能增强有用特征的注意力机制CBAM,深度信息提取部分扩展了局部特征并多层次特征融合,获取更全面的特征;在输出阶段,为提高效率利用实例语义分割结果过滤背景点,再进行3D关键点检测,最终通过最小二乘拟合算法得到位姿信息。在LINEMOD、Occlusion LINEMOD和YCB-Video公共数据集上验证,其精度分别达到了99.8%、66.3%和94%,且参数量减少了31%,表明改进的位姿估计方法在保证精度的同时,也减少了参数量。
来源出处
基于双向融合纹理和深度信息的目标位姿检测
http://sjcj.nuaa.edu.cn/sjcjycl/article/abstract/202405013
相关内容
发布日期
10/08/2023 - 23:02
发布日期
06/17/2022 - 10:21
发布日期
01/11/2025 - 20:33
发布日期
12/08/2024 - 19:03
发布日期
09/10/2024 - 19:30
发布日期
01/10/2022 - 19:31
发布日期
10/31/2021 - 01:12
发布日期
01/10/2022 - 19:31
发布日期
10/31/2021 - 01:12
发布日期
10/31/2021 - 01:47
发布日期
08/17/2023 - 22:14
发布日期
10/29/2024 - 19:43
发布日期
10/31/2021 - 01:12
发布日期
06/17/2022 - 10:21
发布日期
01/22/2024 - 00:46
发布日期
04/26/2024 - 09:35
发布日期
01/10/2022 - 19:32
发布日期
12/11/2023 - 01:01
发布日期
06/17/2022 - 10:21
发布日期
03/18/2025 - 20:52