计算机与现代化 ›› 2025, Vol. 0 ›› Issue (09): 20-26.doi: 10.3969/j.issn.1006-2475.2025.09.003
摘要:
摘要:机器人代替人工完成旁路作业任务,需要其在复杂的作业场景下具有自主估计目标物体位姿的能力。针对旁路作业机器人在复杂背景和不同光照条件下目标位姿的实时估计问题,提出一种基于改进YOLO-6D且融合Transformer模型的6D位姿估计算法(RTFT6D),改进YOLOv8主干网络以提升推理速度,设计一种融合Transformer模型的特征加强网络,提升位姿估计的鲁棒性。实验结果表明,该算法在LINEMOD数据集上的精度超过了大多数基于RGB图像输入的位姿估计算法,并且针对不同光照条件下的配网旁路作业目标具有很好的位姿估计效果。
中图分类号: