留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于深度学习的管件识别与位姿估计研究

李雨龙 陈松 李鑫 李昌龙 赵耀耀 李顺

李雨龙, 陈松, 李鑫, 李昌龙, 赵耀耀, 李顺. 基于深度学习的管件识别与位姿估计研究[J]. 制造技术与机床, 2022, (12): 70-75. doi: 10.19287/j.mtmt.1005-2402.2022.12.011
引用本文: 李雨龙, 陈松, 李鑫, 李昌龙, 赵耀耀, 李顺. 基于深度学习的管件识别与位姿估计研究[J]. 制造技术与机床, 2022, (12): 70-75. doi: 10.19287/j.mtmt.1005-2402.2022.12.011
LI Yulong, CHEN Song, LI Xin, LI Changlong, ZHAO Yaoyao, LI Shun. Research on pipe fitting identification and pose estimation based on deep learning[J]. Manufacturing Technology & Machine Tool, 2022, (12): 70-75. doi: 10.19287/j.mtmt.1005-2402.2022.12.011
Citation: LI Yulong, CHEN Song, LI Xin, LI Changlong, ZHAO Yaoyao, LI Shun. Research on pipe fitting identification and pose estimation based on deep learning[J]. Manufacturing Technology & Machine Tool, 2022, (12): 70-75. doi: 10.19287/j.mtmt.1005-2402.2022.12.011

基于深度学习的管件识别与位姿估计研究

doi: 10.19287/j.mtmt.1005-2402.2022.12.011
基金项目: 国家自然科学基金(51775258);辽宁省教育厅项目(2020FWDF07);辽宁省教育厅项目(2020FWDF05);辽宁科技大学基金(2018FW05)
详细信息
    作者简介:

    李雨龙,男,1996年生,硕士生,主要研究方向为机器视觉。E-mail:781692860@qq.com

    通讯作者:

    陈松,男,1976年生,博士,副教授,主要研究方向为智能制造、机器视觉、精密加工与特种加工。E-mail:paicchensong@126.com

  • 中图分类号: TP391.41

Research on pipe fitting identification and pose estimation based on deep learning

  • 摘要: 管件的6D位姿估计是机器人抓取抛光的前提,传统的估计策略工作量大,基于深度学习提出改进的深度对象姿态估计(deep object pose estimation,DOPE)框架对管件实时检测。首先,制作合成数据训练网络。其次,对网络提出改进:针对管件的旋转对称性,自定义损失函数,提高管件检测精度;且采用Resnet18提取管件特征,减轻网络规模。最后,探究热图阶段数对推理时间的影响。改进后的DOPE网络估计管件位姿时,其精度-阈值曲线下面积(area under the curve,AUC)提高了17%,参数量和浮点计算量分别减少9%和20%,检测单张图片仅需102 ms。估计管件位姿试验证明了改进DOPE的有效性,且满足工业要求。

     

  • 图  1  H62黄铜管三维模型

    图  2  域随机化数据集及其标签可视化

    图  3  真实照片级数据集

    图  4  DOPE网络结构

    图  5  采用不同损失函数检测时的AUC

    图  6  实时姿态估计结果

    表  1  Resnet18前13层网络结构

    模块名卷积1卷积2卷积3卷积4
    残差
    模块
    7$ \times $7, 64,
    S = 2
    $ \left\{\begin{array}{c}3\times 3,64\\ 3\times 3,64\end{array}\right\}\times 2 $$ \left\{\begin{array}{c}3\times 3,128\\ 3\times 3,128\end{array}\right\}\times 2 $$ \left\{\begin{array}{c}3\times 3,256\\ 3\times 3,256\end{array}\right\}\times 2 $
    输出
    尺寸
    200 $ \times $ 200200 $ \times $ 200100 $ \times $ 10050$ \times $ 50
    下载: 导出CSV

    表  2  不同特征提取模块试验结果

    AUC参数量/MFLOPs/G推理速度/ms
    H62黄铜管活塞杆
    Vgg190.460.4950.26155.65248
    Resnet180.490.4846.00124.90203
    Resnet340.500.5051.39145.58241
    下载: 导出CSV

    表  3  采用resnet18提取特征时不同阶段数试验结果

    10 000张
    (数据集大小)
    AUC参数
    量/M
    FLOPs/G推理
    时间/ms
    H62黄
    铜管
    活塞杆
    Resnet 18+2个阶段0.460.4612.4841.09102
    4个阶段0.490.4529.2482.99155
    6个阶段0.490.4846.00124.90203
    下载: 导出CSV
  • [1] 潘齐欣, 唐型基. 基于步进电机控制的仿人机械手臂抓取移动系统设计[J]. 科技通报, 2016, 32(3): 118-121. doi: 10.3969/j.issn.1001-7119.2016.03.027
    [2] 乔景慧, 李岭. 基于机器视觉的电视机背板检测及自适应抓取研究[J]. 工程设计学报, 2019, 26(4): 452-460. doi: 10.3785/j.issn.1006-754X.2019.04.011
    [3] 孔令升, 崔西宁, 郭俊广, 等. 基于时域编码结构光的高精度三维视觉引导抓取系统研究[J]. 集成技术, 2020, 9(2): 38-49. doi: 10.12146/j.issn.2095-3135.20200110001
    [4] 黄胜, 冉浩杉. 基于语义信息的精细化边缘检测方法[J]. 计算机工程, 2022, 48(3): 204-210. doi: 10.19678/j.issn.1000-3428.0060230
    [5] 李健, 赵丽华, 何斌. 回转体形状恢复与位姿估计方法[J]. 科学技术与工程, 2020, 20(11): 4458-4463. doi: 10.3969/j.issn.1671-1815.2020.11.037
    [6] 陈十力. 基于机器人视觉的钢板件检测、位姿估计与抓取[D]. 广州: 广东工业大学, 2019.
    [7] 李少飞, 史泽林, 庄春刚. 基于深度学习的物体点云六维位姿估计方法[J]. 计算机工程, 2021, 47(8): 216-223. doi: 10.19678/j.issn.1000-3428.0058768
    [8] He K M, Zhang X Y, Ren S Q, et al. Deep residual learning for image recognition[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016: 770-778.
    [9] 眭海刚、黄立洪、刘超贤. 利用具有注意力的Mask R-CNN检测震害建筑物立面损毁[J]. 武汉大学学报:信息科学版, 2020, 45(11): 9-17.
    [10] 王太勇, 孙浩文. 基于关键点特征融合的六自由度位姿估计方法[J]. 天津大学学报:自然科学与工程技术版, 2022, 55(5): 543-551.
    [11] Tremblay J, To T, Sundaralingam B, et al. Deep object pose estimation for semantic robotic grasping of household objects[J]. Conference on Robot Learning (CoRL), 2018.
    [12] Tobin J, Fong R, Ray A, et al. Domain randomization for transferring deep neural networks from simulation to the real world[C]. 2017 IEEE/RSJ international conference on intelligent robots and systems (IROS), 2017: 23-30.
    [13] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science, 2014.
    [14] Xiang Y, Schmidt T, Narayanan V, et al. Posecnn: A convolutional neural network for 6d object pose estimation in cluttered scenes[J]. arXiv preprint arXiv: 1711.00199, 2017.
  • 加载中
图(6) / 表(3)
计量
  • 文章访问数:  57
  • HTML全文浏览量:  13
  • PDF下载量:  18
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-07-22

目录

    /

    返回文章
    返回

    重要提示

    1. 唯一官方网站:1951.mtmt.com.cn

    2. 本刊编辑部、工作人员邮箱后缀为@jcs.gt.cn

    3. 电话

    010-64739683/79(稿件、进度)

    010-64739685(缴费、录用证明)

    4. 作者服务QQ群:238874846

    注意以上信息,谨防冒名、被骗!

    《制造技术与机床》编辑部