基于深度学习的场景数字检出
详细信息    查看全文 | 推荐本文 |
  • 英文篇名:Scene digital detection based on deep learning
  • 作者:王璠 ; 丁军航 ; 徐世许
  • 英文作者:WANG Fan;DING Jun-hang;XU Shi-xu;
  • 关键词:深度学习 ; 卷积神经网络 ; 数字识别 ; YOLO
  • 中文刊名:JXGY
  • 英文刊名:Manufacturing Automation
  • 机构:青岛大学自动化与电气工程学院;
  • 出版日期:2019-03-25
  • 出版单位:制造业自动化
  • 年:2019
  • 期:v.41
  • 基金:山东省自然科学基金(2016ZRB01585);; 青岛市博士后人员应用研究项目(2016021)
  • 语种:中文;
  • 页:JXGY201903001
  • 页数:4
  • CN:03
  • ISSN:11-4389/TP
  • 分类号:7-9+17
摘要
传统的场景数字检测方法在复杂场景下检测效果不佳,并且图像预处理工作量过大。针对传统检测方法的缺点,基于深度学习,对比R-CNN等目标检测算法,最终选择YOLO算法进行场景数字检出。测试结果表明,YOLO算法在场景数字检出方面效果理想,检出率与准确率满足要求。但对于检出数字来说,YOLO的神经网络结构太复杂,可以进行简化,进一步提高检出速度。该研究提供了一种新的场景数字检出的思路,具有较高的应用价值。
        
引文
[1]Jian Zhao,Na Zhang,Jian Jia,Huanwei Wang.Digital watermarking algorithm based on scale-invariant feature regions in nonsubsampled contourlet transform domain[J].Journal of Systems Engineering and Electronics,2015,26(06):1310-1315.
    [2]Xiaoting Du.Handwritten Digits Recognition Technology Based on SAE-SVM Classifier[A].信息化与工程国际学会.Proceedings of 2016 2nd International Conference on Advances in Mechanical Engineering and Industrial Informatics(AMEII 2016)[C].信息化与工程国际学会,2016:7.
    [3]张彤,肖南峰.基于BP网络的数字识别方法[J].重庆理工大学学报(自然科学版),2010,24(03):43-47.
    [4]Shan Gao.The Recognition of Handwritten Digital Based on BP Neural Network[J].Applied Mechanics and Materials,2013,2698(416).
    [5]孔月萍,曾平,李智杰,郑海红,徐培培.基于组合特征的高效数字识别算法[J].计算机应用研究,2006(10):172-173,182.
    [6]颜卫卫,贾晓艳,马铁军.基于ANN-SVM级联分类器的胎号数字识别系统[J].轮胎工业,2014,34(10):634-636.
    [7]周成伟.基于卷积神经网络的自然场景中数字识别[J].计算机技术与发展,2017,27(11):101-105.
    [8]Juan Du.Understanding of Object Detection Based on CNN Family and YOLO[J].Journal of Physics:Conference Series,2018,1004(1).
    [9]Emil Raschman,Roman Zálusky,Daniela?ura?ková.New Digital Architecture of CNN for Pattern Recognition[J].Journal of Electrical Engineering,2010,61(4).
    [10]张会朋.基于视频的高铁列车检测算法研究[D].北京交通大学,2017.
    [11]许可.卷积神经网络在图像识别上的应用的研究[D].浙江大学,2012.

© 2004-2018 中国地质图书馆版权所有 京ICP备05064691号 京公网安备11010802017129号

地址:北京市海淀区学院路29号 邮编:100083

电话:办公室:(+86 10)66554848;文献借阅、咨询服务、科技查新:66554700