-
摘要:随着无人机的普及,非法飞行现象给社会安全带来了严重威胁。针对无人机非法飞行监控中的难点,如目标与背景区分、快速准确跟踪、复杂环境下识别以及特征提取等,提出了一种基于云-边-端架构的视觉识别系统。该系统采用YOLO框架的深度学习算法进行无人机识别,并基于轻量化原则,对YOLOv5的架构进行了优化,以提高了YOLOv5对无人机识别的精度和处理速度。实验系统由树莓派控制的搭载摄像头的云台作为客户端,云端搭建服务器,两者通过MQTT协议进行通信。实验结果表明,所搭建的云-边-端架构的视觉识别系统利用改进的YOLOv5算法,能够以96%的平均精确度实时高效地在复杂环境下识别无人机,准确跟踪其运动轨迹,并具有良好的强弱光适应性。
关键词:视觉识别;无人机安防;深度学习;轻量化
0引言
随着机器人技术的飞速发展,无人机(Unmanned Aerial Vehicle,UAV)已广泛应用于多个领域,如军事侦察、空中摄影、农业监控、物流运输等[1]。然而,无人机的普及也对社会带来安全与隐私方面的挑战,如隐私侵犯、走私、恐怖攻击等非法活动,已经严重威胁社会安全。因此,开发针对微小无人机这类飞行器的实时准确监控与识别技术,变得至关重要。
针对无人机这类微小飞行物的识别,通常通过传感器获取目标信息,然后通过信号处理方法进行目标进行检测,再从处理后的信号或图像中提取特征,最后利用提取的特征信息使用分类算法进行分类[2]。
微小飞行物的探测包括目标物体的检测和识别两个任务。检测是指确认是否出现目标,但昆虫或鸟类可能导致误报,因此需要进行目标的识别,以便后续做出决策。目前无人机的探测技术主要有雷达探测技术、红外探测技术、可见光探测技术[2]、音频探测[4]、无线探测、融合探测探测,如表1所示。
由表1可知,可见光传感器在低空可以获得目标的高分辨率清晰图像信息,同时具有检测性能高,成本低,成像分辨率高,纹理特征明显的特点,因而在中低端领域的使用前景广阔。
卷积神经网络(Convolutional Neural Networks,CNN)是运用于目标检测技术当中最广泛的深度学习算法结构之一,近年来取得了巨大的进展。文献[5-7]利用了YOLOv5实现对目标进行特征提取与分类,在可见光图像中实现了优秀的目标识别效果。YOLOv5(You Only Look Once version 5),作为当前热门的目标检测算法之一,不仅能够实现实时视频流的快速处理,还能在各种环境条件下保持较高的识别准确率。
此外,目前云-边-端架构的智能识别系统也被广泛地应用在多种检测、控制系统中[8]。该架构具有提高实时性、减少数据传输成本[9]、增强隐私保护等优势,为微小飞行器的自主识别和监控提供了有效的技术支持。
本文旨在搭建基于YOLOv5算法的云-边-端智能识别系统,以解决当前无人机监控与识别中存在的问题。目前,相关领域的研究主要集中在传统的探测技术和简单的图像处理方法上,缺乏实时性和准确性[10]。因此,利用YOLOv5算法结合云-边-端架构的智能识别系统,可以提高对微小飞行器的实时准确监控能力,有效应对安全与隐私挑战。期望通过本研究提出的智能识别系统,实现对微小飞行器的实时准确监控,为社会安全和隐私保护提供有效支持。这将对无人机应用的安全管理、法律法规的制定和执行以及相关产业的可持续发展产生积极的影响,推动机器人技术在现实生活中的应用和发展。
1 YOLO算法
自首次被提出以来,YOLO算法经历了多个版本的迭代,不断提升其性能和效率。核心思想是将目标检测转化为单次回归问题,通过一次前向传播快速检测图像中的多个物体。从YOLOv1到YOLOv5,算法在网络结构、损失函数和训练策略等方面不断优化,提高了准确性和响应速度,适用于静态图像及实时视频流[11]。其中,YOLOv5通过采用CSPNet、Path Aggregation Network(PAN)和Spatial Pyramid Pooling(SPP)等创新技术,进一步提升了检测速度和精确度[12]。YOLOv5通过减少模型的参数量和计算复杂度,实现了更快的检测速度,这对于需要快速响应的无人机监测来说至关重要。
本文采用的YOLOv5模型的网络结构由骨干网络、颈部网络和头部模块3部分组成。骨干网用于特征提取,包括Conv模块、C3模块、Spatial Pyramid Pooling-Fast(SPPF)模块[13]。其中,Conv模块包含了一系列的卷积层、批归一化层和激活函数。这些模块通过堆叠和串联的方式构建了一个深层的网络结构,用于逐层提取图像的语义特征[14];C3模块通过跳跃连接和特征融合操作,提升了网络的感受野和特征表达能力,从而改善了目标检测的准确性[15];SPPF模块通过将输入特征图分为不同尺度的网格单元,然后在每个网格单元上进行池化操作[16]。不同尺度的池化操作可以捕捉到不同大小的感受野,从而提取到更丰富的语义信息;颈部网络则位于YOLOv5的主干网络和检测头之间,负责处理主干网络提取的特征,并将其转化为适合目标检测的特征表示,本文采用Path Aggregation Network(PANet)结构,PAN⁃et通过结合Feature Pyramid Network(FPN)和Bottom-up Path Augmentation实现了多尺度特征的融合和提升;头部网络负责预测目标的类别和位置信息,由一系列卷积层和全连接层组成,用于生成目标的边界框和类别概率,将颈部网络的输出送入头部模块,预测出目标的类别和位置。
本文采用的YOLOv5能够处理不同尺度的目标,使得无人机在不同距离和角度下都能被准确识别。采用多样化的数据增强策略,如镜像、旋转等,提高模型对各种环境条件下无人机的识别能力[17]。
2基于云-边-端架构的视频识别系统
2.1边端数据传输和处理
无人机跟踪识别系统采用树莓派作为云边端架构的视频识别系统中的边端处理器。视频数据传输与处理是确保视频监控系统高效识别和快速响应的关键。数据传输的过程涉及从无人机检测到的图像数据获取,到最终的处理和控制信号输出。整个过程可以分为:数据采集、初步处理、传输至上位机、目标识别,以及最终的摄像头云台的控制信号生成关键步骤。
树莓派系统上连接的高清摄像头实时捕捉视频流,以确保捕获到清晰且连续的图像序列,通过树莓派上的处理单元对捕获的视频流进行初步处理,包括图像的压缩、格式转换和初步的降噪处理,以优化数据传输效率和提高后续处理的准确性,树莓派系统将经过初步处理的数据通过无线网络传输到上位机。这一过程中,数据传输速率和稳定性至关重要,系统采用2.4 G的WiFi来保证传输速度和减少延迟。云端服务器首先通过优化的YOLOv5算法处理从摄像头接收到的视频流,实时识别并计算出无人机的位置坐标和预测其可能的追踪路径。这些关键信息随后通过使用MQTT协议传送给树莓派。树莓派系统接收到这些坐标数据后,运用PID控制算法来精确控制树莓派所连接的摄像头云台舵机。使得摄像头能够实时调整方向和角度,从而持续、准确地追踪无人机的移动轨迹。
2.2基于YOLOv5的云端数据处理
云端服务器首先会缓存接收到的视频数据,以平衡处理速度与传输速度之间的差异,以便为后续的自主识别提供连续的数据流。随后对接收到的图像数据进行预处理,包括大小调整、归一化等,以适应YOLOv5模型的输入要求。
云端服务器进一步采用YOLOv5模型对预处理后的图像数据进行识别。在此之前,加载预先训练好的YO⁃LOv5模型。该模型已经过预先训练,以识别无人机的特定特征,包括其位置坐标信息和可能的追踪路径。
YOLOv5模型对预处理后的图像进行特征提取和目标识别。算法利用深度学习技术识别图像中的无人机,并确定其在图像中的位置信息。识别结果经过后处理,包括非最大抑制(NMS)等步骤,以去除重复的检测框,确保输出结果的准确性[18]。处理后的结果(包括无人机的位置和可能的追踪路径)被传送回树莓派。
2.3云边端系统的数据传输协议
从云端服务器到边端的树莓派,数据传输网络是该监控系统的重要环节,这一过程涉及数据的编码、传输和解码。物联网通信协议主要用于无人机检测模块与云端服务器之间的通信,以及云端服务器与智能家居控制模块之间的通信。物联网的通信协议设计需要确保数据传输的稳定性和安全性,同时需要满足系统的实时性和可扩展性。本文采用MQTT(Message Queuing Telemetry Transport)作为物联网通信协议。MQTT最大优点在于,用极少的代码和有限的带宽,为连接远程设备提供实时可靠的消息服务[19]。
在云端设置MQTT服务器,这是所有MQTT消息的中心节点。服务器负责接收、过滤、分发每一条MQTT消息。边端设备树莓派作为客户端连接到MQTT服务器。在本项目中,树莓派作为发布者和订阅者,既发送数据也接收处理后的数据。定义一个名为uav/tracking/video⁃Stream的主题,用于发布从边端设备捕获的视频流数据。定义另一个主题uav/tracking/response用于云端处理后的数据响应。树莓派捕获视频流后,对其进行初步处理,然后将处理后的视频数据发布到uav/tracking/videoStream主题。云端服务器订阅uav/tracking/videoStream主题,接收到视频数据后,使用优化的YOLOv5算法进行处理,识别无人机的位置和预测其移动路径。处理完成后,云端服务器将识别结果和预测路径发布到uav/tracking/response主题。树莓派订uav/tracking/response主题,接收来自云端的处理结果[20]。
MQTT协议在本项目中实现了高效、可靠的数据传输和设备控制,支持了云-边-端架构下的实时视频监控和无人机识别任务。这种架构的实施,加上MQTT协议的低延迟和高效性,为无人机监测和跟踪提供了一个强大的解决方案。
2.4边端控制云台舵机
边端的树莓派嵌入式系统控制舵机对无人机进行实时跟踪,是该监控系统的重要功能,这要求树莓派系统能快速处理接收到的数据,并且其能精准控制舵机的动作。
本文的树莓派系统首先解析从云端接收到的信号,包括无人机的位置和移动方向。根据信号,树莓派在已标定的坐标空间通过PID算法计算舵机的运动参数,包括转动角度和速度,可根据无人机的速度和方向变化对舵机进行动态调整,控制其精确转动以跟踪无人机。这一步骤关键在于将控制信号准确转化为舵机的物理运动。在跟踪过程中,树莓派需要不断接收新的数据并调整舵机的运动,以适应无人机的移动。树莓派接收到云台舵机使用了PID算法使得舵机单次移动的距离缩短,总移动次数增多,使摄像头的运动更为平滑,降低画面抖动带来的识别误差。
在树莓派控制舵机的过程中,实时性、准确性和稳定性是关键。为了实现高效的跟踪,舵机的控制算法需要不断优化,而树莓派的硬件性能也应满足实时处理和控制的需求。
3实验和测试结果
3.1训练识别模型
本文通过抖音、快手、小红书等平台搜集了大量无人机图像,包含大量的无人机实际飞行的图像。这些图像涵盖了各种无人机型号、不同的环境背景(如城市景观、自然环境)、不同天气条件以及多种光照情况。
此外,在训练模型时,还考虑了无人机的不同飞行状态,如悬停、加速和转弯,以确保数据的全面性和代表性。图4(a)是人工标识部分验证集以验证训练效果的训练过程。图4(b)是本文所设计的轻量化后的YO⁃LOv5在不同测试场景下的识别结果,结合完全正确,可见训练后的模型的识别能力较高。
本文提出的轻量化的YOLOv5s无人机识别模型,在640×480的图像尺度下一帧的识别速度为50 ms。训练好的YOLOv5s模型在测试集上表现良好,召回率为94%,平均精确度为96%,如图5所示。
3.2实验结果与分析
为了全面评估所开发的基于云-边-端架构的微小飞行器视觉监控系统,进行了一系列的实验测试,如图6所示。这些测试旨在验证系统在不同条件下的无人机识别和跟踪能力。实验结果表明,在大多数情况下,系统能够准确地识别和跟踪无人机。在图示环境中,无论是在强光还是微光条件下,系统仍然表现出良好的适应性。视频监控画面显示,无人机的运动轨迹被系统实时捕捉并准确跟踪。
通过上述的系统搭建和对YOLOv5在无人机监测和识别领域的研究,这种基于自主识别技术视觉主动防范式监控的发展,不仅对无人机安全监控领域具有重大意义,同时也展示了深度学习对于运动物体识别中的应用潜力。
4结束语
本文搭建了基于视频监控系统的无人机视频监控系统,并对该系统的云-边-端系统从硬件设计到智能识别算法进行了详细分析。
实验结果显示,YOLOv5算法在微小飞行目标识别领域表现出色。其快速、准确的识别能力,使得它在处理实时视频流时特别有效,在实验环境中,YOLOv5能准确地检测出无人机的位置,即使在复杂背景或不利光照条件下亦然,这一点对于确保公共安全和私人领域的安全防护尤为重要。
尽管YOLOv5在无人机识别方面表现强劲,但仍有些不足:首先,算法在处理极高速度移动的目标时可能会出现延迟。其次,虽然YOLOv5对光照和背景变化有一定的适应性,但在极端条件下仍可能出现性能下降导致丢失追踪目标。此外,实际应用中的数据传输和处理速度要求极高,这对硬件设备提出了更高的要求。
尤其是在处理复杂背景或多样化无人机型号时,算法的泛化能力可能受到挑战。此外,由于实验依赖于特定的数据集,数据的规模和多样性可能影响算法的适应性和准确性。算法的实时处理能力受到硬件性能的限制,特别是在资源受限的设备上,可能需要进一步的优化。
可通过增加不同类型无人机的样本和在多种真实工作环境条件下的数据收集,以增强YOLOv5算法的泛化能力[21]。同时,研究也应着眼于将算法有效集成到实际城市视频监控系统中,考虑到不同硬件平台的适应性和优化。此外,高效处理和传输大量监控数据的策略也是未来工作的重要组成部分。实践表明,显著提升无人机的自主识别技术,可以更好地应对无人机快速发展带来的挑战。
参考文献:
[1]于龙.职业胜任力视角下中职无人机课程的项目教学研究[D].广州:广州大学,2023.
[2]罗俊海,王芝燕.无人机探测与对抗技术发展及应用综述[J].控制与决策,2022,37(3):530-544.
[3]张雅雯,胡士强.低空目标的雷达/可见光协同监视跟踪方法研究[J].计算机工程与应用,2018,54(6):234-240.
[4]ANWAR M Z,KALEEM Z,JAMALIPOUR A.Machine learning inspired sound-based amateur drone detection for public safety applications[J].IEEE Transactions on Vehicular Technology,2019,68(3):2526-2534.
[5]谢威宇,张强.基于深度学习的图像中无人机与飞鸟检测研究综述[J].计算机工程与应用,2024,60(8):46-55.
[6]董恒祥,潘江如,董芙楠,等.基于改进YOLOv5s模型的车辆及行人检测方法[J].北华大学学报(自然科学版),2024,25(2):244-254.
[7]PANTHAKKAN A,VALAPPIL N,AL-MANSOORI S,et al.AI based Automatic Vehicle Detection from Unmanned Aerial Vehi⁃cles(UAV)using YOLOv5 Model[C]//2022 IEEE 5th Interna⁃tional Conference on Image Processing Applications and Systems(IPAS),Genova,Italy.New York:IEEE,2022:1-5.
[8]原吕泽芮,顾洁,金之俭.基于云-边-端协同的电力物联网用户侧数据应用框架[J].电力建设,2020,41(7):1-8.
[9]李启锐.面向云边端协同的高性能移动边缘计算理论与方法研究[D].广州:广州大学,2021.
[10]蒋兆军,成孝刚,彭雅琴,等.基于深度学习的无人机识别算法研究[J].电子技术应用,2017,43(7):84-87.
[11]许德刚,王露,李凡.深度学习的典型目标检测算法研究综述[J].计算机工程与应用,2021,57(8):10-25.
[12]邵延华,张铎,楚红雨,等.基于深度学习的YOLO目标检测综述[J].电子与信息学报,2022,44(10):3697-3708.
[13]谢椿辉,吴金明,徐怀宇.改进YOLOv5的无人机影像小目标检测算法[J].计算机工程与应用,2023,59(9):198-206.
[14]郑远攀,李广阳,李晔.深度学习在图像识别中的应用研究综述[J].计算机工程与应用,2019,55(12):20-36.
[15]周飞燕,金林鹏,董军.卷积神经网络研究综述[J].计算机学报,2017,40(6):1229-1251.
[16]卢宏涛,张秦川.深度卷积神经网络在计算机视觉中的应用研究综述[J].数据采集与处理,2016,31(1):1-17.
[17]毛星云,冷雪飞,王碧辉,等.OpenCV3编程入门[M].北京:电子工业出版社,2015.
[18]李晓飞.基于深度学习的行人及骑车人车载图像识别方法[D].北京:清华大学,2016.
[19]任亨,马跃,杨海波,等.基于MQTT协议的消息推送服务器[J].计算机系统应用,2014,23(3):77-82.
[20]任亨.基于MQTT协议的消息推送集群系统的设计与实现[D].沈阳:中国科学院研究生院(沈阳计算技术研究所),2014.
[21]陈志强,陈旭东,DE OLIVIRAJ V,等.深度学习在设备故障预测与健康管理中的应用[J].仪器仪表学报,2019,40(9):206-226.
后台-系统设置-扩展变量-手机广告位-内容正文底部 |
-
<< 上一篇
下一篇:没有了!