-
植物病害是导致现代农林业减产的主要原因,及时准确的植物病害识别技术是实施有效防治的关键。在实际生产中,植物病害识别主要依靠人工肉眼观察及经验判断,需要人们在实地进行持续监测[1-2]。这种人工评估方法耗时费力且具有一定的主观性,阻碍了现代农林业的快速发展,因此,快速准确的植物病害自动识别成为了精准农业、高通量植物表型和智能温室等领域的研究热点[3-4]。基于图像处理的植物病害识别方法得到了广泛的研究和应用。早期的识别过程需要从图片中分割病斑,人工提取病斑特征,再利用机器学习算法对特征进行分类。HIARY等[5]提取病斑的纹理特征,采用k-means聚类算法和人工神经网络(artificial neural network,ANN)对5种植物病害进行识别,准确率达94%。TIAN等[6]提出用基于支持向量机(support vector machine,SVM)的多分类器识别小麦Triticum aestivum叶部病害。秦丰等[7]对4种苜蓿Medicago叶部病害进行识别研究,分析比较了多种分割方法、特征选择和分类方法。虽然以上方法在特定场景取得了较好效果,但仍无法实现病害的现场实时诊断。这些方法极大程度上基于阈值的病斑分割算法,对亮度、物体形态和遮挡程度都非常敏感[8−9],都只适合背景单一且对比度高的扫描式图像。此外,特征提取和选择复杂耗时,仅局限于有限几种病害,难以处理复杂背景的大数据。近年来,深度学习在计算机视觉领域取得重大突破。深度卷积网络神经网络(convolutional neural network,CNN)可在大数据中自动端到端提取特征,避免了人工图像分割和特征工程[10]。MOHANTY等[11]针对PlantVillage数据集[11] 54 306张植物病害图像,使用AlexNet[12]和GoogLeNet[13]识别38种植物病害。孙俊等[14]在同样的数据集上,将AlexNet进行改进,提出一种批归一化与全局池化相结合的识别模型。龙满生等[15]采用参数精调的迁移学习方式训练AlexNet,用于油茶Camellia oleifera病害图像识别。张建华等[16]基于改进的VGG16模型,通过迁移学习实现自然条件下棉花Anemone vitifolia病害图像分类。DECHANT等[17]提出了集成多个CNN的方法,实现玉米Zea mays大斑病图像的高精度识别。PICON等[18]利用深度残差网络ResNet对3种早期小麦病害进行识别,改善了复杂背景下的病害识别率。通常深度学习模型部署在云平台,需要将拍摄图像上传至云平台进行识别。但这种方法严重依赖高速的4G/5G无线网络和强大的云平台,不仅无法覆盖广大偏远农田林地,长时间大范围的上传与识别还导致能耗、流量及云服务成本大幅上涨,限制了物联网的建设规模。然而,目前的监控设备借助低成本低功耗加速芯片,即可支持边缘计算,仅在发现病害时通过低功耗广覆盖的NB-IoT网络[19]上报,可显著降低网络及云服务成本,促进大规模的农林业物联网普及。但现有的CNN模型计算量和参数量过大,不适用于边缘部署。轻量级模型MobileNet[20]在速度和精度两者间达到了一个较好的均衡,但其目标平台是手机等高端嵌入式平台,参数量及运算量仍超过PaddlePi等廉价边缘设备的承受能力。近年来,学术界也提出了多种模型压缩方法。模型通道剪枝[21]剪裁掉模型一部分冗余或低权重的卷积核,减少模型的参数量。量化[22]将模型由32 bit浮点数转化为定点整数,减少模型参数占用的空间。然而上述压缩方法仅应用于ResNet等重量级模型,尚未对MobileNet等轻量级模型压缩进行优化,而且这些压缩方法彼此相互独立,未能联合使用实现模型的深度压缩。为解决上述问题,本研究提出了面向边缘计算的植物病害识别模型构建方法,主要贡献为:①首次针对轻量级模型MobileNet实现深度压缩。②通过联合通道剪枝、量化等多种模型压缩方法,得到了深度压缩的轻量级边缘端模型,可在廉价边缘节点运行。③将模拟学习方法[23]与量化相结合,实现模型压缩的同时,提升识别效果,最后得到的边缘端模型可达到与原模型相近的识别准确率。
-
本研究使用PlantVillage植物病害数据集。PlantVillage既包含单一背景下的植物叶片扫描式图像,也收录自然背景下的植物叶片图像,包括叶片重叠、阴影和土壤干扰等情形。截至目前已收集了87 280张图像,包括25种植物和29种病害组成的58类植物-病害组合(图1)。
数据集按图1所示的编号将各种叶片归类并制作标签。随机抽取数据集中60%图像作为训练集,剩余的40%作为测试集。单一背景图像与自然背景图像使用相同的分割比例。由于PlantVillage数据集包含从不同角度对同一叶片拍摄的多张图像,因此相同叶片的图像仅存在于训练集或测试集中。
-
选择轻量级卷积神经网络MobileNet[20]作为本研究的基准模型。MobileNet模型将传统的卷积分解为一个深度卷积(depthwise convolution,DC)和一个卷积核为1×1的逐点卷积(pointwise convolution,PC),计算速度比传统卷积快8~9倍,主要面向智能手机等高端嵌入式系统。为深度压缩MobileNet,本研究提出了如图2所示的面向边缘计算的植物病害识别模型二阶段构建方法。
图 2 面向边缘计算的植物病害识别模型构建方法:通道剪枝和量化模拟学习
Figure 2. Plant disease recognition model for edge computing building pipeline: channel pruning and quantized mimic learning
第1阶段使用通道剪枝压缩迁移学习训练的MobileNet模型。与从头训练方法相比,迁移学习可以有效提升模型的识别准确率。迁移学习是用ImageNet数据集上预训练好的参数初始化模型,然后在PlantVillage数据集上通过标准多分类损失函数优化模型参数。最后使用基于L1范数的通道剪枝[21]精简低权值的卷积核,同时将该卷积核所有的输入输出连接从网络中删除,降低了模型计算量和存储空间。
第2阶段对剪枝后的模型通过量化方法进一步压缩,得到轻量级的边缘端模型。量化是将模型的权值和激活值由32 bit降低至8 bit,分为训练时量化和训练后量化。虽然训练时量化方法更适用于轻量级模型,但直接使用该方法压缩剪枝后的MobileNet模型仍会导致识别精度显著下降,因此第2阶段将模拟学习与训练时量化相结合,利用迁移学习的MobileNet监督剪枝后模型的量化训练过程,实现量化模拟学习,在模型压缩的同时提升识别准确率。
-
模型通道剪枝采用均匀剪枝方法对MobileNet模型的分离卷积层进行通道剪枝,即每层都减掉同样比例的卷积核。依据需要减少模型的浮点运算数量(floating point operations, FLOPs)来确定每层的剪枝比例。计算各层中每个卷积核权值的绝对值和(即L1范数),L1范数越大,代表该卷积核对模型的贡献越大,反之越小。每层按L1范数由高到低的顺序排序卷积核,优先剪枝L1范数低的卷积核。为实现模型的深度压缩,需进行较高比例的通道剪枝,分别对模型减掉70%、80%和90%的FLOPs。
-
通常训练时,量化的损失函数是标准的多分类损失函数。量化模拟学习是用模拟学习损失函数作为训练时量化的损失函数。模拟学习方法使剪枝量化后模型的输出特征尽量接近迁移学习训练的MobileNet输出特征。利用2个输出特征之间的L2范数作为模拟损失函数,即:
$$ {L_{L_2}}\left( {{W_{\rm{s}}},{W_{\rm{t}}}} \right) =|| F\left( {x;{W_{\rm{t}}}} \right) - F\left( {x;{W_{\rm{s}}}} \right)||_2^2{\text{。}} $$ (1) 式(1)中:Wt和Ws分别是迁移学习训练的MobileNet和剪枝量化后模型的权值矩阵,F (x; Wt)和F(x; Ws)分别表示这2个模型的输出特征值。
剪枝量化后模型的输出特征再经Softmax归一化得到预测类别概率,与分类标签比较后得到交叉熵,作为标准多分类损失函数Lclass(Ws)。模拟学习的完整损失函数就是分类损失函数与模拟损失函数的权重和:
$$ L\left( W \right) = {L_{\rm{class}}}\left( {{W_{\rm{s}}}} \right) + \alpha {L_{{L}_{{\rm}2}}}\left( {{W_{\rm{s}}},{W_{\rm{t}}}} \right){\text{。}} $$ (2) 式(2)中:α为平衡损失权重的超参数。相较于普通多分类问题的损失函数,模拟学习方法可提供额外的监督信息。
将训练时量化方法与模拟学习相结合,实现量化模拟学习具体的训练步骤为:①在训练的前向传播中,将模型的权值wf和激活值af进行量化得到定点值wq和aq,对于浮点数x具体的量化过程为:
$$ {x_{{\rm{int}}}} = {\rm{round}}\left( {\frac{x}{\varDelta }} \right);\; {x_{\rm{Q}}} = {\rm{clamp}}\left[ { - \left( {\frac{N}{2} - 1} \right),\frac{N}{2} - 1,{x_{{\rm{int}}}}} \right]{\text{。}} $$ (3) xQ即为得到的量化值。其中:clamp函数对于输入的变量a,b,c输出为:
$$\begin{aligned} {\rm{clamp}}(a,b,c) & = a\;\;\;\;x {\text{≤}} a \\ & = x\;\;\;a {\text{<}} x {\text{≤}} b \\ & = b\;\;\;x {\text{>}} b\text{。} \end{aligned}$$ (4) 也就是将浮点数除以缩放因子Δ,再最近邻取整,最后把范围限制到1个区间内。N与量化后整数类型占用的比特数有关。本研究采用有符号8 bit整数类型,N=256。对于权值,每层权值的最大绝对值作为缩放因子。对于激活值,计算各训练批次激活的最大绝对值的滑动平均值作为缩放因子。②计算剪枝量化后模型对迁移学习训练的MobileNet进行模拟学习的损失函数,即计算公式(2),得到损失值L(wq)。③后向传播过程,利用步骤②得到的损失函数值对量化之后的权值求梯度,公式为
$ \dfrac{{{\rm{\partial}} L\left( {{w_q}} \right)}}{{{\rm{\partial}} {w_q}}}$ 。④用步骤③计算梯度去更新量化前的浮点值,也就是将模型的权值反量化回有误差的浮点类型。公式为$ {w_{\rm{f}}} = {w_{\rm{f}}} - v\dfrac{{{\rm{\partial}} L\left( {{w_q}} \right)}}{{{\rm{\partial}} {w_q}}}$ ,其中:ν为学习率。因此,模型的后向传播过程仍然是浮点数计算。⑤重复步骤①至步骤④,直至完成训练。最后再对模型按照步骤①量化,得到最终的边缘端模型。 -
模型实现和训练采用的软件环境为Ubuntu1 6.04操作系统和PaddlePaddle深度学习框架,硬件环境为GPU工作站,使用NVIDIA Titan X显卡(12 GB显存)和AMD Ryzen 7 1700X处理器(32 GB内存)。采用模型的平均识别准确率(accuracy)作为衡量模型精度的标准。同时为了更好地评价模型的鲁棒性,将每类病害样本分别进行测试,计算每个类别的查准率(precision)、查全率(recall)以及查全率与查准率的加权平均分数,并在所有类别上求平均。
-
训练CNN模型需要对输入图片进行预处理。首先,利用数据增广技术对原图像进行变换,将训练图像变换为256×256大小,然后再随机剪枝成224×224,再进行随机水平翻转和随机垂直翻转。该过程极大扩充了训练数据集的多样性,可提升CNN模型的准确率,降低网络过拟合的风险。之后,计算训练集的红(R)、绿(G)、蓝(B)3个颜色通道的均值和方差,所有图像都减去该均值,除以方差,得到归一化后的数据作为CNN的输入,可加速训练过程收敛。对于测试集中的每一张图片,需要变换至224×224大小,减去训练集各通道均值,除以其方差进行归一化后就可以输入CNN模型进行识别。
利用迁移学习训练MobileNet,使用ImageNet数据集预训练的参数初始化模型,采用批量训练的方法将训练集分为多个批次(batch),使用随机梯度下降算法来实现模型优化,批次大小为32,遍历1次训练集中的所有图片作为1个周期(epoch),共迭代50个周期,初始学习率为0.005,动量值为0.9,之后每迭代20个周期就将学习率减小为原来的0.1倍。训练好的模型参数量为3.3 M,识别准确率为96.23%,查准率、查全率和加权平均分数分别为96.62%、95.46%和95.75%。
-
研究不同压缩率下本研究方法的有效性,使用不同的剪枝率,分别对模型减掉不同比例的FLOPs。结果表明:当剪枝率低于60%时,即使使用无模拟训练方法重新训练模型,得到的识别准确率与原MobileNet模型差别很小,说明原模型在该数据集上具有较高的冗余性,只有当剪枝率高于70%时,才能体现不同压缩方法表现的差距。因此,设置剪枝率为70%、80%和90%,对应的模型参数量大小为0.91、0.58和0.23 M,模型的参数量压缩了3.6、5.7、14.3倍,量化又将精度由32 bit降低至8 bit,压缩率为4倍,得到的边缘端模型的整体压缩率分别为14.4、22.8和57.2倍。为快速恢复剪枝后模型精度,首先利用模拟学习损失函数进行30个周期的32 bit浮点模型训练,使用随机梯度下降算法优化模型,批次大小为32,初始学习率为0.005。之后,每迭代15个周期就将学习率减小为原来的0.1倍。公式(2)的α值设置为1。之后再进行20个周期的量化模拟学习,学习率为0.005,公式(2)的α值为0.1,其余超参数值不变。训练结果如表1所示。
表 1 边缘端模型植物病害识别结果
Table 1. Plant disease recognition results of models on the edge
剪枝率/% 参数量/M 剪枝压缩率/倍 量化压缩率/倍 整体压缩率/倍 准确率/% 查准率/% 查全率/% 加权平均分数/% 70 0.91 3.6 4 14.4 95.99 96.18 94.41 94.92 80 0.58 5.7 4 22.8 95.55 95.51 93.52 93.99 90 0.23 14.3 4 57.2 94.58 94.87 92.41 93.15 表1表明:整体压缩率分别为14.4、22.8和57.2倍的边缘端模型,识别准确率分别为95.99%、95.55%和94.58%,与迁移学习训练的MobileNet模型相比仅下降了0.24%、0.68%和1.65%。同时查准率、查全率和加权平均分数值也表明边缘端模型具有较高的鲁棒性。
不同压缩率的边缘端模型在测试集的混淆矩阵如图3所示。图3列出了58个类中的每类被正确分类的比例(对角线上的值)和被误识别为其他类的比例(非对角线上的值)。每类的编号与图1一致。可以看出:边缘端模型对不同植物的不同病害均具有较强的识别能力,但不同病害识别结果之间存在着较大的差异。58类病害中,这3个边缘端模型的识别准确率均超过90%的有43类,均超过80%的有51类,均超过70%的有55类。其中有11号哈密瓜健康叶、24号葫芦霜霉病、25号葡萄健康叶、39号树莓健康叶、46号草莓健康叶这5类的识别准确率在3个模型均达到了100%。识别效果最差,在3个模型上识别准确率几乎均低于70%的病害是12号木薯褐斑病(3个模型识别率分别为48.15%、58.33%、48.15%),35号马铃薯健康叶(3个模型识别率分别为48.33%、33.33%、48.33%),21号黄瓜健康叶(3个模型识别率分别为67.92%、66.04%、77.36%)。这些病害大多都被误识别为外形相似的其他病害,例如12号木薯褐斑病被误识别为13号木薯绿螨病,35号马铃薯健康叶被误识别为病斑较小的36号马铃薯晚疫病,21号黄瓜健康叶被误识别为11号哈密瓜健康叶。
-
为进一步测试边缘端模型性能,分别在剪枝率70%、80%和90%的条件下,利用无模拟学习方法,即标准的多分类损失函数分别训练通道剪枝后模型和通道剪枝并量化模型,训练的超参数与本研究的训练超参数一致,与本研究模型进行对比实验。从表2可见:在不同的剪枝率的情况下,本研究模型与其他模型压缩方法相比均具有更高的模型压缩率和识别准确率,而且压缩率越高,识别准确率相比其他方法提升越明显,能更好识别植物病害类别并部署于边缘设备。
表 2 不同压缩方法边缘端模型植物病害识别结果
Table 2. Plant disease recognition results of models on the edge compressed by different methods
剪枝率/% 参数量/M 边缘端模型 精度/bit 压缩率/倍 准确率/% 70 0.91 剪枝+无模拟学习 32 3.6 95.48 剪枝+量化+无模拟学习 8 14.4 95.45 本研究模型 8 14.4 95.99 80 0.58 剪枝+无模拟学习 32 5.7 94.95 剪枝+量化+无模拟学习 8 22.8 94.92 本研究模型 8 22.8 95.55 90 0.23 剪枝+无模拟学习 32 14.3 93.40 剪枝+量化+无模拟学习 8 57.2 93.53 本研究模型 8 57.2 94.58 -
本研究针对边缘环境下计算资源的限制,在迁移学习训练的MobileNet模型基础上,联合使用2种压缩算法降低模型参数量和运算量,并结合模拟学习恢复识别精度,得到深度压缩的边缘端模型。在PlantVillage的实验结果表明:利用本研究方法对MobileNet进行不同程度的深度压缩,均能够大大减少网络计算量并保留原始识别能力。其中减少70%~90% FLOPs的模型,参数量压缩了3.6~14.3倍,再经过量化模拟学习后整体压缩率为14.4~57.2倍,准确率达到了95.99%~94.58%,较迁移学习训练的MobileNet模型仅降低0.24%~1.65%,同时还具有较高的鲁棒性,对不同植物的不同病害均具有较强的识别能力。实验结果证明了该压缩方法的可行性和有效性。
随着PlantVillage数据集的不断扩展,深度学习模型能更多更准地识别植物病害。本研究提出的模型构建方法可平衡识别的速度和精度,满足植物病害识别边缘部署的需求。
Lightweight plant disease recognition model for edge computing
-
摘要:
目的 传统深度学习模型因参数和计算量过大不适用于边缘部署,在网络边缘的植物病害自动识别是实现长时间大范围低成本作物监测的迫切需求。 方法 联合使用多种模型压缩方法,得到可部署于算力有限的嵌入式系统的轻量级深度卷积神经网络,在边缘节点实现植物病害智能识别。模型压缩分2个阶段:第1阶段利用基于L1范数的通道剪枝方法,压缩MobileNet模型;第2阶段将模拟学习与量化相结合,在模型量化的同时恢复识别精度,得到高精度轻量级的端模型。 结果 在PlantVillage数据集58类植物病害的实验结果表明:通道剪枝将MobileNet压缩了3.6~14.3倍,量化又将模型的参数精度由32 bit降低至8 bit。整体压缩率达到了14.4~57.2倍,识别准确率仅降低0.24%~1.65%。与通道剪枝后无模拟学习训练、通道剪枝结合量化后无模拟学习训练这2种压缩方法相比,具有更高的模型压缩率和识别准确率。 结论 联合使用多种模型压缩方法可以少量的精度损失深度压缩人工智能模型,可为农林业提供面向边缘计算的植物病害识别模型。图3表2参23 Abstract:Objective The traditional deep learning model is not suitable for edge deployment because of too many parameters and too much calculation. Automatic identification of plant diseases on the edge of the network is urgently needed to realize long-term and large-scale low-cost crop monitoring. Method By using multiple model compression methods, a light weight deep convolution neural network was obtained, which could be deployed in the embedded system with limited computing power to realize intelligent identification of plant diseases at edge nodes. The model compression was divided into two stages. The first stage used the channel pruning method based on L1 norm to compress the MobileNet model. In the second stage, simulation learning and quantization were combined to restore the recognition accuracy while the model was quantized, and a high-precision lightweight end model was obtained. Result Experimental results of 58 kinds of plant diseases in PlantVillage dataset showed that channel pruning compressed MobileNet by 3.6−14.3 times, and quantization reduced the parameter accuracy of the model from 32 bit to 8 bit. The overall compress rate reached 14.4−57.2 times, and the recognition accuracy was only reduced by 0.24% to 1.65%. Compared with the pruning method trained by common learning, and pruning with quantization trained by common learning, this method achieved higher compression rate and recognition accuracy. Conclusion The combination of multiple model compression methods can compress the artificial intelligence models in depth with only tiny loss of accuracy, and provide plant disease recognition models for agriculture and forestry based on edge computing. [Ch, 3 fig. 2 tab. 23 ref.] -
Key words:
- deep learning /
- plant disease identification /
- edge computing /
- model compression /
- MobileNet
-
土地利用是城市发展规划及资源开发利用的关键信息,同时也是区域土地利用变化研究的重要基础[1]。然而高原山区的遥感影像自动分类相比其他地形区而言,传统的遥感分类方法在分类精度上受各方面因素影响,难以满足研究需求[2]。传统的监督分类方法和非监督分类方法,是基于像元的数理统计法,地物分类时考虑的主要为像元的光谱信息,对遥感影像的形状、纹理及空间关系等利用不够充分[3],容易发生“同物异谱”和“同谱异物”。近年来,国内外许多学者尝试利用不同类型遥感影像来提高土地利用分类精度,在遥感影像的使用上多以Landsat和Modis系列的中低分辨率数据为主,分类精度经常受到影像空间分辨率的限制,在地物破碎的区域提取草地、水塘和小规模村庄等时存在较大的局限性[4]。近年来采用高分辨率卫星作为实验数据的分类研究逐年增多[5-7],高分辨率影像可利用清晰的地物几何特征和纹理等信息,具有覆盖范围大、重访周期短、定量化探测等优点,但影像成本较高,获取难度较大[8]。哨兵二号遥感卫星最高的空间分辨率可达10 m,与传统遥感数据相比,Sentinel-2A遥感数据新增加的4个红边波段与叶绿素含量关系紧密[9]。在地物提取分类研究领域中,近年来有众多学者运用红边波段进行湿地提取[10]、作物识别[11]、地物类型划分[12]等方面的研究,均取得了较好的效果。随着计算机和3S技术的发展,遥感研究的逐渐深入,新的分类方法不断涌现,如多重滤波[13]、面向对象分类法[14]、模糊分类法[15]、随机森林分类法[16]、神经网络法[17]等。尽管这些分类方法在不同程度上均提高了分类精度,然而在分类结果中依然存在着或多或少的“椒盐效应”[18]。本研究以云南省大理市为研究区域,以Sentinel-2A遥感影像为数据源,提出一种面向对象特征与决策树规则相结合的分类方法,依靠多维遥感信息复合技术,充分利用地物的光谱特征[19]、几何结构和纹理等提高遥感影像在大理市不同土地利用类型的区分效果,可探索提高高原山区分类精度的有效途径。
1. 研究区概况
云南省大理市地处云贵高原,大理州中部,25°25′~25°58′N,99°58′~100°27′E,总面积为1 815 km2,基础海拔1 000 m以上,地面起伏较大,地形以山地为主,其中山地面积为1 278.8 km2,山区、半山区面积达70.5%。总体特征是西北高,东南低,四周高,中间低。研究区地处盆地,中部是洱海,被四周的高山环抱,西部是苍山,东侧为马尾山,四周山坡均朝向洱海。
2. 研究方法
2.1 数据来源与预处理
本研究使用的Sentinel-2数据源通过欧空局的哥白尼数据中心下载,辅助数据包括2.5 m天地图影像数据和从地理空间数据云获取的大理市行政边界矢量数据。利用欧洲航天局(ESA)官方提供的SNAP软件和sen2cor插件对下载的原始影像进行大气校正,得到L2A级数据,采用最近邻插值法将波段重采样为10 m分辨率,基于ENVI软件对其进行几何校正。因高原山区云雾较多,为降低影像云覆盖对分类精度影响,将2020年1月1日至12月31日大理市Sentinel-2A影像最小云量进行年度多时相合成,通过大理市行政边界矢量数据对遥感影像数据进行裁剪。
2.2 土地利用分类体系
土地利用分类标准在参照GB/T 21010—2017《土地利用现状分类标准》[20]的基础上结合高原山区各方面特征,将研究区分为七大类,选出准确可靠的7个类型样本,进行样本间的分离度计算,计算结果如表1所示。
表 1 各种类型地物样本组合的Jeffries-Matusita距离Table 1 Jeffries Matusita distance of various types of feature sample combinations土地利用类型 分离度 土地利用类型 分离度 林地-农田 1.953 农田-其他 1.994 林地-水体 2.000 水体-草地 1.993 林地-草地 1.895 水体-建设用地 2.000 林地-建设用地 1.998 水体-冰川积雪 1.998 林地-冰川积雪 1.995 水体-其他 1.996 林地-其他 1.994 草地-建设用地 1.996 农田-水体 1.983 草地-冰川积雪 1.997 农田-草地 1.894 草地-其他 1.996 农田-建设用地 1.993 建设用地-冰川积雪 1.992 农田-冰川积雪 1.993 建设用地-其他 1.983 冰川积雪-其他 1.990 2.3 面向对象特征的决策树分类
2.3.1 决策树分类模型粗分类
为能充分利用基于像素和面向对象分类方法优势,组合方法已被广泛应用于土地利用分类领域[21]。QUEST决策树从运算速度和分类精度方面均衡考量,优于其他决策树方法[22]。利用面向对象特征的遥感分类方法,可结合研究对象的光谱、形状、纹理、空间关系等不同属性信息,将相同性质的像元组成为基本处理单元“对象”完成分类[23]。对研究区各地物类型的光谱特征、纹理特征和几何特征分析后,以第3绿光波段、第8近红外波段、第4红波段和第11短波红外为特征波段,再提取农田、草地、冰川积雪和其他等4个不同类别地类的面向对象特征,根据各特征建立分类规则进行建模。构建面向对象特征与QUEST决策树相结合的分类模型,如图1所示。
①水体区域提取。基于研究区实地情况,本研究采取归一化差异水体指数(NDWI)方法[24]将研究区水体部分划分出来。根据对样本数据的初步分析以及人工判读,先将QUEST决策树分类条件设置为NDWI>0.4125。②植被区域提取。因为Sentinel-2数据的优势是在红边范围含有3个波段的数据,且研究区是典型的高原山区,全域植被覆盖率较高,所以归一化植被指数(NDVI)能从影像中更加有效地提取植被区域[25]。以此为基础将决策树分类条件设置为NDVI>0.312 5,可将植被区域与非植被区域分离开,且不与水体区域混淆。再通过设置NDVI指数范围阙值,进一步将植被中的农田、草地分类条件设置为0.312 5<NDVI<0.654 3,林地则设置为0.654 3<NDVI<1.000 0。③非植被区域提取。将研究区的水体和植被两大类提取成功后,其余部分则为非植被区域。为了进一步将建筑用地从非植被区域提取出来,在前几步的基础上又计算了归一化建筑指数(NDBI),并将QUEST决策树分类条件设置为NDBI>0,发现此时可将研究区大部分建设用地从非植被区域提取出来。
2.3.2 面向对象特征的细分类
面向对象可充分利用各对象的各类特征信息,本研究使用了面向对象的光谱特征、几何特征和纹理特征,其定义如表2所示。
表 2 面向对象特征定义表Table 2 Object oriented feature definition类别 特征 定义和公式 光谱特征 光谱均值 斑块内像素光谱均值 纹理特征 纹理特征 灰度共生矩阵(GLCM,包括5×5卷积模板内的均值、方差、同质性、熵值、对比度、二阶矩、相关性) 几何特征 面积 斑块总面积 延伸率 最大直径与最小直径比值 矩形形状参数 矩形形状度量值(Rect)=面积/(最大直径×最小直径) 本研究采用多尺度分割算法进行影像分割,共设置了一个分割层次,主要目的是将农田与草地、冰川积雪与其他进行区分。在确保影像分类精度的前提下进行多次实验,最终结果表明:分割尺度设置为30较为适宜,此时,各个分类对象均有较好的可分离性,且各个对象内部的同质性较高。再根据相邻对象的纹理特征和内部一致性确定归并尺度,对分割好的原始影像进行迭代归并,进一步完成相邻同类对象的归并。经多次实验,确定的归并尺度为65最为适宜。①草地与农田的面向对象特征。草地与农田相比,具有规则的几何形状,同时,草地与农田的光谱均值也有一定差异。所以,可将农田的对象筛选条件设置为:面积>3 000 m2,矩形形状参数>0.3,光谱均值>3 000 nm,余下不满足设定的农田筛选条件的地区为草地。②冰川积雪与其他的面向对象特征。其他用地类型延伸率较小且形状不规则,光谱均值也有较大差异,而冰川积雪大都分布于苍山高海拔地区,且连续性高,面积较大。所以为将两者区分开来,设定其他用地的筛选条件为:延伸率<3.5,1 210 nm<光谱均值(第4波段)<1 360 nm,1 225 nm<光谱均值(第3波段)<1 335 nm,1 400 nm<光谱均值(第2波段)<1 465 nm ,符合该条件的区域可判定为其他用地,余下不满足设定条件的则为冰川积雪。
2.4 其他分类方法
本研究还运用了最大似然分类法、ISODATA法与面向对象特征决策树法进行比较。ISODATA法分类与最大似然法均未引入面向对象特征,ISODATA法使用ENVI 5.3软件,选择IsoData分类器,预设22个类别和最大迭代次数为10进行分类计算,最后通过目视识别分类结果合并为本研究的7个类别。最大似然法基于ENVI 5.3软件使用ROIS方法定义7类训练样本进行分类。面向对象特征决策树分类使用IDL8.5结合ENVI 5.3编程实现。
2.5 精度评定
为了检验研究区影像分类解译结果的可信度,通过野外调查和2.5 m精度的天地图相结合的方式目视判读检验研究区各个样本点的真实土地利用类别,采用误差矩阵方法进行检验。在研究区内利用ArcGIS软件随机生成500个检验样本点,各地类验证点个数如表3所示。
表 3 各地类验证点个数Table 3 Number of verification points of each class土地利用类型 天地图验证点个数 野外调查验证点个数 水体 94 5 林地 68 58 建设用地 54 6 农田 67 18 草地 89 8 冰川积雪 13 0 其他 16 4 3. 结果与分析
3.1 不同分类方法空间分布比较
将3个分类结果与同期高分辨率天地图影像进行叠加对比(图2):ISODATA法相比前2种方法虽然显示结果较差,但具有明显特征的地物基本都能被识别出来,冰川积雪与建筑用地因光谱特征类似,从而产生了部分混淆。最大似然分类和面向对象决策树分类得到的研究区地物分布与天地图影像显示结果基本一致。但是,由于高原山区草地和部分农田分布较为破碎,且研究区地表植被覆盖度较高,所以利用最大似然方法提取的某些林地、草地和面积较小的农田会产生部分混淆。而面向对象决策树分类由于构建特征指数将不同地物差异放大,且引入了面向对象特征,更有利于决策规则的制定,所以提取的结果在空间表现上相比与其他分类方法更合理。
对3种土地利用分类方法各地类的面积进行统计,并与欧空局公布的2020年10 m分辨率土地利用数据进行验证对比。结果如图3所示:面向对象特征的决策树法提取的研究区内林地面积最大,其次是农田、草地、水体、建设用地和冰川积雪,面积最小的为其他用地:3种分类方法中此方法结果与研究区的实际情况最为符合。 ISODATA法基于机器学习,在地物分布较为破碎的区域,机器学习的效果会受样本中噪声的影响,产生过拟合现象。最大似然法是基于统计分析的原理,可减轻样本中噪声的影响,提取结果在空间分布上也更为合理。面向对象特征的决策树法以对象为处理单元,充分利用研究对象的光谱、形状、纹理、空间关系等不同属性信息,所以提取的结果与实际情况最为接近。
3.2 不同地类的方法适用性比较
为进一步比较不同方法下各类地物的提取差异,采用2.5 m天地图的500个样点结合野外调查对3种方法的分类结果进行验证,利用误差矩阵分析得到的分类结果进行精度评价,结果如表4所示。从制图精度角度看,ISODATA法制图精度由高到低依次是其他、建设用地、水体、林地、农田、冰川积雪和草地,其中精度最高的其他为89.37%,最低的草地仅为58.00%。对于用户精度,ISODATA法的水体用户精度最高,为97.44%。余下的地类用户精度由高到低分别为林地、其他、冰川积雪、草地、建设用地和农田。从以上2个精度对比来看,林地和水体的分类精度最高,建设用地、草地、冰川积雪和其他分类精度也较高,农田分类精度较低。分析认为,由于水体的光谱特性相对单一,误分状况较少。而林地、农田和草地三者误分与互相之间光谱特性重合有较大关系。建设用地的误分区域主要分布在洱海周边和建成区周围的裸地,因裸地和房屋具有相似的高反射特性,主要误分为建设用地和草地,草地和冰川积雪误分为建设用地由光谱特性相近导致。
表 4 ISODATA法遥感解译误差矩阵Table 4 ISODATA remote sensing interpretation error matrix土地利用类型 林地 建设用地 农田 水体 草地 其他 冰川积雪 参考样本数 用户精度/% 林地 93 0 3 0 4 0 0 100 93.00 建设用地 0 67 0 7 5 5 3 87 77.01 农田 16 2 47 0 2 1 7 75 62.67 水体 0 0 0 76 2 0 0 78 97.44 草地 3 0 0 3 29 2 0 37 78.38 其他 0 4 2 0 8 71 0 85 83.53 冰川积雪 0 2 6 0 0 0 30 38 78.95 分类样本数 112 75 58 86 50 79 40 500 制图精度/% 83.04 89.33 81.03 88.37 58.00 89.37 75.00 由表5可得:基于最大似然法的水体制图精度最高,为94.79%,余下6个地类制图精度由高到低分别为林地、草地、其他、农田、冰川积雪和建设用地。用户精度最高的地类是水体,为100.00%,其他地类用户精度由高到低分别是林地、建设用地、草地、农田、其他和冰川积雪。冰川积雪精度最低,仅为66.67%。通过分析认为,水体的光谱特性较为单一,极少出现误分。充分利用不同类型的光谱表现特征和周边地理环境,所以林地和农田区分度较好,但和草地仍有部分混淆。部分建设用地位于山区,受周边地理环境影响较大,加之城区建设用地光谱特征较为复杂。农田误分主要是误分为林地、草地和建设用地,由于前三者均属于绿色植被,在气温湿度均较好的情况下,选择样本时会经常造成3类间的误分。与建设用地的误分由于山区农田与建设用地交错分布,难以分辨。其他地类误分为建设用地由于两者具有相似的高反射特性,极易造成混淆。
表 5 最大似然法遥感解译误差矩阵Table 5 Maximum likelihood remote sensing interpretation error matrix土地利用类型 林地 建设用地 农田 水体 草地 其他 冰川积雪 参考样本数 用户精度/% 林地 119 0 0 0 2 0 0 121 98.35 建设用地 3 51 2 5 1 2 0 64 79.69 农田 6 4 61 0 4 4 1 80 76.25 水体 0 0 0 91 0 0 0 91 100.00 草地 5 4 7 0 55 0 3 74 74.32 其他 0 14 2 0 0 36 0 52 69.23 冰川积雪 1 4 0 0 1 0 12 18 66.67 分类样本数 134 77 72 96 63 42 16 500 制图精度/% 88.81 66.23 84.72 94.79 87.30 85.71 75.00 由表6可以看出:基于面向对象特征决策树法中的水体制图精度仍是最高,为93.94%,其他地类制图精度由高到低分别是林地、农田、草地、建设用地、其他和冰川积雪。冰川积雪虽然精度最低,但仍达76.92%。面向对象特征决策树法制图精度由高到低分别是水体、其他、林地、冰川积雪、草地、农田和建设用地,其中用户精度最高的水体为95.88%,最低的建设用地精度为83.61%。分析认为,误分情况主要是由于决策树粗分类时3个指数的参数设置原因。农田和草地之间的部分误分也与面向对象特征参数设置有关,此方法分类中冰川积雪和其他2个地类无错分现象,由此看出面向对象特征参数设置较为适合。
表 6 面向对象特征决策树法遥感解译误差矩阵Table 6 Remote sensing interpretation error matrix of object-oriented feature decision tree method土地利用类型 林地 建设用地 农田 水体 草地 其他 冰川积雪 参考样本数 用户精度/% 林地 118 0 2 0 5 0 0 125 94.40 建设用地 0 51 3 3 1 2 1 61 83.61 农田 4 2 76 0 4 1 2 89 85.39 水体 1 2 0 93 1 0 0 97 95.88 草地 3 3 4 3 86 0 0 99 86.87 其他 0 1 0 0 0 17 0 18 94.44 冰川积雪 0 1 0 0 0 0 10 11 90.91 分类样本数 126 60 85 99 97 20 13 500 制图精度/% 93.65 85.00 89.41 93.94 88.66 85.00 76.92 以上精度分析可以看出,面向对象特征决策树法相比于其他方法在农田、草地、建设用地和其他这4类分类精度上有了显著提高,且在高原山区特有地类冰川积雪的信息提取上也有较好的适用性。而对于研究区水域和林地的提取来说,最大似然法的适用性更好。
3.3 不同分类方法总体精度比较
一般总体精度在80%以上可以认为精度良好,表7表明:3种分类方法分类精度良好。其中,ISODATA法总体分类精度最低,但也满足基本分类需求,总体分类精度为82.60%,Kappa系数为79.40%;其次是最大似然法,总体分类精度较ISODATA法略有提高,总体分类精度为85.00%,Kappa系数为81.90%,但最大似然法基于机器学习的提取方法也可能会带来过拟合效应,导致提取精度偏高;面向对象特征决策树分类方法精度最高,总体分类精度可达90.20%,Kappa系数为87.95%,说明此方法的分类结果与实际情况最为贴近,更加适用于高原山区土地利用分类。
表 7 3种分类方法比较Table 7 Comparison of three classification methods分类方法 总体分类精度/% Kappa系数/% ISODATA法分类 82.60 79.40 最大似然法分类 85.00 81.90 面向对象特征决策树法 90.20 87.95 4. 结论
本研究结果表明:①从地物空间分布上看,面向对象与决策树相结合的方法得到的最终分类结果与同期高分辨率天地图影像较为一致,表明与地物的实际分布情况更为接近。②从地类方法适用性角度来看,最大似然分类法在水域和林地的提取上适用性较好,面向对象特征决策树法在农田和草地、建设用地和其他这些光谱特征较为相似的地类区分度较好。在高原山地特有的地类冰川积雪提取上也表现出了极大的优越性。③从不同方法总体分类精度角度看,面向对象特征的决策树法在大理市的土地利用信息提取中效果最好,总体分类精度和Kappa系数分别为90.20%和87.95%,较传统的最大似然法和ISODATA法分类精度均有提升,可实现大理市土地利用的高精度提取。
本研究在进行大理市土地利用分类时,利用先粗分类再进一步细分类的思想,将面向对象特征与决策树规则相结合,粗分类先设计决策树分类规则,在决策树基础上进行类别的细分类,此方法可避免区域之间的混淆问题,反映了提高遥感影像分类精度的一个方法,具有良好的应用前景[26]。面向对象特征辅助决策树分类,其分类精度和准确性虽有提高,但与欧空局面积仍存在一定的出入,说明分类过程中仅提取面向对象特征辅助是不够的。因此,在今后的计算机分类过程中,需进一步加强遥感影像计算机自动解译的研究,充分利用地物形状、纹理、空间关系、空间位置等特征,对影像进行综合评判,提高影像的分类精度。
-
表 1 边缘端模型植物病害识别结果
Table 1. Plant disease recognition results of models on the edge
剪枝率/% 参数量/M 剪枝压缩率/倍 量化压缩率/倍 整体压缩率/倍 准确率/% 查准率/% 查全率/% 加权平均分数/% 70 0.91 3.6 4 14.4 95.99 96.18 94.41 94.92 80 0.58 5.7 4 22.8 95.55 95.51 93.52 93.99 90 0.23 14.3 4 57.2 94.58 94.87 92.41 93.15 表 2 不同压缩方法边缘端模型植物病害识别结果
Table 2. Plant disease recognition results of models on the edge compressed by different methods
剪枝率/% 参数量/M 边缘端模型 精度/bit 压缩率/倍 准确率/% 70 0.91 剪枝+无模拟学习 32 3.6 95.48 剪枝+量化+无模拟学习 8 14.4 95.45 本研究模型 8 14.4 95.99 80 0.58 剪枝+无模拟学习 32 5.7 94.95 剪枝+量化+无模拟学习 8 22.8 94.92 本研究模型 8 22.8 95.55 90 0.23 剪枝+无模拟学习 32 14.3 93.40 剪枝+量化+无模拟学习 8 57.2 93.53 本研究模型 8 57.2 94.58 -
[1] SHAMSHIRBAND S, ANUAR N B, KIAH M L M, et al. Survey an appraisal and design of a multi-agent system based cooperative wireless intrusion detection computational intelligence technique [J]. Eng Appl Artif Intell, 2013, 26(9): 2105 − 2127. [2] HILLNHUTTER C, MAHLEIN A. Early detection and localisation of sugar beet diseases: new approaches [J]. Gesunde Pflanzen, 2008, 60(4): 143 − 149. [3] CAMARGO A, SMITH J S. An image-processing based algorithm to automatically identify plant disease visual symptoms [J]. Biosyst Eng, 2009, 102(1): 9 − 21. [4] MUTKA A M, BART R S. Image-based phenotyping of plant disease symptoms [J]. Front Plant Sci, 2015, 5: 1 − 8. [5] HIARY H A, AHMAD S B, REYALAT M, et al. Fast and accurate setection and classification of plant diseases [J]. Int J Comput Appl, 2011, 17(1): 31 − 38. [6] TIAN Yuan, ZHAO Chunjiang, LU Shenglian, et al. Multiple classifier combination for recognition of wheat leaf diseases [J]. Intell Automation Soft Comput, 2011, 17(5): 519 − 529. [7] 秦丰, 刘东霞, 孙炳达, 等. 基于图像处理技术的4种苜蓿叶部病害的识别[J]. 中国农业大学学报, 2016, 21(10): 65 − 75. QIN Feng, LIU Dongxia, SUN Bingda, et al. Recognition of four different alfalfa leaf diseases based on image processing technology [J]. J China Agric Univ, 2016, 21(10): 65 − 75. [8] BARBEDO J G A. An automatic method to detect and measure leaf disease symptoms using digital Image processing [J]. Plant Dis, 2014, 98(12): 1709 − 1716. [9] BARBEDO J G A. A new automatic method for disease symptom segmentation in digital photographs of plant leaves [J]. Eur J Plant Pathol, 2016, 147(2): 349 − 364. [10] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition [C]// BAJCSY R, LI Feifei, TUYTELAARS T. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas: IEEE Press, 2015: 770−778. [11] MOHANTY S P, HUGHES D P, SALATHÉ M. Using deep learning for image-based plant disease detection [J]. Front Plant Sci, 2016, 7: 1419. [12] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks [J]. Commun ACM, 2017, 60(6): 84 − 90. [13] SZEGEDY C, LIU Wei, JIA Yangqing, et al. Going deeper with convolutions [C]// BISCHOF H, FORSYTH D, SCHMID C, et al. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston: IEEE Press, 2015: 1 − 9. [14] 孙俊, 谭文军, 毛罕平, 等. 基于改进卷积神经网络的多种植物叶片病害识别[J]. 农业工程学报, 2017, 33(19): 209 − 215. SUN Jun, TAN Wenjun, MAO Hanping, et al. Recognition of multiple plant leaf diseases based on improved convolutional neural network [J]. Trans Chin Soc Agric Eng, 2017, 33(19): 209 − 215. [15] 龙满生, 欧阳春娟, 刘欢, 等. 基于卷积神经网络与迁移学习的油茶病害图像识别[J]. 农业工程学报, 2018, 34(18): 194 − 201. LONG Mansheng, OUYANG Chunjuan, LIU Huan, et al. Image recognition of Camellia oleifera diseases based on convolutional neural network & transfer learning [J]. Trans Chin Soc Agric Eng, 2018, 34(18): 194 − 201. [16] 张建华, 孔繁涛, 吴建寨, 等. 基于改进VGG卷积神经网络的棉花病害识别模型[J]. 中国农业大学学报, 2018, 23(11): 161 − 171. ZHANG Jianhua, KONG Fantao, WU Jianzhai, et al. Cotton disease identification model based on improved VGG convolution neural network [J]. J China Agric Univ, 2018, 23(11): 161 − 171. [17] DECHANT C, WIESNER-HANKS T, CHEN Siyuan, et al. Automated identification of northern leaf blight-infected maize plants from field imagery using deep learning [J]. Phytopathology, 2017, 107(11): 1426 − 1432. [18] PICON A, ALVAREZ-GILA A, SEITZ M, et al. Deep convolutional neural networks for mobile capture device-based crop disease classification in the wild [J]. Comput Electron Agric, 2019, 161: 280 − 290. [19] WANG Y P E, LIN Xingqin, ADHIKARY A, et al. A primer on 3GPP narrowband internet of things [J]. IEEE Commun Mag, 2017, 55(3): 117 − 123. [20] 陈方. MobileNet压缩模型的研究与优化[D]. 武汉: 华中师范大学, 2018. CHEN Fang. Research and Optimization of MobileNet Compression Model [D]. Wuhan: Central China Normal University, 2018. [21] HAN S, POOL J, TRAN J, et al. Learning both weights and connections for efficient neural networks [C]// CORTES C, LAWRENCE N D, LEE D D, et al. The 28th International Conference on Neural Information Processing Systems. Montreal: MIT Press, 2015: 1135 − 1143. [22] JACOB B, KLIGYS S, CHEN B, et al. Quantization and training of neural networks for efficient integer-arithmetic-only inference [C]// BROWN M, MORSE B, PELEG S, et al. 2018 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Salt Lake City: IEEE Press, 2018: 2704 − 2713. [23] BA J L, CARUANA R. Do deep nets really need to be deep [C]// GHAHRAMANI Z, WELLING M, CORTES C, et al. The 27th International Conference on Neural Information Processing Systems [C]. Montreal: MIT Press, 2014: 2654 − 2662. 期刊类型引用(5)
1. 董亚坤,王钰,何紫玲,王鹏,赵昊,曾维军. 基于GEE的洱海流域土地利用/覆被分类算法对比研究. 西北林学院学报. 2024(01): 28-35 . 百度学术
2. 武英洁,冯勇,徐晓琳,刘思宇,朱辉. 典型遥感影像分类方法适用性分析. 现代电子技术. 2024(06): 137-141 . 百度学术
3. 廖超明,云子恒,罗恒,韦媛媛,凌子燕,潘桂颖. 基于特征优选的喀斯特地区覆被信息提取及精度分析. 测绘通报. 2024(02): 45-50 . 百度学术
4. 包塔娜,范文义. 基于集合卡尔曼滤波的帽儿山森林多源LAI产品重建及融合校正方法. 浙江农林大学学报. 2024(04): 841-849 . 本站查看
5. 李艳,张帆. 基于Sentinel-2影像的厦门市茶园遥感提取. 亚热带植物科学. 2023(04): 327-335 . 百度学术
其他类型引用(6)
-
-
链接本文:
https://zlxb.zafu.edu.cn/article/doi/10.11833/j.issn.2095-0756.20190595