背景不均匀时,它们的性能较差。在这项研究中,六种卷积神经网络(CNN)结构被训练用于对单个叶片的图像进行语义分割,这些叶片表现出由害虫咖啡潜叶虫(CLM)和两种真菌疾病:大豆锈病(SBR)和小麦褐斑(WTS)引起的坏死病变和/或变黄。所有图像被手动标注为三类:叶背景(B)、健康叶(H)和受伤叶(I)。在测试图像集中,B类的精确度、召回率和联合交集(IoU)指标最高,其次是H类和I类,而不管是哪种体系结构。当像素级预测用于计算严重性百分比时,特征金字塔网络(FPN)、Unet和DeepLabv3+在架构中表现最好:当面对带有注释严重性的预测时,CLM、SBR和WTS数据集的一致性系数分别大于0.95、0.96和0.98。其他三种架构倾向于将健康像素误分类为受伤像素,从而导致对严重性的高估。结果突出了基于CNN的自动分割方法的价值,该方法可以确定在亮度和背景条件下获得的叶片疾病图像的严重程度。FPN、Unet和DeepLabv3+估计的严重程度的准确度与标准商业软件获得的结果相似,后者需要调整分割参数并去除图像的复杂背景,这些任务会减慢处理速度。
1. Introduction
农业、林业和观赏产品不断受到害虫或病原体的威胁,这些害虫或病原体会攻击植物并产生外部可见的症状(Oerke,2006;Savary等人,2017)。准确检测和/或量化视觉症状的能力是研究和管理的关键(Bock等人,2020年和2021年)。严重程度通常表示为症状面积的百分比,是评估治疗效果和
|