摘要:针对现有实时语义分割网络分割多尺度目标时存在类别错分和分割不完整的问题,提出了一种基于双分支融合的图像实时语义分割方法。提出尺度注意融合模块,融合细节分支和语义分支提取到的目标空间特征和语义信息,以提高网络对多尺度目标识别的准确率。使用边缘损失函数引导细节分支学习目标边缘轮廓,增强网络对目标边缘细节的分割性能。最后,构建全局感知模块提高网络的全局上下文感知能力。实验结果表明:文中方法在CityScapes和CamVid数据集上平均交并比(mIoU)分别为78.1%和76.2%,平均像素准确率(mPA)分别为87.6%和85.4%,对于小尺度目标边缘实现了更精准的分割,且在一个GTX 1080Ti GPU 上推理达到实时要求,帧速率(FPS)分别达到59.8和43.5。