算法框架
- YOLOP它是一种单阶段网络,包含一个共享编码器,三个用于特定任务的解码器。其中三个任务的解码器:目标检测部分、可行驶区域分割、车道线分割。他们之间没有太复杂的耦合关系,只是公用了编码器,三个解码器分别去检测不同的感知目标,对于单一的目标检测而言,该网络在一定程度上极大降低计算量,同时使得该网络易于端到端训练。
编码器
- yolop网络主要是由Backbone网络与Neck网络构成。简单讲一下这两个网络,其中Backbone网络主要是参考YOLOv4的一个网络模型,并基于yolov4的backbone提取输入图像特征,该backbone比较突出的有点是支持特征传播和重用,同时减少参数和计算的数量。另一个网络Neck,它能够充分的利用backbone提前出来的图像特征,另外它通过空间金字塔池(SPP)模块和特征金字塔网络(FPN)模块,融合了不同尺度的特征和不同语义层次的特征。因此,Neck网络能够生成包含多个尺度和多个语义级别信息的图像特征。
解码器
- 解码器分目标检测部分、可行驶区域分割、车道线分割。对于目标检测任务,YOLOP沿用基于锚框Anchor的多尺度检测技术,这项技术目前在很多的检测算法中得到了很好的实践。可行驶区域分割和车道线分割部分使用相同的网络结构。

运行效果


效果评价

个人评价
从左上训练信息可知:驾驶区域分割准确率高达0.96,检测Map(IOU=0.5)也高达0.68,从数据角度分析,这两项相对较高;基于电脑硬件,其推理速度也在311ms,满足自动驾驶反应数据200-300ms左右。从右上图可知:车道线的分割十分准确,而且对自行车和道路边界都做到了很好的识别。从左下图可知:可行使区域分割也是不错的,右边的停车位也规划出来。从右下图可知:车辆的检测也十分准确,并没有出现误检测的情况。从以上可知,整个多任务全景驾驶感知表现十分优秀。
官方评价
该模型在BDD100K数据集进行训练和测试,在对象检测任务的准确性击败了Faster-RCNN、MultiNet、和DLT-Net;对于可行使区域分割任务,模型比其他模型等在性能方面都有20%左右的提升,在速度方面也提升了4-5倍;对于车道检测任务,它的性能优于现有的最先进的模型2倍以上。除此之外,该模型额在Jeston TX2等嵌入式设备上同时实时执行了这三项任务。因此该模型具备了落地实施。
总结
深度学习的兴起,带动了感知的发展,从而让自动驾驶再度发展,这一条路还很远也很长,我们要坚信会有那么一天,自动驾驶尤其是L4级别的自动驾驶很快就会来到。