如有错误,恳请指出。
在学习yolov5代码的时候,发现experimental.py文件中有一个很亮眼的模块:Ensemble。接触过机器学习的可能了解到,机器学习的代表性算法是随机森林这种,使用多个模型来并行推理,然后归纳他们的中值或者是平均值来最为整个模型的最后预测结构,没想到的是目标检测中也可以使用,叹为观止。下面就对其进行详细介绍:
1. Ensemble的概念
集成建模是通过使用许多不同的建模算法或使用不同的训练数据集创建多个不同模型来预测结果的过程。使用集成模型的动机是减少预测的泛化误差。只要基础模型是多样且独立的,使用集成方法时模型的预测误差就会减小。该方法在做出预测时寻求群体的智慧。即使集成模型在模型中具有多个基础模型(求多个模型的平均值或最大值),它仍作为单个模型运行和执行(最终还是以一个综合模型的取整进行预测)。
详细介绍见:https://www.sciencedirect.com/topics/computer-science/ensemble-modeling
2. Ensemble的实现
yolov5实现代码如下:
class Ensemble(nn.ModuleList):
def __init__(self):
super().__init__()
def forward(self, x, augment=False, profile=False, visualize=False):
y = []
for module in self:
y.append(module(x, augment, profile, visualize)[0])
y = torch.cat(y, 1)
return y, None
在yolov5中使用attempt_load模块来实现多模型的调用,代码如下:
def attempt_load(weights, map_location=None, inplace=True, fuse=True):
from models.yolo import Detect, Model
model = Ensemble()
for w in weights if isinstance(weights, list) else [weights]:
ckpt = torch.load(attempt_download(w), map_location=map_location)
if fuse:
model.append(ckpt['ema' if ckpt.get('ema') else 'model'].float().fuse().eval())
else:
model.append(ckpt['ema' if ckpt.get('ema') else 'model'].float().eval())
for m in model.modules():
if type(m) in [nn.Hardswish, nn.LeakyReLU, nn.ReLU, nn.ReLU6, nn.SiLU, Detect, Model]:
m.inplace = inplace
if type(m) is Detect:
if not isinstance(m.anchor_grid, list):
delattr(m, 'anchor_grid')
setattr(m, 'anchor_grid', [torch.zeros(1)] * m.nl)
elif type(m) is Conv:
m._non_persistent_buffers_set = set()
if len(model) == 1:
return model[-1]
else:
print(f'Ensemble created with {weights}\n')
for k in ['names']:
setattr(model, k, getattr(model[-1], k))
model.stride = model[torch.argmax(torch.tensor([m.stride.max() for m in model])).int()].stride
return model
3. Ensemble的使用
Ensemble使用方法,具体见yolov5的Tutorial:https://github.com/ultralytics/yolov5/issues/318
python val.py --weights yolov5x.pt yolov5l6.pt --data coco.yaml --img 640 --half
python detect.py --weights yolov5x.pt yolov5l6.pt --img 640 --source data/images
Output:
detect: weights=['yolov5x.pt', 'yolov5l6.pt'], source=data/images, imgsz=640, conf_thres=0.25, iou_thres=0.45, max_det=1000, device=, view_img=False, save_txt=False, save_conf=False, save_crop=False, nosave=False, classes=None, agnostic_nms=False, augment=False, update=False, project=runs/detect, name=exp, exist_ok=False, line_thickness=3, hide_labels=False, hide_conf=False, half=False
YOLOv5 🚀 v5.0-267-g6a3ee7c torch 1.9.0+cu102 CUDA:0 (Tesla P100-PCIE-16GB, 16280.875MB)
Fusing layers...
Model Summary: 476 layers, 87730285 parameters, 0 gradients
Fusing layers...
Model Summary: 501 layers, 77218620 parameters, 0 gradients
Ensemble created with ['yolov5x.pt', 'yolov5l6.pt']
image 1/2 /content/yolov5/data/images/bus.jpg: 640x512 4 persons, 1 bus, 1 tie, Done. (0.063s)
image 2/2 /content/yolov5/data/images/zidane.jpg: 384x640 3 persons, 2 ties, Done. (0.056s)
Results saved to runs/detect/exp2
Done. (0.223s)
可以看见输出的时候出打印使用了多少个模型,每个模型的层数,参数量
测试代码:
if __name__ == '__main__':
x = torch.rand([8, 3, 640, 640])
weights = ['../weights/yolov5s.pt', '../weights/yolov5m.pt', '../weights/yolov5l.pt']
device = torch.device('cpu')
model = attempt_load(weights, map_location=device)
print("len(model(x)):", len(model(x)))
print(model(x)[0].shape)
model = attempt_load(weights[0], map_location=device)
print("len(model(x)):", len(model(x)))
print(model(x)[0].shape)
输出:
Ensemble created with ['../weights/yolov5s.pt', '../weights/yolov5m.pt', '../weights/yolov5l.pt']
len(model(x)): 2
torch.Size([8, 75600, 85])
len(model(x)): 2
torch.Size([8, 25200, 85])
需要注意:
集成模块只能在推理的阶段使用(也就是测试或者验证阶段),因为这时候是调用多个已经训练好的模型权重来分别独立的对输入进行预测,然后每个训练好的模型所得到的结果取平均或者堆叠再做后续的后处理操作。
可以注意到,由于在上诉的Ensemble模块中,源码中选择了将结果拼接了在一起。所以可以看见,在对通一批图像做处理的时候,会得到多个模型预测的结果,预测框成倍的增加,使用多少个模型就会增加多少倍,后处理过程会变慢,但是精度会提高,其实也可以换成mean或者是max的方法。
|