总结一下自己使用pytorch写深度学习模型的心得,所有的pytorch模型都离不开下面的几大组件。
Network
创建一个Network类,继承torch.nn.Module,在构造函数中用初始化成员变量为具体的网络层,在forward函数中使用成员变量搭建网络架构,模型的使用过程中pytorch会自动调用forword进行参数的前向传播,构建计算图。以下拿一个简单的CNN图像分类模型举例:
class Network(nn.Module):
def __init__(self):
super(Network, self).__init__()
self.conv1 = nn.Conv2d(in_channels=1, out_channels=6, kernel_size=5)
self.bn1 = nn.BatchNorm2d(6)
self.conv2 = nn.Conv2d(in_channels=6, out_channels=12, kernel_size=5)
self.fc1 = nn.Linear(in_features=12*4*4, out_features=120)
self.bn2 = nn.BatchNorm1d(120)
self.fc2 = nn.Linear(in_features=120, out_features=60)
self.out = nn.Linear(in_features=60, out_features=10)
def forward(self, t):
t = t
t = F.relu(self.conv1(t))
t = F.max_pool2d(t, kernel_size=2, stride=2)
t = self.bn1(t)
t = F.relu(self.conv2(t))
t = F.max_pool2d(t, kernel_size=2, stride=2)
t = F.relu(self.fc1(t.reshape(-1, 12*4*4)))
t = self.bn2(t)
t = F.relu(self.fc2(t))
t = self.out(t)
return t
Transofrms
数据处理可以直接使用torchvision.transforms下的处理函数,包括均值,随机旋转,随机裁剪等等,也可以自己实现一些pytorch中没有实现的处理函数,下面拿一个分割网络的处理函数举例,可支持同时对传入的Image和GroundTruth进行处理,使用时直接按照顺序构造ProcessImgAndGt即可。
class ProcessImgAndGt(object):
def __init__(self, transforms):
self.transforms = transforms
def __call__(self, img, label):
for t in self.transforms:
img, label = t(img, label)
return img, label
class Resize(object):
def __init__(self, height, width):
self.height = height
self.width = width
def __call__(self, img, label):
img = img.resize((self.width, self.height), Image.BILINEAR)
label = label.resize((self.width, self.height), Image.NEAREST)
return img, label
class Normalize(object):
def __init__(self, mean, std):
self.mean, self.std = mean, std
def __call__(self, img, label):
for i in range(3):
img[:, :, i] -= float(self.mean[i])
for i in range(3):
img[:, :, i] /= float(self.std[i])
return img, label
class ToTensor(object):
def __init__(self):
self.to_tensor = torchvision.transforms.ToTensor()
def __call__(self, img, label):
img, label = self.to_tensor(img), self.to_tensor(label).long()
return img, label
transforms = ProcessImgAndGt([
Resize(512, 512),
Normalize([0.5, 0.5, 0.5], [0.1, 0.1, 0.1]),
ToTensor()
])
Dataset
创建一个数据集类,继承torch.utils.data.Dataset,只需实现__init__构造函数,__getitem__迭代器遍历函数以及__len__函数,在__init__函数中读取传入的数据集路径下的指定数据文件,还是拿一个分割网络的dataset流程举例,其他分类分类模型可以直接将GroundTruth替换为对应label即可,将拼接处理好的图片文件路径和GroundTruth文件路径作为元组存入一个为列表的成员变量file_list中;在__getitem__中根据传入的索引从file_list取对应的元素,并且通过Transforms进行处理;在__len__中返回len(self.file_list)即可。
class MyDataset(torch.utils.data.Dataset):
def __init__(self, dataset_path, transforms):
super(TrainDataset, self).__init()
self.dataset_path = dataset_path
self.transforms = transforms
for dir in os.listdir(dataset_path):
image_dir = os.path.join(dataset_path, dir)
gt_path = image_dir + '/GT/'
img_path = image_dir + '/Frame/'
img_list = []
for name in os.listdir(img_path):
if not name.endswith('.'):
img_list.append(name)
self.file_list.extend([(img_path + name, gt_path + name) for name in img_list])
def __getitem__(self, idx):
img_path, label_path = self.file_list[idx]
img = Image.open(img_path).convert('RGB')
label = Image.open(label_path).convert('L')
img, label = self.transforms(img, label)
return img, label
def __len__(self):
return len(self.file_list)
Optimizer
选择优化器进行模型参数更新,要创建优化器必须给它一个可进行迭代优化的包含了全部参数的列表 然后可以指定针对这些参数的学习率(learning_rate),权重衰减(weight_decay),momentum等,
optimizer = optim.Adam(model.parameters(), lr = 0.0001)
或者是可以指定针对哪些参数执行不一样的优化策略,根据不同层的name对不同层使用不同的优化策略。列表中的每一项都可以是一个dict,dict中params对应当前项的参数列表,可以对当前项指定学习率或者是衰减策略。对base_params使用的1e-4的学习率,对finetune_params使用1e-3的学习率,对两者一起使用1e-4的权重衰减
base_params = [params for name, params in model.named_parameters() if ("xxx" in name)]
finetune_params = [params for name, params in model.named_parameters() if ("yyy" in name)]
optimizer = optim.Adam([
{"params": base_params},
{"params": finetune_params, "lr": 1e-3}
], lr=1e-4, weight_decay=1e-4);
Run
- 基础组件都写好了,剩下的就是组成一个完整的模型结构。
- 实例化模型对象,并将其加载到GPU中
- 根据需要构建数据预处理对象,传入数据集对象中进行读取数据时的数据处理
- 构建训练和测试的数据集对象,并将其传入torch.utils.data.DataLoader,指定batch_size(训练或测试是每次读取多少条数据)、shuffle(读取数据时是否打乱)、num_workers(开启多少线程进行数据加载,为0时(不推荐)用主线程在训练模型时进行数据加载)等参数
- 使用torch.optim.Adam构建优化器对象,这里根据不同层的name对不同层使用不同的优化策略
- 训练20个epoch,并且每5个epoch在测试集上跑一遍,这里只计算了损失,对于其他评价指标直接计算即可
- 根据条件对指定epoch的模型进行保存
optimizer.zero_grad() # pytorch会积累梯度,在优化每个batch的权重的梯度之前将之前计算出的每个权重的梯度置0 loss.backward() # 在最后一个张量上调用反向传播方法,在计算图中计算权重的梯度 optimizer.step() # 使用预先设置的学习率等参数根据当前梯度对权重进行更新
model = Network().cuda()
transforms = ProcessImgAndGt([
Resize(512, 512),
Normalize([0.5, 0.5, 0.5], [0.1, 0.1, 0.1]),
ToTensor()
])
train_dataset = MyDataset(train_dataset_path, transforms)
train_loader = torch.utils.data.DataLoader(dataset=train_dataset,
batch_size=12,
shuffle=True,
num_workers=4,
pin_memory=False)
test_dataset = MyDataset(test_dataset_path, transforms)
test_loader = torch.utils.data.DataLoader(dataset=test_dataset,
batch_size=4,
shuffle=True,
num_workers=2,
pin_memory=False)
base_params = [params for name, params in model.named_parameters() if ("xxx" in name)]
finetune_params = [params for name, params in model.named_parameters() if ("yyy" in name)]
optimizer = torch.optim.Adam([
{"params": base_params, "lr": 1e-3, ...},
{"params": finetune_params, "lr": 1e-4, ...}
])
for epoch in range(20):
model.train()
epoch_loss = 0
for batch in trian_loader:
images. gts = batch[0].cuda(), batch[1].cuda()
preds = model(iamges)
loss = F.cross_entropy(preds, gts)
optimizer.zero_grad()
loss.backward()
optimizer.step()
epoch_loss += loss * trian_loader.batch_size
loss = epoch_loss / len(train_loader.dataset)
if epoch % 5 == 0:
model.eval()
test_epoch_loss = 0
for test_batch in test_loader:
test_images. test_gts = test_batch[0].cuda(), test_batch[1].cuda()
test_preds = model(test_iamges)
loss = F.cross_entropy(test_preds, test_gts)
test_epoch_loss += loss * test_loader.batch_size
test_loss = test_epoch_loss / (len(test_loader.dataset))
if 精度最高:
torch.save(model.stat_dict(), f'{model_path}_{time_index}.pth')
Test
实际使用时需要将训练好的模型上在输入数据上运行,这里以测试集的数据为例,实际情况下只需要初始化模型之后将视频流中的图像帧作为模型的输入即可。
test_dataset = MyDataset(test_dataset_path, transforms)
test_loader = torch.utils.data.DataLoader(dataset=test_dataset,
batch_size=1,
shuffle=False,
num_workers=2)
model = Network().cuda()
model.load_stat_dict(torch.load(model_path, map_location=torch.device('cpu')));
mocel.eval()
with torch.no_grad():
for batch in test_loader:
test_images. test_gts = test_batch[0].cuda(), test_batch[1].cuda()
test_preds = model(test_iamges)
|