从PF-AFN_test开始看,先看测试代码
1.test.sh??
python test.py --name demo --resize_or_crop None --batchSize 1 --gpu_ids 0
参数:name,resize_or_crop,gpu_ids? 参数定义在options.base_options.py
定义:name demo?
? ? ? ? ? resize_or_crop None 不需要变换
? ? ? ? ? batchSize 1一次把网络中送入一个
2.test.py
opt = TestOptions().parse()#opt代表初始化的类对象
ctrl+鼠标左键点击Testoptions,找到opt对象的具体内容:
class TestOptions(BaseOptions):
#TestOptions类的initialize函数系重写,但还是调用了BaseOptions.initialize(self)的,所以
#BaseOptions.initialize的数据也包含了的。
#根据训练和测试所需要的数据不同,控制生成数据集和其他超参数
def initialize(self):
BaseOptions.initialize(self)
......
ctrl+鼠标左键点击Baseoptions
import argparse #argparse指定命令行参数
import torch
#配置文件options,专用于数据集目录信息。测试信息和超参数进行配置的文件
class BaseOptions():
def __init__(self):... #创建对象就默认执行init方法,
def initialize(self):...
def parse(self, save=True):
'''
指定GPU
打印参数
'''
if not self.initialized:#self.initialized只要对象存在就执行init方法,init方法中self.initialized = False,if not False即为True
self.initialize()#执行initialize()方法
self.opt = self.parser.parse_args()#self.parser初始化的,.parse_args()获取参数的第一列'--name''--gpu_ids'
#把parser中设置的所有"add_argument"给返回到opt子类实例当中, 那么parser中增加的属性内容都会在opts实例中,使用即可。
self.opt.isTrain = self.isTrain # train or test 在opt对象中添加参数,把self.isTrain 赋值给self.opt.isTrain,但没有self.isTrain这个参数???
str_ids = self.opt.gpu_ids.split(',')#1,2,3在多GPU并行的时候,实际的batch size是单GPU设置的batch size的n倍
self.opt.gpu_ids = []
'''
把GPU放里面
'''
for str_id in str_ids:
id = int(str_id)
if id >= 0:
self.opt.gpu_ids.append(id)
if len(self.opt.gpu_ids) > 0:
torch.cuda.set_device(self.opt.gpu_ids[0])
args = vars(self.opt)
print('------------ Options -------------')#把参数打印一遍
for k, v in sorted(args.items()):
print('%s: %s' % (str(k), str(v)))
print('-------------- End ----------------')
return self.opt
opt = TestOptions().parse()#目的就是调用base_options中的方法,目的指定GPU,打印参数
数据集详细处理:
data_loader = CreateDataLoader(opt) #CreateDataLoader是封装数据迭代器的类 点进去
#pytorch怎么创建数据类:先把数据封装到一个dataset类里,该类的作用是把原来的图片和标签转换为tensor,dataset类再封装到dataloder类里,该类的作用把数据一批一批batch,3维转四4维
def CreateDataLoader(opt):
from data.custom_dataset_data_loader_test import CustomDatasetDataLoader
data_loader = CustomDatasetDataLoader()
print(data_loader.name())
data_loader.initialize(opt)
return data_loader
具体内容在CustomDatasetDataLoader在,ctrl+左键点进去
class CustomDatasetDataLoader(BaseDataLoader):#继承了BaseDataLoader类
def name(self):#返回类名
return 'CustomDatasetDataLoader'
def initialize(self, opt):
BaseDataLoader.initialize(self, opt)
#还封装了一层
self.dataset = CreateDataset(opt)#第一步,创建dataset类
self.dataloader = torch.utils.data.DataLoader(
self.dataset,
batch_size=opt.batchSize,
shuffle = False,
num_workers=int(opt.nThreads))
def load_data(self):
return self.dataloader
def __len__(self):
return min(len(self.dataset), self.opt.max_dataset_size)
发现还封装了一层,数据是:self.dataset = CreateDataset(opt)
#一般把图片加标签转成tensor数据
def CreateDataset(opt):
dataset = None
from aligned_dataset_test import AlignedDataset
#又有封装函数
dataset = AlignedDataset()
print("dataset [%s] was created" % (dataset.name()))
dataset.initialize(opt)#可以看出封装数据过程中动不动都在初始化
return dataset
发现还有函数封装,注意dataset.initialize(opt),封装数据过程中动不动都在初始化。
ctrl+鼠标左键点击AlignedDataset
#创建数据类时,继承torch.utils.data.Dataset,重写两个方法
class AlignedDataset(BaseDataset):
def initialize(self, opt):#初始化数据
self.opt = opt
self.root = opt.dataroot#在base_option定义的参数里面,代表数据集路径
self.fine_height=256
self.fine_width=192
self.dataset_size = len(open('demo.txt').readlines())#打开demo.txt一行一行读,是图片名不是数据集大小,self.img_name
dir_I = '_img'
self.dir_I = os.path.join(opt.dataroot, opt.phase + dir_I)#dataroot代表dataset,phase代表test测试,dataset.test_img
dir_C = '_clothes'
self.dir_C = os.path.join(opt.dataroot, opt.phase + dir_C)
dir_E = '_edge'
self.dir_E = os.path.join(opt.dataroot, opt.phase + dir_E)
#读取数据的时候才会调用__getitem__()和__len__()这两个方法
#__getitem__该函数是pytorch生成batch数据可迭代数据,这个类继承于BaseDataset,父类有transform等方法:
def __getitem__(self, index): #读取数据,初始化就是把大家的地址放到明面上了。返回index对应的数据。比如100张图片,index对应0-99.index=5返回的是第6张图片转换成的tensor数据
#__外部不能访问只能内部访问,_外部可访问。一般在initialize中调用__getitem__()和__len__()方法,initialize方法外部可调用。但是该代码中initialize没调用这两个方法,继承的父类中调用了
file_path ='demo.txt'
print(file_path)
#读入图片和衣服
im_name, c_name = linecache.getline(file_path, index+1).strip().split()#缓存读取大文件制定行,从file_path中读取index+1行
I_path = os.path.join(self.dir_I,im_name)#路径 图片名对应
print(I_path)#路径
I = Image.open(I_path).convert('RGB')#从路径中读取图片转换成RGB格式,在内存中图片都是矩阵形式,I是矩阵形式
params = get_params(self.opt, I.size)
transform = get_transform(self.opt, params)#数据增强
transform_E = get_transform(self.opt, params, method=Image.NEAREST, normalize=False)#数据增强,方法最近邻插值,不进行归一化
I_tensor = transform(I)#对图片进行数据增强
C_path = os.path.join(self.dir_C,c_name)
C = Image.open(C_path).convert('RGB')
C_tensor = transform(C)
E_path = os.path.join(self.dir_E,c_name)
E = Image.open(E_path).convert('L')
E_tensor = transform_E(E)
#生成的数据长什么样,都是tensor
input_dict = { 'image': I_tensor,'clothes': C_tensor, 'edge': E_tensor}
return input_dict#返回的字典
def __len__(self):#返回数据集的长度
return self.dataset_size
def name(self):
return 'AlignedDataset'
上面代码用到两个方法get_param和get_transform,解析如下
import torch.utils.data as data
from PIL import Image
import torchvision.transforms as transforms#pytorch里的数据增强
import numpy as np
import random
#要成为pytorch规定的数据类,pytorch dataset类必须继承torch.utils.data.Dataset
class BaseDataset(data.Dataset):#继承了data.Dataset
def __init__(self):
super(BaseDataset, self).__init__()#找出BaseDataset的父类,调用BaseDataset父类的init方法
def name(self):
return 'BaseDataset'
def initialize(self, opt):
pass
def get_params(opt, size):#->(int,int)指定参数类型
'''
功能:不知道,没看懂
opt:命令行参数
size:图片大小
return:字典{'crop_pos': (x, y), 'flip': flip}
'''
w, h = size
new_h = h
new_w = w
if opt.resize_or_crop == 'resize_and_crop':#如果有参数==resize_and_crop
new_h = new_w = opt.loadSize #参数定义:缩放图片
elif opt.resize_or_crop == 'scale_width_and_crop':
new_w = opt.loadSize
new_h = opt.loadSize * h // w
x = random.randint(0, np.maximum(0, new_w - opt.fineSize))#fineSize:剪裁图片
y = random.randint(0, np.maximum(0, new_h - opt.fineSize))
flip = 0
return {'crop_pos': (x, y), 'flip': flip}
def get_transform_resize(opt, params, method=Image.BICUBIC, normalize=True):
transform_list = []
transform_list.append(transforms.Lambda(lambda img: __scale_width(img, opt.loadSize, method)))
osize = [256,192]
transform_list.append(transforms.Scale(osize, method))
if 'crop' in opt.resize_or_crop:
transform_list.append(transforms.Lambda(lambda img: __crop(img, params['crop_pos'], opt.fineSize)))
if opt.resize_or_crop == 'none':
base = float(2 ** opt.n_downsample_global)
if opt.netG == 'local':
base *= (2 ** opt.n_local_enhancers)
transform_list.append(transforms.Lambda(lambda img: __make_power_2(img, base, method)))
if opt.isTrain and not opt.no_flip:
transform_list.append(transforms.Lambda(lambda img: __flip(img, params['flip'])))
transform_list += [transforms.ToTensor()]
if normalize:
transform_list += [transforms.Normalize((0.5, 0.5, 0.5),
(0.5, 0.5, 0.5))]
return transforms.Compose(transform_list)
def get_transform(opt, params, method=Image.BICUBIC, normalize=True):
'''
功能:进行数据增强
Image.BICUBIC:把图像放大并进行插值的方法
normalize=True:归一化
'''
transform_list = []
if 'resize' in opt.resize_or_crop:
osize = [opt.loadSize, opt.loadSize]
transform_list.append(transforms.Scale(osize, method)) #transforms.Scale缩放成指定的大小
elif 'scale_width' in opt.resize_or_crop:
transform_list.append(transforms.Lambda(lambda img: __scale_width(img, opt.loadSize, method)))#lambda x:x+1代替一个函数
#lambda函数参数img,调用了__scale_width方法跳一下在下面,
osize = [256,192]
transform_list.append(transforms.Scale(osize, method))
if 'crop' in opt.resize_or_crop:
transform_list.append(transforms.Lambda(lambda img: __crop(img, params['crop_pos'], opt.fineSize)))
if opt.resize_or_crop == 'none':
base = float(16)
transform_list.append(transforms.Lambda(lambda img: __make_power_2(img, base, method)))
if opt.isTrain and not opt.no_flip:
transform_list.append(transforms.Lambda(lambda img: __flip(img, params['flip'])))
transform_list += [transforms.ToTensor()]#转成tensor
if normalize:
transform_list += [transforms.Normalize((0.5, 0.5, 0.5),
(0.5, 0.5, 0.5))]
return transforms.Compose(transform_list)#Compose传入一个列表,列表中是传入的增强方法
def normalize(): #归一化
return transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
def __make_power_2(img, base, method=Image.BICUBIC):
ow, oh = img.size
h = int(round(oh / base) * base)
w = int(round(ow / base) * base)
if (h == oh) and (w == ow):
return img
return img.resize((w, h), method)
def __scale_width(img, target_width, method=Image.BICUBIC):#传图片,宽度,插值方法
'''
根据传入图片修改图片宽
'''
ow, oh = img.size
if (ow == target_width):#如果图片是指定宽度,则返回图片
return img
w = target_width#如果不是
h = int(target_width * oh / ow)
return img.resize((w, h), method)
def __crop(img, pos, size):#pos是x,y坐标
#根据传入的pos裁剪图片大小
ow, oh = img.size
x1, y1 = pos
tw = th = size
if (ow > tw or oh > th):
return img.crop((x1, y1, x1 + tw, y1 + th))#(x1,y1)(x1 + tw, y1 + th)
return img
def __flip(img, flip):#翻转
if flip:
return img.transpose(Image.FLIP_LEFT_RIGHT)
return img
看完了AlignedDataset往回返
class CustomDatasetDataLoader(BaseDataLoader):#继承了BaseDataLoader类
def name(self):#返回类名
return 'CustomDatasetDataLoader'
def initialize(self, opt):
BaseDataLoader.initialize(self, opt)
#还封装了一层
self.dataset = CreateDataset(opt)#第一步,创建dataset类,下一步:图片3维,把模型里放分批,4维
self.dataloader = torch.utils.data.DataLoader(#用DataLoader实现 4维
self.dataset,#数据类
batch_size=opt.batchSize,#命令行参数
shuffle = False,#测试集不打乱
num_workers=int(opt.nThreads))#cpu数量
def load_data(self):#上面initialize没有返回,在这个函数里返回了
return self.dataloader
def __len__(self):
return min(len(self.dataset), self.opt.max_dataset_size)
一层一层回到test.py
data_loader = CreateDataLoader(opt) #CreateDataLoader是封装数据迭代器的类 点进去。
#pytorch怎么创建数据类:先把数据封装到一个dataset类里,该类的作用是把原来的图片和标签转换为tensor,dataset类再封装到dataloder类里,该类的作用把数据一批一批batch,3维转四4维
dataset = data_loader.load_data()#load_data方法是返回dataloader,此时才开始得到数据,4维
dataset_size = len(data_loader)#1000张图片每次放10张,len是1000
print(dataset_size)
|