- 数据集? ?UTKface? 包含23708张图像,图片格式是1_0_0_20161219140623097.jpg.chip.jpg,年龄_性别_种族。
- 年龄分布0-126采用回归。
- 性别男、女采用二分类。
- 种族是0到4之间的整数,表示白人、黑人、亚洲人、印度人和其他人(如西班牙裔、拉丁美洲人、中东人),采用多分类。
- 测试代码:
import torch
import cv2,os,time
import numpy as np
from torchvision import transforms, utils
# 检查是否可以利用GPU
train_on_gpu = torch.cuda.is_available()
if not train_on_gpu:
print('CUDA is not available.')
else:
print('CUDA is available!')
transform = transforms.Compose([transforms.ToTensor(),
transforms.Normalize(mean=[0.5, 0.5, 0.5],
std=[0.5, 0.5, 0.5]),
transforms.Resize((64, 64))
])
model=torch.load("age_gender_model.pt",map_location='cuda')
src_img = cv2.imread("38_1_4_20170109003326675.jpg.chip.jpg")
img = transform(src_img)
img = img.unsqueeze(0)
age_out, gender_out, race_out = model(img.cuda())
age = int(age_out.cpu().detach().numpy()[0][0] * 116)
gender = np.argmax(gender_out.cpu().detach().numpy())
race = np.argmax(race_out.cpu().detach().numpy())
face_attr={"age":age,
"gender":["male","female"],
"race":["White","Black","Asian","Indian","Others"]
}
cv2.putText(src_img, "age: {0}".format(face_attr["age"]), (5,10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 0, 255), 1)
cv2.putText(src_img, "gender: {0}".format(face_attr["gender"][gender]), (5,25), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255,0), 1)
cv2.putText(src_img, "race: {0}".format(face_attr["race"][race]), (5,40), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (255, 0, 0), 1)
cv2.imshow("face_attr",src_img)
cv2.imwrite("face_attr.jpg",src_img)
cv2.waitKey(0)
- 测试展示:?
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ???
测试图片 1_1_0_20170109192245647.jpg.chip.jpg
测试结果? ?年龄、性别、种族正确。?
?测试图片? ? ? ? ? 38_1_4_20170109003326675.jpg.chip.jpg
?测试结果? ? 年龄有点浮动,性别、种族预测准确。
?
测试图片?24_1_2_20170116173414881.jpg.chip.jpg?
?
?测试结果? ?年龄、性别、种族正确。?
测试图片? 30_0_3_20170119195832412.jpg.chip.jpg
?
?测试结果? ? 年龄有点浮动,性别、种族预测准确。
?总结:年龄是0-126的回归,预测值会有所浮动,但可以设置一个区间,少年、青年、中年、老人等,效果会更好。
|