1、介绍
Wide & Deep模型的出发点是兼顾模型的记忆能力和泛化能力,下面解释一下这两者的含义。
- 记忆 (Memorization):指的是模型记住商品共现性的能力。举个例子,一个父亲逛淘宝通常会同时买尿布和啤酒,这就体现了商品的共现性。购买的次数多了,当模型看到尿布,自然会给用户推荐啤酒,这就是模型的记忆能力。
- 泛化( Generalization)能力:只是的模型挖掘用户潜在喜好的能力。比方说,你经常刷足球类的短视频,软件就会根据足球去联想,你是不是有可能喜欢C罗呢?然后软件就会尝试给你推荐C罗的视频,这就体现了模型的泛化能力。
在Wide & Deep论文中,由线性模型加上人工设计的关联规则,来负责记忆(Memorization),称为Wide部分;由深层神经网络来负责泛化( Generalization),称为Deep部分。
2、Wide
广义线性模型的表达式是:
y
=
w
T
x
+
b
y=w^Tx+b
y=wTx+b 其中,
x
x
x表示特征向量。然后
W
i
d
e
Wide
Wide部分定义了一个关联规则,用它来表示特征之间的共现性:
关联规则的具体表示是:只有当
i
i
i特征和
k
k
k特征同时为1时,
c
k
i
c_{ki}
cki?才为1,否则为0。文中选择的特征是“用户下载的APP”和“用户感兴趣的APP”。
3、Deep
D
e
e
p
Deep
Deep部分,首先会把稀疏的原始向量经过
E
m
b
e
d
d
i
n
g
Embedding
Embedding层,得到稠密向量,然后再经过全连接网络,进行特征交叉,提取高阶特征:
4、Join Training
最后,我们把
W
i
d
e
Wide
Wide部分和
D
e
e
p
Deep
Deep部分的输出加在一起,经过一个
S
i
g
m
o
i
d
Sigmoid
Sigmoid函数,把输出压缩到01之间,最后用
L
o
g
i
s
t
i
c
Logistic
Logistic
L
o
s
s
Loss
Loss进行训练。
|