einsum 计算consine similarity for contrastive learning
consine similarity 定义
S
i
j
=
X
i
T
Y
j
/
∥
X
i
∥
2
∥
Y
j
∥
2
S_{ij}=X_i^TY_j/\|X_i\|_2\|Y_j\|_2
Sij?=XiT?Yj?/∥Xi?∥2?∥Yj?∥2? X 和Y为embedding 矩阵:
b
z
×
h
i
d
e
n
_
d
i
m
bz\times hiden\_dim
bz×hiden_dim
X
i
T
Y
j
=
∑
k
X
i
k
Y
j
k
X_i^TY_j= \sum_k X_{ik} Y_{jk}
XiT?Yj?=k∑?Xik?Yjk?
这一步用爱因斯坦求和便是
torch.einsum('ik,jk->ij', X, Y)
N
i
j
=
∥
X
i
∥
2
∥
Y
j
∥
2
N_{ij}= \|X_i\|_2\|Y_j\|_2
Nij?=∥Xi?∥2?∥Yj?∥2?
torch.einsum('i,j->ij', X.norm(dim=-1), Y.norm(dim=-1))
- 最后计算实例
对比学习里边最常使用的x, 以及x_argumentation 计算相似度矩阵
x_abs = x.norm(dim=1)
x_aug_abs = x_aug.norm(dim=1)
sim_matrix = torch.einsum('ik,jk->ij', x, x_aug) / torch.einsum('i,j->ij', x_abs, x_aug_abs)
其他用法
torch_ein_out = torch.einsum('ij->j', [a]).numpy()
https://zhuanlan.zhihu.com/p/361209187
|