1.二元关系
1.令
A
=
{
1
,
2
,
5
,
8
,
9
}
\mathbf{A} = \{1, 2, 5, 8, 9\}
A={1,2,5,8,9}, 写出
A
\mathbf{A}
A 上的 “模 2 同余” 关系及相应的划分.
P
=
{
{
1
,
5
,
9
}
,
{
2
,
8
}
}
\mathcal{P}=\{\{1, 5, 9\}, \{2, 8\}\}
P={{1,5,9},{2,8}} 2.
A
=
{
1
,
2
,
5
,
8
,
9
}
\mathbf{A} = \{1, 2, 5, 8, 9\}
A={1,2,5,8,9}, 自己给定两个关系
R
1
\mathbf{R}_1
R1?和
R
2
\mathbf{R}_2
R2?,并计算
R
1
R
2
\mathbf{R}_1 \mathbf{R}_2
R1?R2?,
R
1
+
\mathbf{R}_1^+
R1+?,
R
1
?
\mathbf{R}_1^*
R1??. 给定两个关系:
R
1
=
{
(
1
,
2
)
,
(
2
,
8
)
}
,
R
2
=
{
(
5
,
8
)
,
(
8
,
9
)
}
\mathbf{R}_1=\{(1,2), (2,8)\}, \mathbf{R}_2=\{(5,8), (8,9)\}
R1?={(1,2),(2,8)},R2?={(5,8),(8,9)}
R
1
R
2
=
{
(
2
,
9
)
}
\mathbf{R}_1\mathbf{R}_2=\{(2, 9)\}
R1?R2?={(2,9)} 正闭包:
R
+
=
?
i
=
1
∣
A
∣
R
i
\mathbf{R}^+ = \bigcup_{i = 1}^{\vert \mathbf{A} \vert} \mathbf{R}^i
R+=?i=1∣A∣?Ri
R
1
+
=
{
(
1
,
2
)
,
(
2
,
8
)
,
(
1
,
8
)
}
\mathbf{R}_1^+=\{(1,2),(2,8),(1,8)\}
R1+?={(1,2),(2,8),(1,8)} 克林闭包:
R
?
=
R
+
∪
A
0
\mathbf{R}^* = \mathbf{R}^+ \cup \mathbf{A}^0
R?=R+∪A0 , 其中
A
0
=
{
(
x
,
x
)
∣
x
∈
A
}
\mathbf{A}^0 = \{(x, x) \vert x \in A\}
A0={(x,x)∣x∈A}
R
1
?
=
{
(
1
,
2
)
,
(
2
,
8
)
,
(
1
,
8
)
,
(
1
,
1
)
,
(
2
,
2
)
,
(
5
,
5
)
,
(
8
,
8
)
,
(
9
,
9
)
}
\mathbf{R}_1^*=\{(1,2),(2,8),(1,8),(1,1),(2,2),(5,5),(8,8),(9,9)\}
R1??={(1,2),(2,8),(1,8),(1,1),(2,2),(5,5),(8,8),(9,9)} 3.查阅粗糙集上下近似的定义并大致描述. 上近似和下近似:上近似是指包含 给定集合 X 元素的 最小可定义集。下近似则是包含于X的最大可定义集。
2.函数
举例说明你对函数的认识. 1.一元函数
f
:
R
→
R
f: \mathbb{R} \to \mathbb{R}
f:R→R
f
(
x
)
=
x
2
+
1
f(x)=x^2+1
f(x)=x2+1
x
?
x
2
+
1
x \mapsto x^2 + 1
x?x2+1 2.多元函数
f
:
R
2
→
R
f: \mathbb{R}^2 \to \mathbb{R}
f:R2→R
f
(
x
,
y
)
=
x
2
+
y
2
f(x,y)=x^2+y^2
f(x,y)=x2+y2 机器学习的回归, 就是学习函数
f
:
R
m
→
R
f: \mathbb{R}^m \to \mathbb{R}
f:Rm→R,其中
m
m
m 为条件属性数. 在多标签学习中, 就是学习
f
:
R
m
→
{
?
1
,
+
1
}
L
f: \mathbb{R}^m \to \{-1,+1\}^L
f:Rm→{?1,+1}L 在多标签分布学习中, 就是学习
f
:
R
m
→
[
0
,
1
]
L
f: \mathbb{R}^m \to [0, 1]^L
f:Rm→[0,1]L, 其中
m
m
m 为条件属性数,
L
L
L 为标签数.
3.向量/矩阵的范数
自己给定一个矩阵并计算其各种范数. 对于矩阵:
[
2.2
?
1.8
0
5.6
]
\begin{bmatrix}2.2 & -1.8 \\ 0 & 5.6 \end{bmatrix}
[2.20??1.85.6?]
-
l
0
l_0
l0?范数:
∣
∣
X
∣
∣
0
=
3
||\mathbf{X}||_0=3
∣∣X∣∣0?=3. 语义: 非零项个数.
-
l
1
l_1
l1?范数:
∣
∣
X
∣
∣
1
=
2.2
+
1.8
+
0
+
5.6
=
9.6
||\mathbf{X}||_1=2.2+1.8+0+5.6=9.6
∣∣X∣∣1?=2.2+1.8+0+5.6=9.6. 语义: 绝对值之和,常用于计算绝对误差.
-
l
2
l_2
l2?范数:
∣
∣
X
∣
∣
2
=
2.
2
2
+
(
?
1.8
)
2
+
0
+
5.
6
2
=
6.654
||\mathbf{X}||_2=\sqrt{2.2^2+(-1.8)^2+0+5.6^2}=6.654
∣∣X∣∣2?=2.22+(?1.8)2+0+5.62
?=6.654. 语义: 平方和,常用于计算平方误差.
-
∣
∣
X
∣
∣
∞
||\mathbf{X}||_{\infty}
∣∣X∣∣∞?范数:
∣
∣
X
∣
∣
∞
=
max
?
i
,
j
∣
x
i
j
∣
=
5.6
||\mathbf{X}||_{\infty} = \max_{i, j} \vert x_{ij} \vert=5.6
∣∣X∣∣∞?=maxi,j?∣xij?∣=5.6. 语义: 平方和.
4.min与argmin
解释 推荐系统: 问题、算法与研究思路 2.1 中的优化目标
min
?
∑
(
i
,
j
)
∈
Ω
(
f
(
x
i
,
t
j
)
?
r
i
j
)
2
\min \sum_{(i, j) \in \Omega} (f(\mathbf{x}_i, \mathbf{t}_j) - r_{ij})^2
min(i,j)∈Ω∑?(f(xi?,tj?)?rij?)2
各符号及含义.
x
i
\mathbf{x}_i
xi?表示用户
i
i
i的信息,
t
j
\mathbf{t}_j
tj?表示商品
j
j
j的信息,
r
i
j
r_{ij}
rij?表示用户
i
i
i对商品
j
j
j的浏览情况,
r
i
j
=
0
r_{ij}=0
rij?=0表示浏览过,
r
i
j
=
1
r_{ij}=1
rij?=1表示未浏览过,
n
n
n个用户对
m
m
m个商品的浏览情况组成评分表
R
=
(
r
i
j
)
n
×
m
\mathbf{R}=(r_{ij})_{n\times m}
R=(rij?)n×m?,
Ω
\Omega
Ω代表评分表
R
\mathbf{R}
R中非零元素对应的位置集合,函数
f
:
R
d
u
×
R
d
t
→
R
f: R^{d_u} \times R^{ d_t} \rightarrow R
f:Rdu?×Rdt?→R为要学习的目标。
优化目标为最小化训练集上的 MSE,使得
f
(
x
i
,
t
j
)
f(\mathbf{x}_i, \mathbf{t}_j)
f(xi?,tj?)与
r
i
j
r_{ij}
rij?平均差距尽可能小,学习到能够根据用户和商品信息来预测浏览情况的函数,为用户推荐喜欢的商品。
|