L-0范数:用来统计向量中非零元素的个数。 L-1范数:向量中所有元素的绝对值之和。 L-2范数:欧式距离。 L-∞范数:计算向量中的最大值。
你也可以这样理解 1-范数:
║
x
║
1
=
│
x
1
│
+
│
x
2
│
+
…
+
│
x
n
│
║x║_1=│x^1│+│x^2│+…+│x^n│
║x║1?=│x1│+│x2│+…+│xn│ 2-范数:
║
x
║
2
=
(
│
x
1
│
2
+
│
x
2
│
2
+
…
+
│
x
n
│
2
)
2
║x║_2=\sqrt[2]{(│x^1│^2+│x^2│^2+…+│x^n│^2)}
║x║2?=2(│x1│2+│x2│2+…+│xn│2)
? ∞-范数:
║
x
║
∞
=
m
a
x
(
│
x
1
│
,
│
x
2
│
,
…
,
│
x
n
│
)
║x║_∞=max(│x^1│,│x^2│,…,│x^n│)
║x║∞?=max(│x1│,│x2│,…,│xn│)
看下面这组数A=(3,4,5)和B=(6,1,1)谁大?
用二范数
A
2
=
50
2
,
B
2
=
38
2
,
A
>
B
\sqrt[2]{A}=\sqrt[2]{50},\sqrt[2]{B}=\sqrt[2]{38},A>B
2A
?=250
?,2B
?=238
?,A>B 但是如果用无穷范数比较: ||B||=6>||A||=5,所以不同的度量标准下数据的大小关系可能会发生变化
下面看看范数在KNN算法中的使用,一般的KNN算法使用欧氏距离作为距离度量,但是这种方式只适用于样本是球形簇的情况,比如下面这种情况就不适合欧式距离 因此可能会选用不同的距离定义 1 闵可夫斯基距离
这
里
p
?
1
这里p\geqslant1
这里p?1
2 曼哈顿距离
p
=
1
p=1
p=1 3 欧式距离
p
=
2
p=2
p=2
4 切比雪夫距离
p
=
∞
p=\infty
p=∞
x
m
表
示
样
本
x
的
m
个
特
征
,
x
i
表
示
第
i
个
样
本
,
x
i
m
表
示
第
i
个
样
本
的
第
m
个
特
征
x^m表示样本x的m个特征,x_i表示第i个样本,x_i^m表示第i个样本的第m个特征
xm表示样本x的m个特征,xi?表示第i个样本,xim?表示第i个样本的第m个特征
|