一、全景拼接基本流程
- 针对某个场景拍摄多张/序列图像
- 计算第二张图像与第一张图像之间的变换关系
- 将第二张图像叠加到第一张图像的坐标系中
- 变换后的融合/合成
- 在多图场景中,重复上述过程
在上述流程当中,我们可以发现图像之间的变换关系是一个关键部分。
二、图像映射
1.流程
- 针对两张/多张图像提取特征
- 特征匹配
- 根据图像变换特点,选取合适的变换结构
- 根据DLT等方法计算变换结构
- 采用正向/逆向映射,利用插值方式实现图像映射变换
2.类型
图像映射类型有平移、旋转、尺度变换、仿射、透视映射、桶装映射等,不同的类型所对应的自由度也不同,如下图所示: 单应性变换即一个平面到另一个平面的映射关系。公式如下所示:
3.参数求解
得到最小二乘解,在平移问题中最小二乘解和平均残差得到的结果等价
4.仿射变换
残差:
平方和代价函数:
矩阵表达式:
5.单应性变化
6.前向映射
对于
f
(
x
)
f(x)
f(x)中每个像素x,根据变换模型计算相应的映射坐标
x
’
=
h
(
x
)
x’=h(x)
x’=h(x),并将x像素值赋给
g
(
x
’
)
g(x’)
g(x’)
7.逆向映射
对于
g
(
x
′
)
g(x^{'})
g(x′)中的每个像素
x
′
x^{'}
x′,根据变换模型计算相应的映射坐标
x
=
h
?
1
(
x
′
)
x=h^{-1}(x')
x=h?1(x′)
8.像素插值
主要插值方法:
三、RANSAC求解单应矩阵
在直线拟合时,我们需要根据给定的若干二维空间中的点,求出直线
y
=
a
x
+
b
y=ax+b
y=ax+b,并使得该直线对空间点的拟合误差最小,但可能存在噪声点对结果造成很大影响,如图所示: 此时我们可以随机选取两个点,并根据选择点构造直线,再给定阈值计算出inliers的数量
RANSAC loop
四、APAP算法
APAP算法流程:
- 通过SIFT得到两幅图像的匹配点对
- 通过RANSAC剔除外点,得到N对内点
- 利用DLT和SVD计算全局单应性
- 将原图划分网格,取网格中心点,计算每个中心点和原图上内点之间的欧氏距离和权重
- 将权重放到DLT算法的A矩阵中,构建新的W*A矩阵,重新SVD分解,得到当前网格的局部单应性矩阵
- 遍历每个网格,利用局部单应性矩阵映射到全景画布上,得到APAP变换后的原图
- 最后进行拼接线的加权融合
五、图割方法
在寻找拼接缝时,我们希望找到一条不明显的拼接缝,而这就需要通过最大流最小割图割方法进行操作。 最大流: 给定指定有向图,其中有两个特殊的点源S(Sources)和汇T(Sinks),每条边有指定的容量(Capacity),求满足条件的从S到T的最大流(MaxFlow)。 最小割: 割是网络中定点的一个划分,它把网络中的所有顶点划分成两个顶点集合S和T,其中源点s∈S,汇点t∈T。记为CUT(S,T),满足条件的从S到T的最小割(Min cut)。
六、图像融合
在进行图像融合时我们通常采用multi-band blending策略进行融合 基本原理: 1.建立两幅图像的拉普拉斯金字塔 2.求高斯金字塔(掩模金字塔-为了拼接左右两幅图像)因为其具有尺度不变性 3.进行拼接blendLapPyrs() ; 在每一层上将左右laplacian图像直接拼起来得结果金字塔resultLapPyr 4.重建图像: 从最高层结果图 将左右laplacian图像拼成的resultLapPyr金字塔中每一层,从上到下插值放大并和下一层相加,即得blend图像结果
七、图像拼接
流程:
- 根据给定图像/集,实现特征匹配
- 通过匹配特征计算图像之间的变换结构
- 利用图像变换结构,实现图像映射
- 针对叠加后的图像,采用APAP之类的算法,对齐特征点
- 通过图割方法,自动选取拼接缝 根据multi-band blending策略实现融合
八、实验过程
from pylab import *
from numpy import *
from PIL import Image
from PCV.geometry import homography, warp
from PCV.localdescriptors import sift
"""
This is the panorama example from section 3.3.
"""
featname = ['./panoramicpic3/' + str(i + 1) + '.sift' for i in range(5)]
imname = ['./panoramicpic3/' + str(i + 1) + '.jpg' for i in range(5)]
l = {}
d = {}
for i in range(5):
sift.process_image(imname[i], featname[i])
l[i], d[i] = sift.read_features_from_file(featname[i])
matches = {}
for i in range(4):
matches[i] = sift.match(d[i + 1], d[i])
for i in range(4):
im1 = array(Image.open(imname[i]))
im2 = array(Image.open(imname[i + 1]))
figure()
sift.plot_matches(im2, im1, l[i + 1], l[i], matches[i], show_below=True)
def convert_points(j):
ndx = matches[j].nonzero()[0]
fp = homography.make_homog(l[j + 1][ndx, :2].T)
ndx2 = [int(matches[j][i]) for i in ndx]
tp = homography.make_homog(l[j][ndx2, :2].T)
fp = vstack([fp[1], fp[0], fp[2]])
tp = vstack([tp[1], tp[0], tp[2]])
return fp, tp
model = homography.RansacModel()
fp, tp = convert_points(1)
H_12 = homography.H_from_ransac(fp, tp, model)[0]
fp, tp = convert_points(0)
H_01 = homography.H_from_ransac(fp, tp, model)[0]
tp, fp = convert_points(2)
H_32 = homography.H_from_ransac(fp, tp, model)[0]
tp, fp = convert_points(3)
H_43 = homography.H_from_ransac(fp, tp, model)[0]
delta = 2000
im1 = array(Image.open(imname[1]), "uint8")
im2 = array(Image.open(imname[2]), "uint8")
im_12 = warp.panorama(H_12, im1, im2, delta, delta)
im1 = array(Image.open(imname[0]), "f")
im_02 = warp.panorama(dot(H_12, H_01), im1, im_12, delta, delta)
im1 = array(Image.open(imname[3]), "f")
im_32 = warp.panorama(H_32, im1, im_02, delta, delta)
im1 = array(Image.open(imname[4]), "f")
im_42 = warp.panorama(dot(H_32, H_43), im1, im_32, delta, 2 * delta)
figure()
imshow(array(im_42, "uint8"))
axis('off')
show()
实验结果:
|