IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 计算机视觉——单目相机标定 -> 正文阅读

[人工智能]计算机视觉——单目相机标定

计算机视觉——单目相机标定

前言

什么是相机标定:在计算机视觉应用中,为确定空间物体表面某点的三维几何位置与其在图像中对应点之间的相互关系,必须建立相机成像的几何模型,这些几何模型参数就是相机参数。相机参数可以分为内参和外参。求解内参和外参的过程称之为相机标定。其中内参包括焦距,像主点坐标,畸变参数。外参包括旋转和平移。

为什么要相机标定: 计算机视觉的基本任务之一是从摄像机获取的图像信息出发计算三维空间中物体的几何信息,并由此重建和识别物体,而空间物体表面某点的三维几何位置与其在图像中对应点之间的相互关系是由摄像机成像的几何模型决定的,这些几何模型参数就是摄像机参数。在大多数条件下,这些参数必须通过实验与计算才能得到。其标定结果的精度及算法的稳定性直接影响相机工作产生结果的准确性。说白了相机参数的准确性会影响算法的精度,如下图所示,当时同样的算法换了个镜头,但是效果差很多,最后检查原来是使用的是另一个相机的参数🥲

XPSSHA.png

本次实验代码可在OpenCV中文文档中找到详细过程,本次实验主要是想记录下镜头动和标定板动对标定结果的影响。

OpenCV相机标定流程

1. 数据集

手机型号:vivo S9

手机相机分辨率:3456×4608

标定板规格:GP340 12x9 25mm

第一组数据:固定镜头,动标定板

XPSuEn.png

第二组数据:固定标定板,动镜头:

XPSM40.png

2. 角点提取

下述阐述的详细步骤均由第一组数据,实验分析中会涉及到第二组数据的对比。

补充说明:整个标定过程的目的是利用已知的图像二维点坐标和空间中的三维点坐标来求解内外参数,如下图所示:

XPS8vF.png

但是问题是怎么已知的?首先对于空间三维点坐标的已知:因为我们采用的是棋盘格,我所用棋盘格中的每个格子是25mm,所以我以棋盘格左上角点为世界坐标原点,然后就能知道每个角点的坐标,同时还消除了Z轴,代码如下所示:

cp_int = np.zeros((w * h, 3), np.float32)
cp_int[:, :2] = np.mgrid[0:w, 0:h].T.reshape(-1, 2)
array([[0.        , 0.        , 0.        ],
       [0.025     , 0.        , 0.        ],
       [0.05      , 0.        , 0.        ],
       [0.075     , 0.        , 0.        ],
       [0.1       , 0.        , 0.        ],
       [0.125     , 0.        , 0.        ],
       [0.15      , 0.        , 0.        ],
       [0.175     , 0.        , 0.        ],
       [0.2       , 0.        , 0.        ],
       [0.22500001, 0.        , 0.        ],
       [0.25      , 0.        , 0.        ],
       [0.        , 0.025     , 0.        ],
       [0.025     , 0.025     , 0.        ],
       [0.05      , 0.025     , 0.        ],
       [0.075     , 0.025     , 0.        ],
       [0.1       , 0.025     , 0.        ],
       ………………………………

那对于图像二维点坐标的已知,利用的就是角点检测,检测出了角点,就能知道角点所在第几行像素,在第几列像素,因此才需要做角点检测,具体代码如下:

for fname in tqdm(range(len(images))):
    img = cv2.imread(img_dir+str(fname+1)+img_type)
    gray_img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
    # 内角数
    ret, cp_img = cv2.findChessboardCorners(gray_img, (w, h), None)
    # 找到角点坐标的情况
    if ret == True:
        # 使用亚像素更准
        cp_img = cv2.cornerSubPix(gray_img, cp_img, (11,11), (-1,-1), criteria)
        obj_points.append(cp_world)
        # 每个角点在图像中的位置
        img_points.append(cp_img)
        # 可视化每个角点
        cv2.drawChessboardCorners(img, (w, h), cp_img, ret)
        cv2.imwrite(save_dir+str(fname+1)+img_type, img)

值得注意的是,可以使用cv2.cornerSubPix进行迭代定位亚像素角点,使得角点的定位更为精确。角点可视化结果:

XPSUER.png

同理,每个角点在图像中的坐标为:

array([[[ 875.23474, 1233.4252 ]],
 
        [[1046.5013 , 1226.9655 ]],
 
        [[1218.783  , 1220.3584 ]],
 
        [[1391.0924 , 1214.2686 ]],
 
        [[1562.6665 , 1206.5886 ]],
 
        [[1736.0254 , 1199.1523 ]],
 
        [[1908.2211 , 1192.0359 ]],
 
        [[2082.2131 , 1184.3872 ]],
 
        [[2256.5217 , 1175.4783 ]],
 
        [[2431.4773 , 1167.0223 ]],
 
        [[2606.6807 , 1158.4791 ]],
        ………………………………

3. 内参外参求解

角点检测完毕后,我们能得到一堆的角点坐标加上空间三维点坐标,接着便利用
cv2.calibrateCamera求解相机内外参数,代码如下:

# ret 非0表示标定成功 mat_inter 内参数矩阵,coff_dis 畸变系数,v_rot 旋转向量,v_trans 平移向量
ret, mat_inter, coff_dis, v_rot, v_trans = cv2.calibrateCamera(obj_points, img_points, gray_img.shape[::-1], None, None)

标定结果如下:

内参矩阵:

array([[3417.42140189,    0.        , 1743.95204043],
       [   0.        , 3417.97234961, 2286.22201502],
       [   0.        ,    0.        ,    1.        ]])

畸变参数:

array([[ 0.09184773, -0.02872326, -0.00071117, -0.00038616, -0.71625435]])

旋转向量:

array([[ 0.17634509],
        [ 0.02250387],
        [-0.03713366]]),
 array([[-0.23622293],
        [ 0.02199793],
        [-0.04436764]]),
        …………………………

平移向量:

array([[-0.12609051],
        [-0.152743  ],
        [ 0.50174438]]),
 array([[-0.12217209],
        [-0.16182343],
        [ 0.54338983]]),
        ……………………

4. 误差评估

我们可以使用OpenCV内置的cv2.projectPoints()直接计算重投影误差。

total_error = 0
# 给定内外参,将三维点投影为二维点。
# 然后算和真实像平面坐标的距离,计算平均误差
for i in range(len(obj_points)):
    img_points_repro, _ = cv2.projectPoints(obj_points[i], v_rot[i], v_trans[i], mat_inter, coff_dis)
    error = cv2.norm(img_points[i], img_points_repro, cv2.NORM_L2) / len(img_points_repro)
    total_error += error
print(("Average Error of Reproject: "), total_error / len(obj_points))
Average Error of Reproject:  0.0410115862612222

误差越小意味着标定的参数更加准确。

实验分析

第一组数据与第二组数据内参比较:

# 动棋盘格
array([[3417.42140189,    0.        , 1743.95204043],
       [   0.        , 3417.97234961, 2286.22201502],
       [   0.        ,    0.        ,    1.        ]])
# 动相机       
array([[3457.63519185,    0.        , 1753.27275535],
       [   0.        , 3457.89708088, 2280.41687031],
       [   0.        ,    0.        ,    1.        ]])

实验分析:首先这是很常见的两种标定方式,一种动相机,一种动棋盘格,理论上没有任何区别。但是实验结果存在偏差,原因可能是动相机在实践中会存在轻微的移动模糊,镜头抖动之类的问题,所以导致最后存在误差,所以在工程中做标定一般是推荐动棋盘格。而且标定是一个优化过程,不同次的采样也会有不一样的结果。但是对于上述可验证的参数:

手机分辨率为:3456×4608,真实的像主点坐标为1728,2304

第一组数据的 u c u_{c} uc? = 1744(+16), v c v_{c} vc? = 2286(-18)

第二组数据的 u c u_{c} uc? = 1753(+25), v c v_{c} vc? = 2280(-24)

第一组数据用OpenCV标定法和Matlab标定法内参对比:

标定过程中可以使用OpenCV标定,同时可用Matlab中的工具箱进行标定,标定过程大致如下:

XPSRUI.png

同样用第一组数据进行标定,得到的内参对比如下:

# OpenCv
array([[3417.42140189,    0.        , 1743.95204043],
       [   0.        , 3417.97234961, 2286.22201502],
       [   0.        ,    0.        ,    1.        ]])
# Matlab       
array([[3413.63519185,    0.        , 1740.37275535],
       [   0.        , 3414.79708088, 2290.11687031],
       [   0.        ,    0.        ,    1.        ]])

实验分析:一般可以认为,Matlab内置算法的标定结果更为精确,因此,我们可以再通过Matlab标定得到一组参数,来验证我们的参数是否靠谱。结果表明,是有一定的误差但也不至于太离谱,至少可以认为结果是相对可靠的。一般现在工程项目中,使用Matlab工具标定的多

手机分辨率为:3456×4608,真实的像主点坐标为1728,2304

OpenCV标定结果的 u c u_{c} uc? = 1744(+16), v c v_{c} vc? = 2286(-18)

Matlab标定结果的 u c u_{c} uc? = 1740(+12), v c v_{c} vc? = 2290(-14)

可视化棋盘格位姿+相机位姿

可视化棋盘格位姿的核心思路就是将世界坐标系下的棋盘坐标通过外参矩阵(旋转+平移)的逆变换转换到相机坐标系

XPSIxS.png

可视化相机位姿的核心就是将相机坐标系下的相机坐标通过外参矩阵(旋转+平移)转换到世界坐标系:

XPSLan.png

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-05-26 15:18:31  更:2022-05-26 15:18:45 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 4:46:56-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码