IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> openvino的入门--c++部署的图像分类为例 -> 正文阅读

[人工智能]openvino的入门--c++部署的图像分类为例

ooenvino的安装可参考openvino2022版安装配置与C++SDK开发详解

1.什么是openvino?

概念:
OpenVINO是英特尔基于自身现有的硬件平台开发的一种可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件,支持各种英特尔平台的硬件加速器上进行深度学习,并且允许直接异构执行。 支持在Windows与Linux系统,Python/C++语言。

特点:

  • Intel平台上提升计算机视觉相关深度学习性能达19倍以上
  • 主要是为了提高模型在CPUGPU的运行速度
  • 解除CNN-based的网络在边缘设备的性能瓶颈

支持的平台:
支持的操作系统:windows、linux、mac os
支持的硬件:凌动、酷睿、至强、FPGA等

2.openvino的组件

在这里插入图片描述
openvino有三条路可以走,例如tensorflow的就要走第一条路(经过Model Optimizer);pytorch可以走第二条路,直接转换成onnx;第三条路,可以是paddle。

OpenVINO工具包(ToolKit)主要包括两个核心组件,模型优化器(Model Optimizer)和推断引擎(Inference Engine)。

模型优化器(Model Optimizer)

模型优化器(Model Optimizer)将给定的模型转化为标准的 Intermediate Representation (IR) ,并对模型优化。
模型优化器支持的深度学习框架:ONNX、TensorFlow、pytorch等

推理引擎(Inference Engine)

推理引擎(Inference Engine)支持硬件指令集层面的深度学习模型加速运行,同时对传统的OpenCV图像处理库也进行了指令集优化,有显著的性能与速度提升。

3.推理流程

在这里插入图片描述

4.代码实现

4.1生成图像分类的onnx

import torch
import torchvision
import cv2
import numpy as np


class Classifier(torch.nn.Module):
    def __init__(self):
        super().__init__()
        #使用torchvision自带的与训练模型, 更多模型请参考:https://tensorvision.readthedocs.io/en/master/
        self.backbone = torchvision.models.resnet18(pretrained=True)  
        
    def forward(self, x):
        feature     = self.backbone(x)
        probability = torch.softmax(feature, dim=1)
        return probability
        
# 对每个通道进行归一化有助于模型的训练
imagenet_mean = [0.485, 0.456, 0.406]
imagenet_std  = [0.229, 0.224, 0.225]

image = cv2.imread("workspace/dog.jpg")
image = cv2.resize(image, (224, 224))            # resize
image = image[..., ::-1]                         # BGR -> RGB
image = image / 255.0
image = (image - imagenet_mean) / imagenet_std   # normalize
image = image.astype(np.float32)                 # float64 -> float32
image = image.transpose(2, 0, 1)                 # HWC -> CHW
image = np.ascontiguousarray(image)              # contiguous array memory
image = image[None, ...]                         # CHW -> 1CHW
image = torch.from_numpy(image)                  # numpy -> torch
model = Classifier().eval()

with torch.no_grad():
    probability   = model(image)
    
predict_class = probability.argmax(dim=1).item()
confidence    = probability[0, predict_class]

labels = open("workspace/labels.imagenet.txt").readlines()
labels = [item.strip() for item in labels]

print(f"Predict: {predict_class}, {confidence}, {labels[predict_class]}")

dummy = torch.zeros(1, 3, 224, 224)
torch.onnx.export(
    model, (dummy,), "workspace/classifier.onnx", 
    input_names=["image"], 
    output_names=["prob"], 
    dynamic_axes={"image": {0: "batch"}, "prob": {0: "batch"}},
    opset_version=11
)

4.2 模型优化器

安装python的openvino

pip install openvino-dev[onnx]==2022.1.0

执行模型优化器

mo --input_model classifier.onnx --data_type FP16

会生成多个文件,在推理时用的是后缀为.xml的文件

4.3 c++推理代码实现

在makefile中添加如下

# 只需要写路径,不需要写-I
include_paths := src              \
	$(cpp_pkg)/opencv4.2/include  \
	$(openvino_root)/runtime/include \     # 添加openvino的头文件地址1
	$(openvino_root)/runtime/include/ie    # 添加openvino的头文件地址2

# 定义库文件路径,只需要写路径,不需要写-L
library_paths := $(syslib) $(cpp_pkg)/opencv4.2/lib \
	$(openvino_root)/runtime/lib/intel64 \    # 添加openvino的库文件地址1
	$(openvino_root)/runtime/3rdparty/tbb/lib  # 添加openvino的库文件地址2

link_openvino  := openvino tbb   # tbb:英特尔提供的cpu推理加速库

link_librarys  := $(link_cuda) $(link_tensorRT) $(link_sys) $(link_opencv) $(link_openvino)  # 添加$(link_openvino)

配置完成后,即可使用openvino
编写如下代码

#include <stdio.h>
#include <math.h>

#include <iostream>
#include <fstream>
#include <vector>
#include <memory>
#include <functional>
#include <unistd.h>
#include "openvino/openvino.hpp"
#include <opencv2/opencv.hpp>

void openvino_classifer()
{
    size_t input_batch_size = 1;   // size_t是c和c++标准在stddef.h中定义的,这个类型用于表示对象的大小,其真实类型与操作系统有关
                                   // 在32位架构中被普遍定义为:typedef   unsigned int size_t;
    size_t input_channel_size = 3; // 而在64位架构中被定义为: typedef  unsigned long size_t;
    size_t input_height_size = 224;
    size_t input_width_size = 224;
    ov::Core core;                 // core是interference Engine的管理核心,一般使用openvino之前都需要先创建一个core,负责其中的设备管理
    auto model = core.compile_model("classifier.onnx"); // 模型加载并编译
    auto iq = model.create_infer_request();  // 创建用于推断已编译模型的推理请求对象  创建的请求分配了输入和输出张量
    auto input = iq.get_input_tensor(0);
    auto output = iq.get_output_tensor(0);
    input.set_shape({input_batch_size, input_channel_size, input_height_size, input_height_size}); // 指定shape的大小
    float* input_data_host = input.data<float>();  // 获取输入的地址,并传递给指针input_data_host

    clock_t startTime,endTime;
    startTime = clock();
    auto image = cv::imread("dog.jpg");
    float mean[] = {0.406, 0.456, 0.485};
    float std[]  = {0.225, 0.224, 0.229};

    // 对应于pytorch的代码部分
    cv::resize(image, image, cv::Size(input_width_size, input_height_size));
    int image_area = image.cols * image.rows;
    unsigned char* pimage = image.data;
    float* phost_b = input_data_host + image_area * 0;   // input_data_host和phost_*进行地址关联
    float* phost_g = input_data_host + image_area * 1;
    float* phost_r = input_data_host + image_area * 2;
    for(int i = 0; i < image_area; ++i, pimage += 3){
        // 注意这里的顺序rgb调换了
        *phost_r++ = (pimage[0] / 255.0f - mean[0]) / std[0];  // 将图片中的像素点进行减去均值除方差,并赋值给input
        *phost_g++ = (pimage[1] / 255.0f - mean[1]) / std[1];
        *phost_b++ = (pimage[2] / 255.0f - mean[2]) / std[2];
    }
    iq.infer();  // 模型推理
    const int num_classes = 1000;
    float* prob = output.data<float>();
    int predict_label = std::max_element(prob, prob + num_classes) - prob;  // 确定预测类别的下标

    float confidence  = prob[predict_label];    // 获得预测值的置信度
    printf("confidence = %f, label = %d\n",  confidence, predict_label);
    endTime = clock();//计时结束
    std::cout << "total推理时间: " <<(double)(endTime - startTime) / CLOCKS_PER_SEC << "s" << std::endl;
}
int main(){
    openvino_classifer();
    return 0;
}
  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-06-14 22:35:35  更:2022-06-14 22:38:08 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年12日历 -2024/12/30 0:49:11-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码