IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 用 Keras/TensorFlow 2.8 创建 COCO 的 average precision 指标 -> 正文阅读

[人工智能]用 Keras/TensorFlow 2.8 创建 COCO 的 average precision 指标


前言

YOLO 系列(包括 YOLOv4-CSP,YOLOv4 等)的探测器 detector,它们的损失函数由 3* 部分组成。如果这 3 部分的每一个部分都使用一个指标,将得到 3 个独立的指标。这会使得训练模型变得更困难(比如一个指标变好,另一个指标却变坏的情况)。
正如吴恩达教授在《机器学习策略》(Introduction to Machine Learning Strategy)课程中所提到的,当一个模型有多个指标时,应该尽量把它们合并成一个最重要的优化指标,才能使得模型有明确的优化方向。而 COCO 数据集的 average precision 指标,就是最合适的优化指标。

  • *这 3 部分损失是:1. 判断预设框 anchor box 内是否有物体的预测损失。2. 判断预设框内的物体,属于哪一个类别的预测损失。3. 预测结果物体框和标签物体框,两者之间的 CIOU 损失。

1. AP 的算法原理。

COCO 数据集的 AP(average precision) 指标,实际上是对 average precision 计算了两次平均值,主要算法有如下 3 个步骤:

  1. 设定 IoU 阈值为 0.5,计算一个类别的 AP。
  2. 重复上面的第一步,计算 80 个类别 AP,然后对 80 个类别 AP 求平均值,得到一个 average_precision_over_categories。
  3. 遍历 10 个 IoU 阈值(0.5,0.55, 0.6,…, 0.95,以 0.05 为步进值),重复上面的 2 个步骤,得到 10 个 average_precision_over_categories,然后对这 10 个 average_precision_over_categories 求平均值,就得到一个 mean average precision。这个 mean average precision 就是 COCO 的 AP。

COCO 数据集声明不区分 AP 和 mAP(mean average precision),统一使用 AP 这个词,由使用者根据使用场景自行区分是 AP 还是 mAP。如果想要区分的话,简单来说,对单个类别就是 AP,求了两次平均值之后就是 mAP(mean average precision)。


2. 在 Keras 中的实现。

下面我们用 Keras/TensorFlow 2.8 来创建 COCO 的 AP 指标,并详细解释其算法原理。

Keras 中有一个专门用于指标的类: tf.keras.metrics.Metric。可以用它来创建一个类 MeanAveragePrecision,来计算 AP 指标。

指标类 tf.keras.metrics.Metric 中,有 3 个主要的方法,update_state、 result 和 reset_state。这 3 个方法的具体作用是:

  1. 方法 update_state,根据每个 batch 的计算结果,对状态量进行更新。
  2. 方法 result,使用更新好的状态量,计算指标。
  3. 方法 reset_state,用于在每个 epoch 开始时,把状态量重新设置为初始状态。

在代码中的指标 MeanAveragePrecision 和 3 个方法如下图。
在这里插入图片描述

对于 COCO 的 AP 来说,主要用到类别置信度和 IoU 这两个数据,所以方法 update_state 将主要更新这 2 个数据,而方法 result 也将主要使用这 2 个数据来计算 AP。

下面的程序伪代码中,会经常提到 4 个词语,这里先明确一下这 4 个词语的定义:

  1. objectness:是一个概率值,表示对于当前物体框,框内有物体存在的概率。(YOLO 论文中使用该词,中文的翻译应该是 “物体框内有物体存在的置信度”。为了便于和下面第二条的类别置信度进行区别,这里沿用论文的写法,用 objectness。)
  2. 类别置信度:也是一个概率值,表示对于当前物体框内物体,属于某个类别的概率大小。
  3. “正样本”:正样本的意思,是指一个 bbox(它的 objectness 和类别置信度都大于对应的阈值)。
  4. 相关图片:是指该图片的标签或是预测结果的正样本中,包含了该类别。

3. 创建状态量。

用指标类 tf.keras.metrics.Metric 创建的是完整状态的指标 stateful metric,意思是可以用它来计算很复杂的指标。通常需要先创建相关的状态量 states。

对于 COCO 的 AP 指标,需要创建 3 个状态量 latest_positive_bboxes、 labels_quantity_per_image 和 showed_up_classes,3 个状态量类型均为 tf.Variable。

  1. latest_positive_bboxes,形状为 (CLASSES, latest_related_images, bboxes_per_image, 2)。记录的是对于每一个类别,使用 latest_related_images 张相关图片,计算得到的状态值。
    而对于每一张相关图片,其对应的状态张量形状为 (bboxes_per_image, 2),记录了 bboxes_per_image 个 bboxes 的状态。
    每个 bboxes 的状态是一个长度为 2 的向量,两个值分别是类别置信度和 IoU 值。
  2. labels_quantity_per_image,形状为 (CLASSES, latest_related_images)。记录的是对于每一个类别,在 latest_related_images 张相关图片中,标签 bboxes 的数量。
    这个状态张量和 latest_positive_bboxes 是一一对应的。也就是说,如果状态 latest_positive_bboxes 中记录了一个相关图片的置信度和 IoU,则 labels_quantity_per_image 也必须记录该图片中的标签 bboxes 数量。
  3. showed_up_classes,形状为 (CLASSES, ),是一个布尔张量,记录的是所有图片中出现过的类别。
    在计算 AP 时,只有出现过的类别,才能参与计算 AP,所以需要用 showed_up_classes 进行记录。

创建好的 3 个状态量如下图。
在这里插入图片描述
在上图中有 3 点要注意:

  1. 为了实现 P3, P4, P5 共用状态量 states,把状态量建立在类 MeanAveragePrecision 的外部。这是因为 YOLOv4-CSP 和 YOLOv4 等模型,有 P3, P4, P5 一共 3 个输出。如果状态量建立在 MeanAveragePrecision 的内部,这些状态量实际上将会是复制了 3 份,即 3x3=9 个独立的状态量。
  2. 设置 trainable=False。因为这 3 个状态量是 tf.Variable,默认会求梯度并进行反向传播。但是对指标的状态量来说,并不需要进行反向传播,所以设置 trainable=False,可以节省计算资源。
  3. 状态量的形状,受 2 个全局变量 latest_related_images, bboxes_per_image 控制。如果电脑的算力足够,可以把这两个变量设置得大一些。

4. update_state 方法。

在每个 batch 计算完成之后,要用方法 update_state 对 3 个状态量进行更新。

4.1 更新第一个状态量 showed_up_classes 。

下面是程序的伪代码,用到一些变量的名字,和程序中的变量名字相同,以方便阅读代码。

  1. 从标签中提取出现过的类别,得到张量 showed_up_categories_label,张量形状为 (x,),里面存放的是出现过的类别编号,表示有 x 个类别出现在了这批标签中。
    1.1 showed_up_categories_index_label = tf.experimental.numpy.isclose(objectness_label, 1)
    1.2 showed_up_categories_label = tf.argmax(y_true[…, 1: 81], axis=-1),showed_up_categories_label 形状为 (batch_size, *Feature_Map_px, 3)。
    1.3 showed_up_categories_label = showed_up_categories_label[showed_up_categories_index_label],showed_up_categories_label 形状为 (x, )。

    注意不能仅使用 argmax,而是必须借助上面的第 1.3 步骤,使用 showed_up_categories_index_label 作为索引。因为在没有标签时,argmax 也会得出一个值 0,而这个 0 并不表示该物体框的类别为 0 。

  2. 从预测结果中提取出现过的类别,得到张量 showed_up_categories_pred,张量形状为 (y,),里面存放的是出现过的类别编号,表示有 y 个类别出现在了这批预测结果中。

  3. 将上面 2 个张量改变形状为 (1, -1),然后用 tf.sets.union 求并集,得到一个 sparse tensor, 将其转换为 tf.tensor,得到张量 showed_up_categories_batch,张量形状为 (categories_batch,)。

  4. 遍历 showed_up_categories_batch,对每一个出现过的类别 category,如果之前还没有出现过,则设置 showed_up_classes[category].assign(True)。

4.2 更新另外两个状态量。

3 大主要操作步骤如下:

  1. 第一重循环,遍历批次结果数据中的每一张图片(方法 update_state 中接收的是单个批次的结果,所以要遍历批次中的每张图片),对每一张图片执行下面 2 步操作。

  2. 对于单张图片的标签 one_label 和预测结果 one_pred,分别构造相应的张量。

    2.1 对于标签:构造张量 positives_index_label,positives_label 和 category_label。

    positives_index_label 形状为 (19, 19, 3),是一个布尔张量,是标签正样本的索引张量,即只有 objectness 等于 1 的 bboxes,其对应布尔值才会为 True。
    为了方便描述,这里的形状只以 YOLOv4-CSP 模型的 P5 形状为例。下面也是如此。在代码中会以 *Feature_Map_px 表示 P5, P4, P3 的特征图大小,一般 P5 特征图大小为(19, 19)。
    创建标签的正样本张量:
    positives_label = tf.where(condition=positives_index_label[…, tf.newaxis], x=one_label, y=-8.0],positives_label 形状为 (19, 19, 3,85), 里面只有正样本信息,其它位置的数值为 -8。(使用 -8 而没有使用 -1,是为了便于和 axis=-1 混淆,方便搜索)

    创建标签的类别张量:
    category_label = tf.math.argmax(positives_label[…, 1: 81], axis=-1),category_label 形状为 (19, 19, 3),代表每一个正样本的类别。在不是正样本的位置,数值为 0。因为这个 0 会和类别编号 0 发生混淆,所以下面要用 tf.where 再次进行转换,使得在不是正样本的位置,其数值为 -8。
    category_label = tf.where(condition=positives_index_label, x=category_label, y=-8)

    2.2 对于预测结果:构造张量 positives_index_pred,positives_pred 和 category_pred。

    positives_index_pred 形状为 (19, 19, 3),是一个布尔张量,是预测结果正样本的索引张量,即只有 objectness 和类别置信度都大于阈值的 bboxes,其对应布尔值才会为 True。
    构造另外 2 个张量的方法,和构造对应的标签张量方法相同。这里不再赘述。

  3. 第二重循环,遍历 80 个类别,区分 4 种情况,更新状态值。

先创建标签类别的布尔值 category_bool_any_label,和预测结果的布尔值 category_bool_any_pred,两者均为标量型张量,如果有任何一个物体框内物体属于当前类别,则对应布尔值为 True:

category_bool_label = tf.experimental.numpy.is_close(category_label, category)
category_bool_any_label = tf.reduce_any(category_bool_label)

category_bool_pred = tf.experimental.numpy.is_close(category_pred, category)
category_bool_any_pred = tf.reduce_any(category_bool_pred)

对每一个类别,都要区分 4 种情况,计算得到两个张量 one_image_positive_bboxes 和 one_image_category_labels_quantity,分别用来更新两个状态量 latest_positive_bboxes 和 labels_quantity_per_image。

对 4 种情况构建布尔张量:
情况 a :标签和预测结果中,都没有该类别。无须更新状态。
情况 b :预测结果中没有该类别,但是标签中有该类别。布尔张量为 scenario_b = tf.logical_and(~category_bool_any_pred, category_bool_any_label)。
此时需要提取预测结果的类别置信度和 IoU,且类别置信度和 IoU 都为 0。另外还需要提取标签数量。

情况 c :预测结果中有该类别,标签没有该类别。布尔张量为 scenario_c = tf.logical_and(category_bool_any_pred, ~category_bool_any_label)。
此时需要提取预测结果的类别置信度和 IoU。而因为没有标签,IoU 为0。另外还需要提取标签数量 0。

情况 d :预测结果和标签中都有该类别,布尔张量为 scenario_d = tf.logical_and(category_bool_any_pred, category_bool_any_label)。
此时需要提取预测结果的类别置信度和 IoU。IoU 要经过计算得到。另外还需要提取标签数量。

只有在情况 b,c,d 时,才需要更新 2 个状态量,所以先要判断是否处在情况 b,c,d 下,再决定是否执行后续步骤。

scenarios_bc = tf.logical_or(scenario_b, scenario_c)
scenarios_bcd = tf.logical_or(scenarios_bc, scenario_d)
under_scenarios_bcd = tf.reduce_any(scenarios_bcd)

if under_scenarios_bcd:
    提取 b,c,d 三种情况的置信度和 IoU,更新另外 2 个状态量。

对于每一个类别来说,a,b,c,d 情况不会同时发生,只可能出现其中的一种,因为这 4 种情况是互斥的。
下面是 b,c,d 情况下,详细的操作步骤。

情况 b:
one_image_positive_bboxes = tf.zeros(shape=(BBOXES_PER_IMAGE, 2)),可以直接把 one_image_positive_bboxes 作为输出张量。

情况 c,需要提取类别置信度和 IoU,有 5 个操作步骤:

  1. 先获取当前情况的正样本:
    scenario_c_positives_pred = positives_pred[category_bool_pred],scenario_c_positives_pred 形状为 (scenario_c_bboxes, 85)。

  2. 再获取当前情况的类别置信度:
    scenario_c_classification_confidence_pred = tf.reduce_max(scenario_c_positives_pred[:, 1: 81]),scenario_c_positives_pred 形状为 (scenario_c_bboxes,)。

  3. 比较 scenario_c_bboxes 和 bboxes_per_image 的大小,区分两种情况:

    3.1 如果 scenario_c_bboxes < bboxes_per_image:
    使用 tf.pad,对 scenario_c_classification_confidence_pred 尾部进行补零,得到新的张量 one_image_positive_bboxes,其形状变为 (bboxes_per_image,) 。

    3.2 如果 scenario_c_bboxes ≥ bboxes_per_image:

    按照置信度从大到小的顺序,对 scenario_c_classification_confidence_pred 进行排序,得到 scenario_c_sorted_pred,其形状为 (scenario_c_bboxes,)。
    之所以要进行排序,是因为在最后计算 AP 时,需要按置信度从大到小进行排序后,才会计算 AP。所以当前步骤在筛选 bboxes 时,也就应该把置信度大的 bboxes 筛选出来。

    保留置信度较大的 bboxes,即 one_image_positive_bboxes = scenario_c_sorted_pred[:bboxes_per_image],one_image_positive_bboxes 形状为 (bboxes_per_image,) 。

  4. 获取 IoU(情况 c 的 IoU 为 0,情况 d 的 IoU 需要经过计算得到)。
    因为标签中没有这个类别,所以 IoU 为 0,可以使用 scenario_c_ious_pred = tf.zeros_like(one_image_positive_bboxes).

  5. 将置信度和 IoU 进行堆叠 stack。
    one_image_positive_bboxes = tf.stack(values=[one_image_positive_bboxes, scenario_c_ious_pred], axis=1),one_image_positive_bboxes 形状为 (bboxes_per_image, 2)。

情况 d:此时需要计算 IoU,6 个步骤如下(因为只有和标签 IoU 最大的预测结果 bbox,才认为是命中了该标签,所以需要对每一个标签,同时和所有的预测结果 bboxes 计算 IoU):

  1. 对于预测结果:取出属于当前类别的 bboxes,把每个 bbox 信息填入全零数组 bboxes_iou_pred,其它多余的位置保持数值为 0。bboxes_iou_pred = tf.where(condition=category_bool_pred, x=positives_pred[…, -4:], y=0],bboxes_iou_pred 形状为 (19, 19, 3,4)。

  2. 对于标签:取出属于当前类别的 bboxes,即 bboxes_category_label = positives_label[…, -4:][category_bool_label],bboxes_category_label 形状为 (scenario_d_bboxes_label,4)。

  3. 对 bboxes_category_label,按照面积从小到大的顺序进行排序(体现着重小物体的思想,善于识别小物体的模型,其指标将越好),得到 sorted_bboxes_label,形状为 (scenario_d_bboxes_label, 4)。

  4. 建立张量 one_image_positive_bboxes = tf.zeros(shape=(BBOXES_PER_IMAGE, 2))。设置计数变量 new_bboxes_quantity = 0.

  5. 遍历 sorted_bboxes_label,对每一个标签 bbox,执行如下 3 个操作:

    5.1 把其信息填入全 1 张量 bbox_iou_label(即张量最后一个维度,所有长度为 4 的向量,写的都是同一个 bbox 的信息),bboxes_iou_pred 形状为 (19, 19, 3, 4)。

    5.2 用 bbox_iou_label 和 bboxes_iou_pred 计算 ious_category,ious_category 张量形状为 (19, 19, 3)。

    5.3 如果最大 IoU 大于阈值 0.5,则认为预测结果中对应的 bbox 命中了标签,做 2 个操作:
    5.3.1 将该 bbox 的类别置信度和 IoU 记录到张量 one_image_positive_bboxes 中(用 tf.concat)。
    5.3.2 从 bboxes_iou_pred 去掉该 bbox(用 tf.where),后续计算 IoU 不需要再考虑这个 bbox。
    5.3.3 new_bboxes_quantity += 1.

    5.4 new_bboxes_quantity 等于 bboxes_per_image 时,停止记录新的 bboxes。

  6. 遍历 sorted_bboxes_label 完成之后,如果 bboxes_iou_pred 有剩余的 bboxes,说明这些 bboxes 没有命中任何标签。如果还满足条件 new_bboxes_quantity < BBOXES_PER_IMAGE,则需要将剩下 bboxes 的 IoU 设为 0,并记录到张量 one_image_positive_bboxes 中。

    令剩余 bboxes 数量为 left_bboxes_quantity, 加到 one_image_positive_bboxes 后,总的 bboxes 数量为 scenario_d_bboxes = new_bboxes_quantity + left_bboxes_quantity。

    求出剩余的 bboxes,得到 left_bboxes_pred, 形状为 (left_bboxes_quantity, 85)。
    left_bboxes_confidence_pred = tf.reduce_max(left_bboxes_pred[:, 1: 81])

    6.1 如果 scenario_d_bboxes > bboxes_per_image,则需要进行排序:

    6.1.1 按照置信度从大到小的顺序,对 left_bboxes_confidence_pred 进行排序,得到 left_bboxes_sorted_confidence,其形状为 (left_bboxes_quantity,)。
    之所以要进行排序,是因为在最后计算 AP 时,需要按置信度从大到小进行排序后,才会计算 AP。
    6.1.2 vacant_seats = BBOXES_PER_IMAGE - new_bboxes_quantity
    6.1.3 left_bboxes_confidence_pred = left_bboxes_sorted_confidence[:vacant_seats]。

    6.2 如果 scenario_d_bboxes ≤ bboxes_per_image,则无须进行排序,可以直接使用left_bboxes_confidence_pred。

    6.3 给 left_bboxes_confidence_pred 加上全为 0 的 IoU (使用 tf.stack),得到 left_positive_bboxes_pred,形状为(vacant_seats, 2)。

    6.4 将 left_positive_bboxes_pred 和 one_image_positive_bboxes 进行拼接 concatenate,然后保留最后 bboxes_per_image 个 bboxes,即 one_image_positive_bboxes = one_image_positive_bboxes[-bboxes_per_image:]。

计算标签数量,得到整数 one_image_category_labels_quantity = tf.where(category_bool_label).shape[0]。

最后更新 2 个状态量,更新原则为先进先出 FIFO。

1. 用张量 one_image_positive_bboxes 更新状态量 latest_positive_bboxes。
latest_positive_bboxes 形状为 (CLASSES, latest_related_images, bboxes_per_image, 2)。

latest_positive_bboxes[category, 1:].assign(latest_positive_bboxes[category, :-1])
latest_positive_bboxes[category, 0].assign(one_image_positive_bboxes)


2. 用整数 one_image_category_labels_quantity 更新状态量 labels_quantity_per_image。
labels_quantity_per_image 形状为 (CLASSES, latest_related_images)。

labels_quantity_per_image[category, 1:].assign(labels_quantity_per_image[category, :-1])
labels_quantity_per_image[category, 0].assign(one_image_category_labels_quantity)

5. result 方法。

方法 result 的作用,是使用状态量来计算指标。

需要注意的是,YOLO-v4-CSP 是多输出模型,有 P3, P4, P5 这 3 个输出,所以在每批次数据计算完成之后,会在这 3 个输出上分别计算一次指标。可以设置跳过 P4, P5,只计算 P3 的指标。

在方法 result 中,根据自顶向下的程序结构,顶层的程序只有 2 个大步骤:

  1. 遍历 10 个 IoU 阈值,对每一个 IoU 阈值,计算 1 个 average_precision_over_categories:
    1.1 遍历 80 个类别,对每一个类别,计算 1 个 AP。
    1.2 对 80 个 AP 取平均值,得到 average_precision_over_categories。
  2. 将最终的 10 个 average_precision_over_categories 取平均值,就得到最终的 mAP。

在上面的步骤 1.1 中,计算单个类别的 average_precision 时,如果 labels_quantity = 0,直接设 AP = 0。

而如果 labels_quantity 不等于 0,则需要计算 AP,有如下 2 个操作:

  1. 计算 recall_precisions。
    1.1 创建空的张量 recall_precisions,形状为 (1,)。其索引为 recall,设置初始 recall = 0, recall_precisions[0] = 1。后续每一个 recall 值都对应一个 precision 值。
    1.2 设置 true_positives = 0,false_positives = 0。
    1.3 从 latest_positive_bboxes 中,取出当前类别的所有 bboxes,形状是 (bboxes_per_image * latest_related_images, 2)。每个 bbox 包含 2 个信息:类别置信度和 IoU。
    1.4 按照类别置信度,进行由大到小的排序,得到张量 sorted_bboxes_category。

    1.5 遍历 sorted_bboxes_category 中的所有 bboxes,计算得到 recall_precisions (使用类别置信度进行过滤。如果置信度为 0,说明它不是模型的预测结果,不应该参与计算 AP)。
    1.5.1 如果该 bbox 的 IoU 大于当前的 IoU 阈值,则认为该预测正样本命中,更新 2 个数值, true_positives += 1, recall += 1。
    1.5.2 如果 IoU 小于阈值,则更新 1 个数值 false_positives += 1。

    1.5.3 计算 precision = true_positives/(false_positives + true_positives),然后更新张量 recall_precisions,即 recall_precisions[recall] = precision 。

  2. 计算 AP。
    遍历 sorted_bboxes_category 完成后,使用张量 recall_precisions,计算多个小梯形面积,累加所有小梯形的面积,得到 AP。

    2.1 从 labels_quantity_per_image 中,获得 latest_images 个相关图片的标签 bboxes 总数 labels_quantity,而 1/labels_quantity 则是小梯形的高度 trapezoid_height。

    2.2 从 recall_precisions 的第 0 个索引位置开始,计算小梯形面积 (recall_precisions[0] + recall_precisions[1]) * trapezoid_height / 2。直到 recall_precisions 的倒数第 2 个索引位置结束。

    2.3 把所有的小梯形面积累加起来,就得到该类别的 AP。


6. 测试盒 testcase。

做了一个测试盒 testcase,盒子里放了 13 个单元测试。目前 AP 指标通过了盒子里全部的 13 个测试。

如果使用者需要改动这个指标,也应该用测试盒再测试一下,确保指标能正常运行。

对于企业用户,当然应该按照软件工程的要求,由软件测试团队进行专业的测试之后,才能使用。
测试盒程序的部分截图如下:
在这里插入图片描述


7. 使用方法。

在使用这个 AP 指标文件时,注意以下 3 点:

  1. 该指标需要配合使用 YOLO 系列的模型,比如 YOLOv4-CSP, YOLOv4 等等。
    因为 YOLO 系列的模型有 p3, p4, p5 共 3 个输出,指标也是针对这 3 个输出写的。如果需要用到其它的探测器 detector上,需要自行修改指标文件。
  2. 该指标文件可以运行在 TensorFlow 2.8 环境下。如果要使用更低版本的 TensorFlow,可能需要自行修改文件中的少量代码。
    举例来说,如下左图,在 TF 2.4 中,isclose 函数的结果是一种特殊的 TF 数组。该数组无法直接用做张量的索引,需要先手动将其转换成张量。这可以算作 TF 2.4 的一个 bug。
    而到了 TF 2.8,修复了这个问题,isclose 函数的结果是一个 TF 张量,可以直接用做张量的索引,方便了很多。如下右图。 在这里插入图片描述
  3. 该指标可能需要在 eager 模式下运行。
    在图模式下,该指标会生成计算图,将占用大量的内存,超过 128G,所以个人的台式机难以将其运行在图模式下,需要使用 eager 模式。
    对于企业用户,有大量的内存和算力的条件下,可以尝试用图模式。
    要在 eager 模式下运行该指标,直接在编译模型时设置 run_eagerly=True 即可,示例如下:
yolo_v4_csp_model.compile(
	run_eagerly=True, 
	metrics=average_precision,
	loss=my_custom_loss, 
	optimizer=optimizer_adam)

8. 下载链接。

代码已在 Github 开源,可以直接下载。→ 下载链接在此
一共有 2 个相关文件,指标文件 average_precision_metric.py 和测试盒文件 testcase_average_precision.py。


THE END

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-03-24 00:32:32  更:2022-03-24 00:34:19 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 14:43:23-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码