使用TensorFlow Object Detection API识别仪表表盘

前面用到了Tensorflow的物体识别API做了一个检测仪表表盘的实践,记录实践过程中的技巧。

Update: 2019/04/16,使用新版Tensorflow接口

1. 概述

本文主要介绍如何使用Tensorflow 物体识别API应用自己业务场景进行物体识别。将结合从事的一些实际经验,分享一个仪表表盘识别的案例。我们在一个利用机器视觉技术自动识别仪表表读数的项目中,需要首先识别各种不同类型表盘的显示屏位置。本案例分析将针对面板识别中采用的关键技术进行分析,详细阐述如何利用物体识别技术和已训练好的模型快速实现使用用户数据设计一个面向特定物体识别的深度神经网络。

目标: 从给定的水表图片中将关键的数字面板给扣取出来。

如下图所示,如果采用通用OCR技术对水表图片面板进行检测,将同时提取很多特征项,对实际的检测值造成比较大的干扰。

ocr-demo

1.1 模型及算法选型

在方案设计初期我们分别使用公有云服务、现有的成熟OCR软件、开源的OCR方案对目标对象进行了初步识别及分析。通过实测,现有方案无法满足我们的任务需求。为此希望能够利用深度学习在物体识别领域的成熟方案,构建一个面向水表图片面板识别的神经网络模型。

Model name Speed (ms) Pascal mAP@0.5 (ms) Outputs
faster_rcnn_resnet101_kitti 79 87 Boxes
Model name Speed (ms) Open Images mAP@0.52 Outputs
faster_rcnn_inception_resnet_v2_atrous_oid 727 37 Boxes
faster_rcnn_inception_resnet_v2_atrous_lowproposals_oid 347 Boxes

几种模型主要在精度和速度方面进行了取舍,如果需要一个高精度的模型可以选择faster R-CNN,如果希望速度快比如实时检测,则可以选择SSD模型。鉴于本方案中设计检测目标特征将为简单,可采用最轻量级的MobileSSD进行优化。

2. 实现流程

2.1 数据准备

数据准备的环节是除了训练过程之外最为耗时的环节,准备数据的质量和数量将直接决定了训练模型的好坏。图片数据最好在光线、角度、清晰度等方面能最大化的泛化实际的业务场景。由于在这个案例中我们只需要输出一个分类对象,而且输入对象被限定在水表图片上,所以整体涉及需要提取的特征参数空间不是很大,少量经过处理好的明显可供辨识的水表图片即可。目前可用水表图片攻击229张,我们采用80%用于训练,20%用于测试的方式进行划分。

如果分类较多,数据有限,可以选择从互联网上下载或者在开源数据集中获得所需的数据。

另外需要注意图片的大小,图片太大一方面影响训练过程的处理时间,另外大量图片载入内存将很容导致内存溢出,所以如果图像特征粒度不是特别精细可以采用低分辨率图片进行分析。

数据标记

对于物体识别而言,数据标记过程是一个相对复杂的过程,目前除了人工标记没有太好的自动或半监督手段,幸好针对图片的标记已经有了几款很好用的工具:

  • LabelImg

    • 这是一个可以直接在图片上做注释框自动生成标记信息的软件,注释信息将被保存为PASCAL VOC 格式的XML文件(ImageNet的文件格式)

    labelImage

  • FIAT (Fast Image Data Annotation Tool)

    • 该工具生成csv格式的注释文件

      data annotation

  • ImageMagick

    • 图片预处理工具
    • Use ImageMagick® to create, edit, compose, or convert bitmap images. It can read and write images in a variety of formats (over 200) including PNG, JPEG, GIF, HEIC, TIFF, DPX, EXR, WebP, Postscript, PDF, and SVG. Use ImageMagick to resize, flip, mirror, rotate, distort, shear and transform images, adjust image colors, apply various special effects, or draw text, lines, polygons, ellipses and Bézier curves.

在本方案中我们使用工具LabelImage将229张水表图片进行了标注,同时生成了PASCAL格式的XML文件,名字为000001.jpg的图片注释格式如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
<annotation>
<folder>imgs</folder>
<filename>000001.jpg</filename>
<source>
<database>VOC</database>
<annotation>PASCAL VOC</annotation>
</source>
<size>
<width>2448</width>
<height>3264</height>
<depth>3</depth>
</size>
<segmented>0</segmented>
<object>
<name>panel</name>
<pose>Frontal</pose>
<truncated>0</truncated>
<difficult>0</difficult>
<bndbox>
<xmin>739</xmin>
<ymin>430</ymin>
<xmax>1475</xmax>
<ymax>796</ymax>
</bndbox>
</object>
</annotation>

我们在根目录新建一个annotations的文件夹存储229张图片的XML描述文件,同时根目录images文件夹用于存储所有的训练数据和测试数据。

数据描述格式

  • 在TensorFlow 物体检测API中使用 TFRecord file format格式对图像标记信息进行描述,所以我们无论采取下面的那种标记方式,最终需要生成TFRcord格式的文件格式。
  • TFRecord格式要去如下:

For every example in your dataset, you should have the following information:

  1. An RGB image for the dataset encoded as jpeg or png.
  2. A list of bounding boxes for the image. Each bounding box should contain:
    1. A bounding box coordinates (with origin in top left corner) defined by 4floating point numbers [ymin, xmin, ymax, xmax]. Note that we store thenormalized coordinates (x / width, y / height) in the TFRecord dataset.
    2. The class of the object in the bounding box.
  • TensorFlow针对主流的物体识别类数据集格式提供了转换工具,包括 PASCAL VOC datasetOxford Pet dataset等;

    • PASCAL VOC
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    # From tensorflow/models/research/
    wget http://host.robots.ox.ac.uk/pascal/VOC/voc2012/VOCtrainval_11-May-2012.tar
    tar -xvf VOCtrainval_11-May-2012.tar
    python object_detection/dataset_tools/create_pascal_tf_record.py \
    --label_map_path=object_detection/data/pascal_label_map.pbtxt \
    --data_dir=VOCdevkit --year=VOC2012 --set=train \
    --output_path=pascal_train.record
    python object_detection/dataset_tools/create_pascal_tf_record.py \
    --label_map_path=object_detection/data/pascal_label_map.pbtxt \
    --data_dir=VOCdevkit --year=VOC2012 --set=val \
    --output_path=pascal_val.record
    • Oxford-IIIT Pet
    1
    2
    3
    4
    5
    6
    7
    8
    9
    # From tensorflow/models/research/
    wget http://www.robots.ox.ac.uk/~vgg/data/pets/data/images.tar.gz
    wget http://www.robots.ox.ac.uk/~vgg/data/pets/data/annotations.tar.gz
    tar -xvf annotations.tar.gz
    tar -xvf images.tar.gz
    python object_detection/dataset_tools/create_pet_tf_record.py \
    --label_map_path=object_detection/data/pet_label_map.pbtxt \
    --data_dir=`pwd` \
    --output_dir=`pwd`
  • 如果你使用了自己的格式,可以参考TensorFlow官方文档完成格式转换;

在本方案中我们采用自己处理的方式来进行格式转换,使用文件xml_to_csv.py将所有图片的PASCAL格式文件转化为一个csv文件,然后进一步的利用TensorFLow工具generate_tfrecord.py生成TFRecord格式文件:

  1. 执行python xml_to_csv.py,该文件将在根目录的annotations的文件夹下所有的*xml文件,并生成screen_labels.csv文件;

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    import os
    import glob
    import pandas as pd
    import xml.etree.ElementTree as ET


    def xml_to_csv(path):
    xml_list = []
    for xml_file in glob.glob(path + '/*.xml'):
    tree = ET.parse(xml_file)
    root = tree.getroot()
    for member in root.findall('object'):
    filename = root.find('filename').text
    value = (root.find('filename').text,
    int(root.find('size')[0].text),
    int(root.find('size')[1].text),
    member[0].text,
    int(member[4][0].text),
    int(member[4][1].text),
    int(member[4][2].text),
    int(member[4][3].text)
    )
    xml_list.append(value)
    column_name = ['filename', 'width', 'height', 'class', 'xmin', 'ymin', 'xmax', 'ymax']
    xml_df = pd.DataFrame(xml_list, columns=column_name)
    return xml_df


    def main():
    image_path = os.path.join(os.getcwd(), 'Annotations') # Need Changes
    xml_df = xml_to_csv(image_path)
    xml_df.to_csv('screen_labels.csv', index=None) # Need Changes
    print('Successfully converted xml to csv.')


    main()
  1. 使用如下代码随机生成训练数据和测试数据:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    import numpy as np
    import pandas as pd
    np.random.seed(1)
    full_labels = pd.read_csv('screen_labels.csv')
    gb = full_labels.groupby('filename')
    grouped_list = [gb.get_group(x) for x in gb.groups]
    train_index = np.random.choice(len(grouped_list), size=180, replace=False)
    test_index = np.setdiff1d(list(range(229)), train_index)
    train = pd.concat([grouped_list[i] for i in train_index])
    test = pd.concat([grouped_list[i] for i in test_index])
    train.to_csv('train_labels.csv', index=None)
    test.to_csv('test_labels.csv', index=None)
  2. 分别执行脚本将训练数据和测试数据转换为TFRecord:

    1
    2
    3
    4
    5
    6
    7
    # From tensorflow/models/research/
    protoc object_detection/protos/*.proto --python_out=.
    # Create train data:
    python generate_tfrecord.py --csv_input=data/train_labels.csv --output_path=train.record

    # Create test data:
    python generate_tfrecord.py --csv_input=data/test_labels.csv --output_path=test.record
  3. 将train.record和test.record的文件存储至根目录的data文件夹下

  4. 至此数据准备基本结束,我们创建了如下目录结构

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    .
    ├── annotations
    │   ├── 000001.xml
    ...
    │   └── 000229.xml
    ├── data
    │   ├── screen_labels.csv
    │   ├── test_labels.csv
    │   ├── test.record
    │   ├── train_labels.csv
    │   └── train.record
    ├── generate_tfrecord.py
    ├── images
    │   ├── 000001.jpg
    ...
    │   └── 000229.jpg
    ├── __init__.py
    ├── README.md
    ├── split labels.ipynb
    ├── test_generate_tfrecord.py
    ├── test_xml_to_csv.py
    └── xml_to_csv.py

2.2 模型配置/迁移学习

完全从头训练一个用于物体检测的模型即使采用大量GPU资源至少也需要数周时间,为了加速模型初期迭代过程,我们选择了一个已经在COCO数据集针对其他多种物体识别场景预训练好的模型,通过重复使用该模型的多数参数来快速生成我们的模型。更多技术内容可以参照迁移学习的技术实现。

由于没有足够的资源从头训练一个模型,我们将采用迁移学习技术,利用一个已经训练好的模型进行迁移学习及训练。

从测试角度考虑,本测试方案选择了体积最小,速度最快的用于嵌入式设备的SSD模型:ssd_mobilenet_v1_coco

下载模型包,可以得到如下文件:

1
2
3
4
5
6
7
8
9
10
11
.
├── object-detection.pbtxt
├── ssd_mobilenet_v1_pets.config
├── checkpoint
├── frozen_inference_graph.pb
├── model.ckpt.data-00000-of-00001
├── model.ckpt.index
├── model.ckpt.meta
└── saved_model
├── saved_model.pb
└── variables
  • a graph proto (graph.pbtxt)
  • a checkpoint (model.ckpt.data-00000-of-00001, model.ckpt.index, model.ckpt.meta)
  • a frozen graph proto with weights baked into the graph as constants (frozen_inference_graph.pb) to be used for out of the box inference
  • a config file (pipeline.config) which was used to generate the graph. These directly correspond to a config file in the samples/configs) directory but often with a modified score threshold.

我们下载并在根目录解压模型包ssd_mobilenet_v1_coco,同时创建一个training文件,存储如下文件:

1
2
3
training/
├── object-detection.pbtxt
└── ssd_mobilenet_v1_pets.config

Label Map

其中 object-detection.pbtxt是我们模型所有分类的标签,如下所示,如果有多个分类id从1开始递增,同时给每个标签一个唯一的名称(id为0预留给背景分类)

1
2
3
4
5
6
7
8
item {
id: 1
name: 'panel'
}
item{
id: 2
name: '其他分类'
}

配置物体识别训练流程文件

更多内容参考:https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/configuring_jobs.md

Tensorflow Object Detection API 使用 protobuf 文件来配置训练和检测的流程。通过配置Training Pipleline的参数配置可以决定训练参数的选择,我们将尽量多的利用已经训练好的参数进行训练。

一个配置文件由5部分组成:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
model {
(... Add model config here...)
}

train_config : {
(... Add train_config here...)
}

train_input_reader: {
(... Add train_input configuration here...)
}

eval_config: {
}

eval_input_reader: {
(... Add eval_input configuration here...)
}
  1. The model configuration. This defines what type of model will be trained (ie. meta-architecture, feature extractor).
  2. The train_config, which decides what parameters should be used to train model parameters (ie. SGD parameters, input preprocessing and feature extractor initialization values).
  3. The eval_config, which determines what set of metrics will be reported for evaluation (currently we only support the PASCAL VOC metrics).
  4. The train_input_config, which defines what dataset the model should be trained on.
  5. The eval_input_config, which defines what dataset the model will be evaluated on. Typically this should be different than the training input dataset.

ssd_mobilenet_v1_pets.config为模型配置文件,我们在样例(详见:object_detection/samples/configs 文件夹)上进行如下修改:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
  ssd {
num_classes: 1 #修改类别为实际类别值
box_coder {
faster_rcnn_box_coder {
y_scale: 10.0
x_scale: 10.0
height_scale: 5.0
width_scale: 5.0
}
}

fine_tune_checkpoint: "ssd_mobilenet_v1_coco_2017_11_17/model.ckpt" #指向模型文件中的checkpoint文件
train_input_reader: {
tf_record_input_reader {
input_path: "data/train.record" #修改为上一个步骤生成的训练record路径
}
label_map_path: "data/object-detection.pbtxt" #修改为pbtxt文件路径,描述类别标签
}
eval_input_reader: {
tf_record_input_reader {
input_path: "data/test.record" #修改为上一个步骤生成的测试数据record路径
}
label_map_path: "data/object-detection.pbtxt" #修改为pbtxt文件路径,描述类别标签
shuffle: false
num_readers: 1
}

train_config provides two fields to specify pre-existing checkpoints: fine_tune_checkpoint and from_detection_checkpoint. fine_tune_checkpoint should provide a path to the pre-existing checkpoint (ie:”/usr/home/username/checkpoint/model.ckpt-#####”). from_detection_checkpoint is a boolean value. If false, it assumes the checkpoint was from an object classification checkpoint. Note that starting from a detection checkpoint will usually result in a faster training job than a classification checkpoint.

The list of provided checkpoints can be found here.

2.3 训练

Tensorflow Object Detection API 安装

  1. 从GitHub下载Tensorflow Object Detection API

    1
    git clone https://github.com/tensorflow/models.git
  2. 配置基本环境

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    # For CPU
    pip install tensorflow
    # For GPU
    pip install tensorflow-gpu

    sudo apt-get install protobuf-compiler python-pil python-lxml python-tk
    pip install --user Cython
    pip install --user contextlib2
    pip install --user jupyter
    pip install --user matplotlib
  3. COCO API installation

    1
    2
    3
    4
    git clone https://github.com/cocodataset/cocoapi.git
    cd cocoapi/PythonAPI
    make
    cp -r pycocotools <path_to_tensorflow>/models/research/
  1. Protobuf 编译

Tensorflow通过Google的Protobufs来配置和训练模型,所以在开始使用之前需要对protobuf相关库进行编译。

1
2
# From tensorflow/models/research/
protoc object_detection/protos/*.proto --python_out=.
  1. Add Libraries to PYTHONPATH[重要]

在路径 tensorflow/models/research/ 下添加PYTHONPATH路径,实现全局引用

1
2
# From tensorflow/models/research/
export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/slim

Note: This command needs to run from every new terminal you start. If you wish to avoid running this manually, you can add it as a new line to the end of your ~/.bashrc file.

  1. 测试安装是否成功

    1
    2
    # From tensorflow/models/research/
    python object_detection/builders/model_builder_test.py

启动训练过程

  1. 将在数据准备和模型配置阶段的文件复制到tensorflow object_detect文件夹下/models/research/object_detection,包括data/文件夹,image/文件夹,training/文件夹,ssd_mobilenet_v1_coco_2017_11_17/原始模型文件夹

  2. 执行如下代码启动训练过程:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    # From the tensorflow/models/research/ directory
    PIPELINE_CONFIG_PATH={path to pipeline config file}
    MODEL_DIR={path to model directory}
    NUM_TRAIN_STEPS=50000
    SAMPLE_1_OF_N_EVAL_EXAMPLES=1
    python object_detection/model_main.py \
    --pipeline_config_path=${PIPELINE_CONFIG_PATH} \
    --model_dir=${MODEL_DIR} \
    --num_train_steps=${NUM_TRAIN_STEPS} \
    --sample_1_of_n_eval_examples=$SAMPLE_1_OF_N_EVAL_EXAMPLES \
    --alsologtostderr

使用TensorBoard 跟踪训练过程

训练过程会持续几个小时到十几个小时,可以通过tensorboard查看训练的情况

使用一台Azure的CPU虚拟机进行训练~4s进行一次迭代,正常模型有比较不错结果迭代次数大概在10K以上。

1
tensorboard --logdir=${MODEL_DIR}

tensorboard_loss

2.4 导出模型

模型训练过程中,会每隔一段时间生成一个checkpoint,一个checkpoint至少包括三个文件:

  • model.ckpt-${CHECKPOINT_NUMBER}.data-00000-of-00001
  • model.ckpt-${CHECKPOINT_NUMBER}.index
  • model.ckpt-${CHECKPOINT_NUMBER}.meta

可以通过如下命令从checkpoints中提取模型:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Example Usage:
--------------
python export_inference_graph \
--input_type image_tensor \
--pipeline_config_path path/to/ssd_inception_v2.config \
--trained_checkpoint_prefix path/to/model.ckpt \
--output_directory path/to/exported_model_directory

-----
The expected output would be in the directory
path/to/exported_model_directory (which is created if it does not exist)
with contents:
- graph.pbtxt
- model.ckpt.data-00000-of-00001
- model.ckpt.info
- model.ckpt.meta
- frozen_inference_graph.pb
+ saved_model (a directory)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
# From tensorflow/models/research/
export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/slim
python export_inference_graph.py \
--input_type image_tensor \
--pipeline_config_path training/ssd_mobilenet_v1_pets.config \
--trained_checkpoint_prefix training/model.ckpt-10116 \
--output_directory water_meter_panel
-----
INPUT_TYPE=image_tensor
PIPELINE_CONFIG_PATH="object_detection/training/pipeline.config"
TRAINED_CKPT_PREFIX=/home/ubuntu/1.objectDetection/training/model.ckpt-14450
EXPORT_DIR=/home/ubuntu/1.objectDetection/export

$ python object_detection/export_inference_graph.py \
--input_type=${INPUT_TYPE} \
--pipeline_config_path=${PIPELINE_CONFIG_PATH} \
--trained_checkpoint_prefix=${TRAINED_CKPT_PREFIX} \
--output_directory=${EXPORT_DIR}

-----
WARNING:tensorflow:From /home/gaoc/data/test/object_detect/models/research/object_detection/exporter.py:357: get_or_create_global_step (from tensorflow.contrib.framework.python.ops.variables) is deprecated and will be removed in a future version.
Instructions for updating:
Please switch to tf.train.get_or_create_global_step
2018-01-20 06:34:08.551446: I tensorflow/core/platform/cpu_feature_guard.cc:137] Your CPU supports instructions that this TensorFlow binary was not compiled to use: SSE4.1 SSE4.2 AVX AVX2 FMA
2018-01-20 06:34:14.056881: I tensorflow/core/grappler/devices.cc:51] Number of eligible GPUs (core count >= 8): 0
Converted 199 variables to const ops.

如果Exportor.py文件报bug,请参考https://github.com/tensorflow/models/issues/2861 修复

运行以上代码,将在water_meter_panel文件夹下生成模型所需的相关文件:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
gaoc@DataScience:~/data/test/object_detect/models/research/object_detection$ ls -l water_meter_panel/
total 44820
-rw-r--r-- 1 gaoc root 77 Jan 20 06:34 checkpoint
-rw-r--r-- 1 gaoc root 22636802 Jan 20 06:34 frozen_inference_graph.pb
-rw-r--r-- 1 gaoc root 22174240 Jan 20 06:34 model.ckpt.data-00000-of-00001
-rw-r--r-- 1 gaoc root 8873 Jan 20 06:34 model.ckpt.index
-rw-r--r-- 1 gaoc root 1058139 Jan 20 06:34 model.ckpt.meta
drwxr-xr-x 3 gaoc root 4096 Jan 20 06:34 saved_model
water_meter_panel/
├── checkpoint
├── frozen_inference_graph.pb
├── model.ckpt.data-00000-of-00001
├── model.ckpt.index
├── model.ckpt.meta
└── saved_model
├── saved_model.pb
└── variables

2.5 测试

1
2
3
4
5
6
# From the tensorflow/models/research/ directory
python object_detection/eval.py \
--logtostderr \
--pipeline_config_path=${PATH_TO_YOUR_PIPELINE_CONFIG} \
--checkpoint_dir=${PATH_TO_TRAIN_DIR} \
--eval_dir=${PATH_TO_EVAL_DIR}

物体识别领域的算法性能评价指标多数选择AP和mAP(mean average precision),多个类别物体检测中,每一个类别都可以根据recall和precision绘制一条曲线,AP就是该曲线下的面积,mAP是多个类别AP的平均值

1
2
3
4
5
6
7
8
Average Precision (AP):
AP% AP at IoU=.50:.05:.95 (primary challenge metric) APIoU=.50% AP at IoU=.50 (PASCAL VOC metric) APIoU=.75% AP at IoU=.75 (strict metric)
AP Across Scales:
APsmall% AP for small objects: area < 322 APmedium% AP for medium objects: 322 < area < 962 APlarge% AP for large objects: area > 962
Average Recall (AR):
ARmax=1% AR given 1 detection per image ARmax=10% AR given 10 detections per image ARmax=100% AR given 100 detections per image
AR Across Scales:
ARsmall% AR for small objects: area < 322 ARmedium% AR for medium objects: 322 < area < 962 ARlarge% AR for large objects: area > 962

AP_MAP

从性能测试结果来看该模型已经具备96%的检测精度了,具备投入生产环境所需的性能。

预测结果见下图,准确率达到了99%以上。

detect_demo

3. 结论

  • 对于简单业务场景的物体识别类案例,可以通过迁移学习利用已有的成熟模型快速迭代生成新的特定模型;
  • 这种迁移的另一个优势是对小数据样本具备很好的适应能力,可以解决前期数据不足和数据质量差的问题;
  • 当然采用这种方式也同时存在一定的弊端,比如由于模型预训练参数较多,模型体积较大,模型的选取需要反复测试和优化。

3.1 经验总结

  1. 虽然Tensorflow Object Detection API提供了丰富的文档介绍相关工作流程,但由于技术、平台和软件版本本身更新较快,实践中还是或多或少会遇到不少问题,静下心来多翻翻Github的issues里一般都有别人的提问及解答;建议还是先根据文档跑通demo,熟悉相关工具和流程再将框架迁移到自己的数据集之上;

  2. 建议自己识别的项目文件单独建立一个数据准备文件夹进行数据准备和相关配置脚本的准备,不要跟Github克隆的Object Detection项目混在一起,不容易管理,也不利于重复利用;

  3. TFOD API提供的Tensorflow可视化相当完备,启动训练任务之后,一定要同步启动验证脚本,可以实时跟踪训练进程;

  4. 很容易疏忽的一个步骤是关于PYTHON PATH的处理,在执行相关API之前一定要记得EXPORT相关path,可以些一个bash文件,在执行命令的Terminal中source一下;常见错误如下:

    1
    ImportError: No module named ’object_detection’
  5. 充分利用GPU和CPU进行训练:

    1. 如果使用CPU训练,控制配置参数中num_examples为一个很小的值(5-10),这样将使用验证数据中的一部分进行验证而不是全部;

    2. 配置CUDA_VISIBLE_DEVICES环境变量,选择使用哪个GPU或CPU来分配内存资源:

      1
      2
      $ export CUDA_VISIBLE_DEVICES="0"
      ...
      1
      2
      $ export CUDA_VISIBLE_DEVICES="1"
      ... another scripts

      配置为空使用CPU

  6. 尽量使用最新版的Tensorflow,在撰写本文时已经是1.7了,当时做实验用的是1.4,复现的时候发现1.4版本已经抛错了…

参考

1. The TensorFlow Object Detection API is an open source framework built on top of TensorFlow that makes it easy to construct, train and deploy object detection models.
2. See MSCOCO evaluation protocol.
  1. Image classification with a pre-trained deep neural network
  2. How to train your own Object Detector with TensorFlow’s Object Detector API
  3. https://github.com/datitran/raccoon_dataset

物体识别技术之Faster R-CNN

摘要: 2015年提出的Faster R-CNN架构在基于机器视觉的物体识别领域占据重要的地位,从R-CNN到fast R-CNN再到faster R-CNN,乃至后续的Mask-R-CNN形成了一条完整的两步识别的物体识别技术生态。

概述

物体识别技术一直是机器视觉中业务场景最丰富,关注度最高的一个类别。将花几期来分别对主流的物体识别技术如Faster RCNN,SSD,YOLO,Mask-RCNN进行整理和分析,并利用实践的方式进行强化。

在R-CNN,Fast R-CNN,Faster R-CNN中,物体识别被分为两个步骤实现(与SSD、YOLO的主要差异):候选区域选择和基于深度网络的物体识别。

传统的物体识别算法

传统的物体识别技术采用的滑动窗口+图像金字塔+分类器的算法,可以参见前述博文在基于机器视觉技术的品牌LOGO检测中做的实际测试,原理易于理解,但效率较低,很难达到实时处理的需求:

  1. 速度慢,效率低:需要利用滑动窗口遍历图像的不同位置;
  2. 受图像畸变影响严重:由于CNN的输入必须是固定大小的图像,所以限制了检测目标的长宽比例,比如这种方法不能同时检测矮胖对象和长瘦对象;
  3. 错误率高,没法识别图像的全局特征,每个窗口只能看到局部特征,所以检测精度也受到了比较大的影响。

物体识别精度的衡量指标

  • IoU(Intersection over Union)

    IoU

  • mAP(Mean Average Precision)

    • 所有分类的IoU均值;

参考论文

  1. R-CNN: Rich feature hierarchies for accurate object detection and semantic segmentation
  2. Faster R-CNN

R-CNN

论文: Rich feature hierarchies for accurate object detection and semantic segmentation,2013,Girshick

问题:解决目标检测网络

R-CNN的实现包括如下图所示的4个主要步骤:

  1. 接受输入图像;
  2. 利用Selective Search算法从图像中抽取大约2000个候选区域;
  3. 对每个候选区域利用预训练的CNN进行特征抽取(迁移学习);
  4. 对每个特征抽取区域利用线性SVM进行分类

R-CNN

论文的主要贡献:

  1. 使用Selective Search替代了特征金字塔和滑动窗口实现的兴趣区域选择,提升了效率;
  2. 利用预训练的神经网络进行特征提取替代了手工特征如HOG的特征提取方法,正是由于CNN学习的特征具备的鲁棒性大大提供了系统的泛化性能

仍然存在的问题:

  1. 识别慢,效率低;
  2. 不是一个端到端的解决方案

Selective Search算法

论文:Selective Search for Object Recognition,2012,J.R.R.Uijings

之前很多算法都是基于蛮力搜索(Exhaustive Search),对整张图片进行扫描,或者是采用动态窗口的方法,这种方法耗时严重,操作麻烦。J.R.R提出的选择性搜索的方法,在识别前期在整张图片中生成1~3K个proposal的方法,再对每个proposal进行处理。

Selective Search [4], one of the most popular methods, greedily merges superpixels based on engineered low-level features.

缺点:效率低,计算量大,使用1个CPU处理一张图片,需要2s1

Fast R-CNN

问题提出:解决端到端训练的问题,提出了Region of Interest(ROI)Pooling

跟R-CNN中使用深度CNN的方式不同,Fast R-CNN中首先将CNN应用到整个图像中进行特征提取,利用一个固定窗口在抽取特征上滑动,分别进行分类预测和回归预测。Fast R-CNN的主要处理流程包括:

  1. 输入图像和标定的识别框信息;
  2. 利用深度卷积神经网络抽取图像特征;
  3. 利用ROI pooling获取ROI特征向量;
  4. 利用两个全联通层进行分类和回归预测

Fast RCNN

端到端的训练过程源于提出了多任务损失函数,将分类问题和回归问题整合在一起,打通了梯度的更新路径,下图描述了Fast R-CNN的训练和测试过程:

fast R-CNN 训练与测试

缺点:仍然没有摆脱Selective Search算法在推理阶段进行候选区域生成。

Faster R-CNN

论文:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks, 2015, Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun

实现:Github上作者提供的Python实现

商业实现:Pinterests2

问题提出:在基于候选区域选择的CNN(region-based CNN)物体识别网络中,候选区域选择的效率成为了整个系统的瓶颈;Faster R-CNN中提出了Region Proposal Netwrok与物体识别网络共享网络参数(替代了Fast R-CNN中的Selective Search算法),降低了候选区域选择的时间代价。

  • 基础网络(Base Network):特征抽取(迁移学习),抽取的特征将同时应用于RPN和RoIP阶段
  • RPN:候选区域选择(利用了网络的Attention机制),用于发掘图像中潜在的可能存在物体的区域
  • RoIP:兴趣区域特征提取
  • R-CNN:分类预测和候选框回归

fasterrcnn-architecture.b9035cba

使用一块GPU,性能大概在7-10 FPS

基础网络

基础网络的主要作用是利用迁移学习完成原始图像的特征抽取,在论文中使用了 在ImageNet预训练的ZFVGG来完成这一任务。当然根据物体识别任务的不同应用场景可以在模型精度和推理时间上进行折中选择 MobileNet, ResNet-152, DenseNet

文献中,Faster R-CNN的基础网络在使用VGG作为特征提取网络时,使用conv5/conv5_1层的输出特征;

目前ResNet在很多情况下已经替代了VGG16作为特征提取网络;

为了保证网络是全卷积神经网络架构,需要把全连接层剔除,保证可以输入任意维度的输入图像

base-network

Anchor Box

替代传统算法的特征金字塔或filter金字塔

一张图像中被识别目标形状大小各异,这也是在原始算法中加入特征金子塔来对原始图像进行多个维度特征变换的原因。

Anchor Box也是为了解决上述问题,我们可以不改变图像的形状,通过改变预测每个区域物体的“窗口”来框出不同大小的物体。首先在原始图像中均匀的选取一些Anchor Box中心点,然后在每个中心点上预制多个Anchor Box。

anchors-centers.141181d6

在Faster R-CNN是使用3个不同形状(1:1, 1:2,2:1)和3个不同大小(128x128,256x256,512x512,按照原图尺寸生成)进行组合共计3x3=9种不同的Anchor box。

使用VGG16做特征提取的情况下,一张输入图片总共可以刻画为512个窗口区域,生成512x(4+2)x9个输出参数。

anchors-progress.119e1e92

由于直接预测bouding box难以实现,作者将问题转变为预测预测值与真实值之间的偏移,将问题转变为四个偏移值的预测问题。

Region Proposal Network(RPN)

RPN的主要目的是对每个区域是否可能有物体进行打分,基于打分值决定是否进行下一步的分类任务。在基础网络抽取的特征图上使用一个3x3的滑动窗口(512个卷积核),每个滑动窗口的中心点位置为上述Achor Box的中心点区域,在每个滑动窗口区域,将得到两个1x1卷积网络输出,分别为2k的前景/背景预测(该区域是否存在可被预测物体,分类问题)以及4k的位置信息预测(回归问题),四个值分别是

k是Anchor Box的数目

我们将从候选区域中选择打分较高的前N个进行下一轮分析,如果物体打分足够高,下一步将进行非极大抑制和区域选择,如果打分值很低将抛弃这些区域

rpn-conv-layers.63c5bf86

目标和损失函数

The RPN does two different type of predictions: the binary classification and the bounding box regression adjustment.

For training, we take all the anchors and put them into two different categories. Those that overlap a ground-truth object with an Intersection over Union (IoU) bigger than 0.5 are considered “foreground” and those that don’t overlap any ground truth object or have less than 0.1 IoU with ground-truth objects are considered “background”.

其中分类的损失函数为:

$p_i$为第$i$个参考框是物体的预测概率值,$p_i^*$为实际值,如果anchor是物体的话该值为1,否则为0。

回归损失函数为:

其中R为smooth L1平滑方程:

$t_i$与 $ t_i^ $ 分别对应四个偏差值。$ t_i $ 是预测框与anchor之间的偏差,$ t_i^ $ 是ground truth与anchor之间的偏差

参数选择

参数选择与其说是一个技术活倒不如认为是一个经验活,是通过大量实践验证出来的最佳实践,所以有必要分析整理每篇文章对参数选择和优化的技巧。

  • 非极大抑制的IoU阈值一般使用0.6
  • 论文中关于候选区域选择了N=2000,但一般而言比这个小的数目也能取得不错的效果,比如50,100 …

Region of Interest(ROI)Pooling

ROI阶段的主要作用为使用矩阵操作(Array Slicing)从特征图中捕获N个兴趣区域,并降采样到7x7xD的尺寸,服务于接下来的全联同网络。

roi

Region-based CNN

使用两个不同的全联通网络(Fully-Connected Network,FC):

  • A fully-connected layer with N+1units where N is the total number of classes and that extra one is for the background class.
  • A fully-connected layer with 4N units. We want to have a regression prediction, thus we need $\Delta{center{x}}$, $\Delta{center{y}}$, $\Delta{width}$, $\Delta{height}$ for each of the N possible classes.

rcnn-architecture.6732b9bd

在这个步骤中同样由两个损失函数构成:Categorical cross-entropy分类损失和Smooth L1回归损失

网络训练

  • 实验表明:联合训练(使用weighted sum)优于单独训练两个网络;
    • 将每个阶段的4个损失函数(其中RPN阶段2个,R-CNN阶段2个)组合在一起,并赋不同的权重,分类损失需要获得比回归损失更多的权重;
    • 使用L2正则损失
  • 是否单独训练基础网络取悦于目标与预训练网络的差异,这个跟迁移学习类似;
  • 使用带动量的随机梯度下降(SGD with momentum),其中monmentum=0.9,初始学习率lr=0.001, 50k步之后,lr调整为0.0001

实践时间

数据集:LISA交通标志数据库

  • 下载地址:http://cvrr.ucsd.edu/LISA/lisa-traffic-sign-dataset.html
  • 47 US sign types
  • 7855 annotations on 6610 frames.
  • Sign sizes from 6x6 to 167x168 pixels.
  • Images obtained from different cameras. Image sizes vary from 640x480 to 1024x522 pixels.
  • Some images in color and some in grayscale.
  • Full version of the dataset includes videos for all annotated signs.
  • Each sign is annotated with sign type, position, size, occluded (yes/no), on side road (yes/no).
  • All annotations are save in plain text .csv-files.
  • ~7.7GB大小

参考

1. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks, 2015, Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun
2. D. Kislyuk, Y. Liu, D. Liu, E. Tzeng, and Y. Jing, “Human curation and convnets: Powering item-to-item recommendations on pinterest,” arXiv:1511.04003, 2015.
3. Faster R-CNN: Down the rabbit hole of modern object detection

基于机器视觉技术的品牌LOGO检测

利用Flickr LOGO数据集训练一个检测品牌LOGO的网络,对机器视觉的物体识别技术进行验证。

@[toc]

概述

最近在做一个利用机器视觉技术进行超市物品检点的项目调研分析,需要先寻找一个可行的技术方案验证可行性,Flickr提供的LOGO数据集是一个很好的品牌LOGO识别例子,本文记录利用Flickr LOGO数据集训练一个物体识别的深度神经网络过程。

b

数据集

Flickr LOGO数据集提供了三种不同类型的LOGO数据集集合,分别为Flickr Logos 27 datasetDatasets: FlickrLogos-32以及Datasets: FlickrLogos-47。我们先来看一下每种数据集的组成及数据结构:

  1. Flickr Logos 27 dataset

    • 训练集包含27个分类的810张标记照片,每个分类30张照片

    • 分散集包含4207张logo图片

    • 测试集有270张照片,每个分类5张照片,另外有135张分类外照片集

    • 27个分类包括:Adidas, Apple, BMW, Citroen, Coca Cola, DHL, Fedex, Ferrari, Ford, Google, Heineken, HP, McDonalds, Mini, Nbc, Nike, Pepsi, Porsche, Puma, Red Bull, Sprite, Starbucks, Intel, Texaco, Unisef, Vodafone and Yahoo.

    • 下载地址:下载

    • 数据格式:下载文件夹中提供一个txt文件用于描述每个文件中LOGO的分类和位置信息

      1
      2
      3
      4
      5
      6
      7
      8
      9
      10
      #  FileName ClassName subset   Coordinates(x1 y1 x2 y2)
      4763210295.jpg Adidas 1 91 288 125 306
      4763210295.jpg Adidas 1 182 63 229 94
      4763210295.jpg Adidas 1 192 291 225 306
      4763210295.jpg Adidas 1 285 61 317 79
      4763210295.jpg Adidas 1 285 298 324 329
      4763210295.jpg Adidas 1 377 292 421 324
      4763210295.jpg Adidas 1 383 55 416 76
      1230939811.jpg Adidas 2 129 326 257 423
      1230939811.jpg Adidas 2 137 336 243 395

      dataset1_bboxes

  2. Flickr Logos 32/47 dataset

    FlickrLogos-32 was designed for logo retrieval and multi-class logo detection and object recognition. However, the annotations for object detection were often incomplete,since only the most prominent logo instances were labelled.

    FlickrLogos-47 uses the same image corpus as FlickrLogos-32 but has been re-annotated specifically for the task of object detection and recognition.

    2.1 Flickr Logos-32

Partition Description Images #Images
P1 (training set) Hand-picked images 10 per class 320 images
P2 (validation set) Images showing at least a single logo under various views 30 per class + 3000 non-logo images 3960 images
P3 (test set = query set) Images showing at least a single logo under various views 30 per class + 3000 non-logo images 3960 images
/ / / 8240 images
2.2 FlickrLogos-47

小结

  • Flickr Logo数据集虽然类别数目众多,但具体到每个分类提供的样本数目有限,在数据预处理环节需要配合数据增强手段来扩充数据集的数目;
  • 另外也可以仿照车牌识别的方法,将扣取的LOGO图像添加到不同背景噪声的图像中,生成多种训练数据;
  • 由于LOGO图像包含图像特征有限,同时提供小样本数据,通过迁移学习的方案利用ImageNet训练好的模型进行迁移学习是一种很好的方式,本文将对这种方式进行讨论及实现;
  • 三种数据集面向不同的功能也设计需求,从图像质量上来看Flickr-47质量相对较好,同时在32分类和47分类中提供了对图像语义分割的标定数据;

在概览过任务数据集之后,我们将按照深度学习业务处理流程,逐步进行数据的预处理、模型准备、训练和验证等工作。为简化问题处理难度,我们使用Flickr Logo -27来进行本次实验。

数据准备

数据准备环节主要使用如下基本的工具和库文件:

1
2
3
4
5
6
7
import numpy as np
import pandas as pd
import os
import matplotlib.pyplot as plt
import matplotlib.patches as patches
import cv2
import imutils

其中,

  • numpy用来做基本的矩阵处理;
  • pandas用于读取和分析数据描述文件;
  • matplotlib用于辅助显示预处理结果;
  • cv2是opencv的python封装,进行图像读取、图像分析等操作;
  • imutils是一个很好用的图像处理库,可以满足基本的图像处理需求

首先我们先查看从flickr-27上下载的文件flickr_logos_27_dataset_training_set_annotation.txt来了解基本的图像数据信息和分类信息:

1
2
3
4
df=pd.read_csv("./flickr_logos_27_dataset/flickr_logos_27_dataset_training_set_annotation.txt",sep=" ", header=None)
df.drop(df.columns[-1],axis=1, inplace=True)
df.columns=["Name","labels","subset","x1","y1","x2","y2"]
df.head()
1
2
3
4
5
6
7
output:>>>>
Name labels subset x1 y1 x2 y2
0 144503924.jpg Adidas 1 38 12 234 142
1 2451569770.jpg Adidas 1 242 208 413 331
2 390321909.jpg Adidas 1 13 5 89 60
3 4761260517.jpg Adidas 1 43 122 358 354
4 4763210295.jpg Adidas 1 83 63 130 93

在描述文件中总共提供了4536条记录,而实际提供的图像文件只有1000多张,这说明很多文件包括不止一个LOGO。

1
2
len(df)
>>>: 4536

我们可以利用pandas对文件进行一个简单的shuffle处理,便于快速切分成训练集和测试集:

1
2
# shuffle the datasets
df = df.sample(frac=1).reset_index(drop=True)

为了快速查看描述文件提供的标记信息在图像中的显示效果,我们写一个函数来查看一下LOGO标记信息的效果:

1
2
3
4
5
6
7
8
9
10
11
12
def show_image(id):
fig = plt.figure()
image = os.path.join("./flickr_logos_27_dataset/flickr_logos_27_dataset_images/",df.loc[id]["Name"])
image = cv2.imread(image)
plt.figure(8)
plt.imshow(image)
currentAxis=plt.gca()
rect=patches.Rectangle((df["x1"].iloc[id], df["y1"].iloc[id]),
df["x2"].iloc[id]-df["x1"].iloc[id],
df["y2"].iloc[id]-df["y1"].iloc[id],
linewidth=2,edgecolor='r',facecolor='none')
currentAxis.add_patch(rect)

其中用到了plt.gca()和matplotlib的patches函数用于图像的叠加显示,当然也可以直接调用cv2.rectangle函数

随机查看一个标记在图像中的显示效果

1
2
3
import random
id = random.randint(0,len(df))
show_image(id)

BMW_sample

下面需要写一个抠图程序,把所有LOGO从原始图像中扣取出来,形成训练用数据集,在保存图像之前进行图像简单的预处理和调整形状:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
def crop_img(id):
image = os.path.join("./flickr_logos_27_dataset/flickr_logos_27_dataset_images/",df.loc[id]["Name"])
image = cv2.imread(image)
crop_image = image[df["y1"].iloc[id]:df["y2"].iloc[id],df["x1"].iloc[id]:df["x2"].iloc[id]]
return crop_image

WIDTH = 64
HEIGHT = 64

for id, name in enumerate(df["Name"]):
cropped_image = crop_img(id)
try:
resized_image = cv2.resize(cropped_image,
(WIDTH,HEIGHT),interpolation=cv2.INTER_CUBIC)
except:
print(id)
continue
image_name = str(id)+"_"+df.iloc[id]["labels"]+".jpg"
cv2.imwrite(os.path.join("./flickr_logos_27_dataset/cropped/",image_name),resized_image)

在图像扣取过程中,有几点需要注意:

  1. 由于描述问题提供的信息本身的问题,有一些异常数据需要剔除,比如有5条记录提供的x1=x2,或y1=y2,即在原始图像上没有进行标记;
  2. 图像缩放其实不应该采用这种傻瓜的压缩方式,应该尽量控制长宽比,保证不产生明显的形变;

处理完成之后,扣取图像将在cropped文件夹中以{id}_{label}.jpg的文件名存储。

图像扣取之后,通过人工核对,我们发现仍然存在一些明显有问题的图像,比如多张puma的图像,其实存在明显的标记问题,需要从数据集中剔除:

puma_error_img

数据集切分

我们将扣取数据读入进行简单预处理和数据切分:

1
2
3
4
5
6
7
8
9
10
data = []
labels = []
for img in os.listdir("./flickr_logos_27_dataset/cropped/"):
img_file = cv2.imread(os.path.join("./flickr_logos_27_dataset/cropped/",img))
data.append(img_file)
labels.append(img.split("_")[1].split(".")[0])
data = np.stack(data)
labels = np.stack(labels)

data = data/255

将标签数据转变成OneHot矩阵:

1
2
3
from sklearn.preprocessing import LabelBinarizer
le = LabelBinarizer()
labels = le.fit_transform(labels)

切分数据集

1
X,testX,y,testy = train_test_split(data, labels,test_size=0.1,stratify=labels,random_state=42 )

数据增强

数据增强是图像处理中经常采用的一种数据处理方式,由于涉及内容较多,在本篇实战中不单独展开,仅把利用Keras数据增强工具ImageDataGenerator的方法提供一下:

1
2
3
4
5
6
7
8
from keras.preprocessing.image import ImageDataGenerator 
# construct the training image generator for data augmentation
aug = ImageDataGenerator(rotation_range=18, zoom_range=0.15,
width_shift_range=0.2, height_shift_range=0.2, shear_range=0.15,
horizontal_flip=True, fill_mode="nearest")

gen_flow=aug.flow(X, y,batch_size=64,seed=0)
validation=aug.flow(testX,testy,batch_size=32,seed=0)

模型定义

根据前文对数据的分析,我们分别采取两种方式设计网络模型:从头训练一个深度卷积神经网络和利用迁移学习Fine-Tune一个满足需求的网络模型。

从头训练一个网络模型

由于问题本质是一个物体识别任务,所以在实现上应该包括图像分类和定位的回归两个子任务,我们可以简化问题通过一个滑动窗口来对输入图像进行扫描,然后针对每个扫描窗口进行图像分类。

当然实际过程中,问题要远比这复杂,很难选择合适的滑动窗口大小适用现实图像的需求,所以在主流的物体识别模型中一般都采用多种不同大小的Anchor box来回归图像的位置。

由于LOGO每张图像包含特征有限,我们在本次实验中利用LeNet的架构,设计了一个简单的卷积网络模型如下图所示:

model

模型主体利用三个CONV => RELU => POOL结构来抽取图像特征,最后利用全联通网络+Softmax分类器来获得最终27类分类结果。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
from keras.models import Sequential
from keras.layers.convolutional import Conv2D
from keras.layers.convolutional import MaxPooling2D
from keras.layers.core import Activation
from keras.layers.core import Flatten
from keras.layers.core import Dense
from keras import backend as K


model = Sequential()
inputShape = (HEIGHT, WIDTH, 3)
# first set of CONV => RELU => POOL layers
model.add(Conv2D(16, (3, 3), padding="same",input_shape=inputShape))
model.add(Activation("relu"))
model.add(MaxPooling2D(pool_size=(2, 2), strides=(2, 2)))

# second set of CONV => RELU => POOL layers
model.add(Conv2D(32, (3, 3), padding="same"))
model.add(Activation("relu"))
model.add(MaxPooling2D(pool_size=(2, 2), strides=(2, 2)))

# third set of CONV => RELU => POOL layers
model.add(Conv2D(64, (3, 3), padding="same"))
model.add(Activation("relu"))
model.add(MaxPooling2D(pool_size=(2, 2), strides=(2, 2)))

# first (and only) set of FC => RELU layers
model.add(Flatten())
model.add(Dense(500))
model.add(Activation("relu"))
model.add(Dropout(0.25))
# softmax classifier
model.add(Dense(len(CLASSNAME)))
model.add(Activation("softmax"))

定义目标优化函数:

1
2
3
from keras.optimizers import Adam,SGD,RMSprop
opt = RMSprop(lr=0.001, rho=0.9)
model.compile(loss="categorical_crossentropy", optimizer=opt,metrics=["accuracy"])

迭代训练100个epoch:

1
2
3
4
5
6
7
history=model.fit_generator(
gen_flow,
steps_per_epoch=len(X) // 32,
validation_data=aug.flow(testX,testy,batch_size=32,seed=0),
validation_steps=len(testX) // 32,
epochs=100,
verbose=1)

100轮之后,验证集达到了99.89%的准确率,基本满足了要求,训练过程中训练数据和验证数据的准确率及Loss变化详见下图:

accuracy_curve

loss_curve

测试

1
2
3
4
5
6
7
8
9
10
11
plt.figure(figsize = (15,40))
for i,test_img in enumerate(os.listdir("./test")):
img = cv2.imread(os.path.join("./test",test_img))
img = cv2.resize(img, (WIDTH,HEIGHT),interpolation=cv2.INTER_CUBIC)
img = np.expand_dims(img,axis=0)
result = model.predict(img)
result = le.inverse_transform(result)
plt.subplot(8,4, i+1)
img = cv2.cvtColor(img[0], cv2.COLOR_BGR2RGB)
plt.imshow(img)
plt.title('pred:' + str(result[0]))

test_result

设计滑动窗口和特征金字塔

其中滑动窗口用来遍历图像,特征金字塔用于实现图像的多尺度变换,保证多种不同大小的LOGO都可以被准确识别。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
def sliding_window(image, step, ws):
# slide a window across the image
for y in range(0, image.shape[0] - ws[1], step):
for x in range(0, image.shape[1] - ws[0], step):
# yield the current window
yield (x, y, image[y:y + ws[1], x:x + ws[0]])

def image_pyramid(image, scale=1.5, minSize=(64, 64)):
# yield the original image
yield image

# keep looping over the image pyramid
while True:
# compute the dimensions of the next image in the pyramid
w = int(image.shape[1] / scale)
image = imutils.resize(image, width=w)

# if the resized image does not meet the supplied minimum
# size, then stop constructing the pyramid
if image.shape[0] < minSize[1] or image.shape[1] < minSize[0]:
break

# yield the next image in the pyramid
yield image

特征金字塔

为了检测不同尺度的目标,依次将原图按比例缩放并送入网络。缺点是需要多次resize图像,繁琐耗时。

我们定义了输入图像的尺寸为(150,150),滑动窗口大小与我们前面训练的分类网络的输入一致为(64,64),特征金字塔的缩小比例为1.5倍,这样将在原始图像基础上进行两次缩放;另外定义了滑动窗口的步长为16。

1
2
3
4
5
6
7
8
# initialize variables used for the object detection procedure
INPUT_SIZE = (150, 150)
PYR_SCALE = 1.5
WIN_STEP = 16
ROI_SIZE = (64, 64)

labels = {}
CLASS_NAMES = list(lb.classes_)

为简化后续分析,定义一个预测函数,用于返回图像中预测准确率超过minProb窗口及对象分类:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
def logo_prediction(model, batchROIs, batchLocs, labels, minProb=0.5,dims=(64, 64)):
preds = model.predict(batchROIs)
for i in range(0,len(preds)):
prob = np.max(preds[i])
if prob > 0.5:
index = np.argmax(preds[i])
label = CLASS_NAMES[int(index)]
# grab the coordinates of the sliding window for
# the prediction and construct the bounding box
(pX, pY) = batchLocs[i]
box = (pX, pY, pX + dims[0], pY + dims[1])
L = labels.get(label, [])
L.append((box,prob))
labels[label] = L
return labels

我们将遍历每个特征金字塔和每个滑动窗口,对识别结果进行预测:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
img_file = "./test/2.jpg"
orig = cv2.imread(img_file)
# resize the input image to be a square
resized = cv2.resize(orig, INPUT_SIZE, interpolation=cv2.INTER_CUBIC)

# initialize the batch ROIs and (x, y)-coordinates
batchROIs = None
batchLocs = []
# loop over the image pyramid
for image in image_pyramid(resized, scale=PYR_SCALE,minSize=ROI_SIZE):
# loop over the sliding window locations
for (x, y, roi) in sliding_window(resized, WIN_STEP, ROI_SIZE):
# take the ROI and pre-process it so we can later classify the
# region with Keras
#roi = img_to_array(roi)
roi = roi/255
roi = np.expand_dims(roi, axis=0)
# roi = imagenet_utils.preprocess_input(roi)

# if the batch is None, initialize it
if batchROIs is None:
batchROIs = roi

# otherwise, add the ROI to the bottom of the batch
else:
batchROIs = np.vstack([batchROIs, roi])

# add the (x, y)-coordinates of the sliding window to the batch
batchLocs.append((x, y))


# classify the batch, then reset the batch ROIs and
# (x, y)-coordinates
model.predict(batchROIs)
labels = logo_prediction(model, batchROIs, batchLocs,labels, minProb=0.9)

当进行到这步骤才突然发现训练分类中缺了一个很重要的背景分类,将导致在背景上很多信息的预测会出问题,后续等整些背景图片再重新训练网络,😭

最后一步是预测结果的极大值抑制和显示:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
from imutils.object_detection import non_max_suppression
# loop over the labels for each of detected objects in the image
for k in labels.keys():
# clone the input image so we can draw on it
clone = resized.copy()

# loop over all bounding boxes for the label and draw them on the image
for (box, prob) in labels[k]:
(xA, yA, xB, yB) = box
cv2.rectangle(clone, (xA, yA), (xB, yB), (0, 255, 0), 2)

# grab the bounding boxes and associated probabilities for each
# detection, then apply non-maxima suppression to suppress
# weaker, overlapping detections
boxes = np.array([p[0] for p in labels[k]])
proba = np.array([p[1] for p in labels[k]])
boxes = non_max_suppression(boxes, proba)

# loop over the bounding boxes again, this time only drawing the
# ones that were *not* suppressed
for (xA, yA, xB, yB) in boxes:
cv2.rectangle(clone, (xA, yA), (xB, yB), (0, 0, 255), 2)

# show the output image
print("[INFO] {}: {}".format(k, len(boxes)))
plt.imshow(clone)

极大值抑制是物体识别中很重要的一个环节,相关概念以后在慢慢整理

利用迁移学习优化一个物体识别网络模型

上述方法虽然简单容易理解,但存在很大的计算效率问题,每张图片需要进行多次特征提取和多次运算,对计算效率造成很大影响。目前主流的物体识别算法往往都可以应用于实时视频流的分析,显然使用上述方法是不合适的。我们将在后面探讨利用现有的物体识别网络通过迁移学习解决我们的目标识别问题。

由于本篇内容太多,利用迁移学习实现的方法,将单独作为一篇,此处留待插入链接

本文涉及代码详见Github

训练一个二分类网络检查货架上是否有百事可乐

参考Github实现一个物品检测原型:训练一个二分类分类器

  1. 在数据准备阶段与上述过程唯一不同是label的设置,如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import os, cv2
import numpy as np
data = []
labels = []
HEIGHT = 64
WIDTH = 64
for img in os.listdir("./flickr_logos_27_dataset/cropped/"):
img_file = cv2.imread(os.path.join("./flickr_logos_27_dataset/cropped/",img))
data.append(img_file)
label = img.split("_")[1].split(".")[0]
if label != "Pepsi":
label = "Nop"
labels.append(label)
data = np.stack(data)
labels = np.stack(labels)
  1. 由于是二分类问题,所以只需要最后一层使用sigmoid函数构建分类器即可,label的序列话方面使用LabelEncoder转换为0或者1即可:

    1
    2
    3
    4
    from sklearn.model_selection import train_test_split
    from sklearn.preprocessing import LabelEncoder
    lb = LabelEncoder()
    y = lb.fit_transform(labels)
  2. 数据增强与前文类似,不再赘言。在网络结构上,只需要修改最后为sigmoid函数输出,优化目标使用binary_crossentropy

    1
    2
    3
    4
    5
    ...
    model.add(Activation("sigmoid"))
    ...
    model.compile(loss="binary_crossentropy", optimizer=opt,
    metrics=["accuracy"])

    由于只有两个分类,所以模型很容易收敛,最后准确率也接近100%。

  3. 最后利用一个滑动窗口不停的扫描图像并利用cv2展示结果即可:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    for (x, y, window) in sliding_window(img, stepSize=32, windowSize=(winW, winH)):
    # if the window does not meet our desired window size, ignore it
    if window.shape[0] != winH or window.shape[1] != winW:
    continue

    crop_img=crop_image(sample_path,x, y, x + winW, y + winH)
    crop_img=imresize(crop_img,(64,64))
    crop_img = crop_img/255
    prediction=model.predict(crop_img.reshape(1,64,64,3))
    if prediction == 1:
    pred = 'Pepsi'
    else:
    pred=' '

    clone = img.copy()
    cv2.putText(clone, pred, (10, 30),cv2.FONT_HERSHEY_SIMPLEX, 0.7, (0, 0, 255), 2)
    cv2.rectangle(clone, (x, y), (x + winW, y + winH), (0, 255, 0), 2)
    clone = cv2.cvtColor(clone,cv2.COLOR_BGR2RGB)
    cv2.imshow("Window", clone)

    cv2.waitKey(1)
    time.sleep(0.5)

Logo检测的应用及分析

DeepSense.ai给出了一种Logo检测的分析方法,通过分析视频中不同品牌的logo呈现,统计了不同品牌在同一个视频中Logo出现的时间、出现的方式、呈现的效果等,最终提供给客户一个Logo Visubility Report

方案的主要流程如下图所示:

logo_detection_overview

生成的分析报告参见下图:

logo_detection_report

针对的分析视频如下:


参考

  1. Flickr Logos 27 dataset
  2. Datasets: FlickrLogos-32 / FlickrLogos-47
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×