计算机视觉目标检测研究札记

摘要: 写一篇小结,记录目标检测算法近期的学习笔记。


目标检测中的Anchor与感受野

摘要: Anchor的设置对于目标检测来说作用的重要性不言而喻,本文主要整理了相关技巧和背后的逻辑原理解读,不断更新完善。


Pathlib--Python的路径管理库

摘要: 整理了Pathlib的使用方法,便于速查。


从头训练一个图像分类器

Test Picture

摘要: 本文记录了利用fast.ai快速构建一个图像识别(图像分类器)的方法。


Batch-Normalization(批量归一化)

BN不得不了解的深度学习技术~

摘要: 借重读论文的机会,重新整理一下Batch Normalization的关键技术。


机器在学习——EDA

EDA


机器在学习-线性回归与分类

Test Picture

算法理论

集成学习

集成方法 的目标是把多个使用给定学习算法构建的基估计器的预测结果结合起来,从而获得比单个估计器更好的泛化能力/鲁棒性。

集成方法通常分为两种:

  • 平均方法,该方法的原理是构建多个独立的估计器,然后取它们的预测结果的平均。一般来说组合之后的估计器是会比单个估计器要好的,因为它的方差减小了。

    示例: Bagging 方法 , 随机森林 , …

  • 相比之下,在 boosting 方法 中,基估计器是依次构建的,并且每一个基估计器都尝试去减少组合估计器的偏差。这种方法主要目的是为了结合多个弱模型,使集成的模型更加强大。

    示例: AdaBoost , 梯度提升树 , …


机器在学习-KNN

KNN


机器在学习-决策树(Dicision Tree)

Test Picture

摘要:


机器在学习-线性回归与分类

Test Picture


HMM与Veterbi算法

Test Picture

摘要:


读书笔记:数学之美

数学之美

  • 作者: 吴军

  • 2014年11月第二版

  • 北京:人民邮电出版社



FastText-A better choice for word embedding?

Test Picture

摘要:


CRUSH in Ceph

聊聊Ceph中的核心数据分布选择算法——CRUSH


经典网络复现之GoogleNet

inception

摘要: 本文记录利用ImageNet数据集复现经典网络GoogLeNet的过程,并记录在大型数据集训练过程中需要考虑的问题。


经典网络复现之ResNet

Residual Module

摘要: 本文记录利用ImageNet数据集复现经典网络ResNet的过程,并记录在大型数据集训练过程中需要考虑的问题。


经典网络复现之SqueezeNet

Fire-Module

摘要: 本文记录利用ImageNet数据集复现经典网络SqueezeNet的过程,并记录在大型数据集训练过程中需要考虑的问题。


经典网络复现之VGGNet

VGGNet

摘要: 本文记录利用ImageNet数据集复现经典网络VGGNet的过程,并记录在大型数据集训练过程中需要考虑的问题。


经典网络复现之AlexNet

Test Picture

摘要: 本文记录利用ImageNet数据集复现经典网络AlexNet的过程,并记录在大型数据集训练过程中需要考虑的问题。


ImageNet-DataSet

ImageNET

摘要:


深度学习实践方法论

Test Picture

摘要: 深度学习实践的方法论是一套靠经验而非算法总结的行之有效的指导,后续随着研究深入将不断更新补充相关内容。


Thinking Stats

Pandas技巧


Feature_Visualization_in_NN

features

摘要:


经典网络归纳: ResNet

Test Picture

摘要: 作为深度卷积神经网络的里程碑式的作品,ResNet为卷积网络往更深层次扩展指明了方向,本文结合相关论文总结一下ResNet中创造性的想法。


Everything-About-SVM

摘要:


Machine Learning Notes

摘要: 最近花了两周时间刷完了吴恩达在Cousera上关于机器学习的经典课程, 这已经是近两个月来刷完的第十个Cousera课程了。虽然课程是多年前开设的,但相关机器学习理论和方法内容介绍仍然具备很强的时效性,是机器学习入门的必选课程。


机器学习三要素:模型,策略与算法

摘要: 李航在《统计学习方法》中将统计学习方法的三要素——模型、策略、算法总结为机器学习方法的提纲挈领。这篇博文主要总结归纳《统计学习方法》中对于这三要素的阐述。

@[toc]

最近在读李航的《统计学习方法》,作者从统计学习的方法来分析机器学习技术,分析很细致深刻,值得反思,未来将逐步总结相关内容,期待更多共鸣与思考。

什么是统计机器学习

统计学习又叫统计机器学习,是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科。

统计学习的对象是具备一定统计规律的数据,同时对数据有一个强假设:数据是独立同分布产生的。学习的模型属于某个函数的集合,称为假设空间(hypothesis space),应用某个评价准则(evaluation criterion) 从假设空间中选取一个最优的模型,使它对已知训练数据和未知测试数据在给定评价准则下有最优的预测结果,这个模型的选取过程由算法实现。这样统计学习的方法由模型的假设空间、模型选择的准则以及模型的学习算法组成,称为统计机器学习的三要素。

概念定义

  • 输入空间: 输入变量$X={x_1, x_2, …, x_N}$ 构成的空间;
  • 输出空间:对于输入变量的真实输出$Y={y_1, y_2,…,y_N}$ 构成的空间;
  • 特征空间:每个输入变量都可以由一组特征向量表示,这些特征向量构成了特征空间;
    • 模型实际上都是定义在特征空间上的;
  • 假设空间: 包含所有可能的映射关系集合 $F={ f|y=f_{\theta}(X), \theta \in R^n}$
    • 输入到输出的映射的集合,表示为条件概率分布$\hat P(X|Y)$ 或决策函数 $Y = \hat f(X)$
  • 参数空间: 构成假设空间每个映射函数的参数所形成的空间;
  • 监督学习的联合概率分布

监督学习假设输入与输出的随机变量$X$ 和 $Y$ 遵循联合概率分布 $P(X,Y)$ , 机器学习的前提是假设该概率分布存在,但具体定义是未知的(如果知道的话也没必要通过机器学习来获取的了,直接可以通过条件函数来预测未知结果)。训练数据和测试数据被看作是依据联合概率分布$P(X,Y)$ 独立同分布产生的。这是机器学习数据具备一定统计规律的基本假设。

模型

如下图所示,在机器学习中,模型描述的是一组从输入到输出的映射关系的函数表示。

model

在监督学习中,模型就是从假设空间中所要学习条件概率分布$\hat P(X|Y)$ 或决策函数 $Y = \hat f(X)$ 。

策略

策略描述了学习的目标函数,通过什么样的准则使学习的方向最终逼近最终的优化目标从而能够从假设空间中选取最优的模型。一般采用损失函数或代价函数来对模型的好坏进行度量。损失函数是$f(X)$ 和 $Y$ 的非负实值函数,记作 $L(Y, f(X))$ 。

损失函数数值越小,模型越好,损失函数的期望为:

这是理论上模型$f(X)$ 关于联合分布的平均意义下的损失,称为风险函数期望损失。由于$P(X,Y)$ 未知,所以期望损失无法直接计算。因此引入另一个概念:经验风险(损失)

经验风险是模型关于训练样本的平均损失。根据大数定理,当样本容量N趋于无穷时,经验风险趋于期望风险。所以可以用经验风险估计期望风险,但由于现实世界中训练样本数目有限,所以需要对经验风险进行一定的矫正(如正则化)。

当样本容量很小时,经验风险最小化学习会产生过拟合现象,于是引入修正方案:结构风险最小化(SRM):

结构风险是在经验风险基础上加上表示模型复杂度的正则化项(惩罚项)$J(f)$ ,它描述了模型的复杂度。

过拟合:如果在假设空间中存在“真”模型,过拟合可以理解为所选模型复杂度由于比真模型更高,包含了更多的参数,对训练数据预测比”真”模型更好,但对新数据的预测很差。(训练数据中掺杂着噪声,所以即使”真”模型也无法一定完全拟合训练数据)。

过拟合问题告诉我们,对模型好坏的评价不是完全靠在训练数据上的经验风险或结构风险来决定的,而是学习方法的泛化能力,这是期望损失本身要表达的意思。如果学到一个模型$\hat f$,那么用这个模型对未知数据预测的误差即为泛化误差

泛化误差具备如下性质:

  1. 它是样本容量的函数,随着样本容量增加,泛化误差上界趋于0;
  2. 它是假设空间容量的函数,假设空间越大,模型就越难学,泛化误差上界就越大。

算法

算法将机器学习问题转换为最优化问题进行求解。设计目标是寻找全局最优解并使得求解过程足够高效。


参考

  1. ​《统计学习方法》

Backpropagation in Neural Network

摘要: 反向传播毋庸置疑是整个神经网络的精髓,正是由于它的提出标志着深度神经网络的训练在有限算力基础上成为可能,但反向传播本身的原理同样值得品读和思考。

本文主要总结神经网络中反向传播算法的推导流程并挖掘一些深层次的原理。反向传播算法在1970年就已经提出,直到1986年 David Rumelhart, Geoffrey Hinton, and Ronald Williams在一篇论文中对其实现的分析才得以普及。

1. 表达式的定义

  • $w_{jk}^l$ 代表第l−1层第k个神经元,与第l层第j个神经元之间的权重(注意j与k的顺序);
  • $b_j^l$ 代表第l层中第j个神经元的偏移;
  • $a_j^l$ 代表第l层中第j个神经元的激活函数值;
  • $L$ 代表神经网络的总层数;
  • $J(W,b)$ 简写为$J$ 代表神经网络的代价函数;

假设我们有$m$ 个训练样本${(x^{(1)},y^{(1)}),…, (x^{(m)},y^{(m)})}$ ,对于每个训练样本$(x,y)$ 定义代价函数为:

对于$m$个训练样本,总的代价函数为:

根据神经网络层与层之间关系的定义,我们有如下表达式(向量形式):

其中

利用梯度下降法进行目标优化使用的主要梯度更新公式:

因为神经网络的复杂性导致$\frac{\partial J}{\partial w^l}$ 无法直接计算或者计算代价太大(每个权重的计算都需要进行一次前向传播),反向传播的目的在于提供一种更加高效的手段,完成上述梯度的更新操作。

2. 反向传播的直观理解

反向传播是用于理解改变网络中的任一权重如何影响网络代价函数的过程。假设神经网络中某个权重$w_{jk}^l$

产生了轻微的扰动误差 $\Delta w_{jk}^l$ ,扰动误差导致该神经元的输出产生误差 $\Delta z_j^l$ ,这个扰动将使对应的神经元$a_j^l$ 产生一个扰动误差 $\Delta a_j^l$ ,该误差将逐步向后层传递,直至达到输出层,并最终影响代价函数,生成一个代价误差 $\Delta J = \frac{\partial J}{\partial z_j^l}\Delta z_j^l$ 。我们可以给出如下式子来为通过误差近似计算梯度提供方向:

其中,$\delta_j^l$ 可以定义为$l$层第$j$个神经元上的误差。

我们先从计算最后一层误差$\delta_j^L$ 开始,

公式E1(向量形式):

证明

现在把问题转变为如何利用反向传播由后往前逐步计算误差$\delta_j^l$ ,为计算不同层之间误差之间的关系,利用链式法则给出如下推理过程:

公式E2

有了以上误差的反向传播计算方法,我们可以利用计算的误差计算权重的梯度如下:

公式E3

公式E4

其中公式(4)也可以写成:

证明:

另一种求解方式

如何我们令$\delta_j^l =\frac{\partial J}{\partial a_j^l}$ 也可以按照上述过程类似的方法推到出相关公式

3. 反向传播算法的计算流程

  1. 输入$x$,令$a^1=z^1=x$;
  2. 前向传播: 对于每层$l=2,3,…,L$计算$z^l$和$a^l$;
  3. 根据公式E1计算输出误差:$\delta^L = \nabla_a J \odot \sigma’(z^L)$ ;
  4. 反向传播:对于每层$l=L-1,L-2,…,2$ 利用公式E2计算误差:$\delta^l = ((w^{l+1})^T \delta^{l+1}) \odot \sigma’(z^l)$ ;
  5. 利用公式E3E4计算参数梯度;
  6. 更新权重

参考

  1. CS231n讲义:Backpropagation, Intuitions
  2. Neural Networks and Deep Learning
  3. Machine Learning Cousera Course

物体识别技术之Faster R-CNN

摘要: 2015年提出的Faster R-CNN架构在基于机器视觉的物体识别领域占据重要的地位,从R-CNN到fast R-CNN再到faster R-CNN,乃至后续的Mask-R-CNN形成了一条完整的两步识别的物体识别技术生态。

概述

物体识别技术一直是机器视觉中业务场景最丰富,关注度最高的一个类别。将花几期来分别对主流的物体识别技术如Faster RCNN,SSD,YOLO,Mask-RCNN进行整理和分析,并利用实践的方式进行强化。

在R-CNN,Fast R-CNN,Faster R-CNN中,物体识别被分为两个步骤实现(与SSD、YOLO的主要差异):候选区域选择和基于深度网络的物体识别。

传统的物体识别算法

传统的物体识别技术采用的滑动窗口+图像金字塔+分类器的算法,可以参见前述博文在基于机器视觉技术的品牌LOGO检测中做的实际测试,原理易于理解,但效率较低,很难达到实时处理的需求:

  1. 速度慢,效率低:需要利用滑动窗口遍历图像的不同位置;
  2. 受图像畸变影响严重:由于CNN的输入必须是固定大小的图像,所以限制了检测目标的长宽比例,比如这种方法不能同时检测矮胖对象和长瘦对象;
  3. 错误率高,没法识别图像的全局特征,每个窗口只能看到局部特征,所以检测精度也受到了比较大的影响。

物体识别精度的衡量指标

  • IoU(Intersection over Union)

    IoU

  • mAP(Mean Average Precision)

    • 所有分类的IoU均值;

参考论文

  1. R-CNN: Rich feature hierarchies for accurate object detection and semantic segmentation
  2. Faster R-CNN

R-CNN

论文: Rich feature hierarchies for accurate object detection and semantic segmentation,2013,Girshick

问题:解决目标检测网络

R-CNN的实现包括如下图所示的4个主要步骤:

  1. 接受输入图像;
  2. 利用Selective Search算法从图像中抽取大约2000个候选区域;
  3. 对每个候选区域利用预训练的CNN进行特征抽取(迁移学习);
  4. 对每个特征抽取区域利用线性SVM进行分类

R-CNN

论文的主要贡献:

  1. 使用Selective Search替代了特征金字塔和滑动窗口实现的兴趣区域选择,提升了效率;
  2. 利用预训练的神经网络进行特征提取替代了手工特征如HOG的特征提取方法,正是由于CNN学习的特征具备的鲁棒性大大提供了系统的泛化性能

仍然存在的问题:

  1. 识别慢,效率低;
  2. 不是一个端到端的解决方案

Selective Search算法

论文:Selective Search for Object Recognition,2012,J.R.R.Uijings

之前很多算法都是基于蛮力搜索(Exhaustive Search),对整张图片进行扫描,或者是采用动态窗口的方法,这种方法耗时严重,操作麻烦。J.R.R提出的选择性搜索的方法,在识别前期在整张图片中生成1~3K个proposal的方法,再对每个proposal进行处理。

Selective Search [4], one of the most popular methods, greedily merges superpixels based on engineered low-level features.

缺点:效率低,计算量大,使用1个CPU处理一张图片,需要2s1

Fast R-CNN

问题提出:解决端到端训练的问题,提出了Region of Interest(ROI)Pooling

跟R-CNN中使用深度CNN的方式不同,Fast R-CNN中首先将CNN应用到整个图像中进行特征提取,利用一个固定窗口在抽取特征上滑动,分别进行分类预测和回归预测。Fast R-CNN的主要处理流程包括:

  1. 输入图像和标定的识别框信息;
  2. 利用深度卷积神经网络抽取图像特征;
  3. 利用ROI pooling获取ROI特征向量;
  4. 利用两个全联通层进行分类和回归预测

Fast RCNN

端到端的训练过程源于提出了多任务损失函数,将分类问题和回归问题整合在一起,打通了梯度的更新路径,下图描述了Fast R-CNN的训练和测试过程:

fast R-CNN 训练与测试

缺点:仍然没有摆脱Selective Search算法在推理阶段进行候选区域生成。

Faster R-CNN

论文:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks, 2015, Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun

实现:Github上作者提供的Python实现

商业实现:Pinterests2

问题提出:在基于候选区域选择的CNN(region-based CNN)物体识别网络中,候选区域选择的效率成为了整个系统的瓶颈;Faster R-CNN中提出了Region Proposal Netwrok与物体识别网络共享网络参数(替代了Fast R-CNN中的Selective Search算法),降低了候选区域选择的时间代价。

  • 基础网络(Base Network):特征抽取(迁移学习),抽取的特征将同时应用于RPN和RoIP阶段
  • RPN:候选区域选择(利用了网络的Attention机制),用于发掘图像中潜在的可能存在物体的区域
  • RoIP:兴趣区域特征提取
  • R-CNN:分类预测和候选框回归

fasterrcnn-architecture.b9035cba

使用一块GPU,性能大概在7-10 FPS

基础网络

基础网络的主要作用是利用迁移学习完成原始图像的特征抽取,在论文中使用了 在ImageNet预训练的ZFVGG来完成这一任务。当然根据物体识别任务的不同应用场景可以在模型精度和推理时间上进行折中选择 MobileNet, ResNet-152, DenseNet

文献中,Faster R-CNN的基础网络在使用VGG作为特征提取网络时,使用conv5/conv5_1层的输出特征;

目前ResNet在很多情况下已经替代了VGG16作为特征提取网络;

为了保证网络是全卷积神经网络架构,需要把全连接层剔除,保证可以输入任意维度的输入图像

base-network

Anchor Box

替代传统算法的特征金字塔或filter金字塔

一张图像中被识别目标形状大小各异,这也是在原始算法中加入特征金子塔来对原始图像进行多个维度特征变换的原因。

Anchor Box也是为了解决上述问题,我们可以不改变图像的形状,通过改变预测每个区域物体的“窗口”来框出不同大小的物体。首先在原始图像中均匀的选取一些Anchor Box中心点,然后在每个中心点上预制多个Anchor Box。

anchors-centers.141181d6

在Faster R-CNN是使用3个不同形状(1:1, 1:2,2:1)和3个不同大小(128x128,256x256,512x512,按照原图尺寸生成)进行组合共计3x3=9种不同的Anchor box。

使用VGG16做特征提取的情况下,一张输入图片总共可以刻画为512个窗口区域,生成512x(4+2)x9个输出参数。

anchors-progress.119e1e92

由于直接预测bouding box难以实现,作者将问题转变为预测预测值与真实值之间的偏移,将问题转变为四个偏移值的预测问题。

Region Proposal Network(RPN)

RPN的主要目的是对每个区域是否可能有物体进行打分,基于打分值决定是否进行下一步的分类任务。在基础网络抽取的特征图上使用一个3x3的滑动窗口(512个卷积核),每个滑动窗口的中心点位置为上述Achor Box的中心点区域,在每个滑动窗口区域,将得到两个1x1卷积网络输出,分别为2k的前景/背景预测(该区域是否存在可被预测物体,分类问题)以及4k的位置信息预测(回归问题),四个值分别是

k是Anchor Box的数目

我们将从候选区域中选择打分较高的前N个进行下一轮分析,如果物体打分足够高,下一步将进行非极大抑制和区域选择,如果打分值很低将抛弃这些区域

rpn-conv-layers.63c5bf86

目标和损失函数

The RPN does two different type of predictions: the binary classification and the bounding box regression adjustment.

For training, we take all the anchors and put them into two different categories. Those that overlap a ground-truth object with an Intersection over Union (IoU) bigger than 0.5 are considered “foreground” and those that don’t overlap any ground truth object or have less than 0.1 IoU with ground-truth objects are considered “background”.

其中分类的损失函数为:

$p_i$为第$i$个参考框是物体的预测概率值,$p_i^*$为实际值,如果anchor是物体的话该值为1,否则为0。

回归损失函数为:

其中R为smooth L1平滑方程:

$t_i$与 $ t_i^ $ 分别对应四个偏差值。$ t_i $ 是预测框与anchor之间的偏差,$ t_i^ $ 是ground truth与anchor之间的偏差

参数选择

参数选择与其说是一个技术活倒不如认为是一个经验活,是通过大量实践验证出来的最佳实践,所以有必要分析整理每篇文章对参数选择和优化的技巧。

  • 非极大抑制的IoU阈值一般使用0.6
  • 论文中关于候选区域选择了N=2000,但一般而言比这个小的数目也能取得不错的效果,比如50,100 …

Region of Interest(ROI)Pooling

ROI阶段的主要作用为使用矩阵操作(Array Slicing)从特征图中捕获N个兴趣区域,并降采样到7x7xD的尺寸,服务于接下来的全联同网络。

roi

Region-based CNN

使用两个不同的全联通网络(Fully-Connected Network,FC):

  • A fully-connected layer with N+1units where N is the total number of classes and that extra one is for the background class.
  • A fully-connected layer with 4N units. We want to have a regression prediction, thus we need $\Delta{center{x}}$, $\Delta{center{y}}$, $\Delta{width}$, $\Delta{height}$ for each of the N possible classes.

rcnn-architecture.6732b9bd

在这个步骤中同样由两个损失函数构成:Categorical cross-entropy分类损失和Smooth L1回归损失

网络训练

  • 实验表明:联合训练(使用weighted sum)优于单独训练两个网络;
    • 将每个阶段的4个损失函数(其中RPN阶段2个,R-CNN阶段2个)组合在一起,并赋不同的权重,分类损失需要获得比回归损失更多的权重;
    • 使用L2正则损失
  • 是否单独训练基础网络取悦于目标与预训练网络的差异,这个跟迁移学习类似;
  • 使用带动量的随机梯度下降(SGD with momentum),其中monmentum=0.9,初始学习率lr=0.001, 50k步之后,lr调整为0.0001

实践时间

数据集:LISA交通标志数据库

  • 下载地址:http://cvrr.ucsd.edu/LISA/lisa-traffic-sign-dataset.html
  • 47 US sign types
  • 7855 annotations on 6610 frames.
  • Sign sizes from 6x6 to 167x168 pixels.
  • Images obtained from different cameras. Image sizes vary from 640x480 to 1024x522 pixels.
  • Some images in color and some in grayscale.
  • Full version of the dataset includes videos for all annotated signs.
  • Each sign is annotated with sign type, position, size, occluded (yes/no), on side road (yes/no).
  • All annotations are save in plain text .csv-files.
  • ~7.7GB大小

参考

1. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks, 2015, Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun
2. D. Kislyuk, Y. Liu, D. Liu, E. Tzeng, and Y. Jing, “Human curation and convnets: Powering item-to-item recommendations on pinterest,” arXiv:1511.04003, 2015.
3. Faster R-CNN: Down the rabbit hole of modern object detection

利用迁移学习实现车辆识别

摘要: 利用迁移学习技术训练识别汽车厂商和款式的模型。

@[toc]

概述

数据集: Stanford Cars Dataset

car

数据集特点:

  1. 存在明显的数据不平衡问题;
  2. 每个分类图像数目过少,无法达到准确预测分类目标的基准;

针对数据集的特点,利用迁移学习Fine-Tune来训练一个在ImageNet上预训练的模型是一个不错的方式,下面我们将从数据的准备开始一步步得完成模型的训练任务。

数据准备

在这一部分中,我们将读入原始数据,进行基本的数据处理,然后对数据进行统一存储,一般面对大规模的数据集可以选用HDF5或MXNet的.LST格式进行存储。

通过这种方式进行存储可以解决每张图片读取都要产生一次IO带来的访问时延,同时可以利用存储系统连续读的方式,直接对大规模数据集进行切片操作。

配置信息

为了配合后续处理流程方便,新建一个car.config的配置文件,用于对相关配置信息的存储:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
from os import path

# define the base path to the cars dataset
BASE_PATH = "Path-to-car-dataset"

# based on the base path, derive the images path and meta file path
IMAGES_PATH = path.sep.join([BASE_PATH, "car_ims"])
LABELS_PATH = path.sep.join([BASE_PATH, "complete_dataset.csv"])

#define path for HDF5
TRAIN_HDF5 = path.sep.join([MX_OUTPUT, "hdf5/train.hdf5"])
VAL_HDF5 = path.sep.join([MX_OUTPUT, "hdf5/val.hdf5"])
TEST_HDF5 = path.sep.join([MX_OUTPUT, "hdf5/test.hdf5"])

#define path for storing Mean R G B data
DATASET_MEAN = path.sep.join([BASE_PATH, "output/car_mean.json"])

# define the path to the output directory used for storing plots,
# classification reports, etc.
OUTPUT_PATH = "output"
MODEL_PATH = path.sep.join([OUTPUT_PATH,"inceptionv3_stanfordcar.hdf5"])
FIG_PATH = path.sep.join([OUTPUT_PATH,"inceptionv3_stanfordcar.png"])
JSON_PATH = path.sep.join([OUTPUT_PATH,"inceptionv3_stanfordcar.json"])

# define the path to the label encoder
LABEL_ENCODER_PATH = path.sep.join([BASE_PATH, "output/le.cpickle"])

# define the percentage of validation and testing images relative
# to the number of training images
NUM_CLASSES = 164
NUM_VAL_IMAGES = 0.15
NUM_TEST_IMAGES = 0.15

# define the batch size
BATCH_SIZE = 64

配置文件中包括HDF5文件的存放位置描述,原始数据和数据描述文件路径,RGB均值存储位置,训练过程中输出的图像和日志存储位置等信息。

数据概览

  1. 我们先将数据描述文件complete_dataset.csv导入,了解下数据格式:
1
2
3
4
import pandas as pd
# loading image paths and labels
df = pd.read_csv(config.LABELS_PATH)
df.head()
id Image FileName Make Model Vechicle Typle Year
0 car_ims/000090.jpg Acura RL Sedan 2012
1 car_ims/000091.jpg Acura RL Sedan 2012
2 car_ims/000092.jpg Acura RL Sedan 2012
3 car_ims/000093.jpg Acura RL Sedan 2012
  1. 遍历文件列表,将文件地址和样本标签分别进行存储,在本实验中值使用了制造商和款式两种特征,所以构成分类总共有164个:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    import os
    from sklearn.preprocessing import LabelEncoder
    trainPaths = []
    trainLabels = []

    for id,name in enumerate(df["Image Filename"]):
    trainPaths.append(os.sep.join([config.IMAGES_PATH,name]))
    trainLabels.append("{}:{}".format(df.iloc[id]["Make"], df.iloc[id]["Model"]))
    #Encoding labels to num
    le = LabelEncoder()
    trainLabels = le.fit_transform(trainLabels)
  2. 按照70%,15%,15%切分训练集、验证集和测试集:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    from sklearn.model_selection import train_test_split

    numVal = int(len(trainPaths)*0.15)
    numTest = int(len(trainPaths)*0.15)

    # perform sampling from the training set to construct a a validation set
    split = train_test_split(trainPaths, trainLabels, test_size=numVal,
    stratify=trainLabels)
    (trainPaths, valPaths, trainLabels, valLabels) = split

    # perform stratified sampling from the training set to construct a testing set
    split = train_test_split(trainPaths, trainLabels, test_size=numTest,
    stratify=trainLabels)
    (trainPaths, testPaths, trainLabels, testLabels) = split
  3. 初始化相关配置:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    # initialize the lists of RGB channel averages
    (R, G, B) = ([], [], [])

    # construct a list pairing the training, validation, and testing
    # image paths along with their corresponding labels and output list
    # files
    datasets = [
    ("train", trainPaths, trainLabels, config.TRAIN_HDF5),
    ("val", valPaths, valLabels, config.VAL_HDF5),
    ("test", testPaths, testLabels, config.TEST_HDF5)]
  4. 遍历数据集并存储至HDF5文件:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    import HDF5DatasetWriter
    import AspectAwarePreprocessor
    import progressbar

    #resize images to (256,256,3)
    aap = AspectAwarePreprocessor(256,256)

    # loop over the dataset tuples
    for (dType, paths, labels, outputPath) in datasets:
    # create HDF5 writer
    print("[INFO] building {}...".format(outputPath))
    writer = HDF5DatasetWriter((len(paths), 256, 256, 3), outputPath)

    # initialize the progress bar
    widgets = ["Building Dataset: ", progressbar.Percentage(), " ",
    progressbar.Bar(), " ", progressbar.ETA()]
    pbar = progressbar.ProgressBar(maxval=len(paths),
    widgets=widgets).start()

    # loop over the image paths
    for (i, (path, label)) in enumerate(zip(paths, labels)):
    # load the image from disk
    try:
    image = cv2.imread(path)
    image = aap.preprocess(image)
    #print(image.shape)
    # if we are building the training dataset, then compute the
    # mean of each channel in the image, then update the respective lists
    if dType == "train":
    (b, g, r) = cv2.mean(image)[:3]
    R.append(r)
    G.append(g)
    B.append(b)

    # add the image and label to the HDF5 dataset
    writer.add([image], [label])
    pbar.update(i)
    except:
    print(path)
    print(label)
    break

    # close the HDF5 writer
    pbar.finish()
    writer.close()

    我们首先统一将文件调整到(256,256,3)大小,再进行存储,所以在读取文件之后进行了简单的预处理。

  5. 将RGB均值存储至单独文件

    1
    2
    3
    4
    5
    6
    7
    8
    import pandas as pd
    import json
    # construct a dictionary of averages, then serialize the means to a JSON file
    print("[INFO] serializing means...")
    D = {"R": np.mean(R), "G": np.mean(G), "B": np.mean(B)}
    f = open(config.DATASET_MEAN, "w")
    f.write(json.dumps(D))
    f.close()

至此,我们完成了将图像文件分为三个类别并分别存到了三个HDF5文件之中。

关于HDF5文件存储相关内容,详见后续推出的预处理博客~~

如果使用MXNET的list和rec来构建数据存储集合,在上述步骤3的基础上,按如下步骤:

  1. 构建数据集列表文件’.list’文件

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    # construct a list pairing the training, validation, and testing
    # image paths along with their corresponding labels and output list
    # files
    datasets = [
    ("train", trainPaths, trainLabels, config.TRAIN_MX_LIST),
    ("val", valPaths, valLabels, config.VAL_MX_LIST),
    ("test", testPaths, testLabels, config.TEST_MX_LIST)]

    # loop over the dataset tuples
    for (dType, paths, labels, outputPath) in datasets:
    # open the output file for writing
    print("[INFO] building {}...".format(outputPath))

    f = open(outputPath, "w")

    # loop over each of the individual images + labels
    for (i, (path, label)) in enumerate(zip(paths, labels)):
    # write the image index, label, and output path to file
    row = "\t".join([str(i), str(label), path])
    f.write("{}\n".format(row))

    # close the output file
    f.close()
  2. 将Label名称序列化存储,便于后续调用:

    1
    2
    3
    f = open(config.LABEL_ENCODER_PATH, "wb")
    f.write(pickle.dumps(le))
    f.close()

    3.利用MXNet工具im2rec创建记录文件

    1
    2
    3
    4
    5
    $ /dsvm/tools/mxnet/bin/im2rec ./raid/datasets/cars/lists/train.lst "" ./raid/datasets/cars/rec/train.rec resize=256 encoding='.jpg' quality=100

    $ /dsvm/tools/mxnet/bin/im2rec ./raid/datasets/cars/lists/test.lst "" ./raid/datasets/cars/rec/test.rec resize=256 encoding='.jpg' quality=100

    $ /dsvm/tools/mxnet/bin/im2rec ./raid/datasets/cars/lists/val.lst "" ./raid/datasets/cars/rec/val.rec resize=256 encoding='.jpg' quality=100

训练迁移学习网络

在迁移学习的模型选择上我们选择了基于Keras提供的InceptionV3,可通过Keras官方文档了解更多使用说明。下表列出了在keras中各模型的表现:

模型 大小 Top1准确率 Top5准确率 参数数目 深度
Xception 88MB 0.790 0.945 22,910,480 126
VGG16 528MB 0.715 0.901 138,357,544 23
VGG19 549MB 0.727 0.910 143,667,240 26
ResNet50 99MB 0.759 0.929 25,636,712 168
InceptionV3 92MB 0.788 0.944 23,851,784 159
IncetionResNetV2 215MB 0.804 0.953 55,873,736 572
MobileNet 17MB 0.665 0.871 4,253,864 88

数据读入

输入读入过程主要包括几个关键任务:读取RGB均值文件,对原始数据进行预处理:图像扣取、数据增强、去通道均值、矩阵化等。

这块内容不是本篇重点,只能挖坑留给后续更新。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
# construct the training image generator for data augmentation
aug = ImageDataGenerator(rotation_range=20, zoom_range=0.15,
width_shift_range=0.2, height_shift_range=0.2, shear_range=0.15,
horizontal_flip=True, fill_mode="nearest")

# load the RGB means for the training set
means = json.loads(open(config.DATASET_MEAN).read())

# initialize the image preprocessors
sp = SimplePreprocessor(224, 224)
pp = PatchPreprocessor(224, 224)
mp = MeanPreprocessor(means["R"], means["G"], means["B"])
iap = ImageToArrayPreprocessor()

# initialize the training and validation dataset generators
trainGen = HDF5DatasetGenerator(config.TRAIN_HDF5, 64, aug=aug,
preprocessors=[pp, mp, iap], classes=config.NUM_CLASSES)
valGen = HDF5DatasetGenerator(config.VAL_HDF5, 64,
preprocessors=[sp, mp, iap], classes=config.NUM_CLASSES)

模型设计

模型设计过程参考了Keras官方文档给出的演示,导入没有top的预训练InceptionV3模型,

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
from keras.applications.inception_v3 import InceptionV3
from keras.preprocessing import image
from keras.models import Model
from keras.layers import Dense, GlobalAveragePooling2D
from keras import backend as K

# load the Inception network, ensuring the head FC layer sets are left off
baseModel = InceptionV3(weights="imagenet", include_top=False,
input_tensor=Input(shape=(224, 224, 3)))
# initialize the new head of the network, a set of FC layers
# followed by a softmax classifier
x = baseModel.output
x = GlobalAveragePooling2D()(x)
x = Dense(1024, activation='relu')(x)
headModel = Dense(config.NUM_CLASSES, activation='softmax')(x)

model = Model(inputs=baseModel.input, outputs=headModel)

# loop over all layers in the base model and freeze them so they
# will *not* be updated during the training process
for layer in baseModel.layers:
layer.trainable = False

# compile our model (this needs to be done after our setting our
# layers to being non-trainable
print("[INFO] compiling model...")
opt = SGD(lr=0.005,momentum=0.9)
model.compile(loss="categorical_crossentropy", optimizer=opt, metrics=["accuracy"])

特别注意在迁移学习中,由于新添加增的初始权重是随机生成的,而前面大量网络参数并frozen之后不再发生变化,所以需要一个预测的过程来学习参数到一定水平,需要控制学习率在一个比较小的范围。

这个过程可能需要反复尝试试错。

训练过程优化

训练过程参考了《Deep Learning for Computer Vison with Python》作者给出的Ctrl+C训练方法,可以随时保存训练现场,调整训练率继续进行训练。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
import argparse
import json
import os
import logging
# construct the argument parse and parse the arguments
ap = argparse.ArgumentParser()
ap.add_argument("-c", "--checkpoints", required=True, help="path to output checkpoint directory")
ap.add_argument("-m", "--model", type=str, help="path to *specific* model checkpoint to load")
ap.add_argument("-s", "--start-epoch", type=int, default=0, help="epoch to restart training at")
args = vars(ap.parse_args())

# set the logging level and output file
logging.basicConfig(level=logging.DEBUG,
filename="training_{}.log".format(args["start_epoch"]), filemode="w")

if args["model"] is None:
# load the VGG16 network, ensuring the head FC layer sets are left off

...
## 实现上一步骤的预训练模型定义和模型预热

else:
print("[INFO] loading {}...".format(args["model"]))
model = load_model(args["model"])
# update the learning rate
print("[INFO] old learning rate: {}".format(K.get_value(model.optimizer.lr)))
K.set_value(model.optimizer.lr, 1e-3)
print("[INFO] new learning rate: {}".format(K.get_value(model.optimizer.lr)))

# construct the set of callbacks
callbacks = [
EpochCheckpoint(args["checkpoints"], every=5,
startAt=args["start_epoch"]),
TrainingMonitor(config.FIG_PATH, jsonPath=config.JSON_PATH,
startAt=args["start_epoch"])]

# train the network
print("[INFO] training network...")
model.fit_generator(
trainGen.generator(),
steps_per_epoch=trainGen.numImages // config.BATCH_SIZE,
validation_data=valGen.generator(),
validation_steps=valGen.numImages // config.BATCH_SIZE,
epochs=100,
max_queue_size=config.BATCH_SIZE * 2,
callbacks=callbacks, verbose=1)

参考

  1. deep learning for computer vision with python

基于机器视觉技术的品牌LOGO检测

利用Flickr LOGO数据集训练一个检测品牌LOGO的网络,对机器视觉的物体识别技术进行验证。

@[toc]

概述

最近在做一个利用机器视觉技术进行超市物品检点的项目调研分析,需要先寻找一个可行的技术方案验证可行性,Flickr提供的LOGO数据集是一个很好的品牌LOGO识别例子,本文记录利用Flickr LOGO数据集训练一个物体识别的深度神经网络过程。

b

数据集

Flickr LOGO数据集提供了三种不同类型的LOGO数据集集合,分别为Flickr Logos 27 datasetDatasets: FlickrLogos-32以及Datasets: FlickrLogos-47。我们先来看一下每种数据集的组成及数据结构:

  1. Flickr Logos 27 dataset

    • 训练集包含27个分类的810张标记照片,每个分类30张照片

    • 分散集包含4207张logo图片

    • 测试集有270张照片,每个分类5张照片,另外有135张分类外照片集

    • 27个分类包括:Adidas, Apple, BMW, Citroen, Coca Cola, DHL, Fedex, Ferrari, Ford, Google, Heineken, HP, McDonalds, Mini, Nbc, Nike, Pepsi, Porsche, Puma, Red Bull, Sprite, Starbucks, Intel, Texaco, Unisef, Vodafone and Yahoo.

    • 下载地址:下载

    • 数据格式:下载文件夹中提供一个txt文件用于描述每个文件中LOGO的分类和位置信息

      1
      2
      3
      4
      5
      6
      7
      8
      9
      10
      #  FileName ClassName subset   Coordinates(x1 y1 x2 y2)
      4763210295.jpg Adidas 1 91 288 125 306
      4763210295.jpg Adidas 1 182 63 229 94
      4763210295.jpg Adidas 1 192 291 225 306
      4763210295.jpg Adidas 1 285 61 317 79
      4763210295.jpg Adidas 1 285 298 324 329
      4763210295.jpg Adidas 1 377 292 421 324
      4763210295.jpg Adidas 1 383 55 416 76
      1230939811.jpg Adidas 2 129 326 257 423
      1230939811.jpg Adidas 2 137 336 243 395

      dataset1_bboxes

  2. Flickr Logos 32/47 dataset

    FlickrLogos-32 was designed for logo retrieval and multi-class logo detection and object recognition. However, the annotations for object detection were often incomplete,since only the most prominent logo instances were labelled.

    FlickrLogos-47 uses the same image corpus as FlickrLogos-32 but has been re-annotated specifically for the task of object detection and recognition.

    2.1 Flickr Logos-32

Partition Description Images #Images
P1 (training set) Hand-picked images 10 per class 320 images
P2 (validation set) Images showing at least a single logo under various views 30 per class + 3000 non-logo images 3960 images
P3 (test set = query set) Images showing at least a single logo under various views 30 per class + 3000 non-logo images 3960 images
/ / / 8240 images
2.2 FlickrLogos-47

小结

  • Flickr Logo数据集虽然类别数目众多,但具体到每个分类提供的样本数目有限,在数据预处理环节需要配合数据增强手段来扩充数据集的数目;
  • 另外也可以仿照车牌识别的方法,将扣取的LOGO图像添加到不同背景噪声的图像中,生成多种训练数据;
  • 由于LOGO图像包含图像特征有限,同时提供小样本数据,通过迁移学习的方案利用ImageNet训练好的模型进行迁移学习是一种很好的方式,本文将对这种方式进行讨论及实现;
  • 三种数据集面向不同的功能也设计需求,从图像质量上来看Flickr-47质量相对较好,同时在32分类和47分类中提供了对图像语义分割的标定数据;

在概览过任务数据集之后,我们将按照深度学习业务处理流程,逐步进行数据的预处理、模型准备、训练和验证等工作。为简化问题处理难度,我们使用Flickr Logo -27来进行本次实验。

数据准备

数据准备环节主要使用如下基本的工具和库文件:

1
2
3
4
5
6
7
import numpy as np
import pandas as pd
import os
import matplotlib.pyplot as plt
import matplotlib.patches as patches
import cv2
import imutils

其中,

  • numpy用来做基本的矩阵处理;
  • pandas用于读取和分析数据描述文件;
  • matplotlib用于辅助显示预处理结果;
  • cv2是opencv的python封装,进行图像读取、图像分析等操作;
  • imutils是一个很好用的图像处理库,可以满足基本的图像处理需求

首先我们先查看从flickr-27上下载的文件flickr_logos_27_dataset_training_set_annotation.txt来了解基本的图像数据信息和分类信息:

1
2
3
4
df=pd.read_csv("./flickr_logos_27_dataset/flickr_logos_27_dataset_training_set_annotation.txt",sep=" ", header=None)
df.drop(df.columns[-1],axis=1, inplace=True)
df.columns=["Name","labels","subset","x1","y1","x2","y2"]
df.head()
1
2
3
4
5
6
7
output:>>>>
Name labels subset x1 y1 x2 y2
0 144503924.jpg Adidas 1 38 12 234 142
1 2451569770.jpg Adidas 1 242 208 413 331
2 390321909.jpg Adidas 1 13 5 89 60
3 4761260517.jpg Adidas 1 43 122 358 354
4 4763210295.jpg Adidas 1 83 63 130 93

在描述文件中总共提供了4536条记录,而实际提供的图像文件只有1000多张,这说明很多文件包括不止一个LOGO。

1
2
len(df)
>>>: 4536

我们可以利用pandas对文件进行一个简单的shuffle处理,便于快速切分成训练集和测试集:

1
2
# shuffle the datasets
df = df.sample(frac=1).reset_index(drop=True)

为了快速查看描述文件提供的标记信息在图像中的显示效果,我们写一个函数来查看一下LOGO标记信息的效果:

1
2
3
4
5
6
7
8
9
10
11
12
def show_image(id):
fig = plt.figure()
image = os.path.join("./flickr_logos_27_dataset/flickr_logos_27_dataset_images/",df.loc[id]["Name"])
image = cv2.imread(image)
plt.figure(8)
plt.imshow(image)
currentAxis=plt.gca()
rect=patches.Rectangle((df["x1"].iloc[id], df["y1"].iloc[id]),
df["x2"].iloc[id]-df["x1"].iloc[id],
df["y2"].iloc[id]-df["y1"].iloc[id],
linewidth=2,edgecolor='r',facecolor='none')
currentAxis.add_patch(rect)

其中用到了plt.gca()和matplotlib的patches函数用于图像的叠加显示,当然也可以直接调用cv2.rectangle函数

随机查看一个标记在图像中的显示效果

1
2
3
import random
id = random.randint(0,len(df))
show_image(id)

BMW_sample

下面需要写一个抠图程序,把所有LOGO从原始图像中扣取出来,形成训练用数据集,在保存图像之前进行图像简单的预处理和调整形状:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
def crop_img(id):
image = os.path.join("./flickr_logos_27_dataset/flickr_logos_27_dataset_images/",df.loc[id]["Name"])
image = cv2.imread(image)
crop_image = image[df["y1"].iloc[id]:df["y2"].iloc[id],df["x1"].iloc[id]:df["x2"].iloc[id]]
return crop_image

WIDTH = 64
HEIGHT = 64

for id, name in enumerate(df["Name"]):
cropped_image = crop_img(id)
try:
resized_image = cv2.resize(cropped_image,
(WIDTH,HEIGHT),interpolation=cv2.INTER_CUBIC)
except:
print(id)
continue
image_name = str(id)+"_"+df.iloc[id]["labels"]+".jpg"
cv2.imwrite(os.path.join("./flickr_logos_27_dataset/cropped/",image_name),resized_image)

在图像扣取过程中,有几点需要注意:

  1. 由于描述问题提供的信息本身的问题,有一些异常数据需要剔除,比如有5条记录提供的x1=x2,或y1=y2,即在原始图像上没有进行标记;
  2. 图像缩放其实不应该采用这种傻瓜的压缩方式,应该尽量控制长宽比,保证不产生明显的形变;

处理完成之后,扣取图像将在cropped文件夹中以{id}_{label}.jpg的文件名存储。

图像扣取之后,通过人工核对,我们发现仍然存在一些明显有问题的图像,比如多张puma的图像,其实存在明显的标记问题,需要从数据集中剔除:

puma_error_img

数据集切分

我们将扣取数据读入进行简单预处理和数据切分:

1
2
3
4
5
6
7
8
9
10
data = []
labels = []
for img in os.listdir("./flickr_logos_27_dataset/cropped/"):
img_file = cv2.imread(os.path.join("./flickr_logos_27_dataset/cropped/",img))
data.append(img_file)
labels.append(img.split("_")[1].split(".")[0])
data = np.stack(data)
labels = np.stack(labels)

data = data/255

将标签数据转变成OneHot矩阵:

1
2
3
from sklearn.preprocessing import LabelBinarizer
le = LabelBinarizer()
labels = le.fit_transform(labels)

切分数据集

1
X,testX,y,testy = train_test_split(data, labels,test_size=0.1,stratify=labels,random_state=42 )

数据增强

数据增强是图像处理中经常采用的一种数据处理方式,由于涉及内容较多,在本篇实战中不单独展开,仅把利用Keras数据增强工具ImageDataGenerator的方法提供一下:

1
2
3
4
5
6
7
8
from keras.preprocessing.image import ImageDataGenerator 
# construct the training image generator for data augmentation
aug = ImageDataGenerator(rotation_range=18, zoom_range=0.15,
width_shift_range=0.2, height_shift_range=0.2, shear_range=0.15,
horizontal_flip=True, fill_mode="nearest")

gen_flow=aug.flow(X, y,batch_size=64,seed=0)
validation=aug.flow(testX,testy,batch_size=32,seed=0)

模型定义

根据前文对数据的分析,我们分别采取两种方式设计网络模型:从头训练一个深度卷积神经网络和利用迁移学习Fine-Tune一个满足需求的网络模型。

从头训练一个网络模型

由于问题本质是一个物体识别任务,所以在实现上应该包括图像分类和定位的回归两个子任务,我们可以简化问题通过一个滑动窗口来对输入图像进行扫描,然后针对每个扫描窗口进行图像分类。

当然实际过程中,问题要远比这复杂,很难选择合适的滑动窗口大小适用现实图像的需求,所以在主流的物体识别模型中一般都采用多种不同大小的Anchor box来回归图像的位置。

由于LOGO每张图像包含特征有限,我们在本次实验中利用LeNet的架构,设计了一个简单的卷积网络模型如下图所示:

model

模型主体利用三个CONV => RELU => POOL结构来抽取图像特征,最后利用全联通网络+Softmax分类器来获得最终27类分类结果。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
from keras.models import Sequential
from keras.layers.convolutional import Conv2D
from keras.layers.convolutional import MaxPooling2D
from keras.layers.core import Activation
from keras.layers.core import Flatten
from keras.layers.core import Dense
from keras import backend as K


model = Sequential()
inputShape = (HEIGHT, WIDTH, 3)
# first set of CONV => RELU => POOL layers
model.add(Conv2D(16, (3, 3), padding="same",input_shape=inputShape))
model.add(Activation("relu"))
model.add(MaxPooling2D(pool_size=(2, 2), strides=(2, 2)))

# second set of CONV => RELU => POOL layers
model.add(Conv2D(32, (3, 3), padding="same"))
model.add(Activation("relu"))
model.add(MaxPooling2D(pool_size=(2, 2), strides=(2, 2)))

# third set of CONV => RELU => POOL layers
model.add(Conv2D(64, (3, 3), padding="same"))
model.add(Activation("relu"))
model.add(MaxPooling2D(pool_size=(2, 2), strides=(2, 2)))

# first (and only) set of FC => RELU layers
model.add(Flatten())
model.add(Dense(500))
model.add(Activation("relu"))
model.add(Dropout(0.25))
# softmax classifier
model.add(Dense(len(CLASSNAME)))
model.add(Activation("softmax"))

定义目标优化函数:

1
2
3
from keras.optimizers import Adam,SGD,RMSprop
opt = RMSprop(lr=0.001, rho=0.9)
model.compile(loss="categorical_crossentropy", optimizer=opt,metrics=["accuracy"])

迭代训练100个epoch:

1
2
3
4
5
6
7
history=model.fit_generator(
gen_flow,
steps_per_epoch=len(X) // 32,
validation_data=aug.flow(testX,testy,batch_size=32,seed=0),
validation_steps=len(testX) // 32,
epochs=100,
verbose=1)

100轮之后,验证集达到了99.89%的准确率,基本满足了要求,训练过程中训练数据和验证数据的准确率及Loss变化详见下图:

accuracy_curve

loss_curve

测试

1
2
3
4
5
6
7
8
9
10
11
plt.figure(figsize = (15,40))
for i,test_img in enumerate(os.listdir("./test")):
img = cv2.imread(os.path.join("./test",test_img))
img = cv2.resize(img, (WIDTH,HEIGHT),interpolation=cv2.INTER_CUBIC)
img = np.expand_dims(img,axis=0)
result = model.predict(img)
result = le.inverse_transform(result)
plt.subplot(8,4, i+1)
img = cv2.cvtColor(img[0], cv2.COLOR_BGR2RGB)
plt.imshow(img)
plt.title('pred:' + str(result[0]))

test_result

设计滑动窗口和特征金字塔

其中滑动窗口用来遍历图像,特征金字塔用于实现图像的多尺度变换,保证多种不同大小的LOGO都可以被准确识别。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
def sliding_window(image, step, ws):
# slide a window across the image
for y in range(0, image.shape[0] - ws[1], step):
for x in range(0, image.shape[1] - ws[0], step):
# yield the current window
yield (x, y, image[y:y + ws[1], x:x + ws[0]])

def image_pyramid(image, scale=1.5, minSize=(64, 64)):
# yield the original image
yield image

# keep looping over the image pyramid
while True:
# compute the dimensions of the next image in the pyramid
w = int(image.shape[1] / scale)
image = imutils.resize(image, width=w)

# if the resized image does not meet the supplied minimum
# size, then stop constructing the pyramid
if image.shape[0] < minSize[1] or image.shape[1] < minSize[0]:
break

# yield the next image in the pyramid
yield image

特征金字塔

为了检测不同尺度的目标,依次将原图按比例缩放并送入网络。缺点是需要多次resize图像,繁琐耗时。

我们定义了输入图像的尺寸为(150,150),滑动窗口大小与我们前面训练的分类网络的输入一致为(64,64),特征金字塔的缩小比例为1.5倍,这样将在原始图像基础上进行两次缩放;另外定义了滑动窗口的步长为16。

1
2
3
4
5
6
7
8
# initialize variables used for the object detection procedure
INPUT_SIZE = (150, 150)
PYR_SCALE = 1.5
WIN_STEP = 16
ROI_SIZE = (64, 64)

labels = {}
CLASS_NAMES = list(lb.classes_)

为简化后续分析,定义一个预测函数,用于返回图像中预测准确率超过minProb窗口及对象分类:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
def logo_prediction(model, batchROIs, batchLocs, labels, minProb=0.5,dims=(64, 64)):
preds = model.predict(batchROIs)
for i in range(0,len(preds)):
prob = np.max(preds[i])
if prob > 0.5:
index = np.argmax(preds[i])
label = CLASS_NAMES[int(index)]
# grab the coordinates of the sliding window for
# the prediction and construct the bounding box
(pX, pY) = batchLocs[i]
box = (pX, pY, pX + dims[0], pY + dims[1])
L = labels.get(label, [])
L.append((box,prob))
labels[label] = L
return labels

我们将遍历每个特征金字塔和每个滑动窗口,对识别结果进行预测:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
img_file = "./test/2.jpg"
orig = cv2.imread(img_file)
# resize the input image to be a square
resized = cv2.resize(orig, INPUT_SIZE, interpolation=cv2.INTER_CUBIC)

# initialize the batch ROIs and (x, y)-coordinates
batchROIs = None
batchLocs = []
# loop over the image pyramid
for image in image_pyramid(resized, scale=PYR_SCALE,minSize=ROI_SIZE):
# loop over the sliding window locations
for (x, y, roi) in sliding_window(resized, WIN_STEP, ROI_SIZE):
# take the ROI and pre-process it so we can later classify the
# region with Keras
#roi = img_to_array(roi)
roi = roi/255
roi = np.expand_dims(roi, axis=0)
# roi = imagenet_utils.preprocess_input(roi)

# if the batch is None, initialize it
if batchROIs is None:
batchROIs = roi

# otherwise, add the ROI to the bottom of the batch
else:
batchROIs = np.vstack([batchROIs, roi])

# add the (x, y)-coordinates of the sliding window to the batch
batchLocs.append((x, y))


# classify the batch, then reset the batch ROIs and
# (x, y)-coordinates
model.predict(batchROIs)
labels = logo_prediction(model, batchROIs, batchLocs,labels, minProb=0.9)

当进行到这步骤才突然发现训练分类中缺了一个很重要的背景分类,将导致在背景上很多信息的预测会出问题,后续等整些背景图片再重新训练网络,😭

最后一步是预测结果的极大值抑制和显示:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
from imutils.object_detection import non_max_suppression
# loop over the labels for each of detected objects in the image
for k in labels.keys():
# clone the input image so we can draw on it
clone = resized.copy()

# loop over all bounding boxes for the label and draw them on the image
for (box, prob) in labels[k]:
(xA, yA, xB, yB) = box
cv2.rectangle(clone, (xA, yA), (xB, yB), (0, 255, 0), 2)

# grab the bounding boxes and associated probabilities for each
# detection, then apply non-maxima suppression to suppress
# weaker, overlapping detections
boxes = np.array([p[0] for p in labels[k]])
proba = np.array([p[1] for p in labels[k]])
boxes = non_max_suppression(boxes, proba)

# loop over the bounding boxes again, this time only drawing the
# ones that were *not* suppressed
for (xA, yA, xB, yB) in boxes:
cv2.rectangle(clone, (xA, yA), (xB, yB), (0, 0, 255), 2)

# show the output image
print("[INFO] {}: {}".format(k, len(boxes)))
plt.imshow(clone)

极大值抑制是物体识别中很重要的一个环节,相关概念以后在慢慢整理

利用迁移学习优化一个物体识别网络模型

上述方法虽然简单容易理解,但存在很大的计算效率问题,每张图片需要进行多次特征提取和多次运算,对计算效率造成很大影响。目前主流的物体识别算法往往都可以应用于实时视频流的分析,显然使用上述方法是不合适的。我们将在后面探讨利用现有的物体识别网络通过迁移学习解决我们的目标识别问题。

由于本篇内容太多,利用迁移学习实现的方法,将单独作为一篇,此处留待插入链接

本文涉及代码详见Github

训练一个二分类网络检查货架上是否有百事可乐

参考Github实现一个物品检测原型:训练一个二分类分类器

  1. 在数据准备阶段与上述过程唯一不同是label的设置,如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import os, cv2
import numpy as np
data = []
labels = []
HEIGHT = 64
WIDTH = 64
for img in os.listdir("./flickr_logos_27_dataset/cropped/"):
img_file = cv2.imread(os.path.join("./flickr_logos_27_dataset/cropped/",img))
data.append(img_file)
label = img.split("_")[1].split(".")[0]
if label != "Pepsi":
label = "Nop"
labels.append(label)
data = np.stack(data)
labels = np.stack(labels)
  1. 由于是二分类问题,所以只需要最后一层使用sigmoid函数构建分类器即可,label的序列话方面使用LabelEncoder转换为0或者1即可:

    1
    2
    3
    4
    from sklearn.model_selection import train_test_split
    from sklearn.preprocessing import LabelEncoder
    lb = LabelEncoder()
    y = lb.fit_transform(labels)
  2. 数据增强与前文类似,不再赘言。在网络结构上,只需要修改最后为sigmoid函数输出,优化目标使用binary_crossentropy

    1
    2
    3
    4
    5
    ...
    model.add(Activation("sigmoid"))
    ...
    model.compile(loss="binary_crossentropy", optimizer=opt,
    metrics=["accuracy"])

    由于只有两个分类,所以模型很容易收敛,最后准确率也接近100%。

  3. 最后利用一个滑动窗口不停的扫描图像并利用cv2展示结果即可:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    for (x, y, window) in sliding_window(img, stepSize=32, windowSize=(winW, winH)):
    # if the window does not meet our desired window size, ignore it
    if window.shape[0] != winH or window.shape[1] != winW:
    continue

    crop_img=crop_image(sample_path,x, y, x + winW, y + winH)
    crop_img=imresize(crop_img,(64,64))
    crop_img = crop_img/255
    prediction=model.predict(crop_img.reshape(1,64,64,3))
    if prediction == 1:
    pred = 'Pepsi'
    else:
    pred=' '

    clone = img.copy()
    cv2.putText(clone, pred, (10, 30),cv2.FONT_HERSHEY_SIMPLEX, 0.7, (0, 0, 255), 2)
    cv2.rectangle(clone, (x, y), (x + winW, y + winH), (0, 255, 0), 2)
    clone = cv2.cvtColor(clone,cv2.COLOR_BGR2RGB)
    cv2.imshow("Window", clone)

    cv2.waitKey(1)
    time.sleep(0.5)

Logo检测的应用及分析

DeepSense.ai给出了一种Logo检测的分析方法,通过分析视频中不同品牌的logo呈现,统计了不同品牌在同一个视频中Logo出现的时间、出现的方式、呈现的效果等,最终提供给客户一个Logo Visubility Report

方案的主要流程如下图所示:

logo_detection_overview

生成的分析报告参见下图:

logo_detection_report

针对的分析视频如下:


参考

  1. Flickr Logos 27 dataset
  2. Datasets: FlickrLogos-32 / FlickrLogos-47

深度学习基础之优化算法

合适优化算法的选择有助于提升训练效率和收敛的速度,本文对常用的优化算法进行总结。在这章中将归纳SGD、RMSprop、Adam等的基础原理。优化算法的优劣来自于对相关算法的熟悉程度。


深度学习基础之模型压缩

深度学习中模型压缩关键技术总结。

深度学习基础篇将从几个不同的层面来总结在过去一段时间对于深度学习关键技术的理解,通过知识体系的归纳了解知识体系的不足,提升对核心技术点的认识。所有系列文章将在未来一段时间内容随着掌握了解的深入迭代更新。目前主要希望对如下几个领域进行归纳汇总:

  1. 问题定义
  2. 目标及评估
  3. 数据准备与预处理
  4. 激活函数的归纳及总结
  5. 优化算法的归纳及总结
  6. 正则化与泛化性能
  7. 模型压缩
  8. 数据扩充

为了增加深度学习模型的容量,往往包含了大量的待训练参数和模型规模,以VGG-16为例,参数数目为1亿3千万,占用空间500MB,如果利用VGG-16进行一次图片识别任务,需要进行309亿次的浮点运算(FLOPs)。如此大的模型体积和对算力的依赖,为深度学习模型迁移到嵌入式设备或者利用CPU进行推理带来了很大的难度,为此通过合理的模型压缩技术在保证模型性能没有明显下降的情况下降低模型体积和参数数目成为一个热点的研究问题。

同时,研究发现深度神经网络面临严峻的过参数化问题,需要注意的是,这种冗余在模型训练阶段是十分必要的。因为深度神经网络面临的是一个极其复杂的非凸优化问题,对于现有的基于梯度下降的优化算法而言,这种参数上的冗余保证了网络能够收敛到一个比较好的最优值。因而在一定程度上,网络越深,参数越多,模型越复杂,其最终的效果也往往越好。

按照压缩过程对网络结构的破坏程度,我们将模型压缩技术分为“前端压缩”与“后端压缩”两部分。所谓“前端压缩”,是指不改变原网络结构的压缩技术,主要包括知识蒸馏、紧凑的模型结构设计以及滤波器层面的剪枝等;而“后端压缩”则包括低秩近似、未加限制的剪枝、参数量化以及二值网络等,其目标在于尽可能地减少模型大小,因而会对原始网络结构造成极大程度的改造。其中,由于“前端压缩”未改变原有的网络结构,仅仅只是在原模型的基础上减少了网络的层数或者滤波器的个数,其最终的模型可完美适配现有的深度学习库。相比之下,“后端压缩”为了追求极致的压缩比,不得不对原有的网络结构进行改造,如对参数进行量化表示等,而这样的改造往往是不可逆的。同时,为了获得理想的压缩效果,必须开发相配套的运行库,甚至是专门的硬件设备,其最终的结果往往是一种压缩技术对应于一套运行库,从而带来了巨大的维护成本。

剪枝与稀疏约束

知识蒸馏

参数量化

二值网络

参考

  1. 《解析卷积神经网络—深度学习实践手册》
  2. Keras文档
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×