参考链接:github.com/tensorflow/models/tree/master/object_detection
准备:已安装tensorFlow,HomeBrew,pip,tensorflow下的models。
models链接:github.com/tensorflow/models
首先进入激活虚拟机:
source python2.7/bin/activate
我是使用的虚拟机安装的,所以实际我运行的是linux的环境。首先我需要安装wget,用于获取网络东西。
brew install wget
步骤1:安装Libraries和依赖
pip install pillow
pip install lxml
pip install jupyter
pip install matplotlib
如果发现安装完jupyter之后,jupyter命令还是找不到,则执行
export PATH="$HOME/Library/Python/2.7/bin:$PATH"
步骤2:Protobuf Compilation & Add Libraries to PYTHONPATH
因为detection api使用的是Protobuf(谷歌的)来配置模型和参数,所以在每次重新打开终端运行前,都需要重新执行以下命令,编译protobuf库。
#From tensorflow/models/
protoc object_detection/protos/*.proto --python_out=.
protoc 命令可能找不到,需要安装.我是下载了protobuf的源码,然后编译安装的。
#From tensorflow/models/
export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/slim
步骤3:测试安装
python object_detection/builders/model_builder_test.py
步骤4:准备数据
训练要用到的数据为TF Record格式的数据,所以我们需要将jpg图片数据转换成TFRecord数据。首先,我们从网上下载标记好的图片数据。下载地址为:www.robots.ox.ac.uk/~vgg/data/pets/
执行如下命令,在tensorflow/models/object_detection下
然后解压数据:
tar -xvf annotations.tar.gz
tar -xvf images.tar.gz
会发现,image下全是标记好的图片(jpeg,jpg)。调用脚本,将图片数据转换成TFRecord数据。
python create_pet_tf_record.py --data_dir=`pwd`--output_dir=`pwd`
执行完成后,将会在该目录下生产pet_train.record 和pet_val.record两个文件
训练还需要一个标签文件,用于标记某个标记代表某种东西(这里是宠物),而这个标签文件已存在于object_detection/data目录下:
步骤5:配置通道
在object_detection/samples下有各种模型的通道配置,拷贝一种出来。我拷贝了ssd_inception_v2_pets.config放在object_detection/models新建的model下。然后我把生成的两个配置文件放到了object_detection/data下
目录结构参考如下:
配置所需要更改的是如下3部分:
配置之后为:
检查点的下载地址为:github.com/tensorflow/models/blob/master/object_detection/g3doc/detection_model_zoo.md
步骤5:训练
数据都准备好了,就可以开始训练了。在object_detection的目录下有个train.py的训练脚本。
调用该脚本,开始训练。
python object_detection/train.py \
--logtostderr \
--pipeline_config_path=object_detection/models/model/ssd_inception_v2_pets.config \
--train_dir=object_detection/models/model/train
--pipeline_config_path 指定训练通道路径,--train_dir 指定训练的结果输出路径
然后等待,开始的损失很高,会逐渐降低。loss值越低,表示模型准确率越高。
步骤5:评估
再开一个终端,对产生的model进行评估。执行如下脚本命令
python object_detection/eval.py \
--logtostderr \
--pipeline_config_path=object_detection/models/model/ssd_inception_v2_pets.config \
--checkpoint_dir=object_detection/models/model/train \
--eval_dir=object_detection/models/model/eval
再在另一个终端输入命令:tensorboard --logdir=object_detection/models/model,即可得到一个链接地址,在浏览器中输入即可图形式的查看。logdir指向带有train和eva的目录地址。
在SCALARS那栏下面可以查看各种线性图:
在Images那栏可以看到对模型的评估:
PS:训练的时间有点长,可能需要花费几天时间,当loss降到10左右时,在tensorflow上看到的images 是没标记的了,而且此时loss下降很。所以你会怀疑你训练的模型是不是错了,其实是没错的,当它继续往下走的,它就慢慢地正常标记了。建议开始使用checkpoint,时间会快很多。