随着机器学习中神经网络技术的发展,衍生出深度学习技术,前段google公司风头一时无两的“阿尔法狗”就是深度学习的产物。而Caffe就是一款优秀的易于学习的深度学习框架。Caffe本身由c++写成,支持Java和Python接口。而本篇文章就是Caffe的入门篇之一,平台的搭建。
首先,推荐在linux下进行Caffe的学习。本文使用的是Ubuntu的14.04版本。由于使用GPU加速所需的环境比较难配置(需要GPU驱动支持,配置CUDA),故先学习在CPU上运行Caffe。GPU加速计算以后学习。
1.依赖包的安装
Ubuntu14.04中所有在terminal中输入
$ sudo apt-get install git
$ sudo apt-get install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libhdf5-serial-dev protobuf-compiler
$ sudo apt-get install --no-install-recommends libboost-all-dev
$ sudo apt-get install libatlas-base-dev
$ sudo apt-get install python-dev
$ sudo apt-get install libgflags-dev libgoogle-glog-dev liblmdb-dev
2.成功下载所需依赖包后,到git下载Caffe源代码:
$ cd ~
$ git clone https://github.com/bvlc/caffe.git
3.下载成功后进入caffe根目录,复制一份Makefile.config.example并命名为Makefile.config
$ cd caffe
$ sudo cp Makefile.config.example Makefile.config
4.修改默认的config配置,使用CPU-Only模式
$ sudo gedit Makefile.config
如图,将CPU_ONLY := 1 注释去掉,启用CPU-Only模式,暂时不用GPU加速计算功能。
5.编译测试
在Caffe根目录,输入
$ make -j
其中,参数 -j 后可以添加数字,为启动多核编译,速度更快,这里默认为1。看到如图所示,则为编译成功。如果编译出错,可尝试多次输入make命令再次编译。
编译成功后的文件存放于~/caffe/build目录下。
依赖包简介
刚才过程中通过apt安装了多个依赖包,这里对这些依赖包的作用进行简介。
ProtoBuff
ProtoBuff是由google公司开发的一种可以实现内存与非易失存储介质交换的协议接口,Caffe源码中大量使用ProtoBuffer进行权值和模型参数灯载体。例如,有人喜欢使用TXT存储参数,有人喜欢用BIN存储参数,一个项目中不一样的参数管理会带来很多问题。ProtoBuffer工具很好地解决了这个问题,用户只要建立统一的参数描述文件(proto),然后利用protoc编译就能让协议细节等关键部分代码自动生成。
Boost
C++准标准库,功能强大,这个不用过多介绍。
glog & gflag
google公司的库,gflag提供命令行参数解析的作用,glog库是用于记录应用程序日志的实用库,提供基于C++标准输入输出流形式的接口。
libatlas
提供卷积神经网络中用到的矩阵,向量的计算。
HDF5
HDF是能高效存储和分发科学数据的新型数据格式。它可以存储不同类型的图像和数码数据的文件,并且可以在不同类型的机器上传输,同时还有能统一处理这种文件格式的函数库。Caffe训练模型可以选择保存为HDF5格式或默认的ProtoBuffer格式。
OpenCV
世界上最流行的开源计算机视觉库,包含大量图像处理函数。
LMDB和LEVELDB
提供数据管理,将Caffe中不同的原始数据,如jpeg,二进制数据转换为统一的key-value存储。大部分请况下LMDB已经满足使用,但是为了与旧版本兼容,仍然引入例LEVELDB。
Snappy
压缩和解压缩的C++库。
至此,Caffe搭建完毕,下篇文章介绍Cafee运行手写体识别例程。