Tensorflow实现CNN文本分类

   摘要:本文主要是用于学习。从实践中出发,利用TensorFlow解决NLP中的分类问题,主要包括多分类、多标签分类问题。我打算学习深度学习中的不同算法进行探讨研究,主要包括CNN、LSTM、Fasttext、seq2seq等一系列算法,在实际应用中的一些问题及track。这是本系列的第一篇文章,主要介绍了CNN卷积神经网络的原理,以及使用Tensorflow实现CNN文本分类的编码实现。

CNN卷积神经网络简介

   神经网络Neural Networks方面的研究在国外是从很早很早就已经开始发展了,从最开始的浅层神经网络ANN算法研究,到BP反馈神经网络的发展,以及现在非常火的深度学习神经网络。都是想要对单个神经元进行建模,模拟人脑神经网络系统的功能,从而构建一个网络,具有学习的能力。BP神经网络,深度学习神经网络都是遵循一个最基本的特点:前向传播数据信号,反向传播误差值。从而让神经网络学习拟合到一个较好的状态。

  • 卷积层
       对于卷积层,其中核心即是通过卷积核(filter)计算提取特征feature map。对于卷积操作而言,通过每一个filter和input卷积计算,则会得到一个新的二维数组,可以理解为对原始输入进行特征提取,一般表示为feature map,filter的个数影响feature map的数量,卷积层的输出维度则和卷积核以及输入相关,一般计算卷积输出有公式如下,其中W:输入;F:卷积核;P:0填充;S:步长。
feature map 长度计算公式

   在整个计算卷积计算的过程中,主要有两个重要的特性:1.局部连通 2.参数共享
   1. 局部连通:CNN和全连接神经网络不一样的地方在于,CNN的神经元和下一层的神经元并不是全连接的,而是通过不同的卷积核(filter),针对样本某一局部的数据窗口进行卷积计算,卷积核就好比学习对象,不同的卷积核对同样的输入样本进行学习、特征提取,最好的即是每一个卷积核都提取到样本不同的特征,比如对于图片而言,不同的filter可能提取图片的颜色深浅,轮廓等特征,每个filter都是对输入数据的局部进行计算处理,这就是CNN的局部连通特点。

   2. 参数共享:对于同一个filter而言,可以当成是提取特征的容器,用相同的filter提取特征,而与样本的输入位置无关,表示在输入样本的所有区域,都能够使用相同的学习特征,虽然样本局部的数据在变化,可是每一个filter的权重是固定不变的,这个即是CNN的参数共享特点,它降低了整个网络的复杂性。

  • 池化层

   在CNN网络中另外一个非常重要的操作则是池化操作,池化可以将一幅大的图像缩小,同时又保留其中的重要信息。 它就是将输入图像进行缩小,减少像素信息,只保留重要信息。通常情况下,池化都是22大小,比如对于max-pooling来说,就是取输入图像中22大小的块中最大值,作为结果的像素值,相当于将原始图像缩小了4倍。(注:同理,对于average-pooling来说,就是取2*2大小块的平均值作为结果的像素值。)因为最大池化(max-pooling)保留了每一个小块内的最大值,所以它相当于保留了这一块最佳的匹配结果(因为值越接近1表示匹配越好)。这也就意味着它不会具体关注窗口内到底是哪一个地方匹配了,

Tensorflow简介

   对于Tensorflow,我想现在大部分的研究人员都不陌生,可是为什么Tensorflow在整个深度学习领域会变得如此的流行?毫无疑问的是,因为Tensorflow的流行让深度学习的门槛变得越来越低了,只要有python和机器学习基础,使得实现以及应用神经网络模型变得非常简单易上手。以前要编码实现一个神经网络,需要对前馈传播,反向传播有很深刻的理解,并需要花费一定的时间进行编码开发,所以Tensorflow的出现,大大降低了深度神经网络的开发成本和开发难度,使得算法研究人员能够快速验证算法的适用性,能够将更多的精力放到网络的设计以及性能的调优。Tensorflow是很强大的,它支持Python和C++,也可以使用CPU和GPU的分布式计算,除了Tensorflow,现在也有很多封装更高层的库支持进行深度神经网络计算,如Theano,Keras,Torch,MXnet等,其中Keras使用是非常简单的,他支持Theano,Tensorflow,只需要几行代码就可以构建一个神经网络。大家感兴趣的话,可以了解并学习比较一下Keras和Tensorflow实现相同的功能时需要的代码。
   关于Tensorflow,还有一个比较有意思的是可视化功能,一方面是我们可以直接看到自己设计的网络结构;另一方面,我们可以将我们想要关注的参数通过图表的形式记录下来,通过关注图表变化趋势,可以更方便后期我们对模型的调优与测试。如下所示为使用tensorboard绘制的图像。

卷积层
loss

Word2Vec简介

   因为在自然语言处理(NLP)任务中,使用神经网络进行计算的时候往往都需要将文本信息用矩阵的形式表达,所以作为NLP中一个非常重要的工具Word2Vec,通过word2vec对数据进行训练得到的结果——词向量(word wmbedding)即可很好的完成这样一个工作。其实word2vec只是一个工具,在其背后其实主要是指Cbow模型和Skip-gram模型的一个浅层神经网络,通过该模型可以在大量的数据集上进行训练,最终得到词向量。通过python使用gensim库可以很方便的进行word2vec的训练。
   词向量有什么用?通过向量表示词语,这使得在处理很多NLP任务的时候,变得更为方便,如计算词语的相似性,可以直接对词向量进行tf-idf进行计算处理,通过词向量来度量词与词之间的相似性;比如在训练神经网络的时候,可以将词向量作为网络输入。

Tensorflow实现CNN文本分类

   本文主要是想要在实践中学习Tensorflow及一些基本的文本分类算法,CNN在计算机视觉领域取得了很好的结果,其实在NLP分类任务中,CNN也是具有很好的效果。因为CNN是有监督学习算法,所以想要基于CNN进行文本分类,主要包含数据预处理、网络模型构建。

  • 进行数据预处理
       如果想要一个神经网络有比较好的效果,数据占据着非常重要的地位,训练集的数量以及训练集的质量都是非常重要的因素。为了能够在训练过程中直观的看到训练效果,我们可以将数据集拆分为训练集以及验证集,用于在训练过程中对数据进行校验。
  • 网络模型构建
       前面在描述了CNN的基本原理外,我们也清楚NLP中往往是将文本矩阵化表示,所以我们需要清楚,在使用一个矩阵表示文本的时候,矩阵中的每一行都对应于一个元素,一般是一个词语,即表明矩阵中的每一行都是一个元素的向量化表示。想要构建一个有效的CNN网络,其中主要需要控制词向量大小,以及进行卷积计算的卷积核大小及卷积核个数。
       我觉得下面这个图很形象的描述了CNN网络在NLP中的应用,下面可以可以从左往右分析一下整个算法的应用过程:
  1. 第1层表示为输入层,输入为一个短句,每个字通过word2vec来表示为一个行向量,表示为一个二维矩阵(实际使用卷积层应该为4维矩阵);
  2. 第2层我们可以看到设置了3种不同尺寸的卷积核,表示为filter_size:[2,3,4],其中表示每个卷积核进行卷积计算获取特征的词个数
    (相邻2个字,相邻3个字,相邻4个字),其中每种尺寸卷积核的个数为2,所以在第二层中一共包含6个卷积核,3种卷积核,每种卷积核的列数和输入数据为列数一致。
  3. 将第2层中的卷积核和第一层中的矩阵输入进行卷积计算,获取到的结果即为第3层,即生成6个feature map
  4. 第3层中每个卷积核生成的feature map进行max pool最大池化,即取得所有输出的最大值,进行concat聚合操作,这样即得到CNN抽取出的所有特征。
  5. 4层结果和最后一层输出层进行全连接操作,输出个数根据实际应用进行设置。
    这样,就完成了一个CNN文本分类的操作,具体损失函数,优化函数的计算,都是可以直接通过tensorflow调用。
cnn文本分类

   接下来,我们从编码实现的角度谈一下应该怎么从0开始构建一个cnn神经网络用语文本分类。了解Tensorflow的小伙伴应该清楚,使用Tensorflow的时候,是需要我们先定义把整个网络结构,其中包括通过占位符placeholder为待训练数据占坑,使用Variable或get_variable设置训练过程中所需要的一些变量,如下表示:
   定义输入变量、网络训练过程中的一些参数:

    print('定义占位符,输入输出变量.....')
    self.input_x = tf.placeholder(tf.int32, [None, self.sequence_length], name="input_x")
    self.input_y = tf.placeholder(tf.int32, [None,], name="input_y")
    self.global_step = tf.Variable(0, trainable=False, name="global_step")
    self.epoch_step = tf.Variable(0, trainable=False, name="epoch_step")
    self.initializer = tf.random_normal_initializer(stddev=0.1)

   定义Embedding,全连接层的权重W以及偏置b

    def instantiate_weights(self):
        '''
        初始化网络参数
        Args:
            Embedding:[self.vocab_size, self.embed_size]
            W_projection:[self.num_filter_total, self.num_classes]
            b_projection:[self.num_classes]
        '''
        with tf.name_scope("Variables"):
            with tf.name_scope("Embedding"):
                self.Embedding = tf.get_variable("Embedding", 
                                   shape=[self.vocab_size, self.embed_size], initializer=self.initializer)
            with tf.name_scope("W_projection"):     #计算输出层的参数
                self.W_projection = tf.get_variable("W_projection",
                                    shape=[self.num_filters_total, self.num_classes], initializer=self.initializer)
                variable_summaries(self.W_projection)

            with tf.name_scope("b_projection"):
                self.b_projection = tf.get_variable("b_projection", 
                                     shape=[self.num_classes])
                variable_summaries(self.b_projection)

   接下来当然到了最核心的部分,应该怎么设计网络结构,使得我们的模型能够发挥它最大的作用呢?其实这个问题我也不太清楚,不过基本的都是Conv2d->activation(可以省略)->Pool,其实主要还是根据效果,慢慢的对网络进行调整。

    def inference(self):
        '''
         构建网络结构
        Args:
          Conv.Input:[filter_height, filter_width, in_channels, out_channels]
          Conv.Returns:[batch_size,sequence_length-filter_size+1,1,num_filters]
          input_data:NHWC:[batch, height, width, channels]
          pool.Input:[batch, height, width, channels]
        Returns:
          网络结构每次训练返回的结果:[batch_size, self.num_classes]
        '''
        with tf.name_scope("Layer_Embedding"):
            #[None, sentence_length, embed_size]
            self.embedded_words = tf.nn.embedding_lookup(self.Embedding, self.input_x)
            self.sentence_embeddings_expanded = tf.expand_dims(self.embedded_words, -1,
                                  name="embedding_word")  #[None, sentence_length, embed_size, 1]
 
        pooled_outputs = []
        with tf.name_scope("Conv2d"):
            for i, filter_size in enumerate(self.filter_sizes):
                with tf.name_scope("convolution-%s" %filter_size):
                    filter = tf.get_variable("filter-%s"%filter_size, 
                             [filter_size,self.embed_size,1,self.num_filters], initializer=self.initializer)
                    #[batch_size, self.sequence_size-filter_size, 1, 1]
                    conv = tf.nn.conv2d(self.sentence_embeddings_expanded, filter,
                                       strides=[1,1,1,1], padding="VALID", name="conv")
                with tf.name_scope("relu-%s"%filter_size):
                    b = tf.get_variable("b-%s"%filter_size, [self.num_filters])
                    h = tf.nn.relu(tf.nn.bias_add(conv, b), "relu")
                
                with tf.name_scope("pool-%s"%filter_size):
                    pooled = tf.nn.max_pool(h, ksize=[1,self.sequence_length-filter_size+1,1,1],
                                    strides=[1,1,1,1], padding="VALID", name="pool")

                pooled_outputs.append(pooled)

        with tf.name_scope("Pool_Flat"):
            self.h_pool = tf.concat(pooled_outputs,3) #[batch_size, 1, 1, num_filters_total]
            self.h_pool_flat = tf.reshape(self.h_pool, [-1,self.num_filters_total])

        if self.is_dropout:
            print('需要dropout操作')
            with tf.name_scope("DropOut"):
                self.h_drop = tf.nn.dropout(self.h_pool_flat, keep_prob=self.dropout_keep_prob) 
            
        with tf.name_scope("Output"):
            #tf.matmul([None,self.embed_size],[self.embed_size,self.num_classes])
            logits = tf.matmul(self.h_pool_flat, self.W_projection) + self.b_projection  #[None, self.num_classes]
        return logits

   熟悉神经网络的小伙伴应该清楚,在训练网络的时候,其实只有神经网络的输出是不行的,最重要的是应该根据每一次的输出结果和标准输出
进行损失值计算,再根据梯度下降算法逐步的调整网络参数,让整个网络更好的拟合数据。
   如下为计算loss的过程:

  def loss(self, l2_lambda=0.0001):
      '''
      根据每次训练的预测结果和标准结果比较,计算误差
      loss = loss + l2_lambda*1/2*||variables||2
      Args:
          l2_lambda:超参数,l2正则,保证l2_loss和train_loss在同一量级
      Returns:
        每次训练的损失值loss
      '''
      with tf.name_scope("Loss"):
          losses = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=self.input_y, logits=self.logits)
          loss = tf.reduce_mean(losses)
          
          if self.is_l2:
              print("需要对loss进行l2正则化")
              l2_losses = tf.add_n([tf.nn.l2_loss(v) for v in tf.trainable_variables() if 'bias' not in v.name]) * l2_lambda
              loss = loss + l2_losses

          variable_summaries(loss)

      return loss

如下为梯度下降:

    def train(self):
        '''
        通过梯度下降最小化损失loss的操作
        Args:
        Returns:
          返回包含了训练操作(train_op)输出结果的tensor
        '''
        if self.is_decay:
            print("需要对学习率进行指数衰减")
            with tf.name_scope("LearningRate"):
                #学习率指数衰减 learning_rate=learning_rate*decay_rate^(global_step/decay_steps)
                learning_rate = tf.train.exponential_decay(self.learning_rate, self.global_step,
                           self.decay_steps, self.decay_rate, staircase=True)

        with tf.name_scope("Train"):
            optimizer = tf.train.GradientDescentOptimizer(self.learning_rate)
            train_op = optimizer.minimize(self.loss_val, global_step=self.global_step)
            #train_op = tf.contrib.layers.optimize_loss()
    
        return train_op

模型优化改进

   至此,我就完成了一个基本的CNN神经网络可以用于文本分类,训练数据大概100W,一共4个类别。实践证明,CNN的效果还是挺好的,在对batch_size,learning_rate,filter_size,num_filters,进行调整以后,整个网络模型的效果在验证集上即有97%的准确率。
   在这个基础上,针对Embedding层,如果直接加载预训练的word2vec词向量,对分类效果会不会有帮助呢?为了防止Overfitting,在输出层添加dropout对模型会有帮助吗?在计算loss的时候,通过L2正则化以及训练过程中learning_rate动态更新,对模型的影响是什么?所以我进行了验证,结果如下:

  1. 添加预训练word2vec向量,分类结果96%;
  2. L2正则,分类结果97.1%;
  3. dropout、learning_rate衰减没有明显变化

参考文献

https://zhuanlan.zhihu.com/p/27685641
https://github.com/Delphine0379/text_classification

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容

  • CNN on TensorFlow 本文大部分内容均参考于: An Intuitive Explanation o...
    _Randolph_阅读 7,674评论 2 31
  • 你配不上自己的野心,也辜负了所受的苦难.
    松磊607阅读 158评论 0 0
  • 最近很热的词,文盲的我后来才知道什么是开挂的人生,怪不得这样的词和我八竿子也打不着。平淡,普通,这样的词也许更能贴...
    晨晨兽进化阅读 273评论 0 1
  • 其实女人也很色,虽然这事大家不承认。 一听到他们说“男人嘛,长相无所谓的”,我就来气。一想到这句话的潜台词是“男人...
    水亦煮粥阅读 1,575评论 3 0
  • 你是我的四月,风轻柔了思念,暖融化心湖。你是我的绿衣,风流了繁花,驻留单纯。你带着淡淡的烟火,温抚庸碌,浅浅岁月因...
    弄尘阅读 627评论 0 0