查看原文
其他

# NLP.TM | tensorflow做基础的文本分类

机智的叉烧 CS的陋室 2022-08-08

【NLP.TM】

本人有关自然语言处理和文本挖掘方面的学习和笔记,欢迎大家关注。

往期回顾:

文本分类是自然语言处理中入门级的任务,但是已经被普遍应用于情感分析等重要领域。近期在复习和整理的过程发现,词袋模型+机器学习以及fasttext为是一个文本分类的重要基线,但是很多难度较高的问题使用这两个比较简单的基线并不work,因此要尝试开始使用深度学习,而CNN网络结构作为目前比较经典的基线模型,今天给大家谈一下。

数据与深度学习模型

数据使用的是这个网站给出的商品评价数据,中文的:

https://github.com/BUPTLdy/Sentiment-Analysis

本文以模型结构和具体实现为基础,有关原理可以移步这几篇文章看看,但是如果本身对深度学习没有概念,我建议还是从深度学习基础开始看起吧:

  • 我讲解的word2vector文章:NLP.TM | 再看word2vector

  • 卷积神经网络讲解:https://blog.csdn.net/weixin_42451919/article/details/81381294

  • TextCNN经典论文:Convolutional Neural Networks for Sentence Classification

原理搞懂剩下就是怎么建立了,我的整套模型是以如下形式构建的。

  • embedding:word2vector,dim=100, seqence_len=50

  • convolution layer 1:

    • conv1d, filters=10, kernel_size=5, strides=1

    • maxpooling1d, poolsize=2, strides=2

    • relu

  • convolution layer 2:

    • conv1d, filters=10, kernel_size=3, strides=1

    • maxpooling1d, poolsize=2, strides=2

    • relu

  • convolution layer 1:

    • conv1d, filters=10, kernel_size=3, strides=1

    • maxpooling1d, poolsize=2, strides=2

    • relu

  • flatten

  • dense, 64

  • dense, class_size=2

开始写代码

此处代码部分借鉴了这个网址,鸣谢:

  • https://www.libinx.com/2018/text-classification-cnn-by-tensorflow/

另外,长文长代码预警,可以收藏再看(收藏了也要记得一定要看啊),或者在电脑上看。代码在这个链接下:

  • https://gitee.com/chashaozgr/noteLibrary/tree/master/nlp_trial/classification

数据预处理

数据预处理这块不是我们今天讨论的重点,所以不需要太多清洗,此处预处理上只做了分词,用的是其实已经有点小落后但是依旧流行的结巴。

  1. import pandas as pd

  2. import numpy as np

  3. import jieba



  4. # 数据加载

  5. def data_loader(path):

  6. return pd.read_excel(path, header=None, index=None)


  7. # 分词

  8. def cw(x):

  9. return list(jieba.cut(x))


  10. # 读入文件路径

  11. POS_PATH = "../data/pos.xls"

  12. NEG_PATH = "../data/neg.xls"


  13. # 加载正类和负类文档

  14. pos = data_loader(POS_PATH)

  15. neg = data_loader(NEG_PATH)


  16. # 进行批量化分词

  17. pos['words'] = pos[0].apply(cw)

  18. neg['words'] = neg[0].apply(cw)


  19. # 从pd中取出数据

  20. pos_word_list = []

  21. for item in pos['words']:

  22. pos_word_list.append(item)

  23. neg_word_list = []

  24. for item in neg['words']:

  25. neg_word_list.append(item)


  26. # 分别进行存储

  27. POS_CW_PATH = "../data/pos_cw.txt"

  28. NEG_CW_PATH = "../data/neg_cw.txt"

  29. with open(POS_CW_PATH, "w", encoding="utf8") as f:

  30. for item in pos_word_list:

  31. f.writelines("%s\n" % ("\t".join(item)))

  32. with open(NEG_CW_PATH, "w", encoding="utf8") as f:

  33. for item in neg_word_list:

  34. f.writelines("%s\n" % ("\t".join(item)))

pandas具有很强的批处理能力,使用起来效果很好,代码也很整洁,但是在实际工业应用中,其实并不推荐使用pandas,因为随着数据的增加,由于pandas会将全量数据读入到内存,这将会使得内存占用过高,因此不推荐在工业环境使用pandas,而推荐使用数据流(open+readline之类的方式)来对数据进行批量处理,例如mapreduce。

数据集生成

这个也是机器学习项目的基操,就是区分训练集和测试集,然后由于在后续的深度学习中要进行批量梯度下降,所以个人习惯在此处就把每个batch分好。

  1. from sklearn.model_selection import train_test_split

  2. import numpy as np


  3. # 训练集和测试集生成

  4. train_X, test_X, train_y, test_y = train_test_split(all_data, all_labels, test_size=0.2, random_state=10)


  5. # 乱序训练集

  6. index = [i for i in range(len(train_X))]

  7. np.random.shuffle(index)

  8. train_X = np.array(train_X)[index].tolist()

  9. train_y = np.array(train_y)[index].tolist()


  10. # 训练集batch划分

  11. idx = 0

  12. batch_idx = 0

  13. tmp_batch_x = []

  14. tmp_batch_y = []

  15. fout = open(BATCH_PATH + str(batch_idx), "w", encoding="utf8")

  16. while idx < len(train_X):

  17. fout.write("%s\t%s\n" % (train_y[idx], "\t".join(train_X[idx])))

  18. idx = idx + 1

  19. if idx % BATCH_SIZE == 0:

  20. fout.close()

  21. batch_idx = batch_idx + 1

  22. fout = open(BATCH_PATH + str(batch_idx), "w", encoding="utf8")

  23. fout.close()


  24. # 测试集处理

  25. index = [i for i in range(len(test_X))]

  26. np.random.shuffle(index)

  27. test_X = np.array(test_X)[index].tolist()

  28. test_y = np.array(test_y)[index].tolist()

  29. fout = open(BATCH_PATH + "test", "w", encoding="utf8")

  30. for idx in range(len(test_X)):

  31. fout.write("%s\t%s\n" % (test_y[idx], "\t".join(test_X[idx])))

分点说明~

  • 训练集和测试集划分使用的是sklearn中的traintestsplit函数,非常简单方便,只需要看懂API文档然后使用即可

  • 训练集要分batch,为了方便所以整了一波乱序,我写的这个乱序的方式非常方便,非常建议大家get起来

  • 训练集batch划分其实就是每batch_size分一个组,放到batch文件里面即可

  • 测试集更简单,乱序后直接存即可

word2vec预训练模型

然后就到word2vec预训练部分了。此处我使用的预训练语料也是这套数据,可能数据会比较少每个人感觉训练出来的效果一般吧,但是能凑合着用,大家主要看过程。

  1. from gensim.models.word2vec import Word2Vec


  2. POS_SW_PATH = "../data/pos_cw.txt"

  3. NEG_SW_PATH = "../data/neg_cw.txt"

  4. N_DIM = 100 # word2vec的数量

  5. MIN_COUNT = 3 # 保证出现的词数足够做才进入词典

  6. w2v_EPOCH = 20 # w2v的训练迭代次数


  7. # 读取文件

  8. pos_data = []

  9. with open(POS_SW_PATH, encoding="utf8") as f:

  10. for line in f:

  11. ll = line.strip().split("\t")

  12. pos_data.append(ll)

  13. neg_data = []

  14. with open(NEG_SW_PATH, encoding="utf8") as f:

  15. for line in f:

  16. ll = line.strip().split("\t")

  17. neg_data.append(ll)


  18. all_data = pos_data + neg_data


  19. # word2vector词向量预备

  20. imdb_w2v = Word2Vec(size=N_DIM, min_count=MIN_COUNT)

  21. imdb_w2v.build_vocab(all_data)


  22. # 把所有未进入词表的都转为unk_

  23. for sentence_idx in range(len(all_data)):

  24. for word_item_idx in range(len(all_data[sentence_idx])):

  25. if all_data[sentence_idx][word_item_idx] not in imdb_w2v.wv.vocab:

  26. all_data[sentence_idx][word_item_idx] = "unk_"


  27. # 重新构建词汇表

  28. imdb_w2v = Word2Vec(size=N_DIM, min_count=MIN_COUNT)

  29. imdb_w2v.build_vocab(all_data)


  30. # 训练

  31. imdb_w2v.train(all_data, total_examples=len(all_data), epochs=w2v_EPOCH)


  32. # 模型保存

  33. # imdb_w2v.save("../data/w2v_model/word2vec_20190626.model")

  34. SAVE_PATH = "../data/w2v_model/word2vec_20190626.model"

  35. SAVE_PATH_WORD2ID_DICT = "../data/w2v_model/word2id_20190626.model"

  36. fout_model = open(SAVE_PATH, "w", encoding="utf8")

  37. fout_word2id_dict = open(SAVE_PATH_WORD2ID_DICT, "w", encoding="utf8")

  38. idx = 0

  39. for k,v in imdb_w2v.wv.vocab.items():

  40. str_get = "%s\t%s\n" % (k, "\t".join([str(i) for i in imdb_w2v.wv[k]]))

  41. fout_model.write(str_get)

  42. str_get = "%s\t%s\n" % (k, idx)

  43. fout_word2id_dict.write(str_get)

  44. idx = idx + 1

  45. fout_model.close()

  46. fout_word2id_dict.close()

word2vec的训练非常常规,我在之前的篇章其实已经讲过,此处两个点需要重点提出。

为了保证词向量的确定性,出现次数太少额词汇不应该出现在词汇表里,但是这些词不出现在词汇表里又会导致这些词没有词向量,因此此处我们选择把这些词汇转为unk形式,训练的时候就当做unk这个单词来进行,为了实现这个功能,进行了两次词汇表构建:(build_vocab)。

另外,词汇保存,此处选择了最朴素的txt保存法,另一方面,由于tensorflow后续的embedding_lookup只能使用id形式获取词向量,所以我保存了一份word2id的词汇表。

深度学习模型

为了保证模型的可替换性,所以非常建议大家把深度学习模型本身写成类的形式,然后往外暴露相同的接口,此处给一个demo。

  1. class TextCNN(object):

  2. """文本分类,CNN模型"""


  3. def __init__(self, config):

  4. self.config = config


  5. # 三个待输入的数据

  6. self.input_x = tf.placeholder(tf.int32, [None, self.config.seq_length], name='input_x')

  7. self.input_y = tf.placeholder(tf.float32, [None, self.config.num_classes], name='input_y')

  8. self.embedding_placeholder = tf.placeholder(tf.float32,

  9. [self.config.vocab_size, self.config.embedding_dim],

  10. name="embedding_placeholder")

  11. self.keep_prob = tf.placeholder(tf.float32, name='keep_prob')


  12. self.cnn()


  13. def cnn(self):

  14. """CNN模型"""

  15. # 词向量映射

  16. with tf.name_scope("embedding"):

  17. embedding_inputs = tf.nn.embedding_lookup(self.embedding_placeholder, self.input_x)


  18. with tf.name_scope("cnn1"):

  19. # CNN layer

  20. conv1 = tf.layers.conv1d(embedding_inputs, 10, 5, name='conv1')

  21. # global max pooling layer

  22. # gmp1 = tf.reduce_max(conv1, reduction_indices=[1], name='gmp1')

  23. maxpool1 = tf.layers.max_pooling1d(conv1, pool_size=2, strides=2, name="maxpool1")

  24. gmp1 = tf.nn.relu(maxpool1)


  25. with tf.name_scope("cnn2"):

  26. # CNN layer

  27. conv2 = tf.layers.conv1d(gmp1, 10, 3, name='conv2')

  28. maxpool2 = tf.layers.max_pooling1d(conv2, pool_size=2, strides=2, name="maxpool2")

  29. gmp2 = tf.nn.relu(maxpool2)


  30. with tf.name_scope("cnn3"):

  31. # CNN layer

  32. conv3 = tf.layers.conv1d(gmp2, 10, 3, name='conv3')

  33. maxpool3 = tf.layers.max_pooling1d(conv3, pool_size=2, strides=2, name="maxpool3")

  34. gmp3 = tf.nn.relu(maxpool3)


  35. with tf.name_scope("score"):

  36. # 全连接层,后面接dropout以及relu激活

  37. fc = tf.layers.flatten(gmp3)

  38. fc = tf.layers.dense(fc, 64, name='fc1')

  39. fc = tf.contrib.layers.dropout(fc, self.keep_prob)

  40. fc = tf.nn.relu(fc)


  41. # 分类器

  42. self.logits = tf.layers.dense(fc, self.config.num_classes, name='fc2')

  43. self.softmax = tf.nn.softmax(self.logits)

  44. self.y_pred_cls = tf.argmax(tf.nn.softmax(self.logits), 1) # 预测类别


  45. with tf.name_scope("optimize"):

  46. # 损失函数,交叉熵

  47. cross_entropy = tf.nn.softmax_cross_entropy_with_logits(logits=self.logits, labels=self.input_y)

  48. self.loss = tf.reduce_mean(cross_entropy)

  49. # 优化器

  50. self.optim = tf.train.AdamOptimizer(learning_rate=self.config.learning_rate).minimize(self.loss)


  51. with tf.name_scope("accuracy"):

  52. # 准确率

  53. correct_pred = tf.equal(tf.argmax(self.input_y, 1), self.y_pred_cls)

  54. self.acc = tf.reduce_mean(tf.cast(correct_pred, tf.float32))

这里暴露出去的接口有这些:

  • 数据输入类:Inputx, inputy, embeddingplaceholder, keepprob

  • 结果输出类:logits, softmax, ypredcls, loss, optim, acc

剩下的就是根据上面所说的网络结构进行,值得注意的是此处我是用的是tf.layers的接口进行构建,这个接口非常接近keras,用起来十分方便,比tf.nn系列少了很多计算中间层维数计算的操作。

另外有些特别的参数我也单独列了出来,用一个类来包装。

  1. class TCNNConfig(object):

  2. """CNN配置参数"""


  3. embedding_dim = 100 # 词向量维度

  4. seq_length = 50 # 序列长度

  5. num_classes = 2 # 类别数


  6. keep_prob = 0.5 # dropout保留比例

  7. learning_rate = 1e-4 # 学习率


  8. batch_size = 64 # 每批训练大小

  9. num_batches = 263 # 一共有多少batch

  10. num_epochs = 20 # 总迭代轮次


  11. print_per_batch = 100 # 每多少轮输出一次结果

这块看注释就很明显啦,很多地方会用到,所以就集中放在这里,目前由于只有CNN模型,后续可能会根据模型多样化再做一个更加完善的Config函数或者字典。

必要的数据读取

后续需要对数据进行读取,由于这块代码量较多且有一定通用性,所以就单独写成工具函数了。

  1. def loadWord2Vec(filename):

  2. vocab = []

  3. embd = []

  4. # cnt = 0

  5. vocab_dic = {}

  6. with open(filename, encoding="utf8") as f:

  7. idx = 0

  8. for line in f:

  9. ll = line.strip().split("\t")

  10. if len(ll) != 101:

  11. continue

  12. vocab.append(ll[0])

  13. embd.append([float(i) for i in ll[1:]])

  14. vocab_dic[ll[0]] = idx

  15. idx = idx + 1

  16. return vocab, embd, vocab_dic



  17. def load_batch(batch_name, batch_idx, classes, sequence_len, word2id_dict):

  18. input_path = "../data/batch_data/%s_%s" % (batch_name, batch_idx)

  19. input_x = []

  20. input_y = []

  21. with open(input_path, encoding="utf8") as f:

  22. for line in f:

  23. ll = line.strip().split("\t")

  24. if ll[0] != "1" and ll[0] != "0":

  25. continue

  26. input_y_get = [0 for i in range(classes)]

  27. input_y_get[int(ll[0])] = 1

  28. input_y.append(input_y_get)

  29. tmp_sent = []

  30. if len(ll[1:]) >= sequence_len:

  31. tmp_sent = ll[1:sequence_len + 1]

  32. else:

  33. tmp_sent = ll[1:]

  34. while len(tmp_sent) < sequence_len:

  35. tmp_sent.append(-1)

  36. if len(tmp_sent) != sequence_len:

  37. print(len(tmp_sent))

  38. print(tmp_sent)

  39. for idx in range(sequence_len):

  40. if tmp_sent[idx] in word2id_dict:

  41. tmp_sent[idx] = word2id_dict[tmp_sent[idx]]

  42. elif tmp_sent[idx] == -1:

  43. tmp_sent[idx] = -1

  44. else:

  45. tmp_sent[idx] = word2id_dict["unk_"]

  46. input_x.append(tmp_sent)

  47. return input_x, input_y

这两块分别是读取word2vector模型的工具函数以及读取一个batch的工具函数,另外由于进行测试阶段也要进行类似的操作所以后续测试集读取也是使用该函数进行。

主函数

终于到主函数了,上面其实完成了不少基础性工作,所以此处我们就可以轻松愉快地开始整主函数。

首先是初始化,这里包括下面工作:

  • 包导入:各种import

  • Word2vec模型导入:loadWord2Vec

  • 配置信息导入:TCNNConfig

  • 模型导入:TextCNN

  1. import tensorflow as tf

  2. from model_get import *

  3. from utils import *

  4. from sklearn.metrics import roc_auc_score



  5. W2V_PATH = "../data/w2v_model/word2vec_20190626.model"

  6. vocab, embd, vocab_dic = loadWord2Vec(W2V_PATH)

  7. vocab_size = len(vocab)

  8. embedding_dim = len(embd[0])

  9. embedding_placeholder = embd


  10. config = TCNNConfig()


  11. keep_prob = config.keep_prob

  12. config.vocab_size = vocab_size

  13. model = TextCNN(config)

然后就可以直接开始session了,由于模型等多个工作在其他函数下做完,所以此处直接启动session就好了。

  1. with tf.Session() as sess:

  2. sess.run(tf.global_variables_initializer())

  3. for i in range(config.num_epochs):

  4. for batch_idx in range(config.num_batches):

  5. input_x, input_y = load_batch("20190626", batch_idx, config.num_classes, config.seq_length, vocab_dic)

  6. # 训练

  7. sess.run(model.optim,

  8. feed_dict={"input_x:0": input_x, "input_y:0": input_y,

  9. "embedding_placeholder:0": embedding_placeholder,

  10. "keep_prob:0": config.keep_prob})

  11. # batch阶段结果显示

  12. if batch_idx % config.print_per_batch == 0:

  13. loss = sess.run(model.loss,

  14. feed_dict={"input_x:0": input_x, "input_y:0": input_y,

  15. "embedding_placeholder:0": embedding_placeholder,

  16. "keep_prob:0": config.keep_prob})

  17. acc = sess.run(model.acc,

  18. feed_dict={"input_x:0": input_x, "input_y:0": input_y,

  19. "embedding_placeholder:0": embedding_placeholder,

  20. "keep_prob:0": config.keep_prob})

  21. print("epoch: %s, batch_idx: %s, loss: %s, acc: %s" % (i, batch_idx, loss, acc))

  22. input_x, input_y = load_batch("20190626", "test", config.num_classes, config.seq_length, vocab_dic)

  23. acc = sess.run(model.acc,

  24. feed_dict={"input_x:0": input_x, "input_y:0": input_y,

  25. "embedding_placeholder:0": embedding_placeholder,

  26. "keep_prob:0": config.keep_prob})

  27. # epoch阶段结果显示——测试集检测

  28. input_x, input_y = load_batch("20190626", "test", config.num_classes, config.seq_length, vocab_dic)

  29. test_prod = sess.run(model.softmax,

  30. feed_dict={"input_x:0": input_x, "input_y:0": input_y,

  31. "embedding_placeholder:0": embedding_placeholder,

  32. "keep_prob:0": config.keep_prob})

  33. test_res = sess.run(model.y_pred_cls,

  34. feed_dict={"input_x:0": input_x, "input_y:0": input_y,

  35. "embedding_placeholder:0": embedding_placeholder,

  36. "keep_prob:0": config.keep_prob})

  37. auc = roc_auc_score([i[1] for i in input_y], [i[1] for i in test_prod])

  38. p, r, f1score = model_rep([i[1] for i in input_y], test_res)

  39. print("test epoch: %s, acc: %s, precision: %s, recall: %s. f1: %s, auc: %s" % (i, acc, p, r, f1score, auc))


  40. # 测试集计算

  41. input_x, input_y = load_batch("20190626", "test", config.num_classes, config.seq_length, vocab_dic)

  42. acc = sess.run(model.acc,

  43. feed_dict={"input_x:0": input_x, "input_y:0": input_y,

  44. "embedding_placeholder:0": embedding_placeholder,

  45. "keep_prob:0": config.keep_prob})

  46. test_prod = sess.run(model.softmax,

  47. feed_dict={"input_x:0": input_x, "input_y:0": input_y,

  48. "embedding_placeholder:0": embedding_placeholder,

  49. "keep_prob:0": config.keep_prob})

  50. test_res = sess.run(model.y_pred_cls,

  51. feed_dict={"input_x:0": input_x, "input_y:0": input_y,

  52. "embedding_placeholder:0": embedding_placeholder,

  53. "keep_prob:0": config.keep_prob})

  54. auc = roc_auc_score([i[1] for i in input_y], [i[1] for i in test_prod])

  55. p, r, f1score = model_rep([i[1] for i in input_y], test_res)

  56. print("test result, acc: %s, precision: %s, recall: %s. f1: %s, auc: %s" % (acc, p, r, f1score, auc))

这里包含4大部分工作:

  • 训练:重头戏,把每一代feed如optim,这里其实就体现了TextCNN下暴露特定形式接口的优点,更加简洁,同时要是更换模型,此处不需要修改代码,具有即插即用的方便性。

  • batch阶段结果显示:每过特定的batch,就将目前的loss和acc情况展示,用于记录训练过程loss和acc的变化情况

  • epoch阶段结果显示——测试集检测:每过一个epoch,就拿测试集来看看目前的结果情况,查看了一些常见的分类指标

  • 测试集计算——在最后阶段,查看测试集下最后的结果。

模型评估

此处是非常经典的分类问题,所以主要考察的是precision、recall、F1score和AUC4个指标,此处给出出于自己习惯而写的工具函数

  1. from sklearn.metrics import precision_score, recall_score, f1_score

  2. def model_rep(y_true, y_pred, average="micro"):

  3. p = precision_score(y_true, y_pred, average=average)

  4. r = recall_score(y_true, y_pred, average=average)

  5. f1score = f1_score(y_true, y_pred, average=average)

  6. return p, r, f1score

由于AUC只能用于二分类,所以我并没有写在这个工具函数里面,而是单独使用。

  1. from sklearn.metrics import roc_auc_score

  2. auc = roc_auc_score([i[1] for i in input_y], [i[1] for i in test_prod])

此处的计算需要注意roc_auc_score具体要求输入数据的结构,具体自己看API可能更加好理解哈(其实应该自己学会查的哈,此处就直接把传送门给大家了)。

https://scikit-learn.org/stable/modules/generated/sklearn.metrics.rocaucscore.html#sklearn.metrics.rocaucscore

总结

今天详细地为大家展示了tensorflow版本的一个深度学习文本分类方法,这里只给大家展示一个基线模型——CNN,为的是让大家知道tensorflow项目怎么整,以及具体应用可能存在的坑,此处画一个重点吧:

  • 预训练模型通过embedding_lookup读入,当然的,你也可以自己构建一个W变量,然后弄成可训练的方式

  • embedding_lookup读入的时候,需要把文字转为数字,因此需要一个word2id的词典

  • 由于训练的时候数据是分批feed进入的,所以大家可以事先把数据分批,然后分次读入,当然的这是个内存较小时的方案,如果大家觉得自己的内存够或者数据集大小不大,那可以不事先分批,而是全部读入内存后,分块feed如模型中训练,均可

  • 深度学习核心部分可单独写成一个类,暴露规范化接口,这样你能用一个主函数测试很多个不同的模型

  • 代码其实还有很多训练策略等方面的改进,例如动态调整学习率、Adam+SGD分阶段训练等,可自行尝试

  • feed的时候,dict内元素,建议使用"变量名:0"的字符串形式,这个方式个人测试看来是所有feed方式中坑最少的一个,之前用纯变量名、纯字符串都偶尔会出比较奇怪的坑。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存