Skip to content

多标签文本分类,多标签分类,文本分类, multi-label, classifier, text classification, BERT, seq2seq,attention, multi-label-classification

Notifications You must be signed in to change notification settings

tonchen3/classifier-multi-label

 
 

Repository files navigation

Text Classification Multi-Label: 多标签文本分类

Python Pytorch

一、简介

1. 多元分类

多分类任务中一条数据只有一个标签,但这个标签可能有多种类别。比如判定某个人的性别,只能归类为"男性"、"女性"其中一个。再比如判断一个文本的情感只能归类为"正面"、"中面"或者"负面"其中一个。

2. 多标签分类

多标签分类任务中一条数据可能有多个标签,每个标签可能有两个或者多个类别。例如,一篇新闻可能同时归类为"娱乐"和"运动",也可能只属于"娱乐"或者其它类别。

二、算法

4种实现方法

├── classifier_multi_label
    └── classifier_multi_label
    └── classifier_multi_label_textcnn
    └── classifier_multi_label_denses
    └── classifier_multi_label_seq2seq

1. classifier_multi_label

  • 使用BERT第一个token[CLS]的向量,维度为(batch_size,hidden_size)。
  • 使用了tf.nn.sigmoid_cross_entropy_with_logits的损失函数。
  • 使用了tf.where函数来选择概率小于0.5的对应id。

2. classifier_multi_label_textcnn

  • 使用BERT输出的三维向量,维度为(batch_size,sequence_length,hidden_size),然后做为输入进入TextCNN层。
  • 使用了tf.nn.sigmoid_cross_entropy_with_logits的损失函数。
  • 使用了tf.where函数来选择概率小于0.5的对应id。

3. classifier_multi_label_denses

  • 使用BERT第一个token[CLS]的向量,维度为(batch_size,hidden_size),然后通过多个二分类(全连接层)来解决多标签分类问题。
  • 使用了tf.nn.softmax_cross_entropy_with_logits的损失函数。
  • 使用了tf.argmax函数来选择输出最高概率。

4. classifier_multi_label_seq2seq

  • 使用BERT输出的三维向量,维度为(batch_size,sequence_length,hidden_size),然后做为输入进入seq2seq+attention层。
  • 使用了tf.nn.softmax_cross_entropy_with_logits的损失函数。
  • 使用了beam search 来解码输出概率。

三、实验

1. 训练过程

2. 实验结果

3. 实验结论

  • 如果对推理速度的要求不是非常高,基于ALBERT+Seq2Seq_Attention框架的多标签文本分类效果最好。
  • 如果对推理速度和模型效果要求都非常高,基于ALBERT+TextCNN会是一个不错的选择。

参考

多标签文本分类介绍,以及对比训练
多标签文本分类 [ALBERT]
多标签文本分类 [ALBERT+TextCNN]
多标签文本分类 [ALBERT+Multi_Denses]
多标签文本分类 [ALBERT+Seq2Seq+Attention]

About

多标签文本分类,多标签分类,文本分类, multi-label, classifier, text classification, BERT, seq2seq,attention, multi-label-classification

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Python 100.0%