论文学习总结
————爬虫学习————
01:2021.10.17
机器学习,sklearn库,无监督学习聚类,聚类算法
02:2021.10.22
实例:基于聚类的图像分割实例编写
03:2021.10.29
理论:无监督学习之降维,降维,主成分分析PCA,非负矩阵分解NMF
04:2021.11.07
理论:机器学习之监督学习,分类,回归
05:2021.11.14
理论:基本分类模型,K近邻分类器KNN,决策树,朴素贝叶斯
06:2021.11.20
实例:人体运动状态分析
07:2021.11.27
实例:线性回归,房价与尺寸线性拟合
08:2021.12.04
支持向量机SVM,K者交叉验证,实例:上证指数涨跌预测
09:2022.01.08
实例:手写数字识别,神经网络实现,KNN实现
————爬虫学习————
10:2022.01.15
jupyter,http和https,requests模块,实例
11:2022.01.22
实例:药监总局企业详情信息,网易云评论爬取,词云图制作
————论文学习————
12:2022.01.27
爬虫学习,彼岸图网图片爬取
2020年,中国科学:技术科学(英文版)
预训练综述:Pre-trained Models for Natural Language Processing
13:2022.02.12
作者: Ashish Vaswani等
单位: Google
发表会议及时间: NIPS 2017
Transformer: Attention Is All You Need
14:2022.02.20
作者: Ashish Vaswani等
单位: Google
发表会议及时间: NIPS 2017
Transformer: Attention Is All You Need
实例:jupyter notebook的实现
15:2022.02.26
2018 Google AI Language
BERT: Pre-training of Deep Bidirectional Transformers for Language Understandin
16:2022.03.05
实例:爬虫scrapy,化工产品爬虫
2014
Convolutional Neural Networks for Sentence Classification
实例:TextCNN文本分类
17:2022.03.13
2018 Google AI Language
BERT: Pre-training of Deep Bidirectional Transformers for Language Understandin
18:2022.03.19
2020 Google AI Language
A lite BERT for self-supervised learning of language representations
19:2022.03.26
BERT的pytorch实现
模型学习:LSTM
专利想法
20:2022.04.03
详细学习和步骤
模型学习:TextCNN,LSTM,GRU
专利想法,模型设计和实现
21:2022.04.09
专利书写,visio图的介绍
22:2022.04.14
AAAI 2021
SALNet: Semi-Supervised Few-Shot Text Classification with Attention-Based Lexicon Construction
小样本文本分类情境下,对class对应的关键词进行扩充的问题。
可以用于少量本的文本分类,采用半监督迭代的方式进行。
可以一定程度上解决新训练集与旧分类器之间的差距。
23:2022.04.23
AAAI 2021
Label Confusion Learning to Enhance Text Classification Models
标签学习的提升组件LCM
24:2022.05.01
专利书写,针对长短文本的想法
25:2022.05.07
AAAI 2021
Label Confusion Learning to Enhance Text Classification Models
代码实现
26:2022.05.28
2019
Distilling Task-Specific Knowledge from BERT into Simple Neural Networks
BERT的知识蒸馏,Distilled BiLSTM,代码实现
27:2022.06.04
AAAI 2021
ACT: an Attentive Convolutional Transformer for Efficient Text Classification
28:2022.06.12
AAAI2019
Google AI Language
Vanilla Transformer: Character-Level Language Modeling with Deeper Self-Attention
ACL2019
Transformer-XL: Attentive Language Models
beyond a Fixed-Length Context
针对Transformer的改进
29:2022.06.19
AAAI2021
ACT: an Attentive Convolutional Transformer for Efficient Text Classification
ACT模型把Transformer的Scaled Dot-Product Attention模块换成了attentive convolution mechanism,主要就是CNN加了一个Global feature representation。
30:2022.06.24 —— 数据增强
2021数据增强综述
A Survey on Data Augmentation for Text Classification
做了实验,xmind结构图
31:2022.07.02
ACL2020
Feature Projection for Improved Text Classification
特征投影网络FP-Net
32:2022.07.18
CCF NCCA 2021
CCF第36届中国计算机应用大会
结合BERT和特征投影网络的新闻主题文本分类方法
33:2022.07.25
AAAI2021
Merging Statistical Feature via Adaptive Gate for Improved Text Classification
自适应门网络
提出了一种自适应门网络(AGN)来选择性地利用统计特征巩固语义表示,可以和现有的文本分类模型结合提升模型的性能。
34:2022.07.31
模型修改
在写小论文?
画了visio图
35:2022.08.07
AAAI 2020
Multi-Scale Self-Attention for Text Classification
基于多头自注意力的归纳偏置
36:2022.08.13
ACM2020
Google AI Language
XLNet: Generalized Autoregressive Pretraining for Language Understanding
XLNet使用了Transformer-XL的优化方式,
提出了一些新的方法,改善了BERT存在的问题,但是参数比BERT更大
37:2022.08.20
AAAI2021
MASKER: Masked Keyword Regularization for Reliable Text Classification
针对当前预训练模型过分依赖关键词,而不是上下文,这种不稳定性,提出了Masked Keyword Regularization (MASKER),通过MASK的方式,对关键词进行正则化,降低模型对关键词的依赖,更多利用上下文信息来预测。
在关键词的选择上提出了两种方法,基于频率,基于attention注意力机制。
对MASK的约束:掩码关键词的重构,掩码之后的熵正则。
38:2022.08.30
ACL2020
Contextualized Weak Supervision for Text Classification
基于上下文弱监督的文本分类,
开发一种无监督的方法,可以根据词向量和seed words,解决语料库中单词的一词多义问题。
设计一种排序机制,消除seed words中一些无效的单词;并将有效的单词扩充进seed words中。
39:2022.09.14
ACL2020
Every Document Owns Its Structure: Inductive Text Classification via Graph Neural Networks
提出了一种新的文本分类方法,通过图神经网络进行归纳词表示。
训练了一个GNN,仅使用训练集来描述“单词-单词”关系。
使用滑动窗口来构建单个图,单词节点的信息通过门控图神经网络传播到其邻居,加强上下文关系的学习。
40:2023.09.24
ACL2020
Hierarchy-Aware Global Model for Hierarchical Text Classification
提出一种层次感知的全局模型,使用了两种方法来进行标签的预测
思考:同父类的子节点应该继承了父类的某些共性特征,彼此之间还存在某种差异,可以加上一个随机干扰的波动FGM对抗扰动
41:2022.10.01
NLPCC2020
Sentence Constituent-Aware Aspect-Category Sentiment Analysis with Graph Attention
用于细粒度分类的句子成分感知神经网络,
提出的网络结构中,包括了2个图注意力网络模块,
最后用1个交互式的loss函数来计算损失。
42:2022.10.08
AAAI2021
Ideograph Leads Us to the Field of Cognition: A Radical-Guided Associative Model for Chinese Text Classification
基于汉字的蒸馏和汉字偏旁联想空间
43:2022.10.15
EMNLP 2020
MODE-LSTM: A Parameter-efficient Recurrent Network with Multi-Scale for Sentence Classification
句子分类的核心问题是提取多尺度的特征,以此来理解句子的语义。论文提出了一种依赖于LSTM的多尺度递归模型。
将LSTM的隐藏状态分解为几个独立更新的小隐藏状态,结合不同大小的滑动窗口来提取多尺度的特征。
44:2022.10.22
Google Research 2022
Block-Recurrent Transformers
把Transformer作为RNN的循环单元,解决长文本问题,利用传统的RNN递归来增加长文档中的Transformer,
模型在学习一个token的时候,也可以同样考虑到上一个状态的输入和输出。
45:2022.11.06
AAAI2021
MASKER:Masked Keyword Regularization for Reliable Text Classification
针对MASK机制的改动,
在关键词的选择上提出了两种方法,基于频率,基于attention注意力机制。对MASK的约束:掩码关键词的重构,掩码之后的熵正则。
46:2022.11.12
AAAI2021
Does Head Label Help for Long-Tailed Multi-Label Text Classification
利用Head-to-Tail Network解决了多标签文本分类中的文本标签分布不均衡的问题。
通过使用头尾标题标签所属的文档,转移学习头尾标签的知识,映射学习到的长尾标签的依赖权重。
47:2022.12.04
专利想法
基于词汇投影混合标签学习的文本分类方法
48:2022.12.16
AAAI2021
MARTA: Leveraging Human Rationales for Explainable Text Classification
提出了一种混合的Human-AI方法,在基于注意力的文本分类模型中,纳入了人类的理性判断,该框架在架在分类可解释性和准确性方面有着显著提高。
通过人工的为相关文本片段添加注释理由,来辅助模型进行分类。
49:2022.12.30 —— 知识蒸馏
EMNLP 2019
Distilling task-specific knowledge from bert into simple neural networks
Patient knowledge distillation for bert model compression
DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter
50:2023.01.07 —— 知识蒸馏
EMNLP 2019
TinyBERT: Distilling BERT for Natural Language Understanding
ACL2020
MobileBERT: a Compact Task-Agnostic BERT for Resource-Limited Devices
NeurIPS2020
MINILM: Deep Self-Attention Distillation for Task-Agnostic Compression of Pre-Trained Transformers
总结
-
Distilled BiLSTM:BERT-large蒸馏到了单层的BiLSTM中
-
BERT-PKD :耐心知识蒸馏,skip或last
-
DistillBERT:对PKD的改进,新增了一个cosine embedding loss
-
TinyBERT:提出了two-stage learning框架,分别在预训练和精调阶段蒸馏教师模型。
-
MobileBERT:致力于减少每层的维度,压缩维度的主要思想在于bottleneck机制。
-
MiniLM:Value-Relation Transfer的蒸馏让学生模型更深入地模仿教师模型。
51:2023.01.13
ACL2021
ChineseBERT: Chinese Pretraining Enhanced by Glyph and Pinyin Information
提出了一种大规模的面向中文的NLP预训练模型ChineseBERT。
利用汉字字形信息与拼音信息消除汉字的起义,从而更好的进行正则化,使模型更好建模潜在文本语义。
52:2023.02.01
ACL2021
Text Classification with Negative Supervision
负样本监督,提出了负监督的方法,利用不同标签文本的差异实现对编码器的负面监督,让分类器具有更高的区别性。
在正常的文本分类任务过程中,加入正样例与负样例之间相似度的损失函数,让模型能学到更具有差异性的信息,以提高识别效果。
53:2023.02.10
ACL2022
X-Class: Text Classification with Extremely Weak Supervision
提出了X-Class框架,用于自适应文档对每个标签类别扩充seed words,自适应文档在标签的递增下添加seed words进行表示。再联系上下文,加入了混合注意力机制,通过计算文档与上下文单词的加权平均以及聚类的置信度进行分类。
54:2023.02.19
论文想法多尺度注意力循环单元