序列标注
1、Bidirectional LSTM-CRF Models for Sequence Tagging
时间:2015年,链接:https://arxiv.org/pdf/1508.01991.pdf
预训练模型
1、BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
时间:2019年;链接:https://arxiv.org/pdf/1810.04805.pdf
NLP任务
序列标注
命名实体识别
1、Named Entity Recognition with Bidirectional LSTM-CNNs
时间:2016年,链接:https://arxiv.org/pdf/1511.08308.pdf
网友评论