作者:杨夕
项目地址:https://github.com/km1994/NLP-Interview-Notes
个人论文读书笔记:https://github.com/km1994/nlp_paper_study
【注:手机阅读可能图片打不开!!!】
- 多义词问题:
- 因为 one-hot、word2vec、fastText 为静态方式,即训练好后,每个词表达固定;
- 单向性:
- 因为 one-hot、word2vec、fastText 都是 从左向右 学习,导致该方法 不能 同时考虑 两边信息;
基于特征融合 的 word emb
- 预训练时,使用语言模型学习一个单词的emb(多义词无法解决);
- 使用时,单词间具有特定上下文,可根据上下文单词语义调整单词的emb表示(可解决多义词问题)
- 理解:因为预训练过程中,emlo 中 的 lstm 能够学习到 每个词 对应的 上下文信息,并保存在网络中,在 fine-turning 时,下游任务 能够对 该 网络进行 fine-turning,使其 学习到新特征;
- 在做序列编码任务时,使用 LSTM;
- ELMo 采用双向拼接的融合特征,比Bert一体化融合特征方式弱;