该方案利用了篇章上下文信息,论文见Improving the Transformer Translation Model with Document-Level Context,论文源码Document-Transformer 。
- 系统:ubuntu
- 显卡:nvidia titan x (4卡)
- 语言:python 2.7
- 框架:tensorflow 1.10
- 下载原始数据(如有需要)提取码:6lpu
- 下载处理过的数据和模型。数据只是做了分词和bpe,未做其它筛选。网盘密码dr83
- 将网盘文件解压,切换到解压后的文件夹所在目录
- 训练:
sh train.sh
- 测试:解码结果位置
testB/output_testB.trans.norm
- 网盘中模型的结果:
sh translate_aic_submit.sh
- 本地训练模型的结果:
sh translate.sh
- 网盘中模型的结果:
ps: testB榜提交了两个结果,一个是单模型,另一个是用三个不同训练阶段的模型ensemble解码得到的,不知道是哪个32.1。脚本种设置的训练step数不一定最优,需要调。如有帮助,给个star呗~~~