从底层机理了解Transformer
- 《Generating Long Sequences with Sparse Transformers》 19年4月 OpenAI
- 《Sparse Transformer: Concentrated Attention Through Explicit Selection》 19年12月
- 《Longformer: The Long-Document Transforme》 20年4月
- 《Reformer: The Efficient Transformer》 20年1月
- **Rethinking Attention with Performers ** 2020年9月
- Luna: Linear Unified Nested Attention 2021年6月
- Efficient Attention: Attention with Linear Complexities 18年12月
- Transformers are RNNs: Fast Autoregressive Transformers with Linear Attention 20年6月
- COSFORMER : RETHINKING SOFTMAX IN ATTENTION 22年2月
Content is constantly updated... ...