Dự án dịch sách "Dive into Deep Learning"
- Bản tiếng Việt: https://d2l.aivivn.com/
- Bản tiếng Anh: https://www.d2l.ai/
Mời bạn xem hướng dẫn chi tiết tại đây.
Đăng ký tham gia tại đây để trao đổi và hỏi đáp về các vấn đề liên quan.
Tra cứu các thuật ngữ được sử dụng trong nhóm dịch tại đây.
- Lời nói đầu
- Cài đặt
- Ký hiệu
- 1. Giới thiệu
- 2. Sơ bộ
- 2.1. Thao tác với Dữ liệu
- 2.2. Tiền Xử lý Dữ liệu
- 2.3. Đại số Tuyến tính
- 2.4. Giải tích
- 2.5. Tính vi phân Tự động
- 2.6. Xác suất
- 2.7. Tài liệu
- 3. Mạng nơ-ron Tuyến tính
- 4. Perceptron Đa tầng
- 4.1. Perceptron Đa tầng
- 4.2. Lập trình Perceptron Đa tầng từ đầu
- 4.3. Cách lập trình Súc tích Perceptron Đa tầng
- 4.4. Lựa chọn Mô hình, Dưới khớp và Quá khớp
- 4.5. Suy giảm Trọng số
- 4.6. Dropout
- 4.7. Lan truyền Xuôi, Lan truyền Ngược và Đồ thị Tính toán
- 4.8. Sự ổn định Số học và Sự khởi tạo
- 4.9. Cân nhắc tới Môi trường
- 4.10. Dự đoán Giá Nhà trên Kaggle
- 5. Tính toán Học sâu
- 5.1. Tầng và Khối
- 5.2. Quản lý Tham số
- 5.3. Khởi tạo trễ
- 5.4. Các tầng Tuỳ chỉnh
- 5.5. Đọc/Ghi tệp
- 5.6. GPU
- 6. Mạng nơ-ron Tích chập
- 6.1. Từ Tầng dày đặc đến Phép Tích chập
- 6.2. Phép tích chập cho Ảnh
- 6.3. Đệm và Sải bước
- 6.4. Đa kênh Đầu vào và ra
- 6.5. Gộp
- 6.6. Mạng Nơ-ron Tích chập (LeNet)
- 7. Mạng nơ-ron Tích chập Hiện đại
- 8. Mạng nơ-ron Hồi tiếp
- 9. Mạng Hồi tiếp Hiện đại
- 9.1. Nút Hồi tiếp có Cổng (GRU)
- 9.2. Bộ nhớ Ngắn hạn Dài (LSTM)
- 9.3. Mạng nơ-ron Hồi tiếp sâu
- 9.4. Mạng Nơ-ron Hồi tiếp Hai chiều
- 9.5. Dịch Máy và Tập dữ liệu
- 9.6. Kiến trúc Mã hóa - Giải mã
- 9.7. Chuỗi sang Chuỗi
- 9.8. Tìm kiếm Chùm
- 10. Cơ chế Tập trung
- 10.1. Cơ chế Tập trung
- 10.2. Chuỗi sang Chuỗi áp dụng Cơ chế Tập trung
- 10.3. Kiến trúc Transformer
- 11. Thuật toán Tối ưu
- 11.1. Tối ưu và Học sâu
- 11.2. Tính lồi
- 11.3. Hạ Gradient
- 11.4. Hạ Gradient Ngẫu nhiên
- 11.5. Hạ Gradient Ngẫu nhiên theo Minibatch
- 11.6. Động lượng
- 11.7. Adagrad
- 11.8. RMSProp
- 11.9. Adadelta
- 11.10. Adam
- 11.11. Định thời Tốc độ Học
- [-] 12. Hiệu năng Tính toán
- 12.1. Trình biên dịch và Trình thông dịch
- 12.2. Tính toán Bất đồng bộ
- 12.3. Song song hóa Tự động
- 12.4. Phần cứng
- 12.5. Huấn luyện đa GPU
- 12.6. Cách lập trình Súc tích đa GPU
- 12.7. Tham số Máy chủ
- 13. Thị giác Máy tính
- [-] 13.1. Image Augmentation
- [-] 13.2. Fine Tuning
- [-] 13.3. Object Detection and Bounding Boxes
- [-] 13.4. Anchor Boxes
- [-] 13.5. Multiscale Object Detection
- [-] 13.6. The Object Detection Dataset
- [-] 13.7. Single Shot Multibox Detection (SSD)
- [-] 13.8. Region-based CNNs (R-CNNs)
- [-] 13.9. Semantic Segmentation and the Dataset
- [-] 13.10. Transposed Convolution
- 13.11. Fully Convolutional Networks (FCN)
- 13.12. Neural Style Transfer
- 13.13. Image Classification (CIFAR-10) on Kaggle
- 13.14. Dog Breed Identification (ImageNet Dogs) on Kaggle
- 14. Xử lý Ngôn ngữ Tự nhiên: Tiền Huấn luyện
- 14.1. Word Embedding (word2vec)
- 14.2. Approximate Training
- 14.3. The Dataset for Pretraining Word Embedding
- 14.4. Pretraining word2vec
- 14.5. Word Embedding with Global Vectors (GloVe)
- 14.6. Subword Embedding
- 14.7. Finding Synonyms and Analogies
- 14.8. Bidirectional Encoder Representations from Transformers (BERT)
- 14.9. The Dataset for Pretraining BERT
- 14.10. Pretraining BERT
- 15. Xử lý Ngôn ngữ Tự nhiên: Ứng dụng
- 15.1. Sentiment Analysis and the Dataset
- 15.2. Sentiment Analysis: Using Recurrent Neural Networks
- 15.3. Sentiment Analysis: Using Convolutional Neural Networks
- 15.4. Natural Language Inference and the Dataset
- 15.5. Natural Language Inference: Using Attention
- 15.6. Fine-Tuning BERT for Sequence-Level and Token-Level Applications
- 15.7. Natural Language Inference: Fine-Tuning BERT
- 16. Hệ thống Gợi ý
- 16.1. Overview of Recommender Systems
- 16.2. The MovieLens Dataset
- 16.3. Matrix Factorization
- 16.4. AutoRec: Rating Prediction with Autoencoders
- 16.5. Personalized Ranking for Recommender Systems
- 16.6. Neural Collaborative Filtering for Personalized Ranking
- 16.7. Sequence-Aware Recommender Systems
- 16.8. Feature-Rich Recommender Systems
- 16.9. Factorization Machines
- 16.10. Deep Factorization Machines
- 17. Generative Adversarial Networks
- 18. Phụ lục: Toán học cho Học Sâu
- 18.1. Các phép toán Hình học và Đại số Tuyến tính
- 18.2. Eigendecompositions
- 18.3. Giải tích một biến
- 18.4. Multivariable Calculus
- 18.5. Integral Calculus
- 18.6. Random Variables
- 18.7. Maximum Likelihood
- 18.8. Distributions
- 18.9. Naive Bayes
- 18.10. Thống kê
- 18.11. Information Theory
- 19. Phụ lục: Công cụ cho Học Sâu
- 19.1. Sử dụng Jupyter
- 19.2. Sử dụng Amazon SageMaker
- 19.3. Sử dụng AWS EC2 Instances
- 19.4. Sử dụng Google Colab
- 19.5. Lựa chọn Máy chủ & GPU
- 19.6. Đóng góp cho Quyển sách
- 19.7. Tài liệu API của d2l
Cuốn sách này được cung cấp dưới giấy phép Creative Commons Attribution-ShareAlike 4.0 International Public License. Mã nguồn mẫu và nội dung tham chiếu trong cuốn sách này được cung cấp theo MIT License với nội dung đã có sự cập nhật.