28.04.2020 Views

Sách Deep Learning cơ bản

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

174 Chương 12. Các kỹ thuật cơ bản trong deep learning

Tuy nhiên với các node có giá trị nhỏ hơn 0, qua ReLU activation sẽ thành 0, hiện tượng đấy gọi là

"Dying ReLU". Nếu các node bị chuyển thành 0 thì sẽ không có ý nghĩa với bước linear activation

ở lớp tiếp theo và các hệ số tương ứng từ node đấy cũng không được cập nhật với gradient descent.

=> Leaky ReLU ra đời.

Leaky ReLU

Hình 12.11: Hàm Leaky ReLU

Hàm Leaky ReLU có các điểm tốt của hàm ReLU và giải quyết được vấn đề Dying ReLU bằng

cách xét một độ dốc nhỏ cho các giá trị âm thay vì để giá trị là 0.

Lời khuyên: Mặc định nên dùng ReLU làm hàm activation. Không nên dùng hàm sigmoid.

12.6 Bài tập

1. Dùng tất cả kiến thức của bài này để cải thiện accuracy và loss function của các model trong

bài phân loại ảnh và ô tô tự lái.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!