28.04.2020 Views

Sách Deep Learning cơ bản

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

5.5 Bài tập 83

Hình 5.12: Mô hình XOR

Nhìn có vẻ rối nhỉ, cùng phân tích nhé:

• node NOT(x 1 AND x 2 ) chính là từ hình 5.10, với 3 mũi tên chỉ đến từ 1,x 1 ,x 2 với hệ số

w 0 ,w 1 ,w 2 tương ứng là 1.5, -1, -1.

• node tính x 1 OR x 2 là từ hình 5.11

• node trong output layer là phép tính AND từ 2 node của layer trước, giá trị hệ số từ hình 1

mang xuống.

Nhận xét: mô hình logistic regression không giải quyết được bài toán XOR nhưng mô hình mới thì

giải quyết được bài toán XOR. Đâu là sự khác nhau:

• Logistic regression chỉ có input layer và output layer

• Mô hình mới có 1 hidden layer có 2 node ở giữa input layer và output layer.

=> Càng nhiều layer và node thì càng giải quyết được các bài toán phức tạp hơn.

5.5 Bài tập

1. (a) Tại sao hàm activation phải non-linear? Điều gì xẩy ra nếu hàm linear activation được

sử dụng?

(b) Tính output 1 Neural Network đơn giản (2 nodes input layer, 2 nodes hidden layer, 1

node output layer) với hàm activation f(x) = x + 1 cho tất cả các node, tất cả các hệ số

w = 1 và b =0.

2. Tại sao cần nhiều layer và nhiều node trong 1 hidden layer?

3. Code python cho mạng neural network với 1 hidden layer, sigmoid activation.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!