28.04.2020 Views

Sách Deep Learning cơ bản

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

4.4 Thiết lập bài toán 57

=> p(x (i) = 1) + p(x (i) = 0) = 1

Hàm sigmoid: σ(x) = 1

1 + e −x .

Như bài trước công thức của linear regression là: ŷ i = w 0 + w 1 ∗ x i thì giờ công thức của logistic

regression là:

ŷ i = σ(w 0 + w 1 ∗ x (i)

1 + w 2 ∗ x (i)

2 ) = 1

1 + e −(w 0+w 1 ∗x (i)

1 +w 2∗x (i)

2 )

Ở phần cuối mọi người sẽ thấy được quan hệ giữa xác suất và đường thẳng.

4.4.2 Loss function

Giờ cũng cần một hàm để đánh giá độ tốt của model. Như bài trước là ŷ càng gần y càng tốt, giờ

cũng vậy:

• Nếu hồ sơ thứ i là cho vay, tức y i = 1 thì ta cũng mong muốn ŷ i càng gần 1 càng tốt hay model

dự đoán xác suất người thứ i được vay vốn càng cao càng tốt.

• Nếu hồ sơ thứ i không được vay, tức y i = 0 thì ta cũng mong muốn ŷ i càng gần 0 càng tốt hay

model dự đoán xác suất người thứ i được vay vốn càng thấp càng tốt.

Với mỗi điểm (x (i) ,y i ), gọi hàm loss function L = −(y i ∗ log(ŷ i ) + (1 − y i ) ∗ log(1 − ŷ i ))

Mặc định trong ML/DL thì viết log hiểu là ln

Thử đánh giá hàm L nhé. Nếu y i = 1 => L = −log(ŷ i )

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!