27.12.2016 Views

밑바닥부터 시작하는 딥러닝 - 미리보기

사이토 고키 지음 | 개앞맵시(이복연) 옮김 | 24,000원 | 한빛미디어 | 2017.01.03 "직접 구현하고 움직여보며 익히는 가장 쉬운 딥러닝 입문서 " 이 책은 라이브러리나 프레임워크에 의존하지 않고, 딥러닝의 핵심을 ‘밑바닥부터’ 직접 만들어보며 즐겁게 배울 수 있는 본격 딥러닝 입문서입니다. 술술 읽힐 만큼 쉽게 설명하였고, 역전파처럼 어려운 내용은 ‘계산 그래프’ 기법으로 시각적으로 풀이했습니다. 무엇보다 작동하는 코드가 있어 직접 돌려보고 요리조리 수정해보면 어려운 이론도 명확하게 이해할 수 있습니다. 딥러닝에 새롭게 입문하려는 분과 기초를 다시금 정리하고 싶은 현업 연구자와 개발자에게 최고의 책이 될 것입니다.

사이토 고키 지음 | 개앞맵시(이복연) 옮김 | 24,000원 | 한빛미디어 | 2017.01.03

"직접 구현하고 움직여보며 익히는 가장 쉬운 딥러닝 입문서 "

이 책은 라이브러리나 프레임워크에 의존하지 않고, 딥러닝의 핵심을 ‘밑바닥부터’ 직접 만들어보며 즐겁게 배울 수 있는 본격 딥러닝 입문서입니다. 술술 읽힐 만큼 쉽게 설명하였고, 역전파처럼 어려운 내용은 ‘계산 그래프’ 기법으로 시각적으로 풀이했습니다. 무엇보다 작동하는 코드가 있어 직접 돌려보고 요리조리 수정해보면 어려운 이론도 명확하게 이해할 수 있습니다. 딥러닝에 새롭게 입문하려는 분과 기초를 다시금 정리하고 싶은 현업 연구자와 개발자에게 최고의 책이 될 것입니다.

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

다. 이처럼 한 원소만 1로 하고 그 외는 0으로 나타내는 표기법을 원-핫 인코딩이라 한다고 했습<br />

니다.<br />

자, 평균 제곱 오차는 [식 4.1]과 같이 각 원소의 출력(추정 값)과 정답 레이블(참 값)의 차(y k<br />

- t k<br />

)를 제곱한 후, 그 총합을 구합니다. 그러면 이 평균 제곱 오차를 파이썬으로 구현해봅시다.<br />

def mean_squared _error(y, t):<br />

return 0.5 * np.sum((y-t)**2)<br />

여기에서 인수 y와 t는 넘파이 배열입니다. 이 코드는 [식 4.1 ]을 그대로 구현한 것이니 설명은<br />

생략합니다. 그러면 이 함수를 실제로 사용해보죠.<br />

>>> # 정답은 '2'<br />

>>> t = [0, 0, 1, 0, 0, 0, 0, 0, 0, 0]<br />

>>><br />

>>> # 예1 : '2'일 확률이 가장 높다고 추정함(0.6)<br />

>>> y = [0.1, 0.05, 0.6, 0.0, 0.05, 0.1, 0.0, 0.1, 0.0, 0.0]<br />

>>> mean_squared _error(np.array(y), np.array(t))<br />

0.097500000000000031<br />

>>><br />

>>> # 예2 : '7'일 확률이 가장 높다고 추정함(0.6)<br />

>>> y = [0.1, 0.05, 0.1, 0.0, 0.05, 0.1, 0.0, 0.6, 0.0, 0.0]<br />

>>> mean_squared _error(np.array(y), np.array(t))<br />

0.59750000000000003<br />

두 가지 예를 살펴봤습니다. 첫 번째의 예는 정답이 ‘2’고 신경망의 출력도 ‘2’에서 가장 높은 경<br />

우입니다. 한편, 두 번째 예에서는 정답은 똑같이 ‘2’지만, 신경망의 출력은 ‘7’에서 가장 높습니<br />

다. 이 실험의 결과로 첫 번째 예의 손실 함수 쪽 출력이 작으며 정답 레이블과의 오차도 작은<br />

것을 알 수 있습니다. 즉, 평균 제곱 오차를 기준으로는 첫 번째 추정 결과가 (오차가 더 작으<br />

니) 정답에 더 가까울 것으로 판단할 수 있습니다.<br />

4.2.2 교차 엔트로피 오차<br />

또 다른 손실 함수로서 교차 엔트로피 오차 cross entropy error, CEE 도 자주 이용합니다. 교차 엔트로피 오<br />

차의 수식은 다음과 같습니다.<br />

4장 - 신경망 학습<br />

113

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!