19.01.2015 Views

Poznawanie własności sieci neuronowych w środowisku MATLAB

Poznawanie własności sieci neuronowych w środowisku MATLAB

Poznawanie własności sieci neuronowych w środowisku MATLAB

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

4.2. Dokładny model neuronu 47<br />

Uwzględniając zawsze jednakową wartość biasu<br />

Ostatecznie otrzymaliśmy równanie prostej<br />

−w 0 + w 1 x 1 + w 2 x 2 = 0 (4.2)<br />

x 2 = − w 1<br />

w 2<br />

x 1 + w 0<br />

w 2<br />

(4.3)<br />

która jest granicą decyzyjną neuronu, a której parametry (nachylenie i przesuniecie)<br />

zależą od wag neuronu (a dokładniej: od ich wzajemnych proporcji).<br />

Pojedynczy neuron jest więc dyskryminatorem liniowym. Oznacza to, że na<br />

płaszczyźnie jest w stanie rozdzielić punkty do różnych klas linią prostą. Jak łatwo<br />

zauważyć, pozbawienie neuronu wejścia progowego ograniczało jego zdolności<br />

do linii przechodzących przez środek układu współrzędnych, których nachylenie<br />

można regulować zmieniając wagi neuronu, bez możliwości regulacji ich przesunięcia.<br />

Jak pokazały nam dotychczasowe ćwiczenia, w zupełności wystarczało to<br />

do klasyfikacji zwierząt jako: ssaki, ptaki i ryby, już nie na płaszczyźnie, lecz<br />

w pięciowymiarowej przestrzeni sygnałów wejściowych. Rozważane tu zdolności<br />

klasyfikacyjne neuronu można więc uogólnić na przestrzenie wejściowe o większej<br />

liczbie wymiarów.<br />

Neuron o S wejściach, wyposażony w wejście progowe (bias) ma S + 1 parametrów,<br />

które można dowolnie „dostroić” w procesie uczenia. Ponieważ jest on<br />

dyskryminatorem liniowym, to w S-wymiarowej przestrzeni sygnałów wejściowych<br />

jest w stanie rozdzielać punkty na dwie klasy przy pomocy hiperpłaszczyzn.<br />

Czytelnik może sprawdzić, że neuron o dwóch wejściach może na płaszczyźnie<br />

ustawić swoje wagi tak, aby rozdzielić 3 punkty na wszystkie możliwe sposoby<br />

(kombinacje klas dla poszczególnych punktów). W ogólności potrafi on w S-wymiarowej<br />

przestrzeni rozdzielić S + 1 punktów na wszystkie możliwe sposoby<br />

– i tyle właśnie wynosi jego wymiar Vapnika-Chervonenkisa. Wielkość ta jest<br />

ściśle związana z teorią rozpoznawania i pozwala określić zdolności klasyfikacyjne<br />

maszyn uczących (w tym <strong>sieci</strong> <strong>neuronowych</strong>). Przydaje się także m.in. do szacowania<br />

liczby przykładów w zbiorze uczącym potrzebnych do prawidłowego nauczenia<br />

<strong>sieci</strong>, lub do określenia, jaki błąd sieć jest w stanie osiągnąć przy zbiorze uczącym<br />

o ustalonej liczbie przykładów.<br />

Jedno z następnych ćwiczeń pokaże nam, że w istocie jedyną granicą decyzyjną,<br />

jaką jest w stanie wytworzyć pojedynczy neuron, jest właśnie linia prosta.<br />

Dalsze ćwiczenia pokażą nam jednak, że z takich pojedynczych liniowych granic<br />

decyzyjnych, <strong>sieci</strong> dwuwarstwowe są w stanie tworzyć bardzo skomplikowane<br />

granice nieliniowe.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!