Poznawanie wÅasnoÅci sieci neuronowych w Årodowisku MATLAB
Poznawanie wÅasnoÅci sieci neuronowych w Årodowisku MATLAB
Poznawanie wÅasnoÅci sieci neuronowych w Årodowisku MATLAB
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
4.2. Dokładny model neuronu 47<br />
Uwzględniając zawsze jednakową wartość biasu<br />
Ostatecznie otrzymaliśmy równanie prostej<br />
−w 0 + w 1 x 1 + w 2 x 2 = 0 (4.2)<br />
x 2 = − w 1<br />
w 2<br />
x 1 + w 0<br />
w 2<br />
(4.3)<br />
która jest granicą decyzyjną neuronu, a której parametry (nachylenie i przesuniecie)<br />
zależą od wag neuronu (a dokładniej: od ich wzajemnych proporcji).<br />
Pojedynczy neuron jest więc dyskryminatorem liniowym. Oznacza to, że na<br />
płaszczyźnie jest w stanie rozdzielić punkty do różnych klas linią prostą. Jak łatwo<br />
zauważyć, pozbawienie neuronu wejścia progowego ograniczało jego zdolności<br />
do linii przechodzących przez środek układu współrzędnych, których nachylenie<br />
można regulować zmieniając wagi neuronu, bez możliwości regulacji ich przesunięcia.<br />
Jak pokazały nam dotychczasowe ćwiczenia, w zupełności wystarczało to<br />
do klasyfikacji zwierząt jako: ssaki, ptaki i ryby, już nie na płaszczyźnie, lecz<br />
w pięciowymiarowej przestrzeni sygnałów wejściowych. Rozważane tu zdolności<br />
klasyfikacyjne neuronu można więc uogólnić na przestrzenie wejściowe o większej<br />
liczbie wymiarów.<br />
Neuron o S wejściach, wyposażony w wejście progowe (bias) ma S + 1 parametrów,<br />
które można dowolnie „dostroić” w procesie uczenia. Ponieważ jest on<br />
dyskryminatorem liniowym, to w S-wymiarowej przestrzeni sygnałów wejściowych<br />
jest w stanie rozdzielać punkty na dwie klasy przy pomocy hiperpłaszczyzn.<br />
Czytelnik może sprawdzić, że neuron o dwóch wejściach może na płaszczyźnie<br />
ustawić swoje wagi tak, aby rozdzielić 3 punkty na wszystkie możliwe sposoby<br />
(kombinacje klas dla poszczególnych punktów). W ogólności potrafi on w S-wymiarowej<br />
przestrzeni rozdzielić S + 1 punktów na wszystkie możliwe sposoby<br />
– i tyle właśnie wynosi jego wymiar Vapnika-Chervonenkisa. Wielkość ta jest<br />
ściśle związana z teorią rozpoznawania i pozwala określić zdolności klasyfikacyjne<br />
maszyn uczących (w tym <strong>sieci</strong> <strong>neuronowych</strong>). Przydaje się także m.in. do szacowania<br />
liczby przykładów w zbiorze uczącym potrzebnych do prawidłowego nauczenia<br />
<strong>sieci</strong>, lub do określenia, jaki błąd sieć jest w stanie osiągnąć przy zbiorze uczącym<br />
o ustalonej liczbie przykładów.<br />
Jedno z następnych ćwiczeń pokaże nam, że w istocie jedyną granicą decyzyjną,<br />
jaką jest w stanie wytworzyć pojedynczy neuron, jest właśnie linia prosta.<br />
Dalsze ćwiczenia pokażą nam jednak, że z takich pojedynczych liniowych granic<br />
decyzyjnych, <strong>sieci</strong> dwuwarstwowe są w stanie tworzyć bardzo skomplikowane<br />
granice nieliniowe.