18.07.2013 Views

информация, язык, интеллект № 3 (77) 2011

информация, язык, интеллект № 3 (77) 2011

информация, язык, интеллект № 3 (77) 2011

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

К.В. Барило<br />

110<br />

l<br />

m<br />

*<br />

dm<br />

=<br />

d x ⊕ x<br />

→ min , (3)<br />

( )<br />

m c<br />

* o<br />

де dm – оптимальний радіус контейнера класу X m ;<br />

d( xm ⊕ xc)<br />

міжцентрова відстань між еталонним<br />

o<br />

вектором xm ∈ Xm<br />

і еталонним вектором xc най-<br />

o<br />

ближчого сусіднього класу X c .<br />

Після проведення навчання системи та знаходження<br />

оптимальних параметрів контейнерів<br />

класів розпізнавання міжцентрові кодові відстані<br />

для заданого алфавіту класів розпізнавання відповідно<br />

дорівнювали: d( x1⊕ x2)<br />

=17, d( x1⊕ x3)<br />

=32,<br />

d( x1⊕ x4)<br />

=35, d( x2 ⊕ x3)<br />

=17, d( x2 ⊕ x4)<br />

=18,<br />

d( x3 ⊕ x4)<br />

=23. При цьому середнє значення міжцентрової<br />

кодової відстані дорівнює 24 кодових<br />

одиниць. А усереднене значення коефіцієнта нечіткої<br />

компактності (3) дорівнює<br />

M<br />

1<br />

l = lm = 0,75.<br />

M<br />

∑<br />

m=<br />

1<br />

Згідено з максимально-дистанційним принципом<br />

теорії розпізнавання образів одним із шляхів<br />

підвищення функціональної ефективності навчання<br />

системи є збільшення міжцентрових кодових<br />

відстаней. З цією метою в рамках ІЕІ-технології<br />

було проведено на етапі навчання за процедурою<br />

(1) оптимізацію рівня селекції координат еталонних<br />

векторів-реалізацій класів розпізнавання. Графік<br />

залежності усередненого значення КФЕ для<br />

заданого алфавіту класів розпізнавання від значення<br />

рівня селекції ρ показано на рис. 4.<br />

Рис. 4. Графік залежності усередненого КФЕ<br />

від значення рівня селекції<br />

Аналіз рис.4 показує, що оптимальне значення<br />

рівня селекції визначається при глобальному максимумі<br />

КФЕ і дорівнює ρ *<br />

= 087 , . Таким чином,<br />

порівняльний аналіз графіків, показаних на рис. 2 і<br />

рис. 4 дозволяє зробити висновок, що оптимізація<br />

рівня селекції дозволило збільшити значення усередненого<br />

КФЕ з 4,93 (при ρ=050 , ) до 5,68.<br />

На рис. 5 показано графіки залежності КФЕ від<br />

радіусів контейнерів відповідних класів розпізнавання<br />

для оптимального рівня селекції координат<br />

еталонних векторів.<br />

Аналіз рис. 5 показує, що відновлені в процесі<br />

навчання гіперсферичні контейнери класів роз-<br />

*<br />

пізнавання мають такі оптимальні радіуси: d1 = 22 ,<br />

*<br />

= . При цьому міжцентрові<br />

* *<br />

d2 = 3, d3 = 25 і d4 22<br />

кодові відстані для заданого алфавіту класів розпізнавання<br />

відповідно дорівнюють: d( x1⊕ x2)<br />

=25,<br />

d( x1⊕ x3)<br />

=48, d( x1⊕ x4)<br />

=44, d( x2 ⊕ x3)<br />

=27,<br />

d( x2 ⊕ x4)<br />

=28, d( x3 ⊕ x4)<br />

=36, а значення середньої<br />

міжцентрової кодової відстані дорівнює 35,<br />

що суттєво перевищує аналогічне значення, одержане<br />

при неоптимальному значенні рівня селекції<br />

( ρ=050 , ), яке застосовується за замовченням.<br />

а<br />

б<br />

в<br />

г<br />

Рис. 5. Графік залежності КФЕ навчання від радіусів<br />

контейнерів класів розпізнавання: а – клас X o<br />

1 ;<br />

б – клас X o<br />

2<br />

o<br />

o<br />

; в – клас X 3 ; г – клас X 4<br />

Таким чином, усереднений коефіцієнт нечіткої<br />

компактності дорівнює l =0,68 (до оптимізації рівня<br />

селекції l =0,75), що свідчить про зменшення<br />

при оптимальному рівні селекції ступеня перетину<br />

класів розпізнавання.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!