11.07.2015 Views

Å eit - Vidzemes Augstskola

Å eit - Vidzemes Augstskola

Å eit - Vidzemes Augstskola

SHOW MORE
SHOW LESS
  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

188SecinājumiLēmumu koku klasifikatoru efektivitāti negatīvi ietekmē atribūtu vērtību nepilnības (pārāk daudz vaimaz vērtību, lai ar minimālu atribūtu skaitu iegūtu optimālu koku), kuru var novērst ar taksonomijuizmantošanas palīdzību, un klašu iekšējās struktūras sarežģītība, kuru var novērst, izmantojot klašudekompozīciju.Lai noteiktu blīvuma apgabalus klašu dekompozīcijai, visizdevīgākā metode ir hierarhiskā klasterizācija,jo tai nav nepieciešamas aprioras zināšanas par datu iekšējo struktūru. Taču klasifikācijas algoritmaizvēli sarežģī fakts, ka algoritms, kurš bez klašu dekompozīcijas uzrādīja zemākus rezultātus par citiemalgoritmiem, var izrādīties piemērotākais, izmantojot klašu dekompozīciju. Vēl viens sarežģījums ir tas,ka klasteru kombinācijas izvēlē klašu dekompozīcijai ir jāveic tās novērtēšana, veicot pilnu klasifikāciju,jo iepriekš zināmās heiristikas nedarbojas pietiekami efektīvi.Datu kopās, kurās iekšējās sakarības ir pilnībā izzinātas, visefektīvākās ir ekspertu taksonomijas, betpārējās – AVT-Learner izveidotās taksonomijas, kas iekļauj papildus informāciju, ko iegūst no datiemprojektēšanas posmā.Efektivitātes uzlabošanas metodes kopumā var pasliktināt klasifikatoru veiktspēju, kas ir saistīts arsarežģītu klašu savstarpējo pārklāšanos vai pārapmācību, taču lielākoties efektivitāte, izmantojot kāduno metodēm, uzlabojās, bet klasifikatora izmērs, izmantojot atribūtu vērtību taksonomijas, parastisamazinājās.Literatūras saraksts1. Brazdil P.B., Soares C., Da Costa J.P. Ranking learning algorithms: Using IBL and meta-learning onaccuracy and time results // Machine Learning – Vol. 50 (2003), 251.-277. lpp.2. Quinlan J. R. C4.5: Programs for Machine Learning. – San Mateo: Morgan Kaufmann Pub., 1993. – 302lpp.3. Classification and Regression Trees / L. Breiman, J. Friedman, R. Olshen, C. Stone. –Belmont:Wadsworth Int. Group, 1984. – 368 lpp.4. Kohavi R., Quinlan J. R. Decision-tree discovery. // Handbook of Data Mining and KnowledgeDiscovery / Klosgen W., Zytkow J. M., editors,. – Oxford: Oxford University Press, 2002. – 267.-276. lpp.5. Han J., Kamber M. Data Mining: Concepts and Techniques, 2nd ed. Morgan Kaufmann, 2006. – 550lpp.6. Ward, J. H. Hierachical grouping to optimize an objective function. // J. Am. Statist. Assoc. – Vol. 58(1963), 236.-244. lpp.7. Kang D. K., Silvescu A., Zhang J., Honavar V. Generation of attribute Value Taxonomies from Datafor Data-Driven Construction of Accurate and Compact Classifiers. // Proceedings of the 4th IEEEInternational Conference on Data Mining 2004, Brighton, UK, November 1-4, 2004. – Washington: IEEEComputer Society, 2004. – 1.-4. lpp.8. Zhang J., Silvescu A., Honavar V. Ontology-Driven Induction of Decision Trees at Multiple Levels ofAbstraction. // Proceedings of Symposium on Abstraction, Reformulation and Approximation 2002,Kananaskis, Alberta, Canada, August 2-4, 2002. – Berlin: Springer Berlin/Heidelberg, 2002. – 316. 323.lpp.<strong>Vidzemes</strong> <strong>Augstskola</strong>s 4.Studentu pētniecisko darbu konferences rakstu krājums

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!