uzaktan algılamada ileri sınıflandırma tekniklerinin karÅılaÅtırılması ...
uzaktan algılamada ileri sınıflandırma tekniklerinin karÅılaÅtırılması ...
uzaktan algılamada ileri sınıflandırma tekniklerinin karÅılaÅtırılması ...
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
T.C.<br />
GEBZE YÜKSEK TEKNOLOJİ ENSTİTÜSÜ<br />
MÜHENDİSLİK VE FEN BİLİMLERİ ENSTİTÜSÜ<br />
UZAKTAN ALGILAMADA İLERİ<br />
SINIFLANDIRMA TEKNİKLERİNİN<br />
KARŞILAŞTIRILMASI VE ANALİZİ<br />
İsmail ÇÖLKESEN<br />
YÜKSEK LİSANS TEZİ<br />
JEODEZİ VE FOTOGRAMETRİ MÜHENDİSLİĞİ<br />
ANABİLİM DALI<br />
TEZ DANIŞMANI<br />
Doç. Dr. Taşkın KAVZOĞLU<br />
GEBZE<br />
2009
ii<br />
ÖZET<br />
TEZİN BAŞLIĞI: Uzaktan Algılamada İleri Sınıflandırma Tekniklerinin<br />
Karşılaştırılması ve Analizi<br />
YAZAR ADI : İsmail ÇÖLKESEN<br />
Global ve yerel ölçekteki birçok uygulamada yeryüzüne ait doğru ve hassas bilgilere<br />
ihtiyaç duymaktadır. Bu bilgiler çevre kalitesinin analizi, şehircilik faaliyetleri, doğal<br />
kaynakların yönetimi ve planlanması gibi çeşitli uygulamalar için önemli birer kaynak<br />
durumundadır. Uzaktan algılama teknoloj<strong>ileri</strong> farklı konumsal ve spektral çözünürlüklerde,<br />
değişik zaman aralıklarında yeryüzünü görüntüleyebilme kabiliyetine sahip olduğundan bu<br />
bilg<strong>ileri</strong>n elde edilmesinde önemli bir kaynak durumundadır. Bu geniş çalışma alanı içerisinde<br />
<strong>uzaktan</strong> algılamanın en yoğun olarak kullanıldığı alan arazi örtüsü ve arazi kullanımının<br />
belirlenmesidir. Uzaktan algılanmış görüntülerin sınıflandırılması arazi örtüsü ve/veya arazi<br />
kullanımına ait bilg<strong>ileri</strong>nin elde edilmesinde kullanılan en yaygın yöntemdir. Sınıflandırma<br />
sonucu elde edilen tematik haritaların analizi ve yorumlanması ile yeryüzüne ait bilgilere<br />
ulaşmak mümkün olmaktadır. Doğru ve güncel tematik haritaların kullanımı herhangi bir<br />
çalışmanın başarı oranını artırabilir. Literatürde 1972’de ilk uydu görüntüsünün elde<br />
edilmesinden günümüze kadar birçok sınıflandırma yöntemi geliştirilmiş ve çeşitli<br />
derecelerde başarılar elde edilmiştir. Bu yöntemler arasında istatistiksel bir temele dayanan en<br />
çok benzerlik sınıflandırıcısı en yaygın kullanılanıdır. Parametrik yaklaşımların istatistiksel<br />
kabullere dayalı yapıları nedeniyle, son yıllarda <strong>uzaktan</strong> algılanmış görüntülerin<br />
sınıflandırılmasında parametrik olmayan yöntemler (yapay sinir ağları, destek vektör<br />
makineleri ve karar ağaçları) kullanılmaktadır.<br />
Bu tez çalışmasının ikinci bölümünde <strong>uzaktan</strong> algılama ve temel esasları, sayısal<br />
görüntü analizi, sınıflandırma yöntemleri ve çeşitli uydu sistemleri hakkında genel bilgiler<br />
verilmiştir. Çalışmanın üçüncü bölümünde, son yıllarda <strong>uzaktan</strong> algılamada kullanılan <strong>ileri</strong><br />
sınıflandırma tekniklerinden destek vektör makineleri, karar ağaçları, karar ağacı iyileştirme<br />
algoritmaları, yapay sinir ağları ve K-star sınıflandırıcıları ile ilgili literatür taraması<br />
yapılmıştır. Çalışmanın dördüncü bölümü olan uygulama kısmında ise Gebze ilçesini<br />
kapsayan Landsat ETM+ (1997) ve Terra ASTER (2002) görüntülerinin söz konusu<br />
yöntemler ile sınıflandırılarak arazi örtüsü ve kullanımının belirlenmesi amaçlanmıştır. Bu<br />
yöntemler ve elde edilen sonuçlar etkili faktörlerde (parametreler) göz önüne alınarak detaylı
iii<br />
bir şekilde analiz edilmiştir. Sınıflandırıcıların sahip olduğu parametreler ve bu parametrelerin<br />
sınıflandırma doğruluğuna etk<strong>ileri</strong> muhtemel parametre kombinasyonları kullanılarak<br />
incelenmiştir. Son olarak metotların kullanımları ve performansları en çok benzerlik yöntemi<br />
ile karşılaştırılmıştır.<br />
İleri sınıflandırma algoritmaları <strong>uzaktan</strong> algılanmış görüntülerin sınıflandırılmasında<br />
etkili yöntemlerdir. Özellikle parametrik olmayan yapılarıyla destek vektör makineleri, yapay<br />
sinir ağları, iyileştirilmiş karar ağaçları ve K-star sınıflandırıcıları en öneml<strong>ileri</strong>dir. Yüksek<br />
genelleştirme kabiliyetleri ve sınıflandırma performanslarının yanında matematiksel ifadeleri<br />
zor ve karmaşıktır. Sınıflandırma öncesinde kullanıcı tarafından belirlenmesi gereken çeşitli<br />
parametrelere sahiptirler. Parametre seçimi sınıflandırma performanslarını önemli ölçüde<br />
etkilediğinden en uygun parametre değerlerinin belirlenmesinin bu yöntemlerinin<br />
kullanımında karşılaşılan en önemli problem olduğu söylenebilir. En çok benzerlik<br />
sınıflandırıcısı basit bir matematiksel ifadeye sahip olmasına karşın bu çalışmada<br />
değerlendirilen sınıflandırıcılarla karşılaştırıldığında sınıflandırma doğruluğu açısından daha<br />
düşük sonuçlar üretmektedir. Elde edilen sonuçlar <strong>ileri</strong> sınıflandırma <strong>tekniklerinin</strong> <strong>uzaktan</strong><br />
algılanmış görüntülerin sınıflandırılmasında geleneksel sınıflandırıcılara göre iyi ve etkili bir<br />
alternatif olduklarını göstermektedir.
iv<br />
SUMMARY<br />
TITLE : Comparing and Analyzing of Advanced Classifier Techniques in<br />
Remote Sensing<br />
NAME : İsmail ÇÖLKESEN<br />
Accurate and precise information about the Earth’s surface are required for many<br />
applications at global and local scales. This information is invaluable sources in various<br />
applications, such as environmental quality analysis, urban activities, managing and planning<br />
of natural resources. Having a capability of monitoring the Earth’s surface at various spatial<br />
and temporal scales, the remote sensing technology is the only source providing such<br />
information. Within this wide application area determination of land cover and land use<br />
information has been is the most concentrated issue in remote sensing field. Classification of<br />
remotely sensed images has been the way of obtaining to land cover and land use information.<br />
It is possible to acquire such information through the analysis and interpreting of thematic<br />
maps produced after the classification process. The use of accurate and up to date thematic<br />
maps can increase the success rate of any application. Numerous classification algorithms<br />
have been developed and applied in the literature for the classification of remotely sensed<br />
image since the first satellite image was acquired in 1972. Among these algorithms the<br />
maximum likelihood classifier has been the most widely used one that is based on statistical<br />
theory. In order to avoid the assumptions of the parametric approaches, non-parametric<br />
methods (i.e. artificial neural networks, support vector machines and decision trees) have been<br />
recently introduced for the classification of remote sensing images.<br />
In the introduction part of this thesis, general information about the basic principles of<br />
remote sensing, digital image analysis, classification techniques and various satellite systems<br />
are given. In the second part, literature review about the advanced classification techniques<br />
namely support vector machines, decision trees, decision tree enhancement algorithms,<br />
artificial neural networks and K-star classifier are discussed. In the application part (Section<br />
4), the classifiers were employed to determine land cover/use types of Gebze district of<br />
Kocaeli using Landsat ETM+ (1997) and Terra ASTER (2002) images. The methods and their<br />
results were analyzed in detail considering the effective factors (i.e. parameters). Parameters<br />
of the classifiers and their effects on the classification accuracy were also examined by
v<br />
applying possible combinations of the parameters. At the end, comparisons of the methods<br />
were made in terms of their use and performances with the benchmark classifier, the<br />
maximum likelihood.<br />
Advanced classifier algorithms have been reported to be effective in the classification of<br />
remotely sensed images. Especially, support vector machines, neural networks, enhanced<br />
decision trees and K-star classifiers with their non-parametric natures are the most important<br />
ones. Despite they have significant generalization capability and high classification<br />
performances, their mathematical expressions are difficult and complex. In addition, they<br />
have parameters that need to be defined by the analyst before the classification process. It can<br />
be said that determining the optimum parameters is the main problem encountered in the use<br />
of these methods since parameter choices significantly affect the classification performances.<br />
The maximum likelihood classifier has a simple mathematical expression, but they produce<br />
lower results in terms of classification accuracy compared to the classifier considered in this<br />
research. Results show that advanced classifiers are good and effective alternatives to the<br />
traditional parametric classifier for the classification of remotely sensed imagery.
vi<br />
TEŞEKKÜR<br />
Yüksek lisans tez çalışmamda, tez konusunun seçiminden hazırlanmasına<br />
kadar tüm aşamalarında değerli görüşlerinden ve bilgisinden istifade ettiğim tez<br />
danışmanım değerli hocam Sayın Doç.Dr. Taşkın Kavzoğlu’na,<br />
Tez araştırması süresince değerli fikirleri yol gösteren Yrd.Doç.Dr Halis<br />
Saka’ya ve bölümümüzde görev yapmakta olan değerli öğretim elemanlarına,<br />
Bana, her konuda ilgisini ve desteğini hiçbir zaman eksik etmeyen sevgili eşim<br />
Solmaz Çölkesen’e ve değerli aileme;<br />
Teşekkürlerimi sunarım.
vii<br />
İÇİNDEKİLER DİZİNİ<br />
Sayfa<br />
ÖZET<br />
ii<br />
SUMMARY<br />
iv<br />
TEŞEKKÜR<br />
vi<br />
İÇİNDEKİLER DİZİNİ<br />
vii<br />
ŞEKİLLER DİZİNİ<br />
xi<br />
TABLOLAR DİZİNİ<br />
xv<br />
1. GİRİŞ 1<br />
2. UZAKTAN ALGILAMA VE TEMEL ESASLARI 4<br />
2.1. Işık Kaynağı ve Elektromanyetik Enerji 4<br />
2.2. Atmosferik Etkiler 6<br />
2.3. Atmosferik Pencereler ve Nesnelerin İmzası 7<br />
2.4. Uzaktan Algılamada Çözünürlük Kavramı 11<br />
2.4.1. Konumsal Çözünürlük 12<br />
2.4.2. Spektral Çözünürlük 14<br />
2.4.3. Radyometrik Çözünürlük 14<br />
2.4.5. Zamansal Çözünürlük 15<br />
2.5. Uzaktan Algılamada Görüntü Analiz Sistemleri 16<br />
2.5.1. Ön İşlem 16<br />
2.5.2. Görüntü İyileştirme 18<br />
2.5.3. Görüntü Dönüşümleri 19<br />
2.5.4. Görüntü Sınıflandırma ve Analiz 20<br />
2.5.4.1. Kontrolsüz Sınıflandırma 21<br />
2.5.4.2. Kontrollü Sınıflandırma 22<br />
2.5.4.2.1. En Kısa Uzaklık Sınıflandırıcısı 23<br />
2.5.4.2.2. Paralel Kenar Sınıflandırıcısı 24<br />
2.5.4.2.3. Mahalanobis Uzaklığı Sınıflandırıcısı 25<br />
2.5.4.2.4. En Çok Benzerlik Sınıflandırma Algoritması 26<br />
2.6. Uzaktan Algılama Uyduları 27<br />
2.6.1. LANDSAT Uydu Sistemi 27
viii<br />
2.6.2. TERRA Uydu Sistemi 29<br />
2.6.3. SPOT Uydu Sistemi 29<br />
3. UZAKTAN ALGILAMADA İLERİ SINIFLANDIRMA TEKNİKLERİ 31<br />
3.1. Destek Vektör Makineleri 31<br />
3.1.1. Doğrusal Olarak Ayrım Yapılabilen Veriler 33<br />
3.1.2. Doğrusal Olmayan Veriler 37<br />
3.1.3. Doğrusal Olmayan Destek Vektör Makineleri 41<br />
3.1.4. Çok Sınıflı Destek Vektör Makineleri 43<br />
3.1.5. DVM ile Sınıflandırmada Veri Ön İşleme ve Model Seçimi 46<br />
3.2. Karar Ağaçları 48<br />
3.2.1. Karar Ağacı Oluşturulmasında Kullanılan Yöntemler 51<br />
3.2.1.1. Aşağıdan-Yukarıya Yaklaşımı 52<br />
3.2.1.2. Yukarıdan-Aşağıya Yaklaşımı 52<br />
3.2.1.2.1. Karar Ağaçlarında Dallanma Kriterleri ve Öznitelik Seçimi 54<br />
3.2.1.2.2. Bilgi Kazancı ve Bilgi Kazanç Oranı Kriterleri 54<br />
3.2.1.2.3. Gini İndeksi 57<br />
3.2.1.2.4. Towing Kuralı 58<br />
2<br />
3.2.1.2.5. Ki-Kare Olasılık Tablo İstatistiği ( χ )<br />
58<br />
3.2.1.3. Melez Yaklaşım 59<br />
3.2.1.4. Gelişme-Budama Yöntemi 60<br />
3.2.2. Veri Ayırma Yöntemine Dayalı Karar Ağacı Sınıflandırma Algoritmaları 60<br />
3.2.2.1. Tek değişkenli Karar Ağaçları 61<br />
3.2.2.2. Çok Değişkenli Karar Ağaçları 62<br />
3.2.2.3. Melez Karar Ağacı Sınıflandırıcısı 64<br />
3.2.3. Karar Ağaçlarının Budanması 65<br />
3.2.4. Karar Ağaçlarının İyileştirilmesinde Kullanılan Yöntemler 68<br />
3.2.4.1. Hızlandırma 69<br />
3.2.4.2. Torbalama 71<br />
3.2.4.3. Çoklu Hızlandırma 73<br />
3.2.4.4. Rastgele Orman 73<br />
3.2.4.5. DECORATE Algoritması 75<br />
3.3. Yapay Sinir Ağları 75<br />
3.3.1. Biyolojik ve Yapay Sinir Ağlarının Çalışma Prensibi 76
ix<br />
3.3.2. Yapay Sinir Ağlarının Sınıflandırılması 79<br />
3.3.2.1. Yapılarına Göre Yapay Sinir Ağları 79<br />
3.3.2.1.1. İleri Beslemeli Yapay Sinir Ağları 79<br />
3.3.2.1.2. Geri Beslemeli Yapay Sinir Ağları 80<br />
3.3.2.2. Öğrenme Algoritmalarına Göre Yapay Sinir Ağları 80<br />
3.3.2.2.1. Kontrollü Öğrenme 80<br />
3.3.2.2.2. Kontrolsüz Öğrenme 81<br />
3.3.2.2.3. Takviyeli Öğrenme 81<br />
3.3.3. Çok Katmanlı Perseptron 81<br />
3.3.3.1. Öğrenme Algoritmaları 82<br />
3.3.4. Yapay Sinir Ağları ile Görüntü Sınıflandırma 85<br />
3.4. Örnek Tabanlı Öğrenme ve K-Star Sınıflandırıcısı 87<br />
4. UYGULAMA 93<br />
4.1. Çalışma Alanı 93<br />
4.2. Uygulama Konusu ve Amacı 94<br />
4.3. Kullanılan Veri ve Yazılımlar 94<br />
4.4. Uygulama Aşamaları 95<br />
4.4.1. Uydu Görüntülerinin Geometrik Düzeltilmesi ve Yeniden Örneklenmesi 95<br />
4.4.2. Arazi Örtüsü Sınıfları ve Eğitim Alanlarının Belirlenmesi 96<br />
4.4.3. Uydu Görüntülerinin Sınıflandırılması 97<br />
4.4.3.1. En Çok Benzerlik Yöntemi ile Sınıflandırma 98<br />
4.4.3.2. Destek Vektör Makineleri ile Sınıflandırma 99<br />
4.4.3.2.1. Polinom Kernel Fonksiyonu ile Sınıflandırma 100<br />
4.4.3.2.2. Radyal Tabanlı Kernel Fonksiyonu ile Sınıflandırma 104<br />
4.4.3.2.3. Pearson VII Fonksiyonu ile Sınıflandırma 108<br />
4.4.3.3. Karar Ağaçları ile Sınıflandırma 111<br />
4.4.3.3.1. C4.5 Karar Ağacı Algoritması ile Sınıflandırma 111<br />
4.4.3.3.2. Karar Ağacı İyileştirme Algoritmaları ile Sınıflandırma 115<br />
4.4.3.3.2.1. Hızlandırma Algoritması İle Sınıflandırma 115<br />
4.4.3.3.2.2. Torbalama Algoritması İle Sınıflandırma 117<br />
4.4.3.3.2.3. Çoklu Hızlandırma Algoritması İle Sınıflandırma 119<br />
4.4.3.3.2.4. Rastgele Orman Algoritması İle Sınıflandırma 122<br />
4.4.3.3.2.5. DECORATE Algoritması İle Sınıflandırma 125
x<br />
4.4.3.4. Yapay Sinir Ağları ile Sınıflandırma 128<br />
4.4.3.5. K-Star Algoritması İle Sınıflandırma 129<br />
5. SONUÇLAR VE ÖNERİLER 132<br />
KAYNAKLAR DİZİNİ 139<br />
ÖZGEÇMİŞ 153
xi<br />
ŞEKİLLER DİZİNİ<br />
Şekil<br />
Sayfa<br />
2.1. Elektromanyetik dalgalar. 5<br />
2.2. Elektromanyetik spektrum ve <strong>uzaktan</strong> algılamada kullanılan bölgeleri. 6<br />
2.3. Toprak, bitki ve su için genelleştirilmiş spektral yansıtım grafiği. 10<br />
2.4. Uzaktan algılama uyduları için anlık görüş alanının açısal ve uzunluk<br />
olarak ifadesi.<br />
2.5. Konumsal çözünürlük kavramı. (a) 1 metre, (b) 10 metre, (c) 30 metre<br />
çözünürlüklü görüntüler.<br />
13<br />
13<br />
2.6. En kısa uzaklık (spektral uzaklık) sınıflandırıcısı. 24<br />
2.7. Paralelkenar sınıflandırıcısı. 25<br />
3.1. İki sınıflı bir problemde ver<strong>ileri</strong> ayıran hiper düzlemler. 32<br />
3.2. İki sınıflı bir problemde en uygun hiper düzlem, sınır ve destek<br />
vektörleri.<br />
3.3. Doğrusal olarak ayrılabilen veri setleri için hiper düzlemin<br />
belirlenmesi.<br />
32<br />
35<br />
3.4. Doğrusal olarak ayrılamayan veri seti. 38<br />
3.5. Ayrım yapılamayan veri setleri için hiper düzlemler. 38<br />
3.6. Doğrusal olmayan verin yüksek boyutlu uzaya dönüşümü ve verinin<br />
doğrusal olarak ayrılması.<br />
3.7. Beş boyutlu bir özellik uzayı ve üç sınıf için bir sınıflandırma ağacı.<br />
Şekilde xi<br />
özellik değerlerini, ηi<br />
eşik değerlerini ve Y ise sınıf<br />
etiketlerini göstermektedir.<br />
41<br />
51<br />
3.8. Tek değişkenli karar ağacının paralel eksenli karar sınırları. 61<br />
3.9. Çok değişkenli karar ağacı sınıflandırıcısı için karar sınırları. 63<br />
3.10. Melez karar ağacı sınıflandırıcısına ait örnek bir yapı. 64<br />
3.11. Karar ağacı sınıflandırıcısının birleşimi olan sınıflandırıcı. 69<br />
3.12. Biyolojik nöronun genel yapısı ve bileşenleri. 77
xii<br />
3.13. Yapay nöronun genel yapısı ve bileşenleri. 78<br />
3.14. Dört tabakalı <strong>ileri</strong> beslemeli basit bir çok katmanlı perseptron ağı. 82<br />
4.1. Çalışma alanı haritası. 93<br />
4.2. En çok benzerlik yöntemiyle elde edilen tematik haritalar.<br />
(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />
4.3. Landsat ETM+ uydu görüntüsü için düzenleme parametresi C’deki<br />
değişimlerin sınıflandırma doğruluğuna etkisi.<br />
4.4. Terra ASTER uydu görüntüsü için düzenleme parametresindeki (C)<br />
değişimlerin sınıflandırma doğruluğuna etkisi.<br />
4.5. Landsat ETM+ uydu görüntüsü için polinom derecesindeki (d)<br />
değişimlerin sınıflandırma doğruluğuna etkisi.<br />
4.6. Terra ASTER uydu görüntüsü için polinom derecesindeki (d)<br />
değişimlerin sınıflandırma doğruluğuna etkisi.<br />
4.7. Polinom kernel fonksiyonu kullanılarak elde edilen tematik haritalar.<br />
(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />
4.8. Landsat ETM+ uydu görüntüsü için düzenleme parametresi C’deki<br />
değişimlerin sınıflandırma doğruluğuna etkisi.<br />
4.9. Terra ASTER uydu görüntüsü için düzenleme parametresi C’deki<br />
değişimlerin sınıflandırma doğruluğuna etkisi.<br />
4.10. Landsat ETM+ uydu görüntüsü için Gama parametresindeki (γ )<br />
değişimlerin sınıflandırma doğruluğuna etkisi.<br />
4.11. Terra ASTER uydu görüntüsü için Gama parametresindeki (γ )<br />
değişimlerin sınıflandırma doğruluğuna etkisi.<br />
4.12. Radyal Tabanlı kernel fonksiyonu kullanılarak elde edilen tematik<br />
haritalar. (a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />
4.13. Landsat ETM+ uydu görüntüsü için düzenleme parametresindeki (C)<br />
değişimlerin sınıflandırma doğruluğuna etkisi.<br />
4.14. Terra ASTER uydu görüntüsü için düzenleme parametresindeki (C)<br />
değişimlerin sınıflandırma doğruluğuna etkisi.<br />
4.15. PUK fonksiyonu kullanılarak elde edilen tematik haritalar.<br />
(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />
4.16. Landsat ETM+ görüntüsünün sınıflandırılması için (a) budama<br />
öncesi, (b) budama sonrası oluşturulan modeller.<br />
99<br />
101<br />
101<br />
102<br />
102<br />
103<br />
104<br />
105<br />
106<br />
106<br />
107<br />
109<br />
109<br />
110<br />
114
xiii<br />
4.17. C4.5 algoritması ve ön budama yöntemiyle oluşturulan tematik<br />
haritalar. (a) Landsat ETM+ görüntüsü (b) Terra ASTER görüntüsü.<br />
4.18. Landsat ETM+ için oluşturulacak modelde seçilecek iterasyon sayısı<br />
ve elde edilen sınıflandırma doğrulukları.<br />
4.19. Terra ASTER için oluşturulacak modelde seçilecek iterasyon sayısı<br />
ve elde edilen sınıflandırma doğrulukları.<br />
4.20. Hızlandırma algoritması ile elde edilen tematik haritalar.<br />
(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />
4.21. Landsat ETM+ için oluşturulacak modelde seçilecek iterasyon sayısı<br />
ve elde edilen sınıflandırma doğrulukları.<br />
4.22. Terra ASTER için oluşturulacak modelde seçilecek iterasyon sayısı<br />
ve elde edilen sınıflandırma doğrulukları.<br />
4.23. Torbalama yöntemiyle elde edilen tematik haritalar.<br />
(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />
4.24. Landsat ETM+ için alt komitelerin sayısı ve sınıflandırma<br />
doğrulukları.<br />
114<br />
115<br />
116<br />
116<br />
117<br />
118<br />
118<br />
119<br />
4.25. Landsat ETM+ için iterasyon sayısı ve sınıflandırma doğrulukları. 120<br />
4.26. Terra ASTER için oluşturulacak modelde seçilecek alt komitelerin<br />
sayısı ve elde edilen sınıflandırma doğrulukları.<br />
4.27. Terra ASTER için oluşturulacak modelde seçilecek iterasyon sayısı<br />
ve elde edilen sınıflandırma doğrulukları.<br />
4.28. Çoklu hızlandırma algoritması ile elde edilen tematik haritalar.<br />
(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />
4.29. Landsat ETM+ görüntüsü için çeşitli sayıdaki özellikler ile genel<br />
sınıflandırma doğruluğundaki değişimler.<br />
4.30. Landsat ETM+ görüntüsü için üç özellik kullanılarak oluşturulacak<br />
ağaç sayıları ile genel sınıflandırma doğruluğundaki değişimler.<br />
4.31. Terra ASTER görüntüsü için çeşitli sayıdaki özellikler ile genel<br />
sınıflandırma doğruluğundaki değişimler.<br />
4.32. Terra ASTER görüntüsü için her bir düğümde iki özellik ile<br />
oluşturulacak ağaç sayıları ve genel sınıflandırma doğruluğundaki<br />
değişimler.<br />
4.33. Rastgele orman algoritması ile elde edilen tematik haritalar.<br />
(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />
120<br />
121<br />
122<br />
123<br />
123<br />
124<br />
124<br />
125
xiv<br />
4.34. DECORATE algoritması kullanılarak elde edilen tematik haritalar.<br />
(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />
4.35. Yapay sinir ağları kullanılarak elde edilen tematik haritalar.<br />
(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />
4.36. Landsat ETM+ görüntüsü için harmanlama parametresi ve genel<br />
sınıflandırma doğruluğundaki değişimler.<br />
4.37. Terra ASTER görüntüsü için harmanlama parametresi ve genel<br />
sınıflandırma doğruluğundaki değişimler.<br />
4.38. K-star algoritması kullanılarak elde edilen tematik haritalar.<br />
(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü<br />
5.1. Landsat ETM+ ve Terra ASTER görüntüsünün sınıflandırılmasında<br />
kullanılan yöntemler ve elde edilen genel sınıflandırma doğrulukları.<br />
127<br />
129<br />
130<br />
130<br />
131<br />
132
xv<br />
TABLOLAR DİZİNİ<br />
Tablo<br />
Sayfa<br />
2.1. Landsat uydularının teknik özellikleri 28<br />
2.2. Terra ASTER uydusunun teknik özellikleri 29<br />
2.3. SPOT uydularının teknik özellikleri 30<br />
3.1. Kernel fonksiyonları ve kullanımları 43<br />
3.2. Adaboost yönteminde kullanılan eğitim ver<strong>ileri</strong>nin oluşturulması 71<br />
3.3. Torbalama yönteminde kullanılan eğitim ver<strong>ileri</strong>nin oluşturulması 72<br />
4.1. En Çok Benzerlik (EÇB) yöntemi ile elde edilen sınıflandırma<br />
doğrulukları<br />
4.2. Polinom kernel fonksiyonu için belirlenen en uygun parametre<br />
değerleri ve elde edilen genel sınıflandırma doğrulukları<br />
4.3. Radyal Tabanlı Fonksiyon Kerneli için belirlenen en uygun parametre<br />
değerleri ve elde edilen genel sınıflandırma doğrulukları<br />
4.4. Pearson VII fonksiyonu için belirlenen en uygun parametre değerleri<br />
ve elde edilen genel sınıflandırma doğrulukları<br />
4.5. Landsat ETM+ ve Terra ASTER görüntülerin budama yapılmaksızın<br />
oluşturulan karar ağaçları ile sınıflandırılması ile elde edilen sonuçlar<br />
4.6. Landsat ETM+ ve Terra ASTER görüntülerin ön budama yöntemiyle<br />
oluşturulan karar ağaçları ile sınıflandırılması ile elde edilen sonuçlar<br />
4.7. DECORATE algoritması için belirlenen en uygun parametre değerleri<br />
ve elde edilen genel sınıflandırma doğrulukları<br />
5.1. 1997 ve 2002 yıllarında arazi kullanımında meydana gelen<br />
değişimlerin analizi<br />
98<br />
103<br />
107<br />
110<br />
112<br />
113<br />
127<br />
137
1<br />
1. GİRİŞ<br />
Uzaktan algılama teknoloj<strong>ileri</strong>nin kullanıldığı en önemli uygulama alanlarından<br />
birisi uydu görüntüleri yardımıyla arazi örtüsü ve/veya arazi kullanımının<br />
belirlenerek tematik haritalarının üretilmesidir. Arazi örtüsü ve/veya kullanımının<br />
belirlenmesi gerek planlama gerekse doğal çevrenin korunması açısından son derece<br />
önemlidir. Uzaktan algılama teknoloj<strong>ileri</strong>nin sahip olduğu en önemli avantajlar farklı<br />
konumsal, spektral, radyometrik ve zamansal çözünürlüklere sahip görüntüleri<br />
kullanma imkanı vermesidir. Zamansal çözünürlük özellikle arazi<br />
örtüsü/kullanımında meydana gelen değişimlerin tespit edilmesi ve sürdürülebilir<br />
çevre açısından önem kazanmaktadır.<br />
Uydu görüntüleri üzerinden arazi örtüsü/kullanımının belirlenmesi için en<br />
yaygın olarak kullanılan yöntem söz konusu görüntülerin sınıflandırılmasıdır.<br />
Görüntü sınıflandırma işleminin esası görüntü üzerindeki çeşitli spektral özelliklere<br />
sahip piksellerin, önceden belirlenen arazi örtüsü sınıflarından benzer olduğu bir<br />
sınıfa atanması olarak ifade edilebilir. Uzaktan algılamada uydu görüntülerinin<br />
sınıflandırılmasında kontrollü ve kontrolsüz sınıflandırma olarak bilinen iki yaklaşım<br />
vardır. Kontrolsüz sınıflandırma genellikle arazi hakkında herhangi bir ön bilgiye<br />
sahip olunmadığında veya arazi hakkında bir ön bilgi elde etmek için kullanılan bir<br />
yaklaşımdır. Bu yöntemde görüntü piksellerinin sahip olduğu spektral özellikler<br />
kullanılarak benzer özelliklere sahip piksellerin spektral sınıflar oluşturması ile işlem<br />
gerçekleştirilir. Kontrollü sınıflandırma olarak bilinen yaklaşımda sınıflandırma<br />
öncesinde tüm görüntüyü temsil eden ve sınıfları belli olan sınırlı sayıdaki piksellerin<br />
kullanımı söz konusudur.<br />
Kontrollü sınıflandırma yöntemlerinden literatürde en yaygın olarak kullanılan<br />
ve günümüzde görüntü analiz programlarının birçoğunda yer alan yöntem en çok<br />
benzerlik (EÇB) yöntemidir. EÇB istatistiksel bir teoriye dayanan parametrik bir<br />
sınıflandırma yöntemidir. Sınıfların normal dağılımda olduğu varsayımı nedeniyle<br />
sınırlandırmalar söz konusu olmasına rağmen bu yöntem en yaygın kullanılan<br />
sınıflandırma metotlarından birisidir [Wang, 1990; Hansen et al., 1996]. Son yıllarda
2<br />
<strong>uzaktan</strong> algılanmış görüntülerin sınıflandırılmasında kullanılmaya başlanılan yapay<br />
sinir ağları, destek vektör makineleri, karar ağaçları ve örnek tabanlı sınıflandırıcılar<br />
gibi güçlü ve yüksek genelleştirme kabiliyetine sahip kontrollü sınıflandırma<br />
yöntemleri uygulamalarda yer almaktadır.<br />
Başlangıçta iki sınıflı ver<strong>ileri</strong>n sınıflandırılmasında kullanılan destek vektör<br />
makineleri (DVM) sınıflar arasındaki en uygun ayrımı yapan bir hiper düzlemin<br />
belirlenmesi esasına dayanmaktadır. DVM <strong>uzaktan</strong> algılanmış görüntülerde olduğu<br />
gibi çok sınıflı ve doğrusal olmayan ver<strong>ileri</strong>n sınıflandırılmasında kernel<br />
fonksiyonlarını kullanarak veriyi daha yüksek boyutlu bir uzayda görüntülemekte ve<br />
doğrusal olarak ayrımını gerçekleştirmektedir [Huang et al., 2002].<br />
Karar ağaçları (KA) uydu görüntülerinin sınıflandırılması gibi karmaşık<br />
yapıdaki bir sınıflandırma problemini çok aşamalı bir hale getirerek bir karar verme<br />
işlemi gerçekleştirir [Safavaian and Landgrebe, 1991]. Her bir aşamada kullanılan<br />
değişkenlerin sayısına bağlı olarak tek değişkenli veya çok değişkenli karar ağaçları<br />
vardır [Friedl and Brodley, 1997]. Tek değişkenli karar ağaçları genellikle küresel<br />
ölçekte arazi örtüsü sınıflandırmaları için kullanılmaktadır [DeFries et al., 1998;<br />
Hansen et al., 2000]. Çok değişkenli karar ağaçları tek değişkenli karar ağaçlarına<br />
göre daha hassas olmalarına rağmen, daha karmaşık algoritmalar içermektedirler.<br />
Literartürde karar ağaçlarının sınıflandırma performansını arttırmaya yönelik çeşitli<br />
yaklaşımlar geliştirilmiştir. Bunlar arasında en çok kullanılan yaklaşım birden çok<br />
sınıflandırıcının birleştirilerek tek bir sınıflandırıcının elde edilmesi ve sonuç<br />
sınıflandırıcının kullanılması olarak ifade edilen yaklaşımdır [Opitz and Maclin,<br />
1999; Pal and Mather, 2003]. Hızlandırma, torbalama, çoklu hızlandırma, rastgele<br />
orman ve DECORATE algoritmaları birleştirme işleminde kullanılana<br />
algoritmalardan en öneml<strong>ileri</strong>dir. Bu algoritmalar temel olarak yeniden örneklenen<br />
eğitim setleri ile sınıflandırıcıların ayrı ayrı eğitilmesi ve sonuçta ortaya çıkan<br />
tahminler ile sınıflandırma işleminin gerçekleştirilmesi işlemlerini içermektedirler.<br />
Yapay sinir ağları insan beynindeki nöronların temel çalışma prensibini esas<br />
alan sınıflandırma yöntemleridir. Eğitim örneklerini kullanarak problemi öğrenmekte<br />
ve test ver<strong>ileri</strong> ile yöntemin geçerliliği test edilmektedir. YSA algoritmalarının<br />
istatistiksel kabul gerektirmemeleri, farklı kaynaklardan gelen farklı karakterdeki
3<br />
bilg<strong>ileri</strong> aynı anda kolaylıkla kullanabilmeleri, gürültüyü tolere edebilmeleri ve<br />
öğrenebilme kabiliyetlerinden dolayı bu konuda birçok araştırma yapılmasına neden<br />
olmuştur. Günümüzde birçok yapay sinir ağı modeli geliştirilmiştir [Lippman, 1987].<br />
Bunlar arasında çok katmanlı perseptron (ÇKP) <strong>uzaktan</strong> algılanan görüntülerin<br />
sınıflandırılmasında en yaygın olarak kullanılan [Paola and Schowengerdt, 1995;<br />
Atkinson and Tatnall, 1997] yöntem olmuştur.<br />
Örnek tabanlı sınıflandırıcılar, pikseller arasındaki spektral uzaklıkların yada<br />
benzerliklerin belirlenmesi ile sınıflandırma işlemini gerçekleştiren yöntemlerdir.<br />
Söz konusu uzaklıkların belirlenmesinde çeşitli uzaklık (benzerlik)<br />
fonksiyonlarından yararlanmaktadırlar. Cleary and Trig (1997) tarafından önerilmiş<br />
K-star sınıflandırıcısı pikseller arasındaki uzaklığın belirlenmesinde bilgi teorisine<br />
dayanan entropik uzaklık ölçüsünü kullanmaktadır.<br />
Bu tez çalışmasında Kocaeli ili, Gebze ilçesini kapsayan 1997 ve 2002 tarihli<br />
Landsat ETM+ ve Terra ASTER uydu görüntüleri üzerinden arazi<br />
örtüsü/kullanımının belirlenerek, tematik haritaların elde edilmesi amaçlanmıştır.<br />
Sınıflandırma işleminde en çok benzerlik sınıflandırıcısının yanında tez kapsamında<br />
detaylı olarak incelenen <strong>ileri</strong> sınıflandırma tekniklerinden yapay sinir ağları, destek<br />
vektör makineleri, karar ağaçları ve K-star sınıflandırıcıları kullanılmıştır. Bu<br />
tekniklerin yanında hızlandırma, torbalama, çoklu hızlandırma, rastgele orman ve<br />
DECORATE algoritmaları kullanılarak karar ağacı performansında meydana gelen<br />
değişimler analiz edilmiştir. Söz konusu <strong>ileri</strong> sınıflandırma <strong>tekniklerinin</strong><br />
kullanımında kullanıcı tarafından belirlenmesi esas olan parametreler ve bu<br />
parametrelerin sınıflandırma sonucuna etk<strong>ileri</strong> araştırılmış ve elde edilen sonuçlar<br />
analiz edilmiştir. Yöntemler için belirlenen en uygun parametre değerleri<br />
kullanılarak oluşturulan modeller ile Landsat ETM+ ve Terra ASTER görüntüleri<br />
sınıflandırılmış ve çalışma alanına ait arazi örtüsü/kullanımını gösteren tematik<br />
haritalar oluşturulmuştur. Çalışmada kullanılan tüm sınıflandırma yöntemleri<br />
karşılaştırılarak <strong>uzaktan</strong> algılanmış görüntülerin sınıflandırılmasında kullanımları,<br />
olumlu ve olumsuz yönleri değerlendirilerek irdelenmiştir.
4<br />
2. UZAKTAN ALGILAMA VE TEMEL<br />
ESASLARI<br />
Uzaktan algılama bir cisimle direkt temas etmeksizin onun fiziksel özellikleri<br />
hakkında bilgi elde etme bilimi olarak tanımlanmaktadır [Lillesand and Kiefer,<br />
1994]. Yeryüzünden belirli uzaklıkta, atmosferde veya uzayda hareket eden<br />
platformlara yerleştirilmiş ölçüm aletleriyle objelerle fiziksel temasa geçilmeksizin,<br />
yeryüzünün doğal ve yapay objeleri hakkında bilgi alma ve bunları değerlendirme<br />
tekniğidir [Sesören, 1999]. Jeoloji, ormancılık, hidroloji, tarım, şehircilik gibi bilim<br />
dalları <strong>uzaktan</strong> algılamanın uygulamalarının bulunduğu, bütünleştiği bilim dalıdır.<br />
Uzaktan algılamada uydular üzerinde taşınan algılayıcılar ile yapılan gözlem ve<br />
ölçümler dikkate alınmaktadır. Uzaktan algılama sistemlerinde ölçülen nicelik,<br />
ilgilenilen cisimden yayılan elektromanyetik enerjidir. Uydular veya hava araçları<br />
üzerinde taşınan aletlerle yapılan gözlem ve ölçümlerde elektromanyetik enerjiden<br />
yararlanılır [Kavzoğlu, 2008].<br />
2.1. Işık Kaynağı ve Elektromanyetik Enerji<br />
Uzaktan algılama teknoloj<strong>ileri</strong> ile yeryüzündeki objelerin algılanabilmesinde<br />
ilk gereksinim algılanmış enerji hedeften yayılmadıkça hedefi aydınlatmak için bir<br />
enerji kaynağına sahip olunmasıdır. Uzaktan algılamada kullanılan en önemli enerji<br />
kaynağı güneştir. Elektromanyetik enerji elektromanyetik dalgalar olarak yeryüzüne<br />
ulaşır. Işık bir enerjidir ve güneşten gelen elektromanyetik dalgalar halinde<br />
yeryüzüne ulaşır. Bu enerji elektromanyetik radyasyon şeklindedir. Uzaktan<br />
algılamada, enerjinin ışıma yolu ile taşınması elektromanyetik radyasyon olarak<br />
ifade edilir. Şekil 2.1’de genel yapısı gösterilen elektromanyetik radyasyon (EMR)<br />
bir elektriksel alan (E) ve elektriksel alana dik yönde bir manyetik alandan (M)<br />
oluşur. Bu alanlarda ışık hızında hareket eden sinüzoidal yapıdaki dalgaların her ikisi<br />
de yayılma yönüne dik açı yapmaktadırlar.
5<br />
Şekil 2.1. Elektromanyetik dalgalar.<br />
Bir elektromanyetik dalga tepesinden diğerine olan uzaklığa dalga boyu denir.<br />
Birim zamanda sabit bir noktadan geçen dalga sayısı veya saniyedeki titreşim sayısı<br />
frekans olarak adlandırılır. Elektromanyetik enerjinin yayılma hızı aynı ortam<br />
içerisinde her yerde sabit olup 3x10 8 m/sn dir.<br />
Elektromanyetik spektrum (EMS), 3x10 8 m/sn hızla hareket eden, dalga<br />
uzunluğu nanometreden kilometreye kadar uzanan sürekli enerji ortamıdır. Bütün<br />
cisimler az veya çok elektromanyetik enerji yayarlar. Elektromanyetik spektrum<br />
yapılan çalışmalarda kolaylık sağlanması açısından belirli bölgelere ayrılmıştır.<br />
Ancak bu bölgeler arasında kesin bir sınır yoktur ve bazı kısımları çakışabilmektedir<br />
[Sesören, 1999]. Şekil 2.2’de elektromanyetik manyetik spektrum ve belirlenen<br />
bölgeleri gösterilmektedir. Bu bölgelerden yaklaşık olarak 0.4 µm ile 0.7 µm arası<br />
görünür bölge olarak adlandırılmakta ve insan gözünün görebildiği dalga boyu<br />
aralığını ifade etmektedir. Görünür bölge dalga boyu aralığı içerisinde 0.4 µm ile 0.5<br />
µm mavi, 0.5 µm ile 0.6 µm yeşil ve 0.6 µm ile 0.7 µm kırmızı renge karşılık gelen<br />
dalga boylarıdır. Kızıl ötesi ışınlar özellikle de yakın kızıl ötesi; bitkilerde var olan<br />
klorofile duyarlıdır. Mikro dalga ışınlar ise yükseklik ve neme ilişkin çalışmalarda<br />
daha çok kullanılır. 0.4 µm 1.5 µm arası bitki, toprak ve kimyasal araştırmalar için<br />
kullanılmaktadır. Termal bantlar yeryüzü ısısını gösterirler. Bu bantlar özellikle<br />
jeolojik çalışmalar için önemlidir. Mineral, petrol ve kimya türü belirlenmesini bu<br />
bantlar yardımıyla yapabilmektedir. Özellikle gece ve gündüz algılanmış görüntüler<br />
bu araştırmalara yardımcı olur. Uzaktan algılanmış görüntülerin bilgisayarda<br />
görüntülenmesinde sadece üç ana renge atama yapabileceğimizden seçeceğimiz üç<br />
bantla False-Color görüntüleme yapılabilir [Kavzoğlu, 2008].
6<br />
Dalga Boyu (metre)<br />
Radyo Mikrodalga Kızılötesi Görünür Mor Ötesi X - ışını Gama - ışını<br />
Frekans (Hz)<br />
Şekil 2.2. Elektromanyetik spektrum ve <strong>uzaktan</strong> algılamada kullanılan bölgeleri.<br />
2.2. Atmosferik Etkiler<br />
Güneşten yayılan elektromanyetik enerji yeryüzüne ulaşmadan önce yoğun bir<br />
atmosfer tabakasından geçişi ve atmosferi oluşturan bileşenler ile etkileşimi söz<br />
konusudur. Bu enerjinin atmosferi oluşturan bileşenlerle etkileşimi sonucunda enerji<br />
bir takım değişikliklere uğrar. Başka bir ifadeyle ver<strong>ileri</strong>n uçak veya uydu alıcıları<br />
tarafından algılanmalarında, algılayıcı ile hedef arasındaki atmosfer ve ışınım<br />
kaynağı ile hedef arasındaki atmosfer ver<strong>ileri</strong> etkiler. Atmosfer <strong>uzaktan</strong> algılama<br />
ver<strong>ileri</strong>ni saçılma ve soğurulma olmak üzere iki şekilde etkileyebilir. Saçılım,<br />
ışınımın atmosferdeki taneciklerinden yansıması veya kırılması ile oluşur. Bu<br />
tanecikler atmosferi oluşturan gaz molekülleri, toz tanecikleri ve su damlacıklarıdır.<br />
Genel varsayım, ister güneşten gelsin ister yeryüzünden yansısın saçılan ışınımın<br />
zayıflamayıp sadece yeniden yönlendiğidir. Bu yeniden yönlenme genel olarak dalga<br />
boyuna bağlıdır. Saçılmayan ışınım ise, dalga boyuna bağlı olarak atmosfer<br />
tarafından soğurulur ve sonuçta atmosfer, soğurulan bu ışınım tarafından ısınır. Hiç<br />
soğurulma olmaması halinde saf saçılma olur. Bu durumda sadece enerji yeniden<br />
yönlenmiş olur. Uzaktan algılamada saçılımın etkisi, algılayıcının enerjinin bir<br />
bölümünü kaydedememesidir.
7<br />
Saçılım, teorik olarak saçılan ışınımın dalga boyu ile saçılıma neden olan<br />
taneciklerin büyüklüğü arasındaki bağıntıya bağlı olarak üç farklı kategoriye<br />
ayrılabilir. Bunlar Rayleigh, Mie ve Seçici olmayan saçılımlardır.<br />
Rayleigh Saçılımı, ışının dalga boyunun, saçan taneciklerden çok daha büyük<br />
olması halinde oluşur. Bu saçılım sayesinde, gökyüzü mavi görünür. Güneşin<br />
batışındaki kızıllığın nedeni de bu saçılımdır. Güneş ufka yaklaştığında ışınlar<br />
atmosferde daha uzun bir yol kat ettiğinden daha kısa dalga boylu olan ışınımlar<br />
saçılır ve sadece kırmızı ve turuncu gibi daha uzun dalga boylu ışınım gözümüze<br />
gelir. Bu saçılımın etkisini gidermek için hava fotoğrafı çekimi sırasında özel filtreler<br />
konmaktadır. Mie saçılımı, ışığın dalga boyunun atmosferdeki taneciklerle yaklaşık<br />
eşit büyüklüklerde olmasından kaynaklanır. Bu saçılım genellikle puslu atmosferik<br />
koşullardaki spektrum boyunca oluşur ve görüntülerde genel bir kalite düşüklüğü<br />
şeklinde kendini gösterir. Seçici olmayan saçılım ise, taneciklerin ışının dalga<br />
boyundan çok daha geniş olması halinde oluşur. Bu saçılım genellikle atmosferin çok<br />
toz yüklü olması durumunda ortaya çıkar ve elde edilen ver<strong>ileri</strong>n önemli ölçüde<br />
zayıflamasına yol açar [Örmeci, 1987].<br />
2.3. Atmosferik Pencereler ve Nesnelerin İmzası<br />
Atmosfer, güneşten yeryüzüne gelen elektromanyetik enerjinin bazı<br />
bölümlerini büyük oranda soğururken, bazı bölümlerinin geçişine izin vermektedir.<br />
Elektromanyetik spektrumun fazla soğrulmadan atmosferden geçen bölümleri<br />
atmosferik pencereler olarak adlandırılmaktadır [Tatar ve Tatar, 2006]. Diğer bir<br />
ifadeyle atmosferik pencereler, elektromanyetik spektrumun radyasyonun geçmesine<br />
izin verdiği kısımlardır [Sesören, 1999]. Elektromanyetik spektrumda atmosferik<br />
pencerelerin bulunduğu dalga boyu bölgelerinde atmosferin içerisinde bulunan<br />
bileşikler güneşten gelen elektromanyetik enerjiyi; soğurma, yansıtma ve saçılma<br />
nedeniyle fazlaca etkilemezler. Bu nedenle, atmosfere gelen enerji pencerelerin<br />
bulunduğu yerlerden geçerek yeryüzüne ulaşabilirken, pencerelerin bulunmadığı<br />
dalga boyu aralıklarında atmosferden hemen hemen hiç geçememekte, dolayısıyla<br />
yer yüzeyine ulaşamamaktadır. Başlıca atmosferik pencereler, mor ötesi, görünür<br />
bölge, termal bölge, mikrodalgalar ve radar bölgelerinde bulunmaktadır. Uzaktan
8<br />
algılama çalışmalarında uygulama konusuna göre bant seçiminde söz konusu<br />
atmosferik pencereler son derece önemlidir. Elektromanyetik enerjinin 400 µm’den<br />
küçük ve 1 µm’nin üzerindeki dalga boyları atmosferin bileşenleri tarafından<br />
soğurulur. Görünür bölge dalga boyu aralığının tamamı bir atmosferik pencereye<br />
oluştururken, kızılötesi dalga boyu aralığının yalnızca bazı bölgelerinde atmosferik<br />
pencereler mevcuttur. Bu nedenle <strong>uzaktan</strong> algılama uygulamalarında görünür,<br />
kızılötesi ve termal dalga boyları kullanılmaktadır [Sesören, 1999].<br />
Uzaktan algılama dalga uzunluğu ve cismin ısısına bağlı olarak ışıyan enerji<br />
miktarı önemlidir. Elektromanyetik enerji katı, sıvı veya gaz halindeki cisimlerle<br />
temasta şiddet, doğrultu, dalga uzunluğu, polarizasyon ve faz farkı gibi bakımlardan<br />
birçok değişikliğe uğramaktadır. Uzaktan algılamada bu değişiklikler belirlenip,<br />
kayıt edilir. Bu işlem sonucu ortaya çıkan görüntü ve veriler kayıt edilen<br />
elektromanyetik ışınımda değişikliğe neden olan cismin özelliklerinin belirlenmesi<br />
için yorumlanmaktadır [Örmeci, 1987].<br />
Bir cisme veya yüzeye kaynaktan (güneş) gelen enerji geçirilir, yutulur, saçılır<br />
ve/veya yansıtılır. Cisim ve enerji arasındaki bu ilişki <strong>uzaktan</strong> algılamanın temelini<br />
oluşturmaktadır. Uzaktan algılanmış görüntülerde her element veya objenin yapısına<br />
göre bu objeler farklı şekilde algılanır. Diğer bir ifadeyle, yeryüzü üzerindeki her bir<br />
objenin elektromanyetik enerji ile ilişkisi farklıdır. Uzaktan algılamada buna<br />
nesnelerin imzası veya özel davranışı denir. Yeryüzü üzerindeki objelerin <strong>uzaktan</strong><br />
algılama yöntemiyle ayırt edilebilmelerinin en önemli nedeni; yeryüzü üzerinde<br />
bulunan objelerin farklı spektral özelliklere sahip olmasıdır. Uzaktan algılama<br />
sistemleri, seçilen dalga boyu bantlarında yer yüzeyindeki cisimlerden yansıyan ve<br />
yayılan enerji miktarlarındaki değişimleri kayıt etmektedir. Veriler, fotoğrafik<br />
algılayıcılarla doğrudan doğruya fotoğrafik film olarak kaydedilebileceği gibi;<br />
tarayıcı sistemlerle yansıyan veya yayılan enerji manyetik bir banda sayısal olarak<br />
kaydedilebilir. Daha sonra elde edilen bu veriler yeryüzü üzerindeki objelerin<br />
yorumlanması ve analizi için kullanılmaktadır.<br />
Elektromanyetik enerjinin herhangi bir cisimle etkileşimi dalga boyuyla<br />
ilişkilidir. Bir başka deyişle, farklı etkileşimler enerjinin farklı dalga boylarında olur.<br />
Enerji etkileşiminin dalga boyuna bağımlı olması nedeniyle, <strong>uzaktan</strong> algılayıcılar
9<br />
farklı cisimlerdeki bu değişikliği çeşitli dalga boyları için ayırt edilebilecek şekilde<br />
tasarlanmıştır. Yansıyan, soğurulan ve geçirilen enerji miktarı; yeryüzüne ait<br />
nesnenin türü ve durumuna bağlı olarak değişmektedir. Bu değişiklikler, bir görüntü<br />
üzerindeki farklı nesneleri sınıflandırma olanağı verir. Söz konusu nesne için<br />
yansıyan, soğrulan ve geçirilen enerji her bağımsız dalga boyunda farklılık gösterir.<br />
Bu nedenle herhangi iki nesne bir spektral alanda sınıflandırılamazken, bir başka<br />
dalga boyu bandında çok büyük farklılıklar gösterebilir.<br />
Uzaktan algılanan ver<strong>ileri</strong>nin bilgisayar ortamında analiz edilebilmesi için<br />
objelerin spektral özelliklerinin bilinmesi gerekmektedir. Bu nedenle çeşitli bitki<br />
örtülerinin, toprağın, suyun ve ilgilenilen diğer yer yüzeyi özelliklerinin spektral<br />
özelliklerinin bilinmesi, <strong>uzaktan</strong> algılanan ver<strong>ileri</strong>n uygun bir şekilde analizi ve<br />
yorumlanması açısından son derece önemlidir [Maktav ve Sunar, 1991]. Şekil 2.3’te<br />
bitki örtüsü, toprak ve suya ait spektral yansıma eğr<strong>ileri</strong> gösterilmiştir. Şekilde<br />
görüleceği üzere yeşil bitki örtüsünün spektral yansıtımı diğerlerinden farklı olup<br />
dalga boyuna göre değişmektedir. Görünür dalga boylarında (0.4–0.7 µm) özellikle<br />
yeşil bitk<strong>ileri</strong>n yapısında yoğun bir şekilde bulunan klorofil maddesi önemlidir.<br />
Yakın kızılötesi bölgesinde yansıtım önemli derecede artar, çünkü bu bölgede yeşil<br />
yaprak çok az enerji soğurmaktadır. Orta kızıl ötesi bölgede ise su belirli dalga<br />
boylarındaki enerjiyi çok fazla soğurur ve yeşil yapraklar çok fazla nem içerdiğinden<br />
bu su-soğurma bantları bu bölgede baskındır. Bitkilerdeki klorofilin soğurması mavi<br />
ve kırmızı bantlarda gerçekleşir. 0.5–0.6 µm arası klorofil yansıtması mavi ve<br />
kırmızıya göre daha yüksektir. Ancak en yüksek yansıma değeri yakın kızılötesi<br />
bölgesinde oluşur. Görünür dalga boylarında, yeşil bir yaprağa gelen enerjinin büyük<br />
bir kısmı soğurulur ve çok azı yapraktan geçer. Yeşil dalga boylarındaki bu düşük<br />
soğurma sağlıklı yaprakları yeşil olarak görmemize neden olmaktadır. Bitk<strong>ileri</strong>n<br />
yapısında karoten, ksantofil ve antosyanin pigmentleri bulunmaktadır. Yeşil bir bitki<br />
yaşlandıkça yapısındaki klorofil miktarı azalır ve bitki yapısındaki karoten ve<br />
ksantofil pigmentleri baskın hale gelir. Bu durum ağaç yapraklarının son baharda sarı<br />
renk almasının temel nedenidir. Bazı ağaç türlerinin sonbaharda açık kırmızı<br />
görünmesinin nedeni ise aynı şekilde klorofil miktarının azalması ile birlikte ağaç<br />
yapısındaki antosyanin pigmentlerinin baskın hale gelmesidir.[Maktav ve Sunar,<br />
1991].
10<br />
60<br />
Toprak<br />
50<br />
Yansıtma Oranı (%)<br />
40<br />
30<br />
20<br />
Su<br />
Yakın Kızılötesi<br />
Bitki<br />
10<br />
0.3 0.5 0.7 0.9 1.1 1.3 1.5 1.7 1.9 2.1 2.3<br />
Dalga Boyları (µm)<br />
Şekil 2.3. Toprak, bitki ve su için genelleştirilmiş spektral yansıtım grafiği.<br />
Toprak maddelerinin çoğunun spektral özellikleri genellikle bitki örtülerinde<br />
olduğu kadar karmaşık değildir. Toprağın spektral yansıması temel olarak kimyasal<br />
yapısına (mineral ve organik maddeler), optik geometrik saçılmaya (parçacık<br />
büyüklüğü ve pürüzlülük) ve yüzeyin nemlilik durumuna bağlıdır. Büyük tanecikler<br />
arasındaki boşluklarda hava ve su birikir bu da yansıma değerini düşürür. Küçük<br />
tanecikliler daha çok yansıma verir. Nemli olunca daha az yansıma verir. Organik<br />
madde içeriği arttıkça yansıma değeri düşer ve toprak daha koyu gözükür. Demir<br />
oksit miktarı da yansımayı düşürür. Topraktaki nemin belirlenmesinde termal bant<br />
çok önemlidir. Çünkü nemli olan yerde buharlaşma olur ve çevreye göre daha<br />
soğuktur. Yansıtıcı bölgede çok koyu termal bölgede çok açık olan bir toprak organik<br />
içerik açısından zayıftır [Maktav ve Sunar, 1991].<br />
Suyun spektral duyarlılığı dalga boyuna göre değişmektedir. Su ile enerji<br />
arasındaki etkileşimler, suyun mevcut yapısının bir sonucudur ve suyun çeşitli<br />
durumlarından etkilenir. Suyun diğer örtü tiplerinden ayrımı en iyi şekilde yansıtıcı<br />
kızılötesi dalga boyları (yakın kızılötesi ve orta kızılötesi) kullanılarak yapılır. Su<br />
kitlelerinin <strong>uzaktan</strong> algılama ile konumlandırılması ve sınıflandırılması, en kolay,<br />
yakın kızılötesi dalga boylarında yapılabilir. Diğer taraftan suyun durumunun bazı<br />
yönleri ise, görünür dalga boylarında elde edilen ver<strong>ileri</strong>n kullanılması ile en iyi<br />
saptanabilir. Doğal bir ortamda, su çok sığ bile olsa, su kitleleri, yakın kızılötesi ve
11<br />
orta kızıl ötesi dalga boylarının her ikisinde de, gelen enerjinin hemen hemen tümünü<br />
soğurur. Suyun, enerjiyi, yakın ve kızıl ötesi dalga boylarında bu kadar etkin bir<br />
biçimde soğurması nedeniyle, bu dalga boylarında yansıtılacak çok az enerji vardır.<br />
Bu durum, su özelliklerinin, spektrumun yansıtıcı kızılötesi bölgesi boyunca, hem<br />
bitki örtüsünden, hem topraktan daha önemli ve daha farklı bir düşük yansıtıma sahip<br />
olmasına neden olduğundan, <strong>uzaktan</strong> algılama amaçları açısından oldukça<br />
avantajlıdır. Kızılötesi yansıtımdaki bu tür belirgin farklar, su kitlelerinin kolaylıkla<br />
tanımlanmasını ve haritalanmasını sağlamaktadır [Maktav ve Sunar, 1991].<br />
Yeryüzü üzerindeki çeşitlilik düşünüldüğünde, yer yüzeyi üzerindeki objelerin<br />
spektral özelliklerinin her yerde aynı olmadığı görülmektedir. Hatta herhangi bir<br />
objeye ait spektral özelliklerin dahi coğrafi konuma ve zamana göre değişkenlik<br />
gösterdiği söylenebilir. Örneğin buğday, güneyde olgunlaşmış ve biçilmekte iken,<br />
aynı tarihte kuzeyde halen yeşildir ve bu nedenle buğday tamamen farklı bir spektral<br />
özelliğe sahiptir. Zamana bağlı değişim göz önüne alındığında; örneğin Temmuz<br />
ayında yeşil olan bir orman örtüsü, Eylül sonlarında cinsine bağlı olarak kırmızı, sarı<br />
veya kahverengi olabilir. Çok sayıda yaprak döken ağaçlar ve geniş yeşil alanlara<br />
sahip bölgeler; sonbaharda yapraklar ağaçlardan döküldükten ve çimenler sarardıktan<br />
sonra, birkaç ay öncesine nazaran çok farklı spektral özelliğe sahip olacaklardır. Bu<br />
nedenle, <strong>uzaktan</strong> algılama ver<strong>ileri</strong> için en uygun zamanın belirlenmesinde; yeryüzü<br />
üzerindeki biyolojik çeşitliliğe ait mevsimsel değişimlerin veya zamana göre<br />
değişebilirliğin dikkate alınması gerekir [Kavzoğlu, 2008].<br />
2.4. Uzaktan Algılamada Çözünürlük Kavramı<br />
Çözünürlük genel anlamda ekranda veya monitörde görünen piksel sayısını<br />
ifade ederken <strong>uzaktan</strong> algılamada görüntüdeki bir pikselin yeryüzündeki karşılığını<br />
ifade etmektedir. Bir resim, görüntü matrisini oluşturmak üzere ızgara biçiminde<br />
küçük alanlara bölündüğü zaman oluşan her elemana resim elemanı ya da piksel adı<br />
verilir. Geometrik ayrım, diğer bir ifadeyle çözünürlük kavramı ile yakından ilişkili<br />
olan piksel sayısı görüntünün en küçük parçasıdır. Her bir piksel<br />
Ps x , Ps y<br />
boyutunda<br />
bir resim elemanına karşılık gelir. Piksellerin bu<br />
Ps<br />
x<br />
, Ps y<br />
boyutuna geometrik<br />
çözünürlük denir [Ayhan, 2003]. Pikseller genellikle kare biçimindedirler.
12<br />
Yeryüzünde bir piksele karşılık gelen alan ne kadar değişik görünüm ve değere sahip<br />
olursa olsun, pikselin bir spektral banttaki değeri tek bir sayı ile ifade edilir.<br />
Sayısal bir görüntü, bir resmin sürekli bir biçimde sayısallaştırılması ile elde<br />
edilebileceği gibi, modern çok bantlı tarayıcılar ve bazı elektronik kameralar ile<br />
direkt olarak elde edilebilirler. Sayısal görüntü elde edebilen bir tarayıcı yapısı<br />
itibariyle belirli bir anda yeryüzünde ancak belirli bir alana ait spektral değeri<br />
kaydeder. Algılayıcının belirli bir anda yeryüzünde görüntüleyebildiği alana anlık<br />
görüş alanı adı verilir. Uzaktan algılamada konumsal, spektral, radyometrik ve<br />
zamansal çözünürlük olmak üzere dört farklı çözünürlük söz konusudur.<br />
2.4.1. Konumsal Çözünürlük<br />
Konumsal çözünürlük veya konumsal ayırma gücü görüntü üzerindeki<br />
objelerin ayırt edilebilirliği ile ilgilidir ve belirlenebilen özelliğin olası en küçük<br />
boyutunu ifade eder. Başka bir ifadeyle; bir görüntüleme sistemi tarafından kayıt<br />
edilebilen iki nesne arasındaki en küçük uzaklık olarak tanımlanan konumsal<br />
çözünürlük amaca bağlı olarak değişik ölçütlerle belirlenebilir [Ayhan, 2003]. Bu<br />
ölçütlerden birisi algılayıcının anlık görüş alanıdır (AGA). Konumsal çözünürlüğün<br />
en genel şekilde tanımı görüntüyü kaydeden sistemin alıcısının anlık görüş alanının<br />
yeryüzünde karşılığı olarak ifade edilebilir. Anlık görüş alanı, <strong>uzaktan</strong> algılama<br />
uyduları üzerinde bulunan tarayıcı optiğin gücünü ifade eder ve herhangi bir anda<br />
belirli bir yükseklikten algılayıcı sensör ile gözlenen veya kayıt edilen yeryüzüne<br />
karşılık gelen alan olarak tanımlanabilir. Uzaktan algılamada bir sensörün veya<br />
alıcının anlık görüş alanı açısaldır; yeryüzündeki karşılığı da uydu yüksekliğine göre<br />
değişebilmektedir (Şekil 2.4). Bu büyüklük aynı zamanda pikselin boyutuna eşittir.<br />
Anlık görüş alanı açısal ve uzunluk olarak iki şekilde ifade edilebilir.
13<br />
Şekil 2.4. Uzaktan algılama uyduları için anlık görüş alanının açısal ve uzunluk<br />
olarak ifadesi.<br />
Şekilde X-Y noktaları arasındaki mesafe anlık görüş alanıdır ve bu uzaklık<br />
uydu görüntüsünde yaklaşık olarak bir piksele karşılık gelmektedir. Bu uzunluk<br />
algılayıcı tarafından yeryüzünde ayırt edilmesi mümkün olan en küçük uzunluktur.<br />
Şekil 2.5’de aynı bölgeye ait farklı konumsal çözünürlüğe sahip uydu<br />
görüntülerine ait örnekler verilmiştir. Şekilde konumsal çözünürlüğün artmasıyla<br />
görüntüdeki objelerin birbirinden ayırt edilebilirliğinin arttığı ve yorumlanma<br />
açısından daha kolay bir hale geldiği açıkça görülmektedir. Aynı şekilde çözünürlük<br />
azaldıkça objelerin ayırt edilebilmesi ve görüntünün analizi zorlaşmaktadır.<br />
(a) (b) (c)<br />
Şekil 2.5. Konumsal çözünürlük kavramı. (a) 1 metre, (b) 10 metre, (c) 30 metre<br />
çözünürlüklü görüntüler.
14<br />
2.4.2. Spektral Çözünürlük<br />
Spektral çözünürlük, algılayıcının kaydedebileceği elektromanyetik<br />
spektrumun dalga aralıklarını ve sayısını ifade etmektedir. Bu çözünürlük genel<br />
tanımıyla kullanılan bantların sayısını ve genişliğini ifade eder. Spektral çözünürlük<br />
yeryüzündeki cisimlerin ve arazi türlerinin <strong>uzaktan</strong> algılama yolu ile<br />
tanımlanabilmeleri için gerekli olan en önemli özelliktir. Spektral özellik, her cismin<br />
yansıma, yayılma, geçirgenlik ve soğurma özelliği olarak ifade edilebilir.<br />
Algılayıcıların tasarımı da bu spektral özelliklerdeki değişiklikleri fark edecek ve<br />
istenen ayrımları yapabilecek şekilde yapılmıştır. Yeryüzündeki cisimlerin spektral<br />
özellikleri ile kend<strong>ileri</strong>ne has özellikleri arasında kuvvetli bir ilişki vardır. Her<br />
spektral bant elektromanyetik spektrumun belirli bir bölümüne duyarlıdır. Bu<br />
bölümlerde başlangıç ve bitiş dalga boyları ya da merkez frekansı ve bant genişliği<br />
biçiminde verilir. Uzaktan algılama aletlerinin spektral ayırma gücü kullanılan bant<br />
genişliği ile belirlenir. Daha iyi spektral çözünürlük özel bir kanal ya da bant için<br />
daha dar dalga boyu aralığı anlamındadır. Teorik olarak spektrum ne kadar çok ve<br />
küçük parçaya ayrılırsa, spektral ayırma gücü de o kadar artar. Bu nedenle en iyi<br />
çözüm en az bant kullanılarak istenilen ayrımı yapabilmektir. Spektrumun<br />
pozisyonu, genişliği ve sayısı hedefe göre düzenlenir. Spektrumun değişik<br />
bölgelerini kullanan çok bantlı görüntülere Multi-Spektral Görüntüler adı verilir. Çok<br />
bantlı veri setleri, her bir tabaka için dijital değerler ile her bir pikselin birleştirildiği<br />
değişken sayıdaki tabakaları içermektedir. Veri içinde her bir tabaka bir bandı<br />
kapsamaktadır. Uzaktan algılama uydularına ait spektral çözünürlük uydunun kaç<br />
bantta görüntü verdiği ve kullanılan her bir bandın genişliğine özelliklerine göre<br />
tanımlanır. Örneğin, Landsat MSS dört bant içinde ver<strong>ileri</strong> edinirken, Landsat TM<br />
yedi bantlı bir sistem içinde aynı işlemi gerçekleştirir [Gibson, 2000].<br />
2.4.3. Radyometrik Çözünürlük<br />
Piksellerin yapısı, bir görüntünün uzaysal yapısını tanımlarken, radyometrik<br />
özellikler bir görüntüdeki gerçek bilgiyi ifade etmektedir. Bir filmden ya da bir<br />
algılayıcı tarafından elde edilen görüntünün elektromanyetik enerji miktarına<br />
duyarlılığı, radyometrik çözünürlüğü ifade etmektedir. Yeryüzündeki her bir piksele<br />
karşılık gelen alanlardan yansıyan ışığın şiddetine göre her obje, algılayıcılar
15<br />
tarafından değişik derecelerde kaydedilir. Buna o alıcının radyometrik çözünürlüğü<br />
adı verilir. Kısaca radyometrik çözünürlük, objeleri tanımlamada ve ayırt etmede<br />
kullanılan toplam renk tonu sayısıdır. Derecelendirme veya tonlandırma ne kadar<br />
yüksek olursa, ayırt etme gücü de o kadar yüksek olur. Bir <strong>uzaktan</strong> algılama<br />
sisteminde radyometrik çözünürlük, siyah ve beyaz renkleri arasında ölçülen gri<br />
derecelerinin sayısını ölçmektedir. Radyometrik çözünürlükte ölçme değeri bit olarak<br />
adlandırılır. Bir bitlik sistem sadece iki gri düzeyini ölçebilmektedir (2 1 =2). 8-bitlik<br />
bir sistemde 256 gri derecesi kaydedilmektedir. Böyle bir sistemde siyah renk dijital<br />
değer olarak sıfıra, beyaz renk ise 255 değerine atanmaktadır. Çoğu <strong>uzaktan</strong> algılama<br />
sisteminde radyometrik çözünürlük 6-bit ya da daha fazladır [Gibson, 2000].<br />
Birbirlerinden farklı amaçlara hizmet eden uydular farklı radyometrik çözünürlüklere<br />
sahiplerdir. Örneğin, Landsat 1 ve Landsat 3 uyduları 6 bitlik çözünürlüğe sahipken,<br />
Hyperion uydusu 12 bitlik çözünürlüktedir.<br />
2.4.4. Zamansal Çözünürlük<br />
Zaman içindeki değişimleri göstermeleri birçok cisim için ayrımı kolaylaştırıcı<br />
etken olmaktadır. Görüntülerin farklı zamanlarda, değişik zaman aralıklarıyla<br />
alınması çok zamanlı uydu görüntülerin elde edilmesini sağlar. Burada hem iki<br />
görüntü arasındaki zaman farkı hem de alım zamanı önemlidir. Uygun zaman aralığı<br />
amaca bağlı olarak yıl, mevsim, birkaç gün veya hafta olabilir. Uzaktan algılamanın<br />
önemli işlevlerinden biri de zaman içerisindeki değişimleri izlemektir. Bu nedenle<br />
algılayıcı sistemin ayırma gücü özelliklerin belirlenmesinde zamansal ayırma gücü<br />
sistem için tanıtıcı bir özellik olmaktadır [Ayhan, 2003]. Uzaktan algılama sistemleri<br />
için zamansal çözünürlük, aynı alan için hangi sıklıkta ver<strong>ileri</strong>n edinildiğini ifade<br />
etmektedir [Gibson, 2000]. Bir alıcının belirli bir noktayı ardışık olarak<br />
algılayabileceği zaman dilimidir. Örneğin, Spot uydusu 26 günde bir aynı noktadan<br />
geçerken Landsat uydularından 1. 2. ve 3. uydular 18 günde bir; 4. 5. ve 6. uydular<br />
ise 16 günde bir aynı noktadan geçerler. Atmosferik etkiler nedeniyle her uydu geçişi<br />
sırasında yapılan kayıt kullanılamamaktadır.
16<br />
2.5. Uzaktan Algılamada Görüntü Analiz Sistemleri<br />
Uzaktan algılanan görüntülerin analiz ve yorumlanması, görüntüler üzerinden<br />
yararlı bilg<strong>ileri</strong>n çıkarılması için görüntüdeki değişik hedeflerin belirlenmesi veya<br />
ölçümünü içerir. Hedefler; noktalar, çizgiler veya alanları içeren doğal veya yapay<br />
özellikler olabilir ve bu hedefler yansıttıkları veya yaydıkları radyasyon yardımıyla<br />
tanımlanabilirler. Bu radyasyon bir algılayıcı tarafından ölçülebilir veya<br />
kaydedilebilir. Hedefler ve onların çevresi ile arasındaki farkların gözlenmesi ton,<br />
şekil, boyut, desen, doku, gölge ve ilişki gibi görüntü elemanlarının herhangi biri<br />
veya hepsinin kullanılması ile gerçekleştirilir [Ayhan, 2003]. Elde edilen görüntüler<br />
analog veya sayısal formatta olabilirler. Analog formatta görüntülenmiş görüntülerde<br />
hedefin belirlenmesi ve yorumlanması bir yorumlayıcı tarafından manuel veya görsel<br />
olarak yapılır. Sayısal formattaki görüntüler piksellerden oluşmaktadır. Görüntü<br />
üzerindeki her bir piksel parlaklık derecesini gösteren sayısal bir değere sahiptir.<br />
Pikseller bilgisayar ortamında bir araya getirilerek sayısal görüntü elde edilir. Özel<br />
yazılımlarla bilgisayar ortamında piksellerin sayısal değerleri üzerinde sistematik<br />
değişiklikler yapılabilmesi olanağı, görüntülerin sayısal olarak işlenmesi ve<br />
yorumlanması için temel oluşturmaktadır. Görüntü analiz sistemlerinde en yaygın<br />
görüntü işleme fonksiyonları; ön işlem, görüntü iyileştirme, görüntü dönüşümleri,<br />
görüntü sınıflandırma ve analizidir [Lillesand and Kiefer, 1994].<br />
2.5.1. Ön İşlem<br />
Ön işlemler, elde edilen sayısal uydu görüntüsüne ait verilerden istenilen<br />
bilg<strong>ileri</strong>n veya özelliklerin elde edilmesi için gerekli olan hazırlıkları içerir ve bunlar<br />
radyometrik ve geometrik düzeltmeler olarak sınıflandırılır. Ön işlem aşamasında<br />
uydu görüntüleri radyometrik ve geometrik düzeltmelere tabii tutulurlar. Bazen bu<br />
işlemlere görüntü restorasyonu veya rektifikasyonu adı verilir. Ön işlemde amaç,<br />
algılayıcı ve platformdan kaynaklanan radyometrik ve geometrik bozulmaları<br />
ortadan kaldırmaktır. Radyometrik düzeltmeler, algılayıcı düzensizlikleri,<br />
istenmeyen algılar, atmosferik gürültülerin düzeltilmesi ve sensör tarafından ölçülen<br />
radyasyonun doğru şekilde gösterimi için gerekli dönüşümleri içerir. Geometrik<br />
sapmalar ise birçok faktöre bağlıdır. Bunlar; algılayıcı aygıt optiğinin yapısı, tarama<br />
sistemlerinin hareketi, platform hareketi, platformun yüksekliği, arazinin eğimi ve
17<br />
yeryüzünün küreselliğidir [Kavzoğlu, 2008]. Uydu platformlarına monte edilmiş<br />
algılayıcılardan elde edilen görüntüler ham hallerinde bazı hatalar ve eksiklikler<br />
içerirler. Bu hataların ve eksikliklerin düzeltilmesi, istenen amaca uygun olarak<br />
yapılacak uygulamalar öncesinde gerçekleştirdiğimizden dolayı bu tip işlemlere ön<br />
işlemler adı verilir. Düzeltmelerin bazıları yer istasyonlarında yapılmasına rağmen,<br />
kullanıcı tarafından da düzeltme yapılmasına sıkça gerek duyulmaktadır. Bu<br />
düzeltmelerden birisi, atmosferik etk<strong>ileri</strong>n giderilmesi amacıyla yapılan<br />
düzeltmelerdir. Fakat bazı özel durumlarda bu düzeltmeye gerek duyulmaz. Tek bir<br />
zamanda belirli bir alandaki bitki örtüsünün veya diğer özelliklerin analizlerinin<br />
yapılmasında araştırmacı piksellerin asıl değerlerinden çok bu piksellerin birbirlerine<br />
göre göreceli değerleri ile ilgilenildiğinden piksel değerlerinin atmosferik etkilerden<br />
arındırılması gereksizdir. Fakat değişik zamanlarda elde edilen görüntülerin<br />
kullanılmasında atmosferik etk<strong>ileri</strong>n giderilmesi gerekir. Geometrik ve radyometrik<br />
düzeltmeler görüntü iyileştirme ve görüntü sınıflandırma işlemlerinden önce<br />
yapılması gereken ön işlemlerdir.<br />
Geometrik düzeltmenin amacı, görüntüyü geometrik olarak gerçek dünyaya en<br />
yakın şekle dönüştürmektir. Geometrik sapmaların birçoğu sistematik olduğundan<br />
uygun modeller oluşturularak giderilebilir. Sistematik olmayan veya rastgele hatalar<br />
modellenemez. Geometrik düzeltme, bilinen bir koordinat sistemine dönüşüm<br />
yapılarak sağlanabilir. Geometrik düzeltme işlemi ile ham haldeki uydu görüntüsü,<br />
bulunduğu resim koordinat sisteminden, görüntü üzerinde ve arazideki koordinatları<br />
bilinen uygun sayı ve konumdaki yer kontrol noktaları yardımıyla arazi koordinat<br />
sistemine dönüştürülür. Bu işleme görüntüden haritaya geçiş denir. Ham haldeki<br />
görüntünün geometrik olarak düzeltilmesinde kullanılan bir diğer yöntem görüntüden<br />
görüntüye dönüşümdür. Bu yöntemde daha önce coğrafik olarak referanslandırılmış<br />
diğer bir görüntü yardımıyla, her iki görüntüdeki ortak noktalar kullanılarak<br />
geometrik düzeltme işlemi gerçekleştirilir [Mather, 1987].<br />
Uydu görüntüleri geometrik olarak düzeltilip kullanıcı tarafından belirlenmiş<br />
herhangi bir koordinat sistemine bağlandıktan sonra ortaya çıkan görüntü eğiminden<br />
dolayı oluşan piksellere yeni değerlerin atanması gerekir. Diğer bir ifadeyle,<br />
geometrik olarak düzeltilmiş görüntü üzerindeki piksellere ait sayısal bilgiler<br />
geometrik dönüşüm sonucunda olması gerekenden farklı olabilirler. Bu nedenle
18<br />
düzeltilmiş görüntüdeki yeni piksellerin sayısal değerlerinin belirlenmesinde yeniden<br />
örnekleme adı verilen bir işlem kullanılır. Yeniden örnekleme ile geometrik dönüşüm<br />
öncesinde görüntüdeki orijinal sayısal piksel değerleri yardımıyla yeni piksel<br />
değerleri hesaplanır. En yakın komşuluk, bilineer enterpolasyon ve kübik eğri olarak<br />
bilinen üç farklı yöntem yeniden örnekleme işleminin gerçekleştirilmesinde<br />
kullanılmaktadır. En yakın komşuluk yönteminde, orjinal görüntüde yeni piksel<br />
konumuna en yakın sayısal piksel değerlerinden faydalanılarak düzeltilmiş piksel<br />
değerleri hesaplanır. Bu metot basit bir mantığa dayanır ve orijinal değerler<br />
değişmediğinden en çok tercih edilen yöntemdir. Bilineer enterpolasyon yönteminde,<br />
orijinal görüntüde yeni piksel konumuna en yakın dört pikselin ortalama ağırlığı<br />
kullanılarak yeni piksel değerleri hesaplanır. Bu durumda orjinal piksel değerleri<br />
değişir ve yeni piksel değerleri oluşur. Kübik eğri yöntemi ile yeniden örnekleme<br />
işleminde orijinal görüntüde yeni piksel konumunu çevreleyen sekiz pikselli bir<br />
bloğun ağırlıklı ortalaması kullanılarak yeni piksel değeri hesaplanır. Bilineer<br />
enterpolasyonda olduğu gibi bu metotta tamamen yeni piksel değerleriyle sonuçlanır.<br />
Bir görüntüdeki bozukluklar ya da gürültüler; düzensizlikler ya da verinin<br />
alınması ve veri iletimi esnasında meydana gelen olaylardan dolayı olabilir.<br />
Bozuklukların ortak yapısı sistematik kayıplar içermesi ya da bant alımı esnasındaki<br />
kayıplardır. Kayıp hatlar bant alımı esnasındaki değişim ve sürüklenmeden dolayı<br />
meydana gelir. Kayıp hatlar normal olarak, hattın altında ya da üstündeki değerlerle<br />
ya da her ikisinin ortalaması yeni bir hatla düzeltilir. Radyometrik bir düzeltmenin<br />
gerçekleştirilmesi bazı filtreleme yöntemlerinin kullanılmasıyla da yapılabilmektedir<br />
[Altuntaş ve Çorumluoğlu, 2002].<br />
2.5.2. Görüntü İyileştirme<br />
Görüntü iyileştirme işlemi, görüntünün görsel yorumlama ve anlaşılmasını<br />
artırmak için yapılır. Görüntü üzerinde zıtlık ve netlik düzeltmeleri ve çeşitli<br />
filtreleme teknikleriyle aynı ham görüntüden farklı renkli görüntüler üretilmesi<br />
işlemidir [Tatar ve Tatar, 2006]. Hedeflerin farklı durumlarından dolayı spektral<br />
yansımalarındaki büyük değişimlerle ilgili radyometrik düzeltmeler, bütün<br />
hedeflerde optimum kontrast ve parlaklık gösterimi için hesaplanabilir. Bu nedenle,<br />
her uygulama ve her görüntü için, mutlaka alanın tanınması ve yansıma değerlerinin
19<br />
dağıtımı gereklidir [Sabins, 1987]. En yaygın olarak kullanılan örüntü iyileştirme<br />
yöntemleri lineer kontrast artırımı, histogram eşitleme, yoğunluğa göre<br />
derecelendirme ve sahte renk (pseudo-color) dönüşümüdür.<br />
Lineer kontrast artırımı yöntemi ile görüntüdeki minimum piksel değeri sıfıra,<br />
maksimum piksel değeri de 255 değerine atanması için lineer enterpolasyon metodu<br />
geliştirilir. Eğer renkli bir görüntü elde edilecekse, bu işlem üç bant için ayrı ayrı<br />
yapılır ve sonra sonuçlar üç ana renk olan kırmızı, yeşil ve mavi (KYM)’ye atanır.<br />
Histogram eşitleme yönteminde sadece minimum ve maksimum değerler yerine<br />
görüntüdeki tüm piksel değerlerinin oluşturduğu histogram dikkate alınarak daha<br />
karmaşık bir görüntü iyileştirme yapılabilir. Böylece histogramın boyutları ve şekli<br />
dikkate alınmış olur. Bu metotta görüntüdeki her bir derecenin (renk tonunun)<br />
yaklaşık olarak eşit sayıda piksel içerdiği kabulü yapılır. Histogram eşitleme görüntü<br />
iyileştirme teknikleri arasında en çok kullanılan ve en iyi sonuç veren metottur. Bu<br />
teknikte kenar gruplar birleştirilirken orta gruplar daha ayrık hale getirilip görüntü<br />
kalitesi iyileştirilir. Yoğunluğa göre derecelendirme yönteminde amaç, ard arda gelen<br />
bazı piksel değerlerini bir grup altında birleştirip; kırmızı, yeşil ve mavi (KYM)<br />
olarak tanımlanmış bir renkle ifade etmektir. Sonuçta 0–255 aralığındaki değerler<br />
birkaç renkle ifade edilir. Özellikle siyah-beyaz görüntülerdeki homojen alanların<br />
renkli şekilde görüntülenmesinde kullanılır. Bu dönüşümle 256 renkli bir görüntüden<br />
birkaç renge dönüşüm yapıldığından, görüntüdeki ayrıntılar kaybolur. Sahte renk<br />
dönüşümü ile tek bir bandın gri tonlar yerine yalancı olara renklendirilmesidir. Bu<br />
işlemi gerçekleştirmek için asal bir KYM histogram dönüşümü kullanılır. Ayrıntılı<br />
bilgi Mather (1987) den elde edilebilir.<br />
2.5.3. Görüntü Dönüşümleri<br />
Görüntü dönüşümleri yardımıyla görüntüde yer alan farklı fiziksel özellikler<br />
arasındaki ayrımın ve görüntünün görsel yorumlanabilirliğinin arttırılması<br />
amaçlanmaktadır. Bunu gerçekleştirmek için ise çeşitli sayısal filtreleme matrisleri<br />
kullanılır. Görüntüdeki farkların vurgulanması, kenar çizg<strong>ileri</strong>nin vurgulanması ya da<br />
giderilmesi işlemleri için farklı sayı matrisleri kullanılmaktadır. Görüntüler üzerinde<br />
matris işlemlerine benzer şekilde tüm temel matematiksel işlemler (toplama,<br />
çıkarma, çarpma, bölme) gerçekleştirebilir. Bölme işlemi, özellikle topoğrafik
20<br />
etk<strong>ileri</strong>n azaltılmasına ve giderilmesine olanak sağlar. Sayısal filtreleme yönteminde<br />
her bir pikselin yeni gri renk tonları hesaplanmaktadır. Piksellerin yeni gri tonları<br />
yalnızca ortaya çıkarılacak detaya bağlı değil komşu piksellere de bağlıdır. Uzaysal<br />
frekans filtreleme de denilen bu işlemde, bir görüntüde istenilen detayı ortaya<br />
çıkarabilmek için; yüksek, orta ve düşük frekanslı filtrelerden birisi kullanır.<br />
2.5.4. Görüntü Sınıflandırma ve Analiz<br />
Ham halde elde edilen uydu görüntülerinden yeryüzüne ait bilg<strong>ileri</strong>n elde<br />
edilmesi için çeşitli istatistiksel analizler ve yorumlama teknikleri kullanılmaktadır.<br />
Ver<strong>ileri</strong> bilgiye dönüştürebilmek için en yaygın yöntem uydu görüntülerinin<br />
sınıflandırılmasıdır. Uzaktan algılamada sınıflandırma, cisimlerin farklı spektral<br />
yansıtma değerleri esasına dayanarak orijinal görüntüdeki her görüntü elemanını ait<br />
olduğu özellik grubuna ayırma işlemidir. Ayırt etme ya da tanıma problemi her<br />
pikselin, algılama yapılan spektral bantlara göre farklılık gösteren sayısal değerler<br />
kümesinden yaralanılarak aşılmaktadır [Mather, 1987]. Sınıflandırmada amaç,<br />
yeryüzü üzerinde aynı spektral özellikleri taşıyan nesnelerin gruplandırılmasıdır.<br />
Sınıflandırmanın yapılabilmesi için çok spektrumlu veri kullanılır. Her bir piksele ait<br />
spektral özellik verisi sınıflandırma için nümerik değerleri oluşturur. Her nesne<br />
çeşidi doğasındaki spektral yansıtım ve yutulmaya bağlı olarak farklı sayılarla ifade<br />
edilirler. Sınıflandırma, tematik bilgi çıkarmak için kullanılan en önemli yöntemdir.<br />
Sınıflandırma sonucu elde edilen görüntü tematik harita olarak adlandırılmaktadır.<br />
Tematik harita haline getirilen yani sınıflandırılan görüntü, bir harita projeksiyonuna<br />
dönüştürüldüğünde coğrafi bilgi sistemlerinde kullanılabilir [Jehnsen, 1996].<br />
Sınıflandırma işlemi, genel olarak şu adımları içerir:<br />
1. Yeryüzü özelliklerini ortaya koyabilecek sınıfların belirlenmesi ve<br />
kontrol alanlarının seçimi. Çalışma bölgesine ait bilg<strong>ileri</strong>n toplanılması için<br />
arazi çalışmasının yapılması, sınıflandırmada kullanılmak üzere mevcut<br />
ver<strong>ileri</strong>n ve haritaların temini.<br />
2. Çalışma amacına göre görüntülerin ve çalışılacak spektral bantların<br />
seçimi.
21<br />
3. Tespit edilen sınıflara ait kontrol alanlarından yararlanarak<br />
sınıflandırılmada kullanılmak üzere eğitim ve test ver<strong>ileri</strong>nin oluşturulması.<br />
4. Çalışma amacına yönelik olarak uygun bir sınıflandırma<br />
algoritmasının seçimi ve uygulanması.<br />
5. Sınıflandırılmış görüntü için doğruluk analizi ve elde edilen tematik<br />
haritaların yorumlanması.<br />
Sınıflandırma işleminde, sınıfların oluşturulması, yapılacak çalışmanın amacına<br />
ve ölçeğine bağlı olmaktadır [Kavzoğlu, 2008]. Ayrıca, çalışmada kullanılacak<br />
spektral aralığın belirlenmesi, yeterli doğrulukta ve sayıda kontrol alanlarının seçimi<br />
ve sınıflandırılmış görüntülerde doğruluk değerlendirilmesinin yapılması, bu işlemin<br />
gerçekleştirilmesinde büyük önem taşımaktadır.<br />
Sınıflandırma işleminde genel olarak kontrollü ve kontrolsüz sınıflandırma<br />
olarak adlandırılan iki yaklaşım vardır. Kontrollü sınıflandırma farklı spektral<br />
grupları temsil eden kontrol alanları kullanılarak spektral ayrılabilirlik incelemekte,<br />
buna karşılık kontrolsüz sınıflandırmada ise spektral olarak ayrılabilir sınıflar<br />
belirlenmekte ve bunlardan bilgi elde etme yoluna gidilmektedir [Süslü, 2007].<br />
2.5.4.1. Kontrolsüz Sınıflandırma<br />
Kontrolsüz sınıflandırma yöntemi, görüntü üzerindeki piksellerin kullanıcı<br />
müdahalesi olmaksızın belirli algoritmalar kullanılarak otomatik olarak<br />
kümelendirilmesi veya gruplandırılması temeline dayanmaktadır. Kontrolsüz<br />
sınıflandırma; görüntüdeki veri tanımlanamadığında başvurulan yöntemdir. Çalışma<br />
alanına ait yeterli bilginin olmaması ve bölgenin genel yapısı hakkında ön bilgiye<br />
gereksinim duyulan çalışmalarda bu sınıflandırma yöntemi kullanılmaktadır. Bu<br />
yöntemde, arazi örtüsü tipini bilinmesine gerek yoktur, öncelikle görüntü üzerinde<br />
sınıf sayıları belirlenir. Kontrolsüz sınıflandırmada görüntü üzerindeki piksellere ait<br />
farklı bantlardaki sayısal değerler kullanılarak benzer piksellerin otomatik olarak<br />
bulunması ve bu piksellerin bir sınıfa atanması temel alınmaktadır. Ortak özelliklere<br />
sahip veya benzer pikseller sembol, değer ya da sınıf etiketine atanır, gerektiğinde de<br />
aynı tip sınıflarla birleştirilir [URL–1]. Kontrolsüz sınıflandırma sonucu oluşacak
22<br />
sınıflar, spektral sınıflardır [Lillesand et al., 2007]. Elde edilen bu spektral sınıfların<br />
ne olduğu önceden bilinmemekte olup, daha sonra o bölgeye ait topoğrafik haritalar,<br />
hava fotoğrafları ve mevcut yardımcı bilgilerle karşılaştırılarak oluşturulan sınıfların<br />
doğal özellikleri belirlenebilmektedir [Özkan, 1998].<br />
Kontrolsüz sınıflandırma da karar kuralı olarak minimum uzaklık kullanır.<br />
Pikseller, görüntünün sol üst köşesinden başlanarak soldan sağa ve satır satır analiz<br />
edilir. Aday piksel ile her bir küme ortalaması arasında spektral uzaklık hesaplanır ve<br />
en yakın kümeye atanır. Tam otomatik bir sınıflandırma yöntemi olan kontrolsüz<br />
sınıflandırmada pikseller arasındaki spektral uzaklıklar, Mahalonobis ve Öklit<br />
uzaklığı gibi formüllerle hesaplanır. Öncelikle istenilen sınıf sayısı kadar oluşturulan<br />
kümenin ortalaması hesaplanır ve her iterasyondan sonra, her bir kümenin yeni<br />
ortalaması hesaplanılarak, bu ortalamalar bir sonraki iterasyon kümelerinin<br />
tanımlanmasında kullanılır. Kontrolsüz sınıflandırmada küme merkezleri geçici<br />
olarak hesaplanarak, piksellerin dahil olacağı sınıflar belirlenir ve bu işlem küme<br />
merkezlerinin konumlarında değişim olmayana kadar devam eder [URL–1].<br />
Uygulamada ISODATA, ardışık kümeleme ve istatistiksel kümeleme gibi çeşitli<br />
kontrolsüz sınıflandırma yöntemleri kullanılmaktadır.<br />
2.5.4.2. Kontrollü Sınıflandırma<br />
Kontrollü sınıflandırma görüntü üzerindeki alanlara ait dış verilere dayalı<br />
olarak gerçekleştirilir. Bu veriler arazi çalışmaları yapılarak, hava fotoğraflarının<br />
analiz edilmesiyle veya konu ile ilgili mevcut haritalardan elde edilebilir [Mather,<br />
1987]. Yöntemde görüntünün hangi sınıflara ayrılacağı, ya da görüntüden hangi<br />
sınıfların elde edilmek istenildiği önceden belirlenir. Bunun için görüntüden<br />
belirlenen sınıflara ait kontrol alanlarının seçilmesi gerekmektedir. Bu seçim için<br />
gerektiğinde arazide yer gerçekliği yapılması zorunludur. Kontrol alanlarının seçimi<br />
sınıflandırmanın doğruluğunu etkileyen bir aşamadır. Uygulamada sıkça karşılaşılan<br />
sorun sınıf çakışmasıdır. Sınıf çakışmasının nedenlerinden biri de kontrol alanlarının<br />
ölçümünde yapılan hatalardır [URL–1].<br />
Kontrollü sınıflandırma da, çalışma alanındaki yeryüzü özelliklerini tanımlayan<br />
yeteri sayıdaki örnekleme alanları kullanılarak, piksel değerlerinin özellik dosyaları
23<br />
oluşturulur. Kontrol alanlarının örneklediği özellik dosyalarının görüntü ver<strong>ileri</strong>ne<br />
uygulanması ile her bir piksel, hesaplanan olasılık değerine göre en çok benzer<br />
olduğu sınıfa atanmaktadır.<br />
Kontrollü sınıflandırma da, ilk adım örnekleme adımıdır. Örnekleme<br />
aşamasında, analist her bir arazi örtüsü çeşidini temsil edecek örnekleme bölgeleri<br />
seçer ve bu bölgelerin spektral özelliklerini açıklayacak sayısal değerler geliştirir.<br />
İkinci adım, sınıflandırma adımıdır. Sınıflandırma adımında, görüntü verisindeki her<br />
bir piksel en çok benzer olduğu arazi örtüsü kategorisine dahil edilir. Görüntü<br />
elemanı örnekleme bölgeleriyle uyum sağlamıyorsa bilinmeyen olarak etiketlenir.<br />
Bilinmeyen piksel değerinin hangi arazi örtüsü grubuna dahil olacağı daha sonra<br />
belirlenir. Her bir piksele atanan sınıf, yorumlanmış veri dizisinde yerini alır ve<br />
böylece çok boyutlu görüntü matrisi, karşılık gelen yorumlanmış arazi örtü sınıfı<br />
tiplerinin oluşturduğu matrisi geliştirme de kullanılır [Kansu, 2006]. Bütün veriler<br />
kategorize edildikten sonra sonuçlar çıktı adımında sunulur. Sonuçlar tematik<br />
haritalar, istatistiksel tablolar veya coğrafi bilgi sistemlerine dahil edilebilecek<br />
nitelikteki sayısal veri kütükleri şeklinde ortaya koyulurlar [Lillesand and Kiefer,<br />
1994]. Kontrollü sınıflandırma yönteminde kullanılan en önemli algoritmalar, en kısa<br />
uzaklık karar kuralı, paralelkenar karar kuralı, Mahalanobis uzaklığı ve en çok<br />
benzerlik algoritmalarıdır.<br />
2.5.4.2.1. En Kısa Uzaklık Sınıflandırıcısı<br />
En kısa uzaklık sınıflandırıcısında her bir örnek sınıf için hesaplanan ortalama<br />
vektör ile aday piksel arasındaki spektral uzaklık hesaplanır. Hesaplanan spektral<br />
uzaklıklara göre aday piksel en kısa mesafedeki örnek sınıfa atanır [Erdas, 2008].<br />
Şekil 2.6’da aday pikselin üç özelliğe ait ortalama vektöre olan spektral uzaklıkları<br />
bir çizgi ile ifade edilmiştir. Şekle göre aday piksel bu spektral uzaklıklardan en kısa<br />
mesafede olan sınıfa atanmasıyla sınıflandırma işlemi gerçekleştirilir. Örnek sınıf<br />
ortalama vektörü ile bilinmeyen piksel arasındaki uzaklığa spektral uzaklık denir ve<br />
uzaklığın bulunması Eşitlik 2.1’de ifade edilen Öklit uzaklığı esasına dayanmaktadır.<br />
( ) 2<br />
− X<br />
n<br />
SDxyc<br />
= ∑ μ ci xyi<br />
(2.1)<br />
i= 1
24<br />
Bu eşitlikte; n, bant sayısını (boyutu); i, belirli bir bandı; c, belli bir sınıfı;<br />
X xyi , i. banttaki pikselin x, y değerlerini; μ ci , i bandındaki c sınıfına ait örneklere<br />
ait değerlerin ortalamasını;<br />
SDxyc<br />
, aday piksel<br />
x, y ’nin c sınıfına ait ortalama<br />
vektöre olan spektral uzaklığı olarak ifade edilebilir [Erdas, 2008].<br />
Aday piksel<br />
B bandı değerleri<br />
μ B 2<br />
μ B 3<br />
μ 1<br />
1<br />
B<br />
μ 1<br />
μ 2<br />
μ 3<br />
μ A μ A2<br />
μ A 3<br />
A bandı değerleri<br />
Şekil 2.6. En kısa uzaklık (spektral uzaklık) sınıflandırıcısı.<br />
En kısa uzaklık yöntemi matematiksel ifadesi anlaşılabilir, basit ve hesaplama<br />
zamanı açısından hızlı olan bir kontrollü sınıflandırma algoritmasıdır. Yöntemin bu<br />
önemli avantajlarının yanında en önemli eksikliği görüntü üzerindeki objelerin<br />
spektral olarak birbirine çok yakın değerlere sahip olması ve yüksek varyans<br />
değerlerine sahip olması durumlarında ürettiği düşük doğruluktur. Bununla beraber<br />
yöntemle yapılan sınıflandırma sonucunda spektral uzaklıklar göz önüne<br />
alındığından her bir aday pikselin örnek sınıflardan birine atanması söz konusudur<br />
[Lillesand and Kiefer, 1994].<br />
2.5.4.2.2. Paralelkenar Sınıflandırıcısı<br />
Paralelkenar sınıflandırıcısında her bir örnek sınıfın her bir banttaki en düşük<br />
ve en yüksek spektral değerleri dikkate alınarak, dikdörtgen bölgeler oluşturulur.<br />
Daha sonra sınıflandırılmak istenen aday piksel içerisinde bulunduğu dikdörtgen<br />
bölgenin ait olduğu örnek sınıfa atanır [Lillesand et al., 2007]. Parametrik olmayan<br />
bir yaklaşım olan paralelkenar karar kuralı hesaplama zamanı açısından hızlı ve
25<br />
matematiksel ifadesi basit olan bir yöntemdir. Bu yöntemin sonucunda<br />
sınıflandırılamayan piksel sayısı fazladır. Sınıflar arasında çakışan alanlar olması<br />
durumunda sınıflandırma işlemi zorlaşmaktadır. Bu durumda aday piksellerin<br />
çakışan sınıflardan birine rastgele atanması ile problem çözülür. Sonuç olarak aday<br />
pikselin olması gerekenden farklı bir sınıfa atanması da söz konusu olabilmektedir.<br />
Şekil 2.7’de iki boyutlu bir veri seti için paralelkenar karar kuralı sınıflandırıcısı<br />
gösterilmiştir. Şekilde iki banttaki üç sınıfa ait veriler ve bu sınıfların oluşturduğu<br />
dikdörtgen bölgeler görülmektedir. Sınıflandırma sonucunda bazı bölgelerde çakışma<br />
ve çok sayıda aday pikselin sınıflandırılamaması söz konusudur.<br />
Sınıf 1<br />
B bandı değerleri<br />
Sını f 3<br />
Sınıf 2<br />
A bandı değerleri<br />
Sınıf 1’e ait pikseller<br />
Sınıf 2’e ait pikseller<br />
Sınıf 3’e ait pikseller<br />
Sınıflandırılamayan pikseller<br />
Şekil 2.7. Paralelkenar sınıflandırıcısı.<br />
2.5.4.2.3. Mahalanobis Uzaklığı Sınıflandırıcısı<br />
Mahalanobis uzaklığı sınıflandırıcısı, bantlardaki ver<strong>ileri</strong>n normal dağılımda<br />
olduğunu kabul eder ve bu kabulle iyi sonuçlar vermektedir. Yöntem en kısa uzaklık<br />
karar kuralına benzemekte ancak bu yöntemde eşitliklerde kovaryans matrisi de<br />
kullanılmaktadır [Erdas, 2008]. Mahalanobis yöntemi varyans ve kovaryans gibi<br />
istatistiki değerler kullanmasından ötürü parametrik bir yaklaşımdır. Varyans ve<br />
kovaryans değişik özellikteki çeşitli sınıflar için denklemde karşılıklı olarak<br />
hesaplanır. Yüksek varyansa sahip kümeler aynı şekilde varyansa sahip sınıflara,<br />
düşük varyansa sahip kümeler düşük varyanslı sınıflara atanacaktır [Göksel, 1996].<br />
Mahalanobis uzaklığı sınıfandırıcısı, minimum uzaklık ya da paralelkenardan faklı
26<br />
olarak sınıf değişimi göz önüne alınır. Mahalanobis uzaklığında işlenen örnekte ya<br />
da bir kümedeki piksellerde büyük bir dağılma varsa o işaretin kovaryans matrisi<br />
büyük değerler içerecektir [Kansu, 2006]. Mahalanobis uzaklığı sınıflandırıcısı için<br />
kullanılan eşitlik;<br />
D =<br />
T −1<br />
( X − M ) ( Cov )( X − M )<br />
c<br />
c<br />
c<br />
(2.2)<br />
şeklinde ifade edilmektedir. Bu eşitlikte; D, mahalanobis uzaklığını; c, belirli bir<br />
sınıfı; X, aday pikselin ölçüm vektörünü;<br />
vektörü; Cov c , c sınıfındaki piksellere ait kovaryans matrisini; Covc<br />
, Covc<br />
’nin<br />
M c<br />
, c sınıfındaki özelliklere ait ortalama<br />
ters matrisini ve T ise transpoze fonksiyonunu ifade etmektedir. Yöntemin temel<br />
çalışma prensibi, sınıflandırılacak aday pikselin, Eşitlik 2.2 ile hesaplanan<br />
mahalanobis uzaklığının en düşük olduğu sınıfa atanması şeklindedir. Yöntem<br />
istatistiki değerlerin dikkate alınmasının zorunlu olduğu durumlarda en kısa uzaklık<br />
yöntemine göre daha doğru sonuçlar vermektedir. Diğer taraftan yöntem,<br />
paralelkenar ve en kısa uzaklık yöntemine göre daha uzun bir hesaplama süresi<br />
gerektirmektedir [Erdas, 2008].<br />
−1<br />
2.5.4.2.4. En Çok Benzerlik Sınıflandırma Algoritması<br />
En çok benzerlik yöntemi literatürde en yaygın olarak kullanılan etkili bir<br />
kontrollü sınıflandırma algoritmasıdır. Bu yöntemde ortalama değer, varyans ve<br />
kovaryans gibi istatistiki değerlerin tümü dikkate alınır. Kontrol alanlarını oluşturan<br />
sınıflar için olasılık fonksiyonları hesaplanmakta ve buna göre her bir pikselin hangi<br />
sınıfa daha yakın olduğuna karar verilmektedir. Bir pikselin hangi sınıfa ait olduğu<br />
her bir sınıfa ait olma olasılıklarının hesabından sonra en yüksek olasılıklı grubu<br />
atama şeklinde yapılır [Mather, 1987]. Bu noktada kullanıcı tarafından tespit<br />
edilecek bir eşik değer sınıflandırılacak pikselin belirlenen sınıflardan veya bu<br />
sınıfların dışında bir sınıftan olduğunun tespitinde kullanılır. Bu yöntemde, sınıf<br />
kontrol ver<strong>ileri</strong>ni oluşturan noktalar kümesindeki dağılımın, normal dağılım olduğu<br />
kabul edilir. Sınıfların ilk olasılıkları hakkında bilgi mevcut değilse, hepsi eşit<br />
olasılıklı olarak kabul edilir. Yöntem, pikselleri sadece parlaklık değerlerine göre<br />
değil, her sınıf için ayrım oluşturacak varyans-kovaryans matris değerine göre
27<br />
oluşturur. Böylece örnek piksellerin özellik uzayındaki dağılımları da dikkate alınmış<br />
olur. Olasılık yoğunluk fonksiyonları, bilinmeyen piksellerin olasılıklarının<br />
hesaplanarak belirli bir sınıfa atanması için kullanılır. Aday piksel olasılık değerine<br />
göre en çok benzediği sınıfa atanır. Sınıflandırma sırasında piksellerin belirlenen<br />
sınıflardan veya bu sınıfların dışında bir sınıftan olduğunun tespiti için eşik değeri<br />
kullanılmaktadır. Eğer aday pikselin olasılığı tüm sınıflar için belirlenen eşik<br />
değerinin altındaysa piksel bilinmeyen olarak etiketlenir [Lillesand and Kiefer,<br />
1994]. En çok benzerlik yönteminde kullanılan formül aşağıdaki şekildedir:<br />
D = ln<br />
T −1<br />
[ ] 0.5 * ( X − M ) * ( Cov )*<br />
( X − M )]<br />
( a ) − 0.5 * ln( Cov ) − [<br />
c<br />
c<br />
c<br />
c<br />
C<br />
(2.3)<br />
Bu eşitlikte; D, uzaklık ağırlıklı olasılık değerini; C, örnek bir sınıfı; X, aday<br />
pikselin ölçüm vektörünü;<br />
M c<br />
, C örnek sınıfının ortalama vektörünü; a , aday<br />
pikselin C sınıfına ait olma yüzdesini, Cov , C örnek sınıfındaki piksellerin varyanskovaryans<br />
matrisini göstermektedir.<br />
c<br />
c<br />
2.6. Uzaktan Algılama Uyduları<br />
2.6.1. LANDSAT Uydu Sistemi<br />
İlk LANDSAT uydusunun 1972 yılında uzaya gönderilmesinden sonra dört<br />
adet Landsat uydusu daha yörüngeye oturtulmuştur. İlk kuşak üç uydudan<br />
oluşmaktadır. Bu uydular iki sensör taşımaktadır: Return Beam Vidicon (RBV)<br />
kamera ve Multispectral Scanner (MSS). İkinci kuşak Landsat uyduları, 1982'de<br />
Landsat 4 ile başlayarak, RBV yerine Thematic Mapper (TM) adında yeni bir cihazla<br />
donatılmışlardır. 1999 yılında, Landsat 7 Thematic Mapper+ ve yüksek çözünürlüklü<br />
scanner ile donatılarak uzaya gönderilmiştir. Landsat 7 uydusu uzaya gönderildiği<br />
zaman üzerinde tek bir aygıt olarak ETM+ (Enhanced Thematic Mapper Plus)<br />
taşımaktadır [URL–2].<br />
Landsat uydusu tekrarlı, dairesel, güneşe senkronize, kutuplara-yakın<br />
yörüngeye sahiptir. Bu özellikleri sayesinde 81° N and 81° S arasında görüntüleme
28<br />
yapar. LANDSAT 1 – 3 uyduları için tekrar süresi 18 gündür, LANDSAT 4 ve 5 için<br />
16 gündür.<br />
TM ve MSS ver<strong>ileri</strong> için veri dizisi 8-bit'ten oluşmaktadır. Multi-Spectral<br />
Scanner (MSS) alıcısı görünür ve yakın-infrared bölgede 4 adet banda sahiptir ve 79<br />
metre çözünürlüktedir. Thematic Mapper adlı cihazın spektral ve geometrik<br />
çözünürlük üstünlüğü nedeniyle MSS' in talebi hızla azalmıştır.<br />
Landsat 7 geliştirilmiş TM tarayıcısı taşımaktadır. Standart 7 banda ek olarak<br />
15m çözünürlüğe sahip pankromatik band (0.50- 0.90μm) eklenmiştir. Bunlara ek<br />
olarak termal bandın çözünürlüğü de 60 metreye indirilmiştir. Landsat 5–7<br />
uydularının genel özellikleri Tablo 2.1’de gösterilmiştir. Tabloda VNIR, görünür<br />
yakın kızılötesini; SWIR, orta kızılötesini ve TIR, termal kızılötesini göstermektedir.<br />
Tablo 2.1. Landsat uydularının teknik özellikleri.<br />
Uydu<br />
Sensör<br />
Tipi<br />
Spektral<br />
(μm)<br />
Çözünürlük<br />
Yersel<br />
(m)<br />
Radyometrik<br />
(bit)<br />
Landsat 1/2/3<br />
MSS<br />
VNIR: 0.5–0.6, 0.6–0.7,<br />
0.7–0.8, 0.8–0.11<br />
79 6<br />
VNIR: 0.45–0.52, 0.52–0.60,<br />
30<br />
Landsat 4/5<br />
TM<br />
0.63–0.69, 0.76–0.90<br />
SWIR: 1.55–1.75,2.08–2.35<br />
TIR: 10.42–12.5<br />
30<br />
120<br />
8<br />
PAN<br />
0.52–0.9<br />
15<br />
Landsat 7<br />
ETM<br />
VNIR ve SWIR Landsat 5 ile aynı<br />
TIR: 10.42–12.5<br />
30<br />
60<br />
8
29<br />
2.6.2. TERRA Uydu Sistemi<br />
Terra uydusu 1999 yılında uzaya gönderilmiştir. Uydu üzerinde ASTER,<br />
MODIS, CERES, MOPITT ve MISR olarak bilinen beş adet model bulunmaktadır.<br />
Bu modüller arasında ASTER sensörü 14 bantlı ve 15m - 90m yersel çözünürlükteki<br />
görüntüler elde edilmektedir. ASTER ver<strong>ileri</strong>; arazi yüzeyi, sıcaklık, reflektans,<br />
parlaklık değişim oranı ve yükseklik haritalarını çıkarmak için kullanmaktadırlar.<br />
Üzerinde yüksek verimlilikte çalışan optik sensörler mevcut olup, 14 bantla termal<br />
kızıl ötesi ile kara yüzeylerini spektral bantlarla incelemektedir [URL–2]. Terra<br />
ASTER uydusuna ait teknik özellikler Tablo 2.2’de gösterilmiştir. Tabloda VNIR,<br />
görünür yakın kızılötesini; SWIR, orta kızılötesini ve TIR, termal kızılötesini<br />
göstermektedir.<br />
Tablo 2.2. Terra ASTER uydusunun teknik özellikleri.<br />
Uydu<br />
Sensör<br />
Tipi<br />
Spektral<br />
(μm)<br />
Çözünürlük<br />
Yersel<br />
(m)<br />
Radyometrik<br />
(bit)<br />
VNIR<br />
0.52–0.60, 0.63–0.69,<br />
0.76–0.86<br />
15 8<br />
1.60–1.70, 2.145–2.185,<br />
Terra/ASTER<br />
SWIR<br />
2.185–2.225, 2.235–2.285,<br />
2.295–2.365, 2.360–2.430<br />
30 8<br />
TIR 10.95–11.65 90 12<br />
2.6.2. SPOT Uydu Sistemi<br />
SPOT uydusu Fransız, İsveç ve Belçika ortak yapımı olup 1986 yılında<br />
uzaydaki yörüngesine yerleştirilmiştir. SPOT uydusu üzerinde iki adet HRV ve<br />
vejetasyon algılayıcı mevcuttur. HRV algılayıcıları, pankromatik ve çok bantlı<br />
görüntüler elde edebilmektedir.
30<br />
Günümüze kadar beş adet SPOT uydusu uzaya gönderilmiştir. Bunlardan<br />
SPOT-1,2,3,4 uyduları yüksek çözünürlüğe sahip (10m pankromatik ve 20m çok<br />
bantlı görüntüleme modunda) ve değişik ihtiyaçları karşılayacak spektral bandlar<br />
içermektedir. Bu uydular iyi bir tekrar görüntüleme süresine sahip olup, 900 km'lik<br />
görüntüleme alanı içerisinde kalan 60km x 60km 'lik herhangi bir bölgeyi her geçişte<br />
görüntüleme olanağı sağlamaktadırlar. SPOT–5 zenginleştirilmiş görüntü ile Spot<br />
serisinin beşincisidir. SPOT–5 deki iki yeni HRG cihazı Spot 4 deki HRVIR<br />
cihazlarından türetilmiştir ve 2,5,-5 m pankromatik ve 10 metre de çok bantlı yersel<br />
çözünürlüklü görüntü imkanı sağlar [URL–2]. SPOT uydularının teknik özellikleri<br />
Tablo 2.3’de gösterilmiştir.<br />
Tablo 2.3. SPOT uydularının teknik özellikleri<br />
Çözünürlük<br />
Uydu Sensör Tipi Spektral<br />
(μm)<br />
Yersel<br />
(m)<br />
Radyometrik<br />
(bit)<br />
PAN 0.51–0.73 10 8<br />
SPOT–1/2/3 HRV VNIR: 0.50–0.59, 0.61–0.68,<br />
0.79–0.89<br />
20 8<br />
PAN 0.61–0.68 10 8<br />
SPOT–4<br />
HRVIR VNIR: 0.50–0.59, 0.61–0.68,<br />
0.79–0.89<br />
SWIR: 1.58–1.75, 0.43–0.47,<br />
0.61–0.68<br />
20 8<br />
Vejetasyon 0.78–0.89, 1.58–1.75 1000 4/8<br />
PAN 0.49–0.69 2.5–5 8<br />
SPOT–5<br />
HRG VNIR: 0.49–0.61, 0.61–0.68,<br />
0.78–0.89<br />
10 8<br />
HRG SWIR: 1.58–1.75 20 8<br />
Vejetasyon<br />
0.43–0.47, 0.61–0.68,<br />
0.78–0.89, 1.58–1.75<br />
1000 4/8
31<br />
3. UZAKTAN ALGILAMADA İLERİ<br />
SINIFLANDIRMA TEKNİKLERİ<br />
3.1. Destek Vektör Makineleri<br />
Destek Vektör Makineleri (DVM), Viladimir N. Vapnik ve çalışma arkadaşları<br />
tarafından ortaya konulan istatistiksel öğrenme teorisine dayalı bir kontrollü<br />
sınıflandırma algoritmasıdır [Vapnik, 1995]. DVM’nin sahip olduğu matematiksel<br />
algoritmalar başlangıçta iki sınıflı doğrusal ver<strong>ileri</strong>n sınıflandırılması problemi için<br />
tasarlanmış daha sonra kullanılan algoritmalar doğrusal olmayan ver<strong>ileri</strong>n ve çok<br />
sınıflı ver<strong>ileri</strong>n sınıflandırılması problemlerinin çözümü için genelleştirilmiştir.<br />
DVM’nin en genel amacı iki sınıfı birbirinden ayırabilen en uygun karar fonksiyonun<br />
tahmin edilmesi başka bir ifadeyle iki sınıfı birbirinden en uygun şekilde ayırabilen<br />
bir hiper düzlemin tanımlanması esasına dayanmaktadır [Vapnik, 2000]. DVM optik<br />
karakterlerin tanımlanması, el yazısı tanımlamaları, parmak izi tespiti, yüz tanıma ve<br />
metin sınıflandırmaları gibi birçok uygulamada kullanılmıştır [Joachims, 1998;<br />
Heisele et al., 2003; Liu et al., 2003; Yang et al., 2008; Hong et al., 2008]. Son<br />
yıllarda DVM’nin <strong>uzaktan</strong> algılanmış görüntülerin sınıflandırılması konusunda<br />
başarıyla kullanımı literatürde bir çok yayında mevcuttur [Huang et al., 2002; Foody<br />
and Mathur, 2004; Pal and Mather, 2005; Su et al., 2007; Yao et al., 2008].<br />
Destek vektör makinelerini diğer öğrenme algoritmalarından ayıran en önemli<br />
özellik; sahip olduğu matematiksel algoritmanın sınıflandırma sonucunda beklenen<br />
riskin üst sınırının minimum olması şeklinde ifade edilen yapısal risk azalımı (YRA)<br />
prensibine dayanmasıdır [Kechman, 2001]. Vapnik (1995)’e göre bir öğrenme<br />
makinesinin riski (R); eğitim ver<strong>ileri</strong>nden elde edilen deneysel gözlemlerin riski<br />
(R emp ) ve güvenilirlik aralığının toplamına ((ψ ) = R ≤ + ψ )<br />
stratejisi deneysel gözlem riskini (R emp ) sabit olarak korumak ve güvenilirlik aralığını<br />
( ψ ) minimum yapmak veya en uygun ayrım yapan hiper düzleme en yakın veri<br />
noktaları arasındaki sınırın maksimum olması olarak tanımlanabilir. En uygun ayrım<br />
yapan hiper düzlemden kasıt çok boyutlu bir uzayda veri örneklerini iki sınıfa ayıran<br />
bir hiper düzlemdir. Bu bağlamda iki sınıfı birbirinden ayıran en uygun hiper<br />
R emp<br />
bağlıdır. YRA
32<br />
düzlem, bu düzlem ile bu düzleme en yakın veri noktalarının oluşturduğu sınırı<br />
maksimum yapan hiper düzlem olarak tanımlanabilir [Huang et al., 2002]. DVM<br />
öznitelik bilg<strong>ileri</strong> verilen bir test veri setine ait sınıf etiketlerini öğrenebilen veya<br />
tahmin edebilen bir model oluşturmayı amaçlamaktadır. Bu doğrultuda sınıflandırma<br />
işleminde, DVM ile eğitim seti içindeki veriler kullanılarak bir hiper düzlem<br />
belirlenir ve bu oluşturulan düzlemin geçerliliği (genelleme yeteneği) test veri seti<br />
olarak adlandırılan bağımsız veri setleri kullanılarak doğrulanır. N boyutlu bir verinin<br />
sınıflandırılmasında DVM ile (N–1) boyutlu bir hiper düzlem geliştirilir. İki sınıfa<br />
sahip doğrusal olarak ayrılabilen bir veri seti düşünülürse, Şekil 3.1’de görüleceği<br />
üzere bu veri setini ayırabilen sonsuz sayıda hiper düzlem vardır.<br />
Şekil 3.1. İki sınıflı bir problemde ver<strong>ileri</strong> ayıran hiper düzlemler.<br />
Ancak, bu düzlemler arasında maksimum sınıra sahip sadece bir hiper düzlem<br />
bulunmaktadır [Sherrod, 2003; Oomen et al., 2008]. Bu hiper düzleme en uygun<br />
ayrım yapan hiper düzlem ve sınır genişliğini sınırlandıran noktalara ise destek<br />
vektörleri adı verilir (Şekil 3.2).<br />
Destek Vektörleri<br />
Sınır<br />
Destek Vektörleri<br />
Optimum Hiper Düzlem<br />
Şekil 3.2. İki sınıflı bir problemde en uygun hiper düzlem, sınır ve destek vektörleri.
33<br />
Destek vektör makineleri ile yapılan sınıflandırma problemlerinde ver<strong>ileri</strong>n<br />
doğrusal olarak ayrılabilen veya doğrusal olarak ayrılamayan bir yapıda olması en<br />
çok karşılaşılan iki durumdur. Doğrusal olarak ayrımı yapılabilen ver<strong>ileri</strong>n<br />
sınıflandırılması ve bu ver<strong>ileri</strong> birbirinden ayıran en uygun hiper düzlemin bulunması<br />
oldukça kolaydır. Ancak <strong>uzaktan</strong> algılanmış görüntülerin sınıflandırılmasında olduğu<br />
gibi güncel hayatta karşımıza çıkan birçok sınıflandırma probleminde ver<strong>ileri</strong>n<br />
doğrusal olarak ayrılması mümkün değildir. Bu tip problemlerin teorik olarak<br />
çözülmesi zor ve karmaşıktır.<br />
3.1.1. Doğrusal Olarak Ayrım Yapılabilen Veriler<br />
Doğrusal olarak ayrılabilen sınıflar DVM’nin eğitimi için en basit durumdur.<br />
İki sınıflı k sayıda örnekten oluşan doğrusal yapıdaki bir eğitim verisi seti { x i<br />
y },<br />
N<br />
i = 1,...,k , şeklinde verilsin. Burada x ∈ R olup N boyutlu bir uzayı, y ∈{<br />
−1 , + 1}<br />
ise<br />
sınıf etiketlerini göstermektedir. Osuna et al. (1997), hiper düzleme ait ağırlık<br />
vektörü w ve hiper düzlemin orijinden olan uzaklığını gösteren b sayısal<br />
büyüklüğünün hesaplanması durumunda iki sınıfı birbirinden ayıran hiper düzlemin<br />
belirlenebileceğini ifade etmiştir. İki sınıflı bir problemde ayrım yapan hiper düzleme<br />
ait eşitlikler Eşitlik 3.1 ve 3.2’de verilmiştir.<br />
,<br />
i<br />
w ⋅ x i<br />
+ b ≥ + 1 her y = + 1 için (3.1)<br />
w ⋅ x i<br />
+ b ≤ −1<br />
her y = −1<br />
için (3.2)<br />
Bu iki eşitlik tek bir eşitlik ile ifade edilecek olursa;<br />
y ( w ⋅ x + b)<br />
−1<br />
≥ 0<br />
i<br />
i<br />
(3.3)<br />
şeklinde olur. Bu durumda hipotez uzayı Eşitlik 3.4 ile verilen fonksiyonlar kümesi<br />
halini alır.<br />
f<br />
w b<br />
,<br />
= sign(<br />
w⋅ x + b)<br />
(3.4)
34<br />
Eğer w ve b parametreleri aynı miktarda ölçeklenirse Eşitlik 3.4’deki karar<br />
yüzeyi değişmeyecektir. Bu fazlalığı kaldırmak ve her bir karar yüzeyinin tek bir<br />
sabit (w,b) çiftine karşılık gelmesi için Eşitlik 3.5 ile verilen sınırlandırmadan<br />
yararlanılır.<br />
min w⋅<br />
x + b = 1<br />
i= 1,..., k<br />
i<br />
(3.5)<br />
N<br />
2<br />
Bu eşitlikte<br />
x<br />
1,...,<br />
x k<br />
veri kümesindeki noktaları göstermektedir. Eşitliği<br />
sağlayan hiper düzlem seti standart hiper düzlem olarak adlandırılır [Osuna et al.,<br />
1997]. Bütün doğrusal karar yüzeyleri standart hiper düzlem ile gösterilebilir. Vapnik<br />
(1995), (w,b) çiftleri için yararlanılan sınırlandırmalardan başka sınırlandırmalar<br />
olmaması durumunda standart hiper düzlemin Vapnik-Chervonenkis (VC)<br />
boyutunun bağımsız parametrelerinin toplam sayısını gösteren (N+1) olacağını ifade<br />
etmiştir. VC boyutu hipotez uzayının kapasitesini ölçer [Vapnik and Chervonenkis,<br />
1968; 1971]. Kapasite bir karmaşıklığın veya zorluğun ölçülmesi anlamına<br />
gelmektedir. Başka bir ifadeyle bir fonksiyon kümesinin ifade gücünü, esnekliğini<br />
veya zenginliğini ölçer. N noktayı içeren bir veri seti düşünüldüğünde, bu N nokta<br />
pozitif veya negatif olarak etiketlenebilir. Bununla beraber, N sayıda veri noktasıyla<br />
farklı öğrenme problemi tanımlanabilir. Bu problemlerden herhangi biri için<br />
pozitif örnekleri negatif örneklerden ayırabilen bir h ∈ H hipotezi bulunabilirse,<br />
H’nın N veri noktasını parçalara ayırdığı söylenebilir. Bu durum, N örnekle<br />
tanımlanabilir herhangi öğrenme probleminin H tarafından çizilen bir hipotez ile<br />
hatasız bir biçimde öğrenilebilir olduğunu göstermektedir. H tarafından<br />
parçalanabilen maksimum nokta sayısı Vapnik-Chervonekis (VC) boyutu olarak<br />
adlandırılır. Yapısal risk azalımı prensibini uygulayabilmek için değişken VC<br />
boyutlu hiper düzlemler setinin oluşturulması gerekmektedir. Ayrıca hem eğitim<br />
sınıflandırma hatasını ifade eden deneysel riskin hem de VC boyutunun aynı anda<br />
minimum olması gerekmektedir. Bir x noktasının, (w,b) çiftine bağlı olarak<br />
oluşturulan hiper düzleme olan uzaklığı Eşitlik 3.6 ile belirlenebilir.<br />
d ( x;<br />
w,<br />
b)<br />
=<br />
x ⋅ w + b<br />
w<br />
(3.6)
35<br />
Eşitlik 3.5’te (w,b) ile tanımlanan standart hiper düzlem ile bu düzleme en<br />
yakın veri noktası arasındaki uzaklık basit bir şekilde<br />
1 / w ’dır [Foody and Mathur,<br />
2004]. Eğer örnek grupları doğrusal olarak ayrılabiliyorsa, veriyi en doğru şekilde<br />
sınıflandıran standart hiper düzlemler arasında en iyisi minimum norma sahip veya<br />
eşit bir biçimde minimum<br />
2<br />
w olanıdır. Bu normun minimum olarak kalması VC<br />
boyutunun minimum olarak kalmasına neden olur. Doğrusal olarak ayrımın<br />
yapılabildiği durumda<br />
w<br />
2<br />
’nin minimum olması, eğitim veri sınıfları arasında hiper<br />
düzleme olan dik çizgiler arasında hesaplanan uzaklığın bulunduğu ayırıcı hiper<br />
düzleme eşittir. Şekil 3.3’de gösterilen bu uzaklık sınır olarak adlandırılır [Burges,<br />
1998].<br />
Y<br />
Sınır<br />
Hiper Düzlemler<br />
w ⋅ x + b = ± 1<br />
w<br />
Destek Vektörleri<br />
b<br />
Optimum Hiper Düzlem<br />
w ⋅ x + b = 0<br />
X<br />
Şekil 3.3. Doğrusal olarak ayrılabilen veri setleri için hiper düzlemin belirlenmesi.<br />
N<br />
( x<br />
1,<br />
y1),......,(<br />
x k<br />
, yk<br />
)<br />
i<br />
∈ R , yi<br />
∈{<br />
−1,<br />
+ 1}<br />
x şeklinde verilen bir veri setinin iki<br />
farklı sınıfa doğru bir şekilde ayrılması için maksimum sınıra sahip hiper düzlemin,<br />
başka bir ifadeyle en uygun ayrım yapan hiper düzlemin belirlenmesine ihtiyaç<br />
duyulmaktadır. Destek vektör makinelerinin üzerinde bulunduğu hiper düzlemler<br />
arasındaki sınırın maksimum hale getirilmesi; w ifadesinin minimum hale<br />
getirilmesi ile mümkün olacaktır. Bu durumda maksimum sınıra sahip hiper<br />
düzlemin belirlenmesi;
36<br />
1 2<br />
min w (3.7)<br />
w, b 2<br />
koşulu ile<br />
y ( w ⋅ x + b)<br />
−1<br />
≥ 0<br />
i<br />
i<br />
i = 1,.......,<br />
k<br />
(3.8)<br />
eşitliğinin çözümü ile mümkündür.<br />
Yukarıdaki koşul ve eşitlik ile ifade edilen doğrusal olmayan optimizasyon<br />
probleminin çözümü için Lagrange fonksiyonu ve Lagrange<br />
çarpanlarından ( λ , i 1,..., k)<br />
yararlanılır. Bunun en önemli nedeni, Lagrange<br />
i<br />
=<br />
fonksiyonu kullanılarak Lagrange çarpanlarının dolayısıyla en uygun hiper düzleme<br />
ait parametrelerin ( w,b ) hesaplanmasının kolay olması ve doğrusal olmayan veriler<br />
için en uygun hiper düzlemin bulunması probleminin çözümü için Lagrange<br />
fonksiyonun genelleştirilebilecek bir yapıda olmasıdır [Burges, 1998]. Bu<br />
optimizasyon probleminin çözümü için oluşturulacak Lagrange fonksiyonu Eşitlik<br />
3.9 ile ifade edilir.<br />
k<br />
k<br />
1 2<br />
L( w,<br />
b,<br />
λ)<br />
= w − ∑λi<br />
yi<br />
( w ⋅ xi<br />
+ b)<br />
+ ∑λi<br />
2<br />
i= 1 i=<br />
1<br />
(3.9)<br />
Karush-Kuhn-Tucker (KKT) şartları sınırlandırılmış optimizasyon probleminin<br />
uygulamasında ve teorisinde önemli bir rol oynamaktadır [Fletcher, 2000].<br />
Yukarıdaki eşitliğin kısmı türevleri alınarak sıfıra eşitlenerek Eşitlik 3.10’daki<br />
ifadeler elde edilir.<br />
∂L(<br />
w,<br />
b,<br />
λ)<br />
k<br />
T<br />
= w<br />
∂ w<br />
i=<br />
1<br />
− ∑ yiλi<br />
xi<br />
= 0<br />
∂L(<br />
w,<br />
b,<br />
λ)<br />
∂b<br />
k<br />
= ∑ yiλi<br />
= 0<br />
i=1<br />
(3.10)
37<br />
Bu eşitliklerden KKT şartları Eşitlik 3.11 şeklinde;<br />
w<br />
T<br />
∑<br />
= k<br />
i= 1<br />
y λ x<br />
i<br />
i<br />
i<br />
k<br />
∑ yi λi<br />
=0<br />
(3.11)<br />
i=1<br />
elde edilir. KKT teorisine göre sadece Eşitlik 3.1 ve 3.2’yi sağlayan noktalar sıfırdan<br />
farklı<br />
q<br />
λ i<br />
katsayılarına sahip olabilirler. Bu noktalar destek vektörleri adı verilen<br />
birbirine paralel iki hiper düzlem üzerinde olurlar (Şekil 3.3). Başka bir ifadeyle<br />
destek vektörleri<br />
q<br />
λ i<br />
≥ 0<br />
olan aynı zamanda Eşitlik 3.1 ve 3.2’yi sağlayan noktalardır<br />
[Osuna et al., 1997]. Kısmi türevler alınarak elde edilen Eşitlik 3.11, Eşitlik 3.9’da<br />
yerine konulduğunda L ( w , b,<br />
λ)<br />
fonksiyonu; ( λ ≥ 0,<br />
i = 1,..., k)<br />
olmak üzere;<br />
i<br />
k<br />
1<br />
L ( w,<br />
b,<br />
λ ) = ∑λi<br />
− ∑λiλ<br />
j<br />
yi<br />
y<br />
j<br />
( xi<br />
⋅ x<br />
j<br />
) (3.12)<br />
2<br />
i<br />
i,<br />
j=<br />
1<br />
şeklinde elde edilir.<br />
Sonuç olarak iki sınıflı doğrusal ver<strong>ileri</strong>n söz konusu olduğu bir problem için<br />
iki sınıfın birbirinden ayrılması ile ilgili karar kuralı Eşitlik 3.13 ile ifade edilebilir<br />
[Vapnik, 1995; Osuna et al., 1997].<br />
k<br />
⎛<br />
f ( x)<br />
= sign⎜<br />
∑ ⎝ i=<br />
1<br />
⎞<br />
λi<br />
yi<br />
( x ⋅ xi<br />
) + b⎟<br />
⎠<br />
(3.13)<br />
3.1.2. Doğrusal Olmayan Veriler<br />
Günlük hayatta karşılaşılan birçok problemde ver<strong>ileri</strong>n doğrusal olmadığı<br />
durumlar söz konusudur. Başka bir ifade ile Şekil 3.4’de gösterildiği gibi doğrusal<br />
bir düzlem ile ver<strong>ileri</strong>n birbirinden ayrılamaması durumu vardır. Cortes ve Vapnik<br />
(1995), iki sınıfın doğrusal olarak ayrımının yapılamadığı ve hiper düzlemin
38<br />
yerleştirilemediği ver<strong>ileri</strong>n olması durumunda en uygun ayrım yapan hiper düzlemin<br />
bulunması metodunu genelleştirmişlerdir.<br />
Şekil 3.4. Doğrusal olarak ayrılamayan veri seti.<br />
Cortes and Vapnik (1995) çalışmalarında doğrusal olmayan ver<strong>ileri</strong>n<br />
sınıflandırılması probleminin Şekil 3.5’den de görüleceği üzere pozitif değerler alan<br />
ve sınıflandırma hatalarını ifade eden yapay değişkenlerin ( ξ i<br />
) tanımlanması ve<br />
optimizasyon modeline eklenmesi ile çözümün bulunabileceğini ifade etmişlerdir.<br />
Y<br />
Sınır<br />
Hiper Düzlemler<br />
w ⋅ x + b = ± 1<br />
w<br />
ξ<br />
b<br />
Optimum Hiper Düzlem<br />
w ⋅ x + b = 0<br />
X<br />
Şekil 3.5. Ayrım yapılamayan veri setleri için hiper düzlemler.<br />
Yapay değişken ξ ≥ 0 olan değerler alır. Doğrusal olmayan veriler olması<br />
i<br />
durumunda yapay değişkenler dikkate alınarak Eşitlik 3.3 yeniden düzenlenecek<br />
olursa;
39<br />
y ( w ⋅ x + b)<br />
−1+<br />
ξ ≥ 0 i = 1,...,<br />
k<br />
(3.15)<br />
i<br />
i<br />
i<br />
elde edilir. Bu durumda DVM algoritması sınırı maksimum yapacak hiper düzlemi<br />
ararken, aynı zamanda yanlış sınıflandırma hatalarının sayısı hakkındaki orantısal bir<br />
niceliği minimum yapmayı amaçlar. Sınırın maksimum hale getirilmesi ve yanlış<br />
sınıflandırma hatalarının minimum hale getirilmesi arasındaki bu denge pozitif<br />
değerler alan ve C ile gösterilen bir düzenleme parametresi ( 0 < C < ∞)<br />
tanımlanmasıyla kontrol edilebilir [Cortes and Vapnik, 1995]. Bu durumda<br />
optimizasyon problemi için Eşitlik 3.7 ile ifade edilen koşula C ξ (i = 1,...,<br />
k)<br />
gibi<br />
yeni bir terimin eklenmesi söz konusudur. C parametresi Lagrange çarpanlarının<br />
alabilecekleri maksimum değeri göstermektedir. Bu şekilde Lagrange çarpanlarının<br />
0 ≤ λi ≤ C aralığında kalması sağlanmaktadır. Burada C > 0 sabit bir parametredir<br />
ve kullanıcı tarafından belirlenir. Eğer C küçük ise doğru olarak sınıflandırılmayan<br />
birçok veriye izin verilir. C parametresi büyük değerler aldığında çok az sayıda hatalı<br />
veriye sahip olunmak istenir. Eğer<br />
∑ k<br />
i= 1<br />
C = ∞ kabul edilirse, ver<strong>ileri</strong>n tümüyle doğrusal<br />
olarak ayrılabildiği durum elde edilir [Özkan, 2008]. Diğer bir ifadeyle bu sabit<br />
terim, ξ<br />
i<br />
değişkeninin büyük değerler alması sonucunda ortaya çıkan çözümlere ceza<br />
i<br />
vererek minimum koşulunun<br />
2<br />
( 1/ 2) w katkısını ayarlamaktadır. Bu durumda<br />
doğrusal olmayan veriler için optimizasyon problemi:<br />
min<br />
⎡1<br />
⎢<br />
⎣<br />
w, b,<br />
ξ1,...,<br />
ξ k 2<br />
w<br />
2<br />
k<br />
⎤<br />
+ C∑ξ<br />
i ⎥<br />
i= 1 ⎦<br />
(3.16)<br />
y ( w ⋅ x + b)<br />
−1+<br />
ξ ≥ 0<br />
(3.17)<br />
i<br />
i<br />
i<br />
ξ ≥ 0, i = 1,......., k<br />
(3.18)<br />
i<br />
eşitlikleri halini alır. Bu optimizasyon probleminin çözümü için Lagrange<br />
fonksiyonu ve Lagrange çarpanları kullanılarak yeniden düzenlendiğinde,
40<br />
1 2<br />
L(<br />
w,<br />
b,<br />
λ,<br />
ξ,<br />
μ)<br />
= w + C∑ξi<br />
− ∑λi<br />
b 1<br />
2<br />
i<br />
i<br />
{ yi<br />
( w⋅<br />
xi<br />
+ ) − + ξi<br />
} − ∑<br />
i<br />
μ ξ<br />
i<br />
i<br />
(3.19)<br />
şeklinde yazılabilir. Bu eşitlikte<br />
λ ve<br />
μ lagrange çarpanlarıdır ve eşitliğin çözümü<br />
Lagrange düğüm noktaları ile tanımlanır. Bu düğüm noktaları<br />
w, ξ ve b’yi minimum<br />
hale getirirken aynı zamanda<br />
λ ≥ 0 ve μ ≥ 0 ile ilgili değerleri maksimum hale<br />
i<br />
i<br />
getiren noktalardır. Yukarıdaki eşitliğin kısmi türevleri alınıp sıfıra eşitlenerek KKT<br />
koşulları;<br />
∂L<br />
= 0<br />
∂w<br />
∑<br />
, w = k λ y x<br />
i= 1<br />
i<br />
i<br />
i<br />
∂L<br />
∂b<br />
∑ k<br />
i=1<br />
= 0 , λ y = 0<br />
(3.20)<br />
i<br />
i<br />
∂L<br />
= 0 , λ i<br />
+ μ i<br />
=<br />
∂ξ<br />
0<br />
şeklinde elde edilir. Buradan hareketle Lagrange fonksiyonu;<br />
k<br />
k<br />
1<br />
L( λ)<br />
= ∑λi − ∑λiλ<br />
j<br />
yi<br />
y<br />
j<br />
( xi<br />
⋅ x<br />
j<br />
)<br />
(3.21)<br />
i= 1 2 i,<br />
j=<br />
1<br />
buna bağlı kısıtlamalar ise ;<br />
∑ k<br />
i=1<br />
λi yi<br />
= 0 , i = 1,..., k<br />
C ≥ λ ≥ 0, i = 1,..., k<br />
(3.22)<br />
i<br />
şeklinde elde edilir.
41<br />
3.1.3. Doğrusal Olmayan Destek Vektör Makineleri<br />
Eğitim ver<strong>ileri</strong> üzerinden doğrusal eşitlikler ile tanımlanan bir karar yüzeyi<br />
(hiper düzlem) belirlenmesi mümkün olmadığı durumlarda 3.1.1 ve 3.1.2<br />
bölümlerinde açıklanan teknikler doğrusal olmayan karar yüzeylerinin oluşturulması<br />
için genişletilebilir. Ver<strong>ileri</strong>n doğrusal olarak ayrılamadığı durumlar için doğrusal<br />
sınıflandırıcı yerine doğrusal olmayan sınıflandırıcılar kullanılabilir. Boser et. al.<br />
N<br />
N F<br />
(1992), x ∈ R ile tanımlanan bir gözlem vektörünün, φ : R a R şeklinde<br />
doğrusal olmayan bir vektör fonksiyonu aracılığıyla daha yüksek boyutlu bir uzayda<br />
(özellik uzayı) eşleştirebileceğini ifade etmiştir. Başka bir ifadeyle bu problemin<br />
çözümü için Şekil 3.6’da görüleceği üzere girdi uzayında doğrusal olarak<br />
ayrılamayan veri daha yüksek boyutlu bir uzayda görüntülenir ve bu yüksek boyutlu<br />
uzayda verinin doğrusal olarak ayrımı gerçekleştirilir.<br />
φ<br />
Hiper Düzlem<br />
Girdi Uzayı<br />
Özellik Uzayı<br />
Şekil 3.6. Doğrusal olmayan verin yüksek boyutlu uzaya dönüşümü ve verinin<br />
doğrusal olarak ayrılması.<br />
Özellik uzayındaki en uygun sınır probleminin çözümü veya en uygun hiper<br />
düzlemin belirlenmesi için Eşitlik 3.21’deki x i<br />
⋅ x j<br />
noktasal çarpım ifadesi yerine<br />
φ( xi<br />
) ⋅φ(<br />
x<br />
j<br />
) yazılabilir. Bu durumda dönüşüm yapılan özellik uzayında<br />
λ için<br />
i<br />
optimizasyon probleminin çözümü λ > 0 ile bağlantılıdır. Bu eşleştirme<br />
kullanılarak DVM’nin çözümü için karar fonksiyonu;<br />
i
42<br />
⎛<br />
⎜ ∑ ⎞<br />
f ( x)<br />
= sign λ<br />
i<br />
yiφ(<br />
x)<br />
⋅φ(<br />
xi<br />
) + b⎟<br />
(3.23)<br />
⎝ i<br />
⎠<br />
şeklinde olacaktır. Bu eşitlikten de anlaşılacağı üzere doğrusal olarak ver<strong>ileri</strong>n ayırt<br />
edilemediği durumlarda ver<strong>ileri</strong> daha yüksek boyutlu bir uzaya taşıyarak<br />
çözümlemek için doğrusal olmayan φ fonksiyonları kullanılmaktadır. Yukarıdaki<br />
eşitlikte verilen φ x)<br />
⋅φ(<br />
x )<br />
(<br />
i<br />
skaler çarpımının yerine tek bir fonksiyon kullanılarak<br />
söz konusu dönüşümler yapılabilir [Vapnik, 1995; Özkan, 2008]. Bu skaler<br />
çarpımının hesaplama zorluğu nedeniyle Kernel fonksiyonları kullanılarak işlem<br />
gerçekleştirilir [Mathur and Foody, 2008a]. Kernel Fonksyonu’nun genel ifadesi<br />
K( xi<br />
, x<br />
j<br />
) = φ(<br />
x)<br />
⋅φ(<br />
xi<br />
)<br />
(3.24)<br />
şeklindedir. Bu fonksiyonlarının belirlenmesinde Mercer teoremine başvurulabilir.<br />
Mercer teoremine göre verinin yüksek boyutlu uzaya dönüşümü ve problemin<br />
çözümü için kullanılacak K x i<br />
, x ) şeklinde ifade edilen kernel fonksiyonu aşağıdaki<br />
koşulları gerçekleştirmelidir:<br />
(<br />
j<br />
a) Sürekli bir fonksiyon olmalıdır.<br />
b) Simetrik olmalıdır : K x , x ) = K x<br />
j<br />
, x )<br />
(<br />
i j<br />
(<br />
i<br />
c) Herhangi x<br />
1<br />
,..., xk<br />
değerleri için pozitif tanımlı olmalıdır.<br />
Tablo 3.1’den görüleceği gibi DVM içerisinde kullanılan birçok kernel<br />
fonksiyonu vardır. Keerthi and Lin (2003), doğrusal kernelin radyal tabanlı kernelin<br />
özel bir hali gibi düşünüleceğini ve sigmoid kernelin belirli parametreler için radyal<br />
tabanlı kernel gibi bir davranış gösterdiğini belirtmişlerdir. Literatürde <strong>uzaktan</strong><br />
algılanmış görüntülerin sınıflandırılması uygulamaları için polinom ve radyal tabanlı<br />
kernelin yaygın olarak kullanıldığını ve radyal tabanlı kernel kullanımı ile daha iyi<br />
sonuçlar elde edildiği ifade edilmektedir [Melgani and Bruzzone 2004; Foody and<br />
Mathur, 2004; Pal and Mather, 2005; Mathur and Foody, 2008b].
43<br />
Tablo 3.1. Kernel fonksiyonları ve kullanımları<br />
Doğrusal Kernel<br />
Fonksiyonu<br />
K( x,<br />
y)<br />
= ( x ⋅ y)<br />
Kernel fonksiyonun<br />
genel ifadesi<br />
Polinom Kernel<br />
(( x + )<br />
d<br />
⋅ y)<br />
1<br />
d, polinom derecesi<br />
Radyal Tabanlı<br />
Fonksiyon<br />
−γ x−<br />
y<br />
2<br />
e<br />
γ , kullanıcı tarafından<br />
belirlenen bir parametre<br />
İki Katmanlı Yapay<br />
Sinir ağı<br />
tanh<br />
( b( x ⋅ y ) − c)<br />
b ve c, kullanıcı<br />
tarafından belirlenen<br />
bir parametreler<br />
Pearson VII<br />
Universal Kernel<br />
(PUK)<br />
⎡ ⎛<br />
⎢ ⎜ 2<br />
⎢1<br />
+ ⎜<br />
⎢<br />
⎣ ⎝<br />
x −<br />
y<br />
1<br />
2<br />
2<br />
σ<br />
(1 / ω )<br />
− 1<br />
⎞<br />
⎟<br />
⎟<br />
⎠<br />
2<br />
ω<br />
⎤<br />
⎥<br />
⎥<br />
⎥<br />
⎦<br />
σ ve ω kullanıcı<br />
tarafından belirlenen<br />
parametrelerdir.<br />
3.1.4. Çok Sınıflı Destek Vektör Makineleri<br />
Destek vektör makineleri başlangıçta iki sınıflı ver<strong>ileri</strong>n sınıflandırılması<br />
esasına dayanarak geliştirilmiştir. Günümüzde birçok uygulamada örneğin arazi<br />
örtüsünün sınıflandırılması probleminde olduğu gibi sınıf sayısının ikiden fazla<br />
olması durumu söz konusudur. Böyle bir problemin destek vektör makineleri ile<br />
çözümü için uygun bir çoklu sınıflandırma yöntemine ihtiyaç duyulmaktadır.<br />
DVM’nin çok sınıfı ayırması aşamasında kullanılan çeşitli yaklaşımlar vardır.<br />
Bunlardan en çok kullanılan yaklaşımlar:<br />
• Çok sınıflı amaç fonksiyonu<br />
• Bire karşı hepsi yaklaşımı<br />
• Bire karşı bir yaklaşımı<br />
• Yönlendirilmiş çevrimsiz çizge yaklaşımı<br />
şeklinde ifade edilebilir.
44<br />
Çok sınıflı amaç fonksiyonu yaklaşımında, ikili sınıflandırma problemlerinin<br />
çözümü için geliştirilen DVM algoritmasının çoklu sınıf problemlerini direkt olarak<br />
çözecek şekilde değiştirilmesi esasına dayanmaktadır [Weston and Watkins, 1998;<br />
Lee et al., 2001; Crammer and Singer, 2001; Schölkopf and Smola, 2002; Debnath,<br />
et al., 2004]. Başka bir ifadeyle bu yaklaşımda ikili sınıflandırmalar için kullanılan<br />
Lagrange fonksiyonunun çoklu sınıfla işlem yapacak hale getirilmesidir. Bu<br />
yaklaşımda optimizasyon algoritması tüm destek vektörlerini aynı anda dikkate<br />
almaktadır. Bu nedenle sınıf sayısının çok fazla olduğu veri setlerinin olması<br />
durumunda bellek gereksinimi ve hem hesaplama zamanı çok fazla artmaktadır.<br />
Bununla beraber, tek bir Lagrange fonksiyonu kullanımından dolayı sınıflandırma<br />
hatalarının arttığı görülmüştür [Pal, 2005a; Demirci, 2007]. Bu nedenle yöntemin çok<br />
sınıflı ver<strong>ileri</strong>n sınıflandırılmasında kullanımı tercih edilmemektedir.<br />
Çok sınıflı amaç fonksiyonunda olduğu gibi bütün ver<strong>ileri</strong>n direkt olarak<br />
optimizasyon problemine eklenerek çözülmesi yerine DVM’nin sınıf sayısına bağlı<br />
olarak ikili sınıflandırmalar yapacak şekilde düzenlenmesi bir başka yaklaşımdır. Bu<br />
amaç için kullanılan yöntemlerden en öneml<strong>ileri</strong> “bire karşı hepsi” ve “bire karşı bir”<br />
yaklaşımlarıdır.<br />
Bire karşı hepsi yaklaşımında, eğitim verisindeki herhangi bir sınıfa ait veriler<br />
bir kümeyi oluştururken, eğitim verisindeki diğer sınıflara ait ver<strong>ileri</strong>n tamamı başka<br />
bir kümeyi oluşturduğu düşünülür. Eğitim verisindeki her bir sınıf için bu ikili<br />
sınıflandırma işlemi tekrar edilir ve bu şekilde çok sınıflı bir problem ikili bir<br />
sınıflandırma problemi gibi düşünülerek DVM’nin eğitimi tamamlanır. Burada N<br />
sayıda farklı sınıfın olduğu düşünülürse N sayıda eğitim işlemi yapılacaktır<br />
[Debnath, et al., 2004; Pal, 2005a; Demirci, 2007]. Lee et al. (2001) ve Schölkopf<br />
and Smola (2002) bu yöntemle elde edilen sınıflandırma sonuçlarının çok sınıflı<br />
amaç fonksiyonu ile benzer olduğunu ifade etmişlerdir. Bu yöntemin en önemli<br />
avantajı oluşturulacak ikili sınıflandırıcı sayısının sınıf sayısına eşit olmasıdır.<br />
Bununla birlikte eğitim sırasında bellek ihtiyacının fazla olması ve eğitimde<br />
kullanılan örnek sayısının fazla olması yöntemin dezavantajıdır. Bu durum özellikle<br />
büyük eğitim ver<strong>ileri</strong> olması durumunda bilgisayar için bellek problemini ortaya<br />
çıkarmaktadır. Diğer taraftan N tane sınıftan oluşan eğitim verisinin her bir sınıf için<br />
eşit sayıda örnekten oluştuğu düşünüldüğünde, eğitim sırasında bir sınıfa ait örnek
45<br />
sayısının geriye kalan diğer tüm sınıflara ait örnek sayısına oranı 1 : (N–1) olacaktır.<br />
Bu oran eğitim örnekleri boyutunun dengesiz olacağını göstermektedir [Huang et al.,<br />
2002; Milgram et al., 2006]. Mathur and Foody (2008b) bire karşı hepsi yaklaşımı ile<br />
yapılan sınıflandırma sonucunda sınıflandırılmamış pikseller oluşabileceğini ifade<br />
etmişlerdir.<br />
Bire karşı hepsi yaklaşımındaki kısıtlamalar bire karşı bir yaklaşımın ortaya<br />
atılmasına neden olmuştur. Bu metotta tüm olası sınıf çiftleri için DVM<br />
sınıflandırıcıları oluşturulur [Knerr et al., 1990; Hastie and Tibshirani, 1998]. Diğer<br />
bir ifadeyle bire karşı bir yaklaşımında, her bir sınıfa ait örnek kümeleri diğer örnek<br />
kümeleri ile ayrı ayrı eğitilir. N sayıda farklı sınıf olması halinde N(N-1)/2 tane<br />
eğitim işlemi yapılır. Eğitim işlemleri sonucunda elde edilen her bir sınıflandırıcı test<br />
verisine uygulanır. Test verisindeki her bir nokta her bir eğitim sonucunda bir oy alır.<br />
Eğitim sonucunda sınıfı belirli olmayan nokta için en çok oy alan sınıf o noktanın<br />
sınıf etiketini oluşturur. Bu yöntemde oluşturulan sınıflandırıcıların sayısı bire karşı<br />
hepsi yaklaşımından fazladır. Bununla birlikte her bir sınıflandırıcı için gerekli<br />
eğitim veri verisinin sayısı daha azdır. Eğitim vektörlerinin oransal boyutu her bir<br />
sınıf için aynıdır. Dolayısıyla bu yöntem bire karşı hepsi yöntemine göre daha<br />
simetrik bir yaklaşımdır. Tüm bu olumlu yönlerine rağmen sınıf sayısının artmasıyla<br />
kullanılacak sınıflandırıcının sayısı da artmaktadır [Pal, 2005a]. Örneğin 6 sınıfa<br />
sahip bir veri seti düşünüldüğünde oluşturulacak sınıflandırıcı sayısı 15 olacaktır.<br />
Yönlendirilmiş çevrimsiz çizge yaklaşımı Platt et al. (2000) tarafından<br />
geliştirilen bir çoklu sınıflandırma yöntemidir. Bu yaklaşımda N sınıflı bir<br />
sınıflandırma problemi için oluşturulacak sınıflandırıcı sayısı N(N–1)/2 olup her bir<br />
sınıflandırıcı ilgilenilen iki sınıfı dikkate alarak eğitilir. Bu yöntemin işleyişi bire<br />
karşı bir yöntemi ile benzerdir ve eğitim aşaması tamamen aynı şekilde yapılır.<br />
Yöntemin farklılığı ise test aşamasında olmaktadır. Bu yöntemde test yapılırken bütün<br />
eğitim işlemleri kontrol edilerek gerçekleştirilmez. Bunun yerine örneğin ait<br />
olmadığı düşünülen eğitim örnekleri elenerek ilerlenir.
46<br />
3.1.5. DVM ile Sınıflandırmada Veri Ön İşleme ve<br />
Model Seçimi<br />
Kontrollü sınıflandırma yönteminde problemin çözümü için sınıflandırılacak<br />
veriye ait örnekleri içeren eğitim ve test ver<strong>ileri</strong> kullanılır. Eğitim setindeki her bir<br />
örnek, öznitelik (özellik) ver<strong>ileri</strong>ni ve bu verilere ait sınıf etiketlerini içermektedir.<br />
DVM’nin amacı sadece öznitelik değerleri belli olan test setindeki ver<strong>ileri</strong>n sınıf<br />
etiketlerini tahmin edecek bir model oluşturmaktır.<br />
DVM uygulanmadan önce ver<strong>ileri</strong>n ölçeklenmesi önemlidir [Sarle, 2008].<br />
Ölçeklendirmenin asıl avantajı çok geniş sayısal aralıktaki verinin daha dar bir<br />
sayısal aralıkta ifade edilmesidir. Bir başka avantajı ise hesaplamalar sırasında işlem<br />
kolaylığı sağlamasıdır. Kernel değerleri genellikle özellik vektörlerinin skaler<br />
çarpımına dayandığından geniş aralıktaki öznitelik değerleri hesaplama sırasında<br />
sayısal problemlere neden olabilmektedir. Yapay sinir ağları ile yapılan<br />
sınıflandırmada olduğu gibi her bir öznitelik verisi (<strong>uzaktan</strong> algılamada her bir bant)<br />
[ 0,1] veya [ −1,<br />
+ 1]<br />
aralığında ölçeklenmektedir. Verinin ölçeklenmesinin<br />
ardından, DVM’nin eğitimi için kullanılacak modelin seçilmesi ve seçilen kernel<br />
fonksiyona ait parametrelerin belirlenmesi esastır.<br />
Model seçiminde öncelikli olarak RTF ve polinom kernelin düşünülmesi<br />
oldukça mantıklıdır. Bunun ilk nedeni, RTF ve polinom kernelin doğrusal olarak<br />
ayrılamayan ver<strong>ileri</strong> daha yüksek boyutlu bir uzayda eşleştirmesidir. Bu nedenle<br />
lineer kernelin aksine sınıf etiketleri ve öznitelik ver<strong>ileri</strong>nin doğrusal olmadığı<br />
durumlarda da kullanılabilmektedir. Keerthi and Lin (2003), lineer kernel RBF<br />
kernelin özel bir hali olduğunu ve C düzenleme parametresine sahip lineer kernelin<br />
bazı parametrelere sahip (C, γ ) RTF kernel ile aynı performansa sahip olduğunu<br />
belirtmişlerdir. Buna ek olarak sigmoid kernel belirli parametreler için RTF kernel<br />
gibi davranış göstermektedir [Lin and Lin, 2003]. RTF kernelin tercih edilmesindeki<br />
ikinci neden ise model seçimini karmaşık hale getiren parametrelerdir. Polinom<br />
kernelin kullanımında söz konusu olan polinom derecesindeki değişimler<br />
matematiksel olarak algoritmayı karmaşık hale getirmekte ve çözümü<br />
zorlaştırmaktadır. Buna karşın RTF kernelin sahip olduğu gamma parametresindeki
47<br />
değişimlerin sınıflandırıcının performansına olan etkisinin daha az olduğu ifade<br />
edilmektedir [Hsu et al., 2008].<br />
RTF ve polinom kernel kullanımında iki parametre (C, γ ve C, d) söz<br />
konusudur. Herhangi bir problem için hangi parametre çiftinin en iyi sonuç vereceği<br />
bilinmemektedir. Bu nedenle en uygun parametrelerin belirlenmesi gerekmektedir.<br />
Bu amaçla geliştirilmiş birkaç yöntem mevcuttur. Bu yöntemlerde amaç en iyi<br />
sınıflandırma sonucunu verecek parametre çiftini belirlemektir. Böylece sınıflandırıcı<br />
veriye ait bilinmeyen sınıf etiketlerini daha doğru bir şekilde tahmin edebilecektir.<br />
Yaygın olarak kullanılan yöntemlerden birisi eğitim verisini iki kısma ayırmaktır.<br />
Birinci kısım sınıflandırıcının eğitimi sırasında eğitim verisi olarak kullanılırken<br />
ikinci kısım bilinmeyen yani test verisi olarak işleme koyulur. Bu sayede bu veri seti<br />
için tahmin doğruluğu başka bir ifadeyle bilinmeyen verinin sınıflandırılma<br />
performansı daha hassas bir şekilde ifade edilecektir. Bu işlemin literatürde çapraz<br />
geçerlik olarak adlandırılmaktadır.<br />
v − katlı çapraz geçerlilikte, ilk önce eğitim seti<br />
eşit boyutta v sayıda alt kümeye ayrılır. Daha sonra bir alt küme eğitilen<br />
sınıflandırıcı ile geriye kalan v −1<br />
alt küme ile test edilir. Bu şekilde tüm eğitim<br />
setindeki her bir örnek tahmin edilir ve doğru olarak sınıflandırılan verinin yüzdesi<br />
çapraz geçerliliğin doğruluğunu gösterir.<br />
C, γ ve C, d parametrelerinin çapraz geçerlilik kullanılarak belirlenmesinde<br />
grid tarama yöntemi kullanılan yöntemlerden birisidir. Bu yöntemin çalışma prensibi<br />
genel olarak parametre çiftlerinin çapraz geçerlilik yoluyla denenmesi ve en iyi<br />
çapraz geçerlilik doğruluğuna sahip olan çiftin tespit edilmesidir. Girid tarama<br />
yönteminde kullanılacak parametre çiftleri için katlanarak büyüyen diz<strong>ileri</strong>nin<br />
5 3 15<br />
(C = 2 − −<br />
−15<br />
−13<br />
3<br />
,2 ,...,2 , γ = 2 ,2 ,...,2 ) denenmesi en pratik yoldur [Hsu et al.,<br />
2008].<br />
Hassas bir grid tarama yapılması zaman alacağından öncelikle kaba bir aralıkta<br />
grid taraması yapılması zaman tasarrufu sağlar. Kaba grid taraması ile en iyi çapraz<br />
geçerlilik doğruluğunu sağlayan çiftler tespit edilir. Daha sonra yakın aralıklardaki<br />
parametre çiftleri için çapraz-geçerlilik yöntemi ile bu problemdeki veri seti için en<br />
yüksek sınıflandırma doğruluğunu veren parametreler belirlenir. En iyi sınıflandırma
48<br />
doğruluğuna ulaşan parametre çifti bu şekilde belirlenerek sınıflandırıcının eğitimi<br />
tamamlanır. Daha sonra eğitilen sınıflandırıcı ile tüm veri seti için sınıf etiketleri<br />
tahmin edilir.<br />
3.2. Karar Ağaçları<br />
Karar ağaçları yaygın kullanımı olan sınıflandırma ve örüntü tanımlama<br />
algoritmalarından birisidir. Bu yöntemin yaygın olarak kullanımının nedeni ağaç<br />
yapılarının oluşturulmasında kullanılan kuralların anlaşılabilir ve sade olmasıdır.<br />
Eğer kullanılan veriye dayalı olarak oluşturulan ağaç yapısı çok büyük değil ise<br />
ağacın oluşturulması ve sınıflandırma işleminin gerçekleştirilmesinde kullanılan<br />
kuralların anlaşılması oldukça kolay olacaktır.<br />
Genellikle karar ağaçlarının tasarımında iki yaklaşım mevcuttur [Swain and<br />
Hauska, 1977]. Bu yaklaşımlar prensipte benzerdir ancak uygulamada ağaçların<br />
tasarlanması açısından önemli farklılıklar vardır.<br />
1. Manuel tasarım yöntemi<br />
2. Sezgisel atama yöntemi<br />
Manuel yöntemler tüm sınıflar için hesaplanan ortalama vektör ve kovaryans<br />
matrisi gibi istatistikleri kullanır. Her bir özellik için tüm sınıfların ortalamaları ve<br />
varyanslarından elde edilen bir grafik çizilir. Bu grafik rastlantısal spektral çizim<br />
olarak adlandırılır. Genelde birkaç karar adımında tüm sınıfların ayrıldığı bu<br />
grafikten en uygun karar sınırlarının tahmin edilmesi mümkündür. Bu, her bir<br />
aşamada bir özelliğin kullanılması koşulu ile kabaca sınıflar arasındaki basit sınır<br />
aralığının tahmin edilmesi anlamına gelmektedir. Bu yöntemin uygun bir<br />
sınıflandırma yöntemi olmamasının başlıca iki nedeni vardır. Bunlardan ilki ağacın<br />
belirli bir basamağında iki veya daha fazla özellik olması durumunda grafiğin<br />
özellikler arasındaki ilişk<strong>ileri</strong>n nasıl kullanılacağını göstermemesidir. İkincisi ise,<br />
verinin normal dağılımda olmadığı durumlarda kovaryans matrisinin tahmin<br />
edilmesinin oldukça zor olmasıdır.
49<br />
Rastlantısal spektral çizim tek bir özelliğe dayalı sınıflar arasındaki<br />
ayrılabilirliğin tahmin edilmesine olanak verir. Sınıfların ayrımının yapılması birkaç<br />
özelliğin kombinasyonunu gerektirdiğinde spektral çizime dayanan manuel tasarım<br />
yaklaşımı oldukça kısıtlıdır. Genel olarak sınıf sayısının çok olduğu veya yeterli<br />
sınıflandırma doğruluğu için birçok özelliğin kullanımının gerektiği karmaşık<br />
problemler daha fazla analitik tasarım işlemlerini gerektirmektedir.<br />
Sezgisel yöntem kullanılarak bir sınıflandırma ağacı oluşturmak için özellik<br />
vektörleri ve bu vektörlere ait sınıf etiketlerinin eğitim verisinde olduğu kabul edilir.<br />
Bundan sonra karar ağacı eğitim verisini tekrarlı bir şekilde ayırarak daha sade, daha<br />
homojen hale getirir ve bir veya daha fazla öznitelik değerine sahip test verisi ağacın<br />
her bir dalında veya düğüm noktasında uygulanır. Bu işlemler ayırma düğümleri,<br />
hangi düğümlerin uç düğümler olacağının belirlenmesi ve uç düğüm noktalarına sınıf<br />
etiketlerinin atanması olmak üzere üç adımda gerçekleşmektedir. Sınıf etiketlerinin<br />
uç düğümlere atanması açık bir şekilde ifade edilecek olursa; belirli sınıfların<br />
diğerlerinden daha yüksek olasılığa sahip olduğu düşünüldüğünde çoğunluk oyuna<br />
veya ağırlıklı oylar esas alınarak sınıf etiketlerinin atanmasıdır.<br />
Bir ağaç yapısı düğüm, dal ve yaprak olarak adlandırılan üç temel kısımdan<br />
oluşur. Bu ağaç yapısında her bir öznitelik bir düğüm tarafından temsil edilir. Dallar<br />
ve yapraklar ağaç yapısının diğer elemanlarıdır. Ağaçta en son kısım yaprak en üst<br />
kısım ise kök olarak adlandırılır. Kök ve yapraklar arasında kalan kısımlar ise dal<br />
olarak ifade edilir [Quinlan, 1993]. Başka bir ifadeyle bir ağaç yapısı ver<strong>ileri</strong> içeren<br />
bir kök düğümü, iç düğümler (dallar) ve uç düğümlerden (yapraklar) oluşur. Karar<br />
ağacındaki her bir düğüm sadece bir ana düğüme ve iki veya daha fazla alt düğüme<br />
sahiptir (Şekil 3.7). Veri seti ağaç tarafından belirlenen karar iskeletine göre aşağı<br />
doğru hareket ettirilerek ve sıralı olarak bir yaprağa ulaşılana kadar alt bölümlere<br />
ayrılarak sınıflandırılır. Eğitim ver<strong>ileri</strong> ve bu verilere ait öznitelik bilg<strong>ileri</strong>nden<br />
yararlanılarak bir karar ağacı yapısı oluşturulmasında temel prensip verilere ilişkin<br />
bir dizi sorular sorulması ve elde edilen cevaplar doğrultusunda hareket edilerek en<br />
kısa sürede sonuca gidilmesi olarak ifade edilebilir. Bu şekilde karar ağacı sorulara<br />
aldığı cevapları toplayarak karar kuralları oluşturur. Ağacın ilk düğümü olan kök<br />
düğümünde ver<strong>ileri</strong>n sınıflandırılması ve ağaç yapısının oluşturulması için sorular<br />
sorulmaya başlanır ve dalları olmayan düğümler ya da yapraklara gelene kadar bu
50<br />
işlem devam eder. Bu noktada belirtilmesi gereken husus yaprak sayısı kadar kural<br />
oluşacağıdır. Oluşturulan ağacın işlevselliğinin başka bir ifadeyle yeni bir veri seti<br />
için genelleme kabiliyetinin belirlenmesi için test veri seti kullanılır. Eğitim veri seti<br />
ile oluşturulan ağaç yapısına yeni gelen bir test verisi, ağacın kökünden girer. Kökte<br />
test edilen bu yeni veri test sonucuna göre bir alt düğüme gönderilir. Ağacın belirli<br />
bir yaprağına gelene kadar bu işleme devam edilir. Kökten her bir yaprağa giden tek<br />
bir yol veya tek bir karar kuralı vardır.<br />
Quinlan (1993) bir karar ağacı oluşturma yöntemini aşağıdaki gibi ifade<br />
etmiştir. Bir karar ağacı oluşturmak için m sınıfa sahip T eğitim veri seti şeklinde<br />
ifade edilsin. Bu durumda üç olasılık vardır:<br />
• T, tümü C i gibi tek bir sınıf olan bir veya daha fazla nesneye sahip olduğunda<br />
karar ağacı C i sınıfını tanımlayan bir yapraktan oluşur.<br />
• T hiçbir veriyi içermiyorsa, karar ağacı yine T’den başka bilgilerle tanımlanan<br />
bir yapraktan oluşur.<br />
• T karışık sınıflardan oluşan veriler içeriyorsa, seçilecek test verisi tek bir<br />
özniteliğe ya da özniteliklerin kombinasyonuna dayanır. Bu durumda test<br />
verisi {O 1 ,O 2 ,…,O k } şeklinde bir veya ayrışık sonuçlara sahip olacaktır. T,<br />
bu durumda şeklinde alt kümelere ayrılır. Burada seçilen test ver<strong>ileri</strong> için O i<br />
çıktı değerlerini içeren tüm T eğitim ver<strong>ileri</strong>ni ifade etmektedir. T eğitim<br />
verisi için karar ağacı test verisini tanımlayan bir karar düğümü ve her bir<br />
olası çıktı değeri için bir daldan oluşur. Aynı ağaç yapısı işlemi tekrarlı bir<br />
şekilde eğitim verisin her bir alt kümesi için uygulanır.<br />
Sınıflandırma işlemi için oluşturulan tipik bir karar ağacı Şekil 3.7’ de<br />
gösterilmiştir. Elips biçimindeki düğümler karar düğümleridir. Bu düğümler x i<br />
değerlerine dayanan η i<br />
eşik değerleri tarafından belirlenir. Karar ağacının farklı<br />
kısımlarında aynı öznitelik değeri farklı eşik değerlerine sahip olabilir. Şekildeki<br />
dikdörtgen düğümler terminal düğümleridir ve sınıf etiketlerini içeririler. Test<br />
verisindeki değerler eğitim sırasında belirlenen eşik değerlerine dayalı olarak karar<br />
ağacında “evet” veya “hayır” şeklinde dallanmalar ile belirlenir. Bilinmeyen test
51<br />
verisinin sınıflandırılması düşünüldüğünde, verilere ait sınıf etiketleri ulaşılan en son<br />
terminal düğümdeki değeri alır.<br />
Evet<br />
x<br />
1<br />
≤ η 1<br />
Hayır<br />
x<br />
4<br />
≤ η 4<br />
x<br />
3<br />
≤ η 31<br />
Evet<br />
Hayır<br />
Evet<br />
Hayır<br />
Evet<br />
Y=1<br />
x<br />
3<br />
≤ η 32<br />
Y=2<br />
Hayır<br />
Evet<br />
x<br />
5<br />
≤ η 5<br />
x<br />
2<br />
≤ η 2<br />
Y=3 Y=2<br />
Hayır<br />
Y=1<br />
Evet<br />
Y=1<br />
Y=3<br />
Hayır<br />
Şekil 3.7. Beş boyutlu bir özellik uzayı ve üç sınıf için bir sınıflandırma ağacı.<br />
Şekilde<br />
xi<br />
göstermektedir.<br />
özellik değerlerini,<br />
η<br />
i<br />
eşik değerlerini ve Y ise sınıf etiketlerini<br />
Karar ağaçları ile sınıflandırma problemlerinde veri setine ait sınıf sayısı iki<br />
olduğunda ikili sınıflandırıcılar, sınıf sayısı ikiden fazla olması durumunda ise çoklu<br />
sınıflandırıcılar söz konusudur. İkili sınıflandırıcılara örnek olarak ID3 [Quinlan<br />
1993] ve bu algoritmanın geliştirilmiş biçimi olan C4.5 algoritmaları gösterilebilir.<br />
Çoklu sınıflandırıcılar arasında CART [Breiman et al., 1984] algoritması örnek<br />
olarak verilebilir.<br />
3.2.1. Karar Ağacı Oluşturulmasında Kullanılan Yöntemler<br />
Literatürde günümüze kadar birçok ağaç yapısı oluşturma yaklaşımları<br />
geliştirilmiştir. Ancak karar ağacı tasarımı üzerine yapılan birçok araştırma bölünme<br />
kurallarının bulunması konusuna yoğunlaşmıştır [Landeweerd et al., 1983;
52<br />
Kononenko and Hong, 1997; Pal, 2002]. Karar ağacının her bir iç düğümünde eğitim<br />
verisinin bölümlenmesi için bir takım algoritmalar geliştirilmiştir. Bu algoritmalar ya<br />
eğitim verisindeki gürültüyü azaltır ya da bölümlenmenin en iyi olmasını sağlar. Bir<br />
karar ağacı oluşturulmasında yaklaşımlar:<br />
• Aşağıdan yukarıya yaklaşımı<br />
• Yukarıdan aşağıya yaklaşımı<br />
• Melez yaklaşım<br />
• Büyüme – budama yaklaşımı<br />
3.2.1.1. Aşağıdan-Yukarıya Yaklaşımı<br />
Aşağıdan-yukarıya yaklaşımında, kullanılarak eğitim seti ve bazı uzunluk<br />
ölçüleri (örn. Mahalanobis uzaklığı) ikili bir ağaç oluşturulur. Önceden belirlenen<br />
sınıflar arasında ikili uzaklıklar hesaplanır ve her bir adımda bir birine en yakın<br />
uzaklığa sahip iki sınıf yeni bir grup olarak birleştirilir. Her bir grup için, bu grubu<br />
oluşturan sınıfların eğitim ver<strong>ileri</strong>nden ortalama vektör ve kovaryans matrisi<br />
hesaplanır. Bu işleme ağaç kökünde tek bir grup kalıncaya kadar tekrar edilir. Bu<br />
şekilde bir ağaç oluşturulmasında ilk önce daha belirgin olan ayrımlar kök düğümün<br />
hemen yanında yapılır, daha karmaşık olanlar ağacın daha sonraki kısımlarında<br />
yapılır [Landeweerd et al., 1983].<br />
3.2.1.2. Yukarıdan-Aşağıya Yaklaşımı<br />
Yukarıdan-aşağıya yaklaşımında, bir karar ağacı sınıflandırıcısının<br />
oluşturulması aşağıdaki üç aşamadan oluşur. Bunlar:<br />
1. Bir bölünme kural düğümünün seçimi,<br />
2. Hangi düğümlerin bağlantı düğümleri olacağına karar verilmesi,<br />
3. Her bir bağlantı düğümüne, bir sınıf etiketinin atanmasıdır.
53<br />
Sınıf atama problemi yukarıda bahsedilen işlerden en basit olanıdır. Çoğunluk<br />
kuralı kullanılarak en yüksek olasılığa sahip sınıflar terminal düğümlerine atanır. Bu<br />
işleme örnek olarak terminal düğümünde en fazla örneğe sahip olan sınıfa ait etiket<br />
terminal düğümüne atanması gösterilebilir. İç düğümdeki herhangi bir bölünme<br />
kriteri seçiminde temel düşünce verinin alt düğümlerde azalmasını sağlamaktır.<br />
Bu işlemin uygulamasındaki genel yaklaşım eğitim verisini en iyi şekilde<br />
sınıflara ayıran öznitelik değerinin seçilmesi ve daha sonra verinin bu öznitelik<br />
değerlerine göre bölünmesidir. Sonlandırma prosedürü ile her bir bölümlenmiş alt<br />
küme için bu işlem mevcut alt kümedeki tüm örnekler aynı sınıfa ait olana kadar<br />
tekrarlanır. Sonuç her bir düğümün bir özniteliği gösterdiği ve bir düğümden çıkan<br />
her bir dalın bu öznitelik değerine ait olası bir değeri belirttiği bir ağaç ile temsil<br />
edilir.<br />
Karar ağacının gelişiminde her bir düğüm noktasında bir dizi gözlem kümesi ve<br />
bu gözlem kümesinin sınıflandırılması için bir dizi öznitelik değeri var olacağından<br />
bu işlemin temel amacı kriter olarak kullanılacak öznitelik değerinin seçilmesidir.<br />
Tüm öznitelik değerlerinin kalitesi belirlenmeden ve her bir öznitelik bilgisinin<br />
veriyi çeşitli sınıflara ne kadar iyi ayırdığını görülmeden herhangi bir öznitelik değeri<br />
kriter olarak seçilemez. Bir öznitelik değerinin kalitesi bu öznitelik verisiyle<br />
sağlanacak yararlı bilg<strong>ileri</strong> göstermelidir. Bir özniteliğin kalitesinin tahmini için iki<br />
temel yaklaşım vardır.<br />
İlk yaklaşım, bir özniteliğin kalitesinin diğer öznitelikleri ihmal edilmesiyle<br />
tahmin edilebileceğidir. Bu durumda tahmin amacıyla öznitelik değerlerinin<br />
birbirinden bağımsız olduğu kabul edilir. İkinci yaklaşım ise, bir özniteliğin<br />
kalitesinin diğer özniteliklerin içeriğinden tahmin edilebileceğidir. Hesaplama hızı<br />
avantajına sahip olan ilk yaklaşım “miyop yaklaşım” olarak da adlandırılır<br />
[Kononenko and Hong, 1997]. Diğer yaklaşım hesaplama açısından daha zahmetlidir<br />
buna karşın öznitelikler arasındaki yüksek seviyedeki bağımlılıkları ortaya çıkarma<br />
potansiyeline sahiptir.
54<br />
3.2.1.2.1. Karar Ağaçlarında Dallanma Kriterleri ve Öznitelik<br />
Seçimi<br />
Karar ağaçlarının oluşturulmasındaki en önemli adım ağaçtaki dallanmanın<br />
hangi kritere veya kıstasa göre yapılacağı ya da hangi öznitelik değerlerine göre ağaç<br />
yapısının oluşturulacağıdır. Karar ağaçlarında dallanma kriterleri veya özniteliklerin<br />
seçimi için makine öğrenmesi ile ilgilenen araştırmacılar tarafından detaylı bir<br />
şekilde incelenen birçok yaklaşım vardır [Murthy et al., 1994; Kononenko and Hong,<br />
1997; Mingers, 1989; Quinlan, 1993]. Diğer yaklaşımlar eğitim verisindeki<br />
gürültüyü minimum hale getirmeye çalışırken bazı yaklaşımlar “bölünmenin<br />
iyiliğini” ölçerler [Brieman et al., 1984].<br />
Sınıflandırmada özniteliğin kalitesi sınıflara ait eğitim gözlemlerinin saflığı ile<br />
tanımlanır ve birçok yaklaşım kalite ölçümünü direkt olarak özniteliklerden belirler.<br />
Eğer tüm gözlemler aynı sınıfa ait ise gözlemler kümesi saftır (katkısızdır). Gürültü<br />
fonksiyonu bir gözlem kümesindeki gürültüyü ölçer ve saf bir küme için bu<br />
gürültüyü minimum hale getirmeyi amaçlar. Gürültü fonksiyonu esas olarak mevcut<br />
düğüm noktasından daha <strong>ileri</strong>ki bölünmeler için en iyi özniteliğin seçiminde<br />
kullanılır. Karar ağaçlarında genellikle kullanılan gürültü ölçümleri:<br />
1. Bilgi Kazancı ve Bilgi Kazanç Oranı kriteri [Quinlan, 1987, 1990,<br />
1993].<br />
2. Gini İndeksi [Brieman et al., 1984]<br />
3. Twoing Kuralı [Brieman et al., 1984]<br />
4. Ki-Kare istatistikleri [Mingers, 1989].<br />
3.2.1.2.2. Bilgi Kazancı ve Bilgi Kazanç Oranı Kriterleri<br />
Bilgi kazancı ve bilgi kazanç oranının kullanımı Quinlan (1993) tarafından<br />
ortaya atılmıştır. Bu yönteme göre karar ağacında hangi özelliğe göre dallanmanın<br />
yapılacağını belirlemek üzere entropi kurallarını içeren bilgi teorisi kullanılmıştır.<br />
Entropi bir sistemdeki düzensizliğin ya da belirsizliğin ölçüsüdür. Entropi bir kodun
55<br />
teorik bilgi içeriğini ölçen bilgi teorisinden elde edilen klasik bir formüle dayanır. Bu<br />
formül;<br />
Entropi = −∑ pi log( pi<br />
)<br />
(3.25)<br />
şeklinde gösterilir. Bu formülde p i , i. pikselin olasılığıdır. Bu ölçünün değeri çeşitli<br />
olası piksellerin olabilirliğine dayanır. Tüm pikseller eşit olasılıkta ise (örneğin p i<br />
değerleri eşit ise) büyük miktarda belirsizlik vardır ve bilgi kazancı büyük olacaktır.<br />
Fonksiyonun değeri olası piksel sayısına da dayanmaktadır. Quinlan (1993), bilgi<br />
kazancı ve bilgi kazanç oranı ölçülerini aşağıdaki şekilde ifade etmiştir: C i şeklinde<br />
birkaç sınıftan oluşan T ile gösterilen bir eğitim seti için olasılık ifadesi<br />
f ( Ci<br />
,T )<br />
T<br />
(3.26)<br />
şeklindedir. Burada<br />
f ( Ci<br />
,T )<br />
ifadesi C i sınıfına ait T eğitim setindeki örnekleri<br />
ifade etmektedir ve T ifadesi ise T eğitim setindeki sınıf sayısını göstermektedir. Bu<br />
durumda bilgi,<br />
− log 2<br />
( f ( Ci<br />
, T ) T )<br />
(3.27)<br />
şeklindedir.<br />
T eğitim setindeki bir gözlemi için sınıfın belirlenmesini gerektiren bilgi<br />
kazancının miktarı;<br />
bi lg i(T ) = −<br />
m<br />
∑<br />
i=<br />
1<br />
f ( Ci ,T ) T × log<br />
2<br />
( f ( Ci<br />
,T ) T ) (3.28)<br />
şeklinde belirlenebilir. Bu miktar T eğitim setinin entropisi olarak ifade edilebilir.<br />
Eğer T eğitim kümesini k sayıda çıktıya bölebilen bir Z test veri seti<br />
tanımlanabilirse, Z uygulandıktan sonra tüm bilgi miktarını belirten benzer bir ölçü<br />
tanımlanabilir.
56<br />
k T j<br />
bi lg iz<br />
(T ) = ∑ × bi lg i(T<br />
j<br />
)<br />
(3.29)<br />
j = 1 T<br />
Bu yaklaşımın kullanılmasıyla, T eğitim setinin Z gibi bir test seti kullanarak<br />
elde edilen bilgi kazancı;<br />
Kazanç(<br />
Z )<br />
= bi lg i(T ) − bi lg i (T )<br />
(3.30)<br />
z<br />
şeklinde belirlenebilir.<br />
Bu kriter Quinlan (1993) tarafından kazanç kriteri olarak ifade edilmiştir.<br />
Kazanç kriteri bilgi kazancını maksimum hale getirmek için bir test verisi seçer. Bu<br />
Z test verisi ile sınıf arasındaki karşılıklı bilgi olarak bilinir.<br />
Birçok çıktı değerini içeren test verisinin lehine güçlü bir önyargıya sahip<br />
olması kazanç kriterinin en önemli dezavantajıdır. Kazanç kriterinin özündeki bu<br />
önyargı birçok çıktı değeri ile birlikte kazancın ayarlandığı bir çeşit normalleştirilme<br />
ile düzeltilebilir. Bu normalleştirme işlemi Eşitlik 3.31’de gösterilen ayırma bilgisi<br />
ile gerçekleştirilebilir.<br />
k T ⎛ ⎞<br />
j ⎜<br />
T j ⎟<br />
Ayırma Bilgisi (Z) = − ∑ × log2<br />
⎜<br />
⎟<br />
j = 1 T T<br />
⎝ ⎠<br />
(3.31)<br />
Kazanç birkaç bölünme sonucu ortaya çıkan sınıflandırma için yararlı bilgiyi<br />
ölçerken, ayırma bilgisi Z test verisinin k sayıda alt kümeye bölünmesi ile oluşturulan<br />
potansiyel bilgi hakkında bir fikir verecektir. Bu durumda kazanç oranı;<br />
Kazanç Oranı( Z ) = Kazanç( Z ) Ayırma Bi lg isi( Z ) (3.32)<br />
şeklinde olacaktır. Bu eşitlik, sınıflandırmada işleminde kullanılacak ayırma ile elde<br />
edilen bilgi oranını vermektedir. Bu kriter kullanılarak, ağacın her bir düğümünde<br />
kazanç oranı maksimum olacak şekilde T eğitim kümesi tekrarlı bir şekilde ayrılır.
57<br />
Bu işlem her bir yaprak düğümü sadece bir sınıfa ait gözlem değerleri içerene kadar<br />
devam eder.<br />
3.2.1.2.3 Gini İndeksi<br />
Brieman et al. (1984) çeşitleme için Gini indeksi olarak adlandırılan bir ölçüm<br />
kullanmışlardır. Gini fonksiyonu sınıflara ilişkin özniteliklerin safsızlığını ölçer. Ci<br />
gibi bazı sınıflara sahip T şeklinde verilen bir eğitim setinin;<br />
f ( Ci ,T ) T<br />
(3.33)<br />
şeklinde bir olasılığa sahip olduğu söylenebilir. Genel Gini fonksiyonu veya<br />
safsızlığın ölçümü;<br />
∑∑<br />
j≠i<br />
( f ( C ,T ) T )( f ( C ,T ) T )<br />
i<br />
j<br />
(3.34)<br />
şeklinde ifade edilebilir. Bu fonksiyon;<br />
⎛<br />
⎜<br />
⎝<br />
⎞<br />
⎟<br />
⎠<br />
2<br />
∑ f ( C ) ⎟<br />
j<br />
,T T − ∑ f ( C<br />
j<br />
,T )<br />
j<br />
2<br />
j<br />
T<br />
(3.35)<br />
şeklinde veya;<br />
∑<br />
( C ,T )<br />
1 − f 2<br />
j<br />
T<br />
(3.36)<br />
j<br />
şeklinde de yazılabilir.<br />
Gini indeksi basittir ve hızlı bir şekilde hesaplanabilir. Bu indeks rastgele<br />
seçilen bir objenin bir düğümden f ( C<br />
i<br />
,T ) T olasılığı ile i sınıfına atanması olarak<br />
özetlenebilir.
58<br />
3.2.1.2.4. Towing Kuralı<br />
Towing kuralı Brieman et al. (1984) tarafından tanımlanmıştır. Bu kural karar<br />
ağacı yapısının oluşturulmasında öznitelik seçimi için farklı bir yaklaşım<br />
kullanmaktadır.<br />
Bir dizi sınıf<br />
C = { 1,...,<br />
j )<br />
ile gösterildiği düşünülsün. Her bir düğümde bu<br />
sınıflar<br />
C { j1<br />
,...,<br />
ve<br />
1<br />
= j n<br />
) C 2<br />
C − C1<br />
= şeklinde iki üst sınıfa ayrılsın. Düğümün<br />
ayrılması sonucunda safsızlığının azaldığı her bir düğümün ayrılması;<br />
⎛<br />
⎞<br />
T ⎜<br />
⎟<br />
L<br />
R<br />
*<br />
∑ Li<br />
TL<br />
− Ri<br />
TR<br />
(3.37)<br />
⎝<br />
⎠<br />
( T )*<br />
( T T )<br />
2<br />
şeklinde hesaplanabilir. Burada<br />
T R<br />
ve TL<br />
düğümün ayrılması ile sağ ve solda<br />
kalan örneklerin sayısını göstermektedir. L i ve T i ise ayırma sonucu sağ ve solda i.<br />
kategoriye ait örneklerin sayısını ifade etmektedir. Safsızlıktaki zamla towing kuralı<br />
olarak ifade edilir.<br />
2<br />
3.2.1.2.5. Ki-Kare Olasılık Tablo İstatistiği ( χ )<br />
Mingers (1989) bu ölçütün karar ağacı oluşturulmasında özniteliklerin seçimi<br />
için kullanımını ifade etmiştir. Bu yöntem olasılık tablosundaki iki değişken<br />
arasındaki ilişkinin ölçüldüğü geleneksel istatistiğe dayanmaktadır. Değişkenler<br />
arasında ilişki olamadığı durumlarda ise beklenen frekansların gözlemlerin<br />
frekansları ile karşılaştırılmasından elde edildiği istatistiğe dayanmaktadır. Sonuçta<br />
elde edilen istatistiğin yaklaşık olarak yüksek değerlerin büyük ilişkiyi ifade ettiği kikare<br />
dağılımında olduğu söylenebilir. Bu fonksiyona ait temel eşitlik;<br />
2<br />
χ<br />
( x ij<br />
− E ij<br />
)<br />
= ∑∑<br />
E ij<br />
2<br />
(3.38)
59<br />
şeklindedir. Bu eşitlikte<br />
Eij = xi<br />
x<br />
j<br />
N ifadesi olasılık tablosundaki her bir hücreye<br />
karşılık gelen ümit değeridir.<br />
Yukarıdan-aşağıya karar ağacı sınıflandırıcısı tasarımının son aşaması<br />
ayırmanın nerede bitirilmesi gerektiğinin belirlenmesidir. Bunun için ilk yaklaşım<br />
terminal düğümlerinin seçilmesidir. Eşik değeri β > 0 için eğer t düğümü;<br />
mak Δ i ( S( t ),t ) < β<br />
(3.39)<br />
S∈T<br />
koşulunu sağlıyorsa terminal düğümü olarak seçilir. Bunu başarmak için her bir t iç<br />
düğüm noktasında i(t) şeklinde bir safsızlık fonksiyonunun tanımlanması bir<br />
yöntemdir [Breiman et al.,1984]. Eğer bir S aday ayırma, t iç düğümünü sağ düğüm<br />
tR ve sol düğüm tL şeklinde düğümlere ayırıyorsa ve t’nin tL düğümüne pL oranında,<br />
tR düğümüne pR oranında ayrılmasını sağlıyorsa; S ayırmasının iyiliği azalan<br />
safsızlıkla ölçülebilir;<br />
Δ i(<br />
S,t ) = i( t ) − i( t )p − i( t ) p<br />
(3.40)<br />
L<br />
L<br />
R<br />
R<br />
Bu nedenle tüm S ayırmaları içerisinden Δ i ( S,t ) ifadesini minimum hale<br />
getirecek bir ayırma seçilir. Bu kuralın kullanılması sonucunda ayırma işlemi bazı<br />
düğümlerde çok erken tamamlanmakta bazı düğümlerde çok geç tamamlanması<br />
problemi ortaya çıkmaktadır. Breiman et al. (1984) ayrılmanın durdurulma kuralının<br />
ayırma kuralına göre karar ağacı sınıflandırıcısının etkinliğinde daha fazla etkisi<br />
olduğunu ifade etmiştir.<br />
3.2.1.3. Melez Yaklaşım<br />
Melez yöntemler karar ağacı sınıflandırıcısının tasarımının sırayla hem<br />
yukarıdan-aşağıya hem de aşağıdan-yukarıya yaklaşımlarının kullanımını<br />
öngörmektedir [Kim and Landgrebe, 1991]. Bu sınıflandırıcının temel çalışma<br />
prensibi şu şekildedir. İlk olarak, tüm sınıflardan oluşan veri aşağıdan-yukarıya<br />
yaklaşımı kullanılarak iki alt gruba ayrılır. Daha sonra her bir alt grubun ortalama ve<br />
kovaryansları hesaplanır ve yukarıdan-aşağıya yaklaşımı kullanılarak iki yeni alt
60<br />
grup oluşturulur. Her bir alt grubun sadece bir sınıf içerip içermediği kontrol edilir.<br />
Eğer tek bir sınıf içeriyorsa bu grup terminal olarak adlandırılır. Eğer birden fazla<br />
sınıfı içeriyorsa işleme tek alt grup tek bir sınıf içerene kadar devam edilir. Bu işlem<br />
tüm alt gruplar terminal olarak belirlenene kadar devam eder.<br />
3.2.1.4. Gelişme-Budama Yöntemi<br />
Bir karar ağacının oluşturulmasında kullanılan bu yöntem Gelfand et al. (1991)<br />
tarafından öne sürülmüştür. Bu yöntemin çalışma prensibi şu şekilde özetlenebilir.<br />
Öncelikle tüm veri seti yaklaşık olarak eşit olacak şekilde iki alt kümeye ayrılır.<br />
Geniş ağaç ilk veri alt kümesi kullanılarak saf terminal düğümleri ile birlikte<br />
büyütülür. Budanan alt-ağaç ikinci veri setine dayalı olarak hata oranını minimum<br />
hale getirilmesi ile belirlenir. Bu işlem iteratif olarak tekrar edilir.<br />
3.2.2. Veri Ayırma Yöntemine Dayalı Sınıflandırma<br />
Algoritmaları<br />
Karar ağaçları iç düğümlerdeki ayrılmaların tahmini için kullanılan<br />
algoritmaların tek tip veya çoklu olup olmadığına göre tanımlanabilir. Bu tür<br />
algoritmalar homojen veya heterojen hipotez uzayına sahip algoritmalar olarak<br />
tanımlanır. Karar ağaçlarının tasarımı için kullanılan geleneksel yaklaşım her bir<br />
ayrımın tahmininde tek bir algoritmayı kullanan homojen sınıflandırma modellerine<br />
dayanan yaklaşımdır. Genel anlamda homojen hipotez uzayına dayanan iki tip karar<br />
ağacı vardır. Bunlar tek değişkenli ve çok değişkenli karar ağaçlarıdır [Friedl and<br />
Brodley, 1997]. Düğümlerin yapısı bakımından karar ağaçlarının üç tipi vardır:<br />
• Tek değişkenli karar ağaçları<br />
• Çok değişkenli karar ağaçları<br />
• Melez karar ağaçları
61<br />
3.2.2.1. Tek değişkenli Karar Ağaçları<br />
Tek değişkenli karar ağaçları her bir düğüm noktasındaki karar sınırlarının girdi<br />
verisindeki tek bir özelliğe göre belirlendiği bir karar ağacı tipidir [Swain and<br />
Hauska, 1977]. Tek değişkenli karar ağacında her bir iç düğümde girdi verisindeki<br />
tek bir özelliğin test edilmesi ile verinin iki veya daha fazla alt kümeye ayrılması söz<br />
konusudur. Bununla birlikte bu karar ağacı yapıları her bir testin ayrı ve sınırlı sayıda<br />
çıktı değerine sahip olmasını gerektirmektedir. Bu şekilde karar ağacı sınıflandırması<br />
tekrarlı bir şekilde girdi verisinin bir yaprak düğümüne ulaşıncaya kadar ve<br />
yapraktaki sınıf etiketi gözlemlere atanıncaya kadar bölünme devam eder. Tek<br />
değişkenli bir karar ağacında karar sınırlarının spesifik değerleri eğitim verisinden<br />
deneysel olarak tahmin edilir. Sürekli ver<strong>ileri</strong>n olması durumunda, eğitim verisinden<br />
her bir iç düğüm noktasında<br />
X i<br />
’nin veri uzayındaki bir özelliği gösterdiği ve b’nin<br />
X<br />
i<br />
’nin gözlenen aralığında bir eşik değeri olduğu<br />
X i<br />
> b<br />
şeklindeki mantıksal<br />
sınama gerçekleştirilir. Farklılıkların maksimum hale getirilmesi veya iniş<br />
düğümlerindeki benzerliğin minimum hale getirilmesi gibi bazı koşullar kullanılarak<br />
eşik değeri b belirlenebilir. Tek değişkenli karar ağacında her bir test tek bir girdi<br />
değişkenine sahip olduğundan, değişkenlere ait eksenlerin birbirine dik olduğu<br />
özellik uzayının ayrılması şeklinde gösterilir (Şekil 3.8).<br />
Şekil 3.8. Tek değişkenli karar ağacının paralel eksenli karar sınırları.<br />
Tek değişkenli karar algoritmalarının temeli Earl B. Hunt tarafından<br />
gerçekleştirilen algoritmaya dayanmaktadır. Bu algoritma en temel karar ağacı
62<br />
yaratma algoritmasıdır. Bu algoritmanın en önemli eksikliği dallanmaya esas olan<br />
özelliklerin rastgele seçilmesidir. Bu eksikliğin giderilmesi ve yöntemin<br />
geliştirilmesi amacıyla çeşitli algoritmalar geliştirilmiştir. Bunlardan en önemlisi<br />
1987’te Quinlan tarafından geliştirilen ID3 algoritmasıdır. Bu algoritma sayısal<br />
olmayan ver<strong>ileri</strong>n sınıflandırılması için geliştirilmiş entropiye dayalı bir algoritmadır.<br />
Hunt algoritmasında dallanma için seçilecek özelliğin rastgele seçilmesinden ziyade<br />
bu yöntemde bilgi kazancı en yüksek olan özellik dikkate alınarak karar ağacı<br />
oluşturulur. Quinlan (1987) bu amaçla entropi kurallarını içeren bilgi teorisi<br />
yaklaşımından yararlanmıştır.<br />
Quinlan (1993) tarafından sayısal özellikli ver<strong>ileri</strong>nde karar ağaçları<br />
kullanılarak sınıflandırılması amacıyla yine entropiye dayalı C4.5 algoritması<br />
geliştirilmiştir. C4.5 algoritması ID3 algoritmasını esas alarak, ID3 algoritmasındaki<br />
bazı eksiklikleri ve sorunları gidermek amacıyla geliştirilmiştir. ID3 Ayrıca bu<br />
yöntem bilinmeyen nitelik değerlerine sahip veri setleri için karar ağacının nasıl<br />
oluşturulacağına dair bir yol göstermektedir. Quinlan (1993) C4.5 algoritmasında<br />
bölünme bilgisi kavramından yararlanarak ID3 algoritmasını güncellemiştir. Bu<br />
durumda bilgi kazancı kavramı yerine kazanç oranı kriteri kullanılarak dallanmaya<br />
hangi özellikten başlanacağı belirlenmektedir.<br />
3.2.2.2. Çok Değişkenli Karar Ağaçları<br />
Sınıf yapısı sadece değişkenlerin kombinasyonları ile meydana geldiğinden, tek<br />
değişkenli karar ağaçları veri yapısının ortaya çıkarılmasında zayıf kalmaktadır<br />
[Brodley and Utgoff, 1995]. Doğrusal bir yapının söz konusu olduğu bir problemde<br />
kabul edilebilir ayrılmalar girdi verisindeki özelliklerin doğrusal kombinasyonlarını<br />
içerek şekilde devam ettirilir (Şekil 3.9).
63<br />
Şekil 3.9. Çok değişkenli karar ağacı sınıflandırıcısı için karar sınırları.<br />
Çok değişkenli karar ağaçları her bir düğümdeki ayırma testinin girdi<br />
verisindeki birden fazla özelliğe dayalı olarak yapılması dışında tek değişkenli karar<br />
ağaçlarına benzemektedir. Çok değişkenli karar ağacının her bir iç düğümünde<br />
doğrusal ayırma fonksiyonları seti tahmin edilir ve eğitim verisinden yararlanılarak<br />
her bir düğüm noktasında doğrusal ayırma fonksiyonuna ait katsayılar belirlenir. Her<br />
bir düğümdeki test;<br />
∑<br />
i<br />
ai<br />
X i<br />
≤ c<br />
(3.41)<br />
şeklinde gerçekleştirilir. Burada<br />
X i<br />
veri uzayındaki özellikleri, a doğrusal ayırma<br />
fonksiyonun katsayılar vektörünü ve c eşik değerini göstermektedir. Çok değişkenli<br />
karar ağaçları daha karmaşık bununla beraber daha hassas olduğu belirtilmiştir<br />
[Brodley and Utgoff, 1995]. Çok değişkenliliğin tek değişkenli karar ağacı<br />
algoritmalarına göre sahip olduğu yüksek karmaşıklık çok değişkenl<strong>ileri</strong>n<br />
performansını etkileyen bir dizi faktör ile açıklanır. Bunlardan ilki, iç düğümlerde<br />
ayrılma kuralının belirlenmesinde farklı algoritmaların kullanılabilmesi ve bu<br />
algoritmaların her birinin sınıflandırma probleminde veriye bağlı olarak farklı<br />
derecelerde performansa sahip olabilmesidir. İkinci olarak, çok değişkenli karar<br />
ağacının her bir iç düğümündeki ayrımın birden fazla özellik kullanılarak<br />
yapılmasıdır. Bu durumda çok değişkenli karar ağaçlarının her bir iç düğümünde<br />
özellik seçimini gerçekleştirmek için farklı algoritmalar kullanılması söz konusudur.<br />
Bu algoritmalar ardışık olarak <strong>ileri</strong>ye ve ardışık olarak geriye elemeleri içerir. Bu
64<br />
algoritmaların global bir özellik seçiminden ziyade lokal bir özellik seçimi<br />
gerçekleştirmesi çok değişkenli karar ağacı algoritmalarındaki bir başka problemdir.<br />
Çok değişkenli karar ağaçları oluşturulmasında kullanılan en önemli yöntem<br />
Breiman et al. (1984) tarafından geliştirilen sınıflandırma ve regresyon ağaçlarıdır<br />
(CART). Bu yöntem ile karar ağacı oluşturulmasında, her bir karar düğümünden<br />
itibaren ağacın iki alt dala ayrılması yani ikili dallanmalar söz konusudur. Başka bir<br />
ifadeyle bir düğümde seçme işlemi yapıldığında, düğümlerden sadece iki dal<br />
ayrılabilir [Özkan, 2008]. CART algoritmasında bölünme işleminde kullanılan en<br />
önemli iki algoritma Gini ve Twoing algoritmasıdır.<br />
3.2.2.3. Melez Karar Ağacı Sınıflandırıcısı<br />
Melez karar ağacı, geniş ağacın farklı alt ağaçlarında farklı sınıflandırma<br />
algoritmalarının kullanıldığı bir karar ağacıdır. Bu algoritmalar doğrusal ayırma<br />
fonksiyonu, k en yakın komşuluk veya diğer sınıflandırma algoritmaları olabilir.<br />
Melez karar sınıflandırma yaklaşımının uygulanmasındaki temel neden<br />
sınıflandırmadaki performanslarına ilişkin üstünlükleridir [Friedl and Brodley, 1997].<br />
Tekil melez ağacı yapısında farklı sınıflandırma algoritmaları kullanılırsa, verinin<br />
farklı alt kümeleri için farklı sınıflandırıcıların kullanılması şeklinde veri seti<br />
ayrılabilir. Şekil 3.10’da doğrusal ayırma fonksiyonu (DAF), k en yakın komşuluk<br />
(K-EK) ve tek değişkenli karar ağacı (TDK) gibi üç farklı sınıflandırma<br />
algoritmasının kullanıldığı melez sınıflandırma algoritmasına ilişkin bir örnek<br />
görülmektedir.<br />
DAF<br />
K-EK<br />
TDK<br />
Sınıf A<br />
Sınıf B<br />
Sınıf A<br />
Sınıf C<br />
Şekil 3.10. Melez karar ağacı sınıflandırıcısına ait örnek bir yapı.
65<br />
3.2.3. Karar Ağaçlarının Budanması<br />
Karar ağacı sınıflandırıcısı eğitim verisini sadece tek bir sınıf içeren alt<br />
kümelere böler. Bu işlem sonucunda çok geniş ve karmaşık bir ağaç ortaya çıkar.<br />
Birçok durumda bir karar ağacının tüm yapraklarının tek bir sınıf verisini içerecek<br />
şekilde ayarlanması eğitim verisindeki kirlilik nedeniyle overfit problemini ortaya<br />
çıkarabilir. Bu problemin çözümünde sınıflandırılacak veri eğitim seti dışarısında<br />
kaldığında oluşan sınıflandırma hatalarını azaltmak için orijinal ağaç budanabilir.<br />
Bir karar ağacı tüm ağaç yapısındaki yaprakların silinmesi ile basitleştirilmez.<br />
Bunun yerine karar ağacının sınıflandırma doğruluğunu etkilemeyen veya katkısı<br />
olmayan kısımlarının çıkarılması işlemi gerçekleştirilir. Böylece daha az karmaşık ve<br />
daha anlaşılabilir bir ağaç elde edilir. Daha basit bir ağaç oluşturulması için karar<br />
ağacı sınıflandırıcısının düzenlenmesinde kullanılan iki yöntem vardır [Breiman et<br />
al., 1984]. Bu yöntemler;<br />
1. Eğitim veri setinin daha <strong>ileri</strong>ye bölünüp bölünmemesine karar vermek;<br />
2. Ağacın bazı kısımlarının geriye dönük bir şekilde kaldırılması için<br />
tekrarlı bir şekilde bölünme ile yapının oluşturulması.<br />
İlk yaklaşım durdurma ya da ön budama olarak adlandırılır. Bu yöntemin en<br />
önemli avantajı sadeleştirilmiş ağaç yapısında kullanılmayan bir yapının<br />
birleştirilmesinde zaman harcamamasıdır. Bu yöntem, veri setinin ayrılması için en<br />
iyi yolu araştırır ve bilgi kazancı ya da hata azalımı gibi faktörler ile bir noktadan<br />
daha <strong>ileri</strong>ye ayrım yapılıp yapılmayacağı değerlendirilir. Bu değerlendirme belirli bir<br />
eşik değerinin altına düştüğünde bölünme kabul edilmez ve veri için en uygun<br />
yaprak olduğuna karar verilir. Bu yaklaşımın dezavantajı ise doğru durdurma<br />
kuralının belirlenmesidir [Pal, 2002]. Eşik değerinin çok yüksek seçilmesi<br />
durumunda ağacın daha <strong>ileri</strong>ye bölünmesine izin verilmediğinden daha iyi sonuçlar<br />
verecek alt bölünmeler yapılmadan işlem sonlanacaktır.<br />
İkinci yaklaşımda, ağacın tüm yapraklar tek bir sınıfa ait veriyi içerdiğinde<br />
ulaşılan en sona kadar büyümesine izin verilir. Ağaç bundan sonra budanır. Bu
66<br />
yöntem ağacın sonradan çıkarılan kısımlarının oluşturulmasında çok fazla hesaplama<br />
yapılmasını gerektirir. Bir karar ağacının budanması eğitim verisinde birçok<br />
sınıflandırılmamış veri oluşmasına neden olacaktır. Bu nedenle budanan karar ağacı<br />
yapraklarının tek bir sınıfa ait eğitim verisini içermesine gerek yoktur. Bir sınıfın bir<br />
yaprakla ilişkilendirmesi yerine her bir sınıf için, o sınıfa ait olan yapraktaki eğitim<br />
verisine ait olan olasılığı belirten sınıf dağılımı olacaktır<br />
Karar ağaçları bir veya daha fazla alt ağacın kaldırılması ile sadeleştirilir ve bu<br />
alt ağaçların yerine yapraklar ile ifade edilir. Bu işlem ağacın en altından başlar ve<br />
yapraksız her bir alt ağaç incelenir. Bu işleme aşağıdan yukarıya yaklaşımı denir.<br />
Alternatif olarak işlem kökten başlar dallar incelenerek ağacın yapraklarına doğru<br />
hareket edilir. Bu yaklaşıma ise yukarıdan aşağıya yaklaşımı olarak adlandırılır. Eğer<br />
tek bir yaprağı olan alt ağacın veya bu ağacın en çok kullanılan dalının değiştirilmesi<br />
beklenen hata oranının daha düşük oluşmasına neden olacaksa ağaç budanır. Alt<br />
ağaçlardaki hata oranı azaldığından tüm ağaç için hata oranı azalacaktır. Bu işlem<br />
sonucunda kabul edilebilir bir budama ile beklenen hata oranının minimum hale<br />
getirildiği bir ağaç elde edilir. Burada dikkat edilmesi gereken husus, budamanın her<br />
zaman eğitim verisi üzerindeki hatanın artmasına neden olacağıdır. Bu nedenle hata<br />
oranlarının tahmin edilmesinde uygun bir tekniğe ihtiyaç duyulmaktadır. Bir karar<br />
ağacının budanmasında kullanılan teknikler aşağıda sıralanmıştır:<br />
1. Karmaşık değerli budama<br />
2. Hata azaltmalı budama<br />
3. Karamsar budama<br />
4. Hata tabanlı budama<br />
5. Kritik değerli budama<br />
Karmaşık değerli budama yönteminde, bir ağacın tahmin edilen hata oranı<br />
ağacın eğitim verisi üzerindeki hatası ve ağacın karmaşıklığının ağırlıklı toplamı<br />
olarak modellenir. Burada en uygun ağırlıkların belirlenmesi için ayrı veri setleri<br />
kullanılır.
67<br />
Hata azaltılan budama yönteminde ise, ağacın test veri setini ayırdığı<br />
kısımlarının ve ağacın tamamının hata oranını belirler. Bu metotta orijinal ağaç tüm<br />
test veri setini sınıflandırır. T’nin S ile adlandırılan her bir yapraksız alt ağacı için,<br />
test veri seti üzerinde hatalı sınıflandırma sonucu oluşan değişiklikler tespit edilen en<br />
iyi olasılığa sahip yaprakla yenilenir. Eğer yeni oluşan ağaç eşit veya daha az hataya<br />
sahipse ve S aynı özelliğe sahip alt ağaçlar içermiyorsa, S alt ağacı bir yaprakla<br />
yinelenir. Bu işlem test seti üzerindeki hatalar artmaya başlayıncaya kadar tekrar<br />
edilir.<br />
Diğer bir karar ağacı budama yöntemi olan karamsar budama yönteminde,<br />
eğitim alt kümelerinin birleşimini ve boyutunu göstermek için alt ağaçların beklenen<br />
hata oranlarını arttırır. Daha sonra tahmin edilen hata oranı bir yaprağınkinden<br />
önemli derecede küçük olmayan her bir alt ağaç yerine koyulur. Bu yöntem Quinlan<br />
(1987) tarafından ortaya konulmuştur. Bu yöntem ayrı bir test veri setine olan<br />
zorunluluktan kaçınmayı amaçlamaktadır. Hatalı sınıflandırma oranının daha<br />
gerçekçi bir şekilde elde edilmesi için binom dağılımı için süreklilik düzeltmesi<br />
kullanılır.<br />
Hata tabanlı budama yöntemi karamsar budama yönteminin geliştirilmiş bir<br />
halidir. Hata tabanlı budama algoritması beklenen hata oranının daha karamsar<br />
tahmini esasına dayanır. Karamsar budamada tanımlanan yöntemin aksine bu metot<br />
ağacın büyüyen düğümlerini yukarıdan aşağıya denetler.<br />
Kritik değerli budama yöntemi, ağaç oluşumu aşamasında yapılan<br />
sınıflandırmalardan bir düğümün etkinliğinin veya öneminin tahmin edilmesi esasına<br />
dayanmaktadır. Orijinal ağaç oluşumunda bölünme ölçülerinin iyiliği bir düğümdeki<br />
özniteliği belirler. Bu ölçü değerleri, bir düğümde seçilen özniteliğin sınıflar<br />
arasındaki ver<strong>ileri</strong> bölmede ne kadar iyi olduğunu yansıtmaktadır. Bu budama<br />
yöntemi bir kritik değer belirler ve kritik değerlere ulaşamayan düğümleri budar. Bu<br />
işleme dallar arasında bu kritik değere ulaşan bir dal bulunana kadar devam edilir.<br />
Burada dikkat edilmesi gereken husus yüksek seçilen kritik değerin budama<br />
derecesinin yüksek olacağı ve sonuçta daha küçük boyutlu bir ağaç yapısı elde<br />
edileceğidir [Mingers, 1989].
68<br />
3.2.4. Karar Ağaçlarının İyileştirilmesinde Kullanılan<br />
Birleştirme Yöntemleri<br />
Son yıllarda <strong>uzaktan</strong> algılama literatüründe birçok çalışmada birden çok<br />
sınıflandırıcının birleştirilmesi ile tek bir sınıflandırıcının elde edilmesi düşüncesi<br />
ifade edilmiştir. Sınıflandırıcıların birleştirilmesi, yeniden örneklenen eğitim setleri<br />
ile sınıflandırıcıların ayrı ayrı eğitilmesi ve sonuçta ortaya çıkan tahminler ile<br />
sınıflandırma işleminin gerçekleştirilmesi işlemlerini içerir. Birleştirme sonucu elde<br />
edilen sınıflandırıcı ile yapılan sınıflandırma doğruluğunun genel olarak her bir<br />
sınıflandırıcının tekil olarak kullanılmasından daha iyi olduğu ifade edilmektedir<br />
[Opitz and Maclin, 1999; Pal and Mather, 2003]. Teorik ve deneysel gözlemlerle<br />
yapılan araştırmalar birleştirme yöntemi ile birleştirmede kullanılan sınıflandırma<br />
yönteminin doğruluğunda artış olmasının yanında sınıflandırıcının hatalarında da<br />
azalma olduğunu göstermektedir [Hansen and Salamon, 1990; Krogh and Vedelsby,<br />
1995; Hashem, 1997; Opitz and Shavlik, 1996]. Bununla birlikte bazı makalelerde<br />
birleştirilmiş yapay sinir ağlarının kullanımı ve farklı sınıflandırıcıların<br />
birleştirilmesi ile elde edilen sonuçlardan bu yöntemin sınıflandırma doğruluğunu<br />
arttırdığı ifade edilmiştir [Giacinto and Roli,1997, Roli et al.,1997]. Sınıflandırma<br />
doğruluğu tüm öğrenme uygulamaları için öncelikli olarak önemli olduğundan bu<br />
araştırmaların birçoğu sınıflandırma doğruluğunun arttırılması üzerine<br />
yoğunlaşmıştır. Hızlandırma ve torbalama yöntemleri birleştirme işleminde<br />
kullanılan en popüler yöntemlerdir [Freund and Schapire, 1996; Schapire, 1999;<br />
Breiman, 1996]. Her iki yöntemde birleştirme işleminde kullanılacak her bir<br />
sınıflandırıcı için farklı eğitim setlerinin oluşturulmasında yeniden örnekleme<br />
tekniklerini kullanmaktadır. Bu iki yöntemin kullanımı arasındaki en temel fark<br />
hızlandırma yönteminin sürekli olarak tekrarlı bir şekilde birden çok sınıflandırıcı<br />
oluşturmasıdır. Birleştirme işleminde kullanılan diğer bir yöntem çoklu sınıflandırma<br />
yöntemidir. Çoklu hızlandırma yöntemi Adaboost yöntemi ile torbalama yönteminin<br />
birleşimi gibi düşünülebilir [Webb, 2000].
69<br />
3.2.4.1. Hızlandırma Yöntemi<br />
Hızlandırma yönteminin esası bir dizi sınıflandırıcı serisi oluşturulmasına<br />
dayanmaktadır [Freund and Schapire, 1996; Schapire, 1990]. Serinin üyesi olan her<br />
bir sınıflandırıcı için kullanılan eğitim seti, serideki bir önceki sınıflandırıcı veya<br />
sınıflandırıcıların performansına göre belirlenir. Bu yöntemde serideki bir önceki<br />
sınıflandırıcı tarafından hatalı tahmin edilen örnekler bir sonraki sınıflandırıcı için<br />
oluşturulacak eğitim setinde doğru tahmin edilen örneklere göre daha fazla tekrar<br />
edilirler. Bu şekilde hızlandırma yöntemi mevcut birleştirme sonucu elde edilen zayıf<br />
performansa göre örnekleri daha iyi tahmin edebilen yeni bir sınıflandırıcı<br />
oluşturmaya çalışır. Hızlandırma herhangi bir öğrenme algoritmasının performansını<br />
arttıran bir yöntemdir. Bu yöntem herhangi bir zayıf öğrenme algoritmasının<br />
hatasının azaltılması için kullanılabilir. Şekil 3.11’de birleştirilmiş bir<br />
sınıflandırıcının çalışma prensibi gösterilmiştir.<br />
Hızlandırma yöntemi genel olarak her bir gözleme bir ağırlık değeri atanması<br />
esasına dayanmaktadır. Bu ağırlık değeri arttıkça daha fazla gözlem sınıflandırıcıdan<br />
etkilenir. Her bir denemede ağırlık vektörleri hatalı sınıflandırılmış gözlemlerin<br />
ağırlıklarının artması sonucu ile sınıflandırıcı ile ilgili olan performansı yansıtacak<br />
şekilde ayarlanır. Sonuç sınıflandırıcı bir oylama ile her bir iterasyon sonucu<br />
oluşturulan sınıflandırıcıların birleşimidir.<br />
Girdi<br />
Sınıflandırıcı–1 Sınıflandırıcı–2 Sınıflandırıcı–3<br />
Birleşmiş Sınıflandırıcı Çıktıları<br />
Birleştirilmiş Sonuç<br />
Şekil 3.11. Karar ağacı sınıflandırıcısının birleşimi olan sınıflandırıcı.
70<br />
Literatürde hızlandırma algoritması ile ilgili çeşitli yöntemler kullanılmaktadır.<br />
Bu algoritmalardan en çok kullanılanı Adaboost algoritmasıdır [Freund and Schapire,<br />
1996]. Bu algoritma birleşmeye esas olan sınıflandırıcıların ağırlıklı örnekleri<br />
kullanabileceğini kabul etmektedir. Adaboost algoritması örneklerin seçilmesinde iki<br />
yaklaşım kullanır. Bunlardan birincisi örneklerin olasılıklarına dayalı olarak eğitim<br />
setinin oluşturulmasıdır. İkincisi ise, basit bir biçimde tüm örnekleri ve ağırlıklarının<br />
kullanılmasıdır. Bu yöntemin ana düşüncesi her bir örneğin hatasının o örneğin<br />
olasılığı ile belirleneceğidir. Örnek olarak yüksek olasılığa sahip örneklerin hataya<br />
daha fazla etki etmesi gösterilebilir. İkinci yaklaşım eğitim setindeki her bir örneğin<br />
birleştirilmesi gibi bir avantaja sahiptir.<br />
Adaboost yönteminde başlangıçta her bir örneğin olasılıkları<br />
1<br />
N<br />
olarak<br />
ayarlanır. Daha sonra eğitilen her bir sınıflandırıcının ardından yöntem bu olasılıkları<br />
tekrar hesaplar. Adaboost yönteminde ε ’nın son eğitilen sınıflandırıcının (C )<br />
kullanımı sonucunda hatalı sınıflandırılan örneklere ait olasılıkların toplamı olduğu<br />
düşünülsün. Bir sonraki deneme için kullanılacak bu olasılıklar,<br />
sınıflandırılmış örneklerinin olasılığı ile<br />
k<br />
K<br />
K<br />
K<br />
C K<br />
K<br />
’nın hatalı<br />
β = ( 1−<br />
ε ) ε şeklinde hesaplanan bir<br />
katsayı ile çarpımından elde edilir. Bu şekilde tüm olasılıklar yeniden normalleştirilir<br />
ve toplamları 1 olur. Adaboost yöntemi,<br />
olduğu ağırlıklı oylama yöntemi kullanarak<br />
CK ’nın log( β<br />
K<br />
) şeklinde ağırlığa sahip<br />
C ,...,C K 1<br />
şeklinde gösterilen<br />
sınıflandırıcıları birleştirir. Bu ağırlıklar Adaboost yönteminin sınıflandırıcıların<br />
tahminlerini hesaplamasına imkan sağlar. Tablo 3.2’de hızlandırma algoritmasında<br />
kullanılacak eğitim veri setlerini gösteren bir örnek verilmiştir. Tabloda sekiz<br />
örnekten oluşan orijinal eğitim seti ve ağırlıklara göre yeniden örneklenen eğitim veri<br />
setleri gösterilmiştir. Yeniden örneklemede orijinal veri setindeki 1 ile ifade edilen<br />
örneğin bir önceki sınıflandırıcı tarafından hatalı tahmin edildiği göz önüne alınsın.<br />
Bu durumda, Adaboost yöntemi bir sonraki sınıflandırıcı için oluşturulacak eğitim<br />
setinde bu örneğin birden fazla tekrarlayarak bu örneğin bir sonraki sınıflandırıcı<br />
tarafından doğru tahmin edilmesini amaçlamaktadır [Opitz and Maclin, 1999].
71<br />
Tablo 3.2. Adaboost yönteminde kullanılan eğitim ver<strong>ileri</strong>nin oluşturulması.<br />
Eğitim Seti (Orijinal) 1, 2, 3, 4, 5, 6, 7, 8<br />
Eğitim seti–1 (yeniden örneklenmiş) 2, 7, 8, 3, 7, 6, 3, 1<br />
Eğitim seti–2 (yeniden örneklenmiş) 1, 4, 5, 4, 1, 5, 6, 4<br />
Eğitim seti–3 (yeniden örneklenmiş) 7, 1, 5, 8, 1, 8, 1, 4<br />
Eğitim seti–4 (yeniden örneklenmiş) 1, 1, 6, 1, 1, 3, 1, 5<br />
Eğitimden sonra, her bir sınıflandırıcının ağırlıklı oyu kullanılarak birleşime ait<br />
tahminler yapılır. Her bir sınıflandırıcıya ait ağırlıklar, sınıflandırıcıların eğitiminde<br />
kullanılan ağırlıklı örneklerden elde edilen doğruluğa göre hesaplanır. Adaboost<br />
yöntemi literatürde birçok araştırmacı tarafından kullanılmış ve etkinliği test edilmiş<br />
etkili bir birleştirme yöntemidir [Bauer and Kohavi, 1999; Dietterrich, 2000;<br />
Quinlan, 1996; Maclin and Opitz, 1997].<br />
Yöntemin popüler bir hızlandırma yöntemi olmasına karşın bir takım olumsuz<br />
yönleri vardır. Hızlandırma yöntemi özellikle yetersiz veri olması durumunda iyi bir<br />
performans sağlayamamaktadır [Schapire, 1999]. Bununla birlikte hızlandırma<br />
algoritması sınıflandırılacak veride gürültü miktarının fazla olması (örneğin eğitim<br />
verisinde yanlış sınıf etiketlerinin olması) durumunda da iyi bir performans<br />
sergilememektedir [Dietterich, 2000; Melville et al., 2004].<br />
3.2.4.2. Torbalama Yöntemi<br />
Torbalama yöntemi, birleştirme için eğitim setinin rastgele bir şekilde yeniden<br />
oluşturulması ile ayrı ayrı her bir sınıflandırıcının eğitimini gerçekleştiren ön<br />
yüklemeli bir birleştirme metodudur [Breiman, 1996; Efron and Tibshirani, 1993].<br />
Torbalama yönteminde, hızlandırma yönteminde olduğu gibi eğitim setinin yeniden<br />
örneklenmesinde bir önceki sınıflandırıcının performansı dikkate alınmamaktadır. Bu<br />
yöntemde her bir sınıflandırıcının kullandığı eğitim seti rastgele örnekleme ile<br />
oluşturulur. Orijinal eğitim setinin boyutunun N olduğu düşünülürse yeni
72<br />
oluşturulacak eğitim setinde N boyutlu olacaktır. Buna karşın yeni eğitim seti<br />
içerisinde orijinal veri setindeki birçok örnek tekrar edilirken, orijinal veri setindeki<br />
bazı örnekler ise hiç bulunmayacaktır. Başka bir ifadeyle, torbalama yönteminde<br />
eğitim seti tekrarlı bir şekilde yeniden örneklenirken oluşturulacak eğitim setinde<br />
bazı örnekler tekrarlanırken bazıları ise hiç yer alamayacaktır. Rastgele örnekleme<br />
yöntemiyle oluşturulan farklı eğitim ver<strong>ileri</strong> ile birleştirme işlemindeki bir<br />
sınıflandırıcının eğitimi tamamlanır. Farklı değerlendirmeler sonucu birleştirme<br />
işlemine katılan tüm sınıflandırıcılar birleştirerek sonuç sınıflandırıcıyı oluşturur<br />
[Breiman,1996]. Herhangi bir örneğin sınıflandırılmasında her bir sınıflandırıcı bu<br />
örneğin hangi sınıfa ait olduğu ile ilgili bir oy kaydeder. Sonuç olarak örneğe ait<br />
öznitelik bilgisi ya da sınıf etiketi en çok oy alan sınıf olarak belirlenir [Pal, 2002].<br />
Tablo 3.3’de torbalama yönteminde kullanılan eğitim setlerinin nasıl<br />
oluşturulmasında ilişkin basit bir örnek gösterilmektedir.<br />
Tablo 3.3. Torbalama yönteminde kullanılan eğitim ver<strong>ileri</strong>nin oluşturulması.<br />
Eğitim Seti (Orijinal) 1, 2, 3, 4, 5, 6, 7, 8<br />
Eğitim seti–1 (yeniden örneklenmiş) 2, 7, 8, 3, 7, 6, 3, 1<br />
Eğitim seti–2 (yeniden örneklenmiş) 7, 8, 5, 6, 4, 2, 7, 1<br />
Eğitim seti–3 (yeniden örneklenmiş) 3, 6, 2, 7, 5, 6, 2, 2<br />
Eğitim seti–4 (yeniden örneklenmiş) 4, 5, 1, 4, 6, 4, 3, 8<br />
Tabloda torbala yönteminde kullanılmak üzere oluşturulan 1. eğitim setinde 3<br />
ve 7 örneklerinin iki kez tekrar edildiği, bunun yanında 4 ve 5 örneklerinin ise bu<br />
eğitim setinde olmadığı görülmektedir. Sonuçta eğitim seti–1 ile eğitimi tamamlanan<br />
bir sınıflandırıcının bir test seti ile genelleştirme kabiliyeti test edildiğinde ortaya<br />
çıkan hata miktarı sınıflandırıcının orijinal veri seti ile sınıflandırılması sonucu<br />
ortaya çıkan hatadan daha yüksek olacaktır. Bu durum örnekteki diğer üç eğitim seti<br />
kullanılarak eğitilecek üç sınıflandırıcı içinde geçerli olacaktır. Buna karşın bu dört<br />
sınıflandırıcının birleşimi ile test seti üzerindeki hata miktarı tek bir sınıflandırıcının<br />
kullanılması sonucu ortaya çıkan hata miktarından daha az olacaktır. Breiman (1996)<br />
eğitim setindeki küçük değişimlerin sonuç tahminlerinde büyük değişiklere yol açtığı<br />
değişken öğrenme algoritmaları için bu yönteminin etkili olduğunu ifade etmiştir.
73<br />
Birleşme işlemindeki her bir sınıflandırıcı aynı örnek kümesiyle işlem<br />
yapmadığından, her biri birbirinden farklı sonuç üretecektir. Birleşmeyi oluşturan her<br />
bir sınıflandırıcının tahminlerinin oylanması ile torbalama algoritması temel<br />
sınıflandırıcının varyansı nedeniyle oluşan hatayı azaltmaya çalışır.<br />
3.2.4.3. Çoklu Hızlandırma Yöntemi<br />
Çoklu hızlandırma yöntemi sınıflandırıcıların birleştirilmesinde başarılı<br />
sonuçlar veren Adaboost tekniğinin genişletilmiş bir halidir. Adaboost ve torbalama<br />
yöntemleri farklı etkilere sahip farklı mekanizmalar ile çalışıyormuş gibi görünseler<br />
de bu iki yöntemin birleştirilmesinin ile daha yararlı olduğu düşünülebilir. Çalışma<br />
mekanizmaları farklı olduğu için, her iki yöntemin ayrı ayrı kullanılmasından ziyade<br />
iki yöntemin birleştirilmesi daha iyi sonuçlar üretebilecektir [Webb, 2000]. Adaboost<br />
yöntemi eğilim ve varyansı azaltırken, torbalama yöntemi temel olarak varyansı<br />
azaltmaktadır. Bunun yanında Bauer and Kohavi (1999), varyansın azaltılmasında<br />
torbalama yönteminin Adaboost yöntemine göre daha etkili olduğunu ifade<br />
etmişlerdir. Web (2000), bu iki yöntemin birleşmesi ile Adaboost yönteminin eğilim<br />
azaltmasına torbalama yönteminin varyans azaltmasının eklenmesi ile devam<br />
edebileceğini ifade etmiştir. Özetlenecek olursa çoklu hızlandırma yöntemi,<br />
Adaboost yönteminin torbalama yönteminin yüksek varyans azaltmasındaki<br />
etkinliğini kullanılması ile yeniden düzenlenmesi olarak ifade edilebilir [Web, 2000].<br />
C4.5 algoritmasının temel sınıflandırma algoritması olarak kullanıldığı<br />
sınıflandırıcıların birleştirilmesi işleminde çoklu hızlandırma yöntemi, Adaboost<br />
veya torbalama yöntemlerinin ayrı ayrı kullanılması sonucunda ortaya çıkan hata<br />
oranına göre daha düşük bir hataya sahiptir.<br />
3.2.4.4. Rastgele Orman Yöntemi<br />
Rastgele orman yöntemi girdi ver<strong>ileri</strong>nin oluşturduğu bir vektörden bağımsız<br />
olarak örneklenen rastgele bir vektör kullanarak her bir sınıflandırıcının<br />
oluşturulduğu karar ağacı sınıflandırıcılarının birleşimini içeren bir yöntemdir. Bu<br />
birleşimde her bir ağaç modeli girdi vektörünü sınıflandırmak için en popüler sınıfa<br />
bir oy verirler [Breiman, 2001]. Rastgele orman sınıflandırıcısı rastgele seçilen
74<br />
örnekleri veya ağacın büyümesi için her bir düğümdeki özelliklerin birleşimini içerir.<br />
Torbalama yönteminde eğitim veri seti N sayıdaki örneğin rastgele tekrarlanması ile<br />
oluşturulmaktadır [Breiman, 1996]. Öznitelik bilgisi olmayan herhangi bir örnek<br />
(piksel), tüm ağaç tahminlerinde en fazla oy alan sınıfa atanması suretiyle<br />
sınıflandırılır. Bir karar ağacının oluşturulmasında dallanma kriterlerinin<br />
belirlenmesi ve uygun bir ağaç budama yönteminin seçilmesi söz konusudur. Karar<br />
ağacı oluşturulması için dallanma kriterlerinin belirlenmesinde kullanılan birçok<br />
yöntem vardır. Bunlar arasında en çok kullanılan yöntemler bilgi kazanç oranı kriteri<br />
ve Gini indeksidir [Quinlan, 1993; Breiman et al., 1984]. Rastgele orman<br />
sınıflandırıcısı karar ağacı oluşumunda dallanma kriterlerinin belirlenmesinde başka<br />
bir ifadeyle dallanma için özniteliklerin seçiminde Gini indeksi yöntemini kullanır.<br />
Bu yöntemde sınıflara ait öz niteliklerin zayıflılığını ölçülmesi esasına<br />
dayanmaktadır [Pal, 2005b].<br />
Rastgele orman yöntemi karar ağaçları için torbalama yöntemi ile rastgele<br />
özellik seçiminin birleştirilmesi ile elde edilen bir sınıflandırma algoritması olarak da<br />
ifade edilebilir [Breiman, 2001]. Bu yöntemde grubun her bir üyesi torbalama<br />
yönteminde olduğu gibi ön yinelemeli kopyalama ile eğitilir. Daha sonra karar<br />
ağaçları rastgele seçilen özelliklerden (F) her bir düğümdeki dallanma için seçilen<br />
özellik ile ağaç yapısı büyür. Rastgele seçilen özellikler kümesi F, [ log 2<br />
( k + 1) ]<br />
şeklinde ifade edilebilir [Breiman, 2001]. Bu ifadede k tüm özelliklerin sayısının<br />
göstermektedir. Bu şekilde oluşturulacak rastgele ağaçta herhangi bir budama<br />
algoritması kullanılmaz [Melville and Mooney, 2004]. Birçok sınıflandırma<br />
yönteminde kullanıcı tarafından belirlenen bazı parametreler söz konusudur. Rastgele<br />
orman sınıflandırıcısı için kullanıcılar tarafından belirlenen bu parametreler ağaç<br />
yapısının oluşturulması için her bir düğümde kullanılacak örneklerin sayısı ve<br />
oluşturulacak ağaç sayısıdır. Her bir düğümde en iyi dallanma için sadece seçilen<br />
özellikler araştırılır. Bu nedenle rastgele orman sınıflandırıcısı kullanıcı tarafından<br />
belirlenen ve oluşturulacak ağaç sayısını ifade N ağaçtan oluşacaktır. Yeni bir veri<br />
setinin sınıflandırılmasında, veri seti bu N sayıda ağacın her birinden geçirilir.<br />
Rastgele orman sınıflandırıcısı bu N sayıda ağaçtan elde edilen N sayıda oy arasından<br />
en fazla oya sahip olan sınıfı seçer ve bu şekilde yeni veri setine ait öznitelik<br />
değerlerini belirler [Pal, 2005b; Dietterich, 2002].
75<br />
3.2.4.5. DECORATE Algoritması<br />
Decorate algoritmasında, sınıflandırıcıların birleştirilmesi işlemi iteratif olarak<br />
gerçekleştirilir. İlk önce sınıflandırıcının öğrenme işlemi tamamlanır ve sonra bu<br />
sınıflandırıcı birleştirmeye dahil edilir. Her bir ardışık iterasyonda sınıflandırıcılar bir<br />
takım yapay verilerle birleştirilmiş orijinal eğitim verisi ile eğitilirler. Her bir<br />
iterasyonda yapay eğitim örnekleri veri dağılımından elde edilir. Yapay olarak elde<br />
edilen eğitim örneklerine ait öznitelik bilg<strong>ileri</strong> ya da etiketler birleştirilme<br />
tahminlerinden farklı maksimumları bulmak için oluşturulur [Melville and Mooney,<br />
2004].<br />
3.3. Yapay Sinir Ağları<br />
Yapay Sinir Ağları (YSA) geleneksel istatistiksel sınıflandırıcılarla<br />
karşılaştırıldığında karmaşık yapıya sahip ve gürültü miktarı fazla olan ver<strong>ileri</strong>n<br />
tanımlanmasında ve veriler arasındaki doğrusal olmayan ilişk<strong>ileri</strong>n belirlenmesinde<br />
teorik olarak daha gelişmiş ve daha güçlü bir sınıflandırma yöntemidir [Kavzoglu,<br />
2001; Tseng et al., 2008]. YSA, eğitim ver<strong>ileri</strong> aracılıyla problemi öğrenme ve daha<br />
sonra yeni bir verinin tanımlanmasını yapabilme özelliğine sahip olduğundan<br />
sezgisel algoritma grubunda yer alır. YSA’nın esas amacı insan beyninin üstün<br />
karakteristiklerini simule ederek bilgisayarın tanıma işlemindeki performansını<br />
arttırmaktır. İnsan beyninin biyolojik teorisine dayalı olan YSA insan beyninin<br />
fonksiyonelliğini ve karar verme işlemini simule eden modellerdir. YSA coğrafya,<br />
finans, imalat ve ses tanımlama gibi farklı bir çok alanda kullanılan bir yöntemdir<br />
[Hewitson and Crane, 1994; Dicson et al., 1997; Giles et al., 1997; Altun and Curtis,<br />
1998]. Yapay sinir ağlarının önemli avantajları aşağıda maddeler halinde verilmiştir<br />
[Kavzoglu, 2001]:<br />
• Parametrik olmayan bir yapıdadırlar,<br />
• Keyfi karar sınır yeteneklerine sahiptirler,<br />
• Farklı veri türlerini ve girdi yapılarını birleştirilmesi kolaydır,<br />
• Daha iyi genelleştirme yapabilmektedirler,<br />
• Gürültü için toleranslıdırlar.
76<br />
Bu avantajlar arasında beklide en önemli olanı YSA’nın parametrik olmayan<br />
yani verinin dağılımı ile ilgili herhangi bir ön bilgiye ihtiyaç duymamalarıdır. YSA<br />
eğitim verisinin karakteristik özelliklerini iteratif bir şekilde öğrendiklerinden<br />
veriden bağımsız teknikler olarak da ifade edilebilirler. YSA ağlarının geleneksel<br />
istatistiksel sınıflandırıcılarla karşılaştırıldığında az sayıda eğitim seti kullanarak<br />
daha iyi sonuçlar verebilmektedirler [Blamire, 1994; Foody, 1995; Kavzoglu, 2009].<br />
Yapay sinir ağları geleneksel istatistiksel sınıflandırıcılara göre daha güçlü bir<br />
sınıflandırma yöntemi olmasına rağmen bir takım olumsuzluklar vardır. Bunlar;<br />
kısmen daha fazla eğitim zamanı gerektirmesi, en etkili ağ yapısının belirlenmesi ve<br />
sınıflandırma doğruluğunun parametre değişimlerine karşı duyarlı olması olarak<br />
ifade edilebilir [Kavzoglu, 2001]. Bunlar arasında ağ yapısı eğitim zamanını ve<br />
sınıflandırma doğruluğunu direkt olarak etkilemektedir [Dixon and Candade, 2008].<br />
Günümüze kadar birçok yapay sinir ağı modeli ve öğrenme algoritması<br />
geliştirilmiş ve çeşitli derecelerde başarılar elde edilmiştir. Yapay ağ modellerini iki<br />
kritere göre kategorize etmek mümkündür. Bunlardan ilki modelin kontrollü veya<br />
kontrolsüz öğrenme stratej<strong>ileri</strong>nden hangisini uyguladığıdır. Kontrolsüz yapay sinir<br />
ağı modellerine örnek olarak self-organising map (SOM), Hopfield ağları ve<br />
Grossberg ağları gösterilebilir. Perseptron, çok katmanlı perseptron (ÇKP), radyal<br />
tabanlı ağlar (RBF) gibi modeller ise kontrollü öğrenme prensibine göre geliştirilmiş<br />
YSA modellerindendir [Kavzoglu, 2001]. İkinci kriter ise ağ modeli ile ilgili<br />
öğrenme yönteminin yönlülüğü ile ilgilidir. Eğer bilgi akışı girdi katmanından çıktı<br />
katmanına doğru ilerliyorsa bu öğrenme yöntemi <strong>ileri</strong> beslemeli ağ modeli olarak<br />
adlandırılır. Bu durumun tersi olan durumda yani bilgi akışının, çıktı katmanından<br />
girdi katmanına doğru ilerlediği öğrenme yöntemi geri beslemeli ağ modeli olarak<br />
ifade edilir. Literatürde çok katmanlı perseptron (ÇKP) modeli uygulamada en<br />
yaygın olarak kullanılan yapay sinir ağı modellerindendir. Çok katmanlı perseptron<br />
ağ modelleri eğitim sırasında bilgi akışının girdi katmanından çıkış katmanına doğru<br />
ilerlediği <strong>ileri</strong> beslemeli ağ yapılarındandır.
77<br />
3.3.1. Biyolojik ve Yapay Sinir Ağlarının Çalışma Prensibi<br />
Yapay sinir ağları insan beyninin yapısı ve çalışma prensibinden yola çıkılarak<br />
geliştirilmiş sistemlerdir. İnsan beyni ve çalışma şekli karmaşık yapıya sahip<br />
olduğundan tam olarak açıklanması zor bir konudur. Ancak genel yapısı ve temel<br />
çalışma prensibinin açıklanması YSA’nın anlaşılması açısından önemlidir. İnsan<br />
beyni, sinir sisteminin merkezini oluşturan en temel elemandır. İnsan beyni sürekli<br />
olarak vücudun çeşitli organlarından gelen sinyalleri alır, bu sinyalleri işler ve işlem<br />
sonucunda alınan kararları vücudun ilgili noktalarına gönderir. Beyin, sinir<br />
sisteminin merkezidir ve beynin temel yapı taşları sinir hücreleri yani biyolojik<br />
nöronlardır. Beyin, işlevini birbirleri arasında yoğun bağlantılar bulunan nöronlar<br />
yerine getirir. Bir biyolojik nöron, temel olarak, diğer kaynaklardan girdiler alır,<br />
belirli bir şekilde bunları birleştirir, sonuç üzerinde bir işlem (genelde doğrusal<br />
olmayan) uygular ve nihai sonucu üretir. Şekil 3.12’de biyolojik nöronun genel<br />
yapısı ve bu yapıyı oluşturan dört temel bileşen gösterilmiştir. Bu bileşenler dendrit,<br />
çekirdek, akson ve sinaps olarak adlandırılmaktadırlar. Dendritler, çekirdeğin saça<br />
benzeyen uzantılarıdır ve girdi kanalları olarak işlev görürler. Sinapslar, nöronlar<br />
arası etkileşimi sağlarlar. Bu girdi kanalları diğer nöronların sinapsları aracılığıyla<br />
gird<strong>ileri</strong>ni alırlar. Daha sonra çekirdek, gelen bu sinyalleri zaman içinde işler.<br />
Çekirdek, bu işlenmiş değeri bir çıktıya dönüştürdükten sonra bu çıktıyı akson ve<br />
sinapslar aracılığıyla diğer nöronlara gönderir.<br />
Dendrit<br />
Akson<br />
Çekirdek<br />
Sinapslar<br />
Şekil 3.12. Biyolojik nöronun genel yapısı ve bileşenleri.
78<br />
Yapay sinir ağları, insan beyninin yapısı göz önüne alınarak geliştirilen<br />
basitleştirilmiş sistemler olduğundan, bu sistemlerin temel elemanları da nöronlardır.<br />
Bu yapay nöronlar, aralarındaki bağlantılar oluşturularak ve tabakalar halinde<br />
gruplandırılarak yapay sinir ağlarını oluşturulmaktadır. Yapay sinir ağlarının temel<br />
işlem elemanı olan yapay nöronlar, biyolojik nöronların dört temel bileşenine benzer<br />
yapıda dört fonksiyona sahiptir. Şekil 3.13’te yapay nöronun genel yapısı ve bu<br />
yapıda işlevselliği olan dört temel fonksiyon görülmektedir. Bunlardan ilki şekilde<br />
x , i = 0,1,…,n şeklinde ifade edilen gelen sinyaller ya da girdi değerleridir. Bu girdi<br />
i<br />
değerlerin her biri<br />
w i<br />
ile gösterilen bir bağlantı ağırlığıyla çarpılmaktadır. En basit<br />
yapay sinir ağı yapısında, bu çarpımlar toplanır ve belirlenen bir aktivasyon<br />
(uygulama) fonksiyonuna gönderilerek sonuç üretilir. Elde edilen sonuç çıktı<br />
katmanına gönderilir. Bu yapay nöron yapısında değişik toplama ve aktivasyon<br />
fonksiyonları kullanılarak farklı ağ yapıları oluşturulabilir.<br />
x 0<br />
x 1<br />
x 2<br />
x n<br />
w 0<br />
w 1<br />
w 2<br />
w n<br />
Toplam fonksiyonu<br />
Σ<br />
ϕ<br />
Aktivasyon fonksiyonu<br />
Çıktılar<br />
Girdiler<br />
Ağırlıklar<br />
Şekil 3.13. Yapay nöronun genel yapısı ve bileşenleri.<br />
Aktivasyon fonksiyonu, yapay sinir ağlarına doğrusal olamayan bir yapı<br />
kazandırma amacıyla kullanılan matematiksel bir fonksiyondur. Bu fonksiyonun<br />
kullanımıyla YSA doğrusal olmayan ver<strong>ileri</strong>n bulunduğu problemlerin çözümünde<br />
kullanılan güçlü bir yapıya kavuşmaktadır. Kullanılacak aktivasyon fonksiyonu<br />
doğrusal olduğunda, YSA’nın işlemsel yapısı da doğrusal bir özellik gösterecektir<br />
[Kavzoglu, 2001]. Yapay sinir ağı yapılarından çok katmanlı perseptron yapılarında<br />
genellikle logaritmik sigmoidal veya tanjant hiperbolik aktivasyon fonksiyonları ve<br />
radyal tabanlı fonksiyon yapıları ise aktivasyon fonksiyonu olarak Gauss
79<br />
fonksiyonlarını kullanılmaktadır. Bu nedenle kullanılacak aktivasyon fonksiyonu<br />
seçilecek YSA yapısına dolayısıyla çözülecek probleme göre belirlenmelidir.<br />
3.3.2. Yapay Sinir Ağlarının Sınıflandırılması<br />
Yapay sinir ağları, yapay nöronlar ve bu elemanlar arasındaki bağlantılardan<br />
meydana gelen bir yapıdır. YSA’nın genel çalışma prensibi birbirine benzer olmasına<br />
rağmen yapay nöronlar ve bu nöronlar arasındaki bağlantılar YSA’nın özelliğini<br />
belirler. Başka bir ifadeyle, yapay sinir ağı yapısının oluşturulmasında nöronların<br />
dizilimi ve nöronlar arasındaki bağlantılara ait ağırlıkların belirlenmesi ağın<br />
karakteristiği açısından önemlidir. Bu durum göz önüne alındığında, yapay sinir<br />
ağlarını yapılarına ve öğrenme algoritmalarına göre iki ana başlık altında<br />
sınıflandırılmak mümkündür.<br />
3.3.2.1. Yapılarına Göre Yapay Sinir Ağları<br />
Yapay sinir ağları, içerdiği yapay nöronların birbirine bağlanış şekillerine göre<br />
diğer bir ifadeyle yapılarına göre, <strong>ileri</strong> beslemeli ve geri beslemeli ağlar olmak üzere<br />
iki sınıfa ayrılmaktadır.<br />
3.3.2.1.1. İleri Beslemeli Yapay Sinir Ağları<br />
İleri beslemeli bir ağda yapay nöronlar genellikle katmanlara ayrılmıştır.<br />
Veriler, giriş katmanından çıkış katmanına doğru tek yönlü bağlantılarla iletilir.<br />
Genellikle parametrelere bağlı olarak tanımlanan giriş ver<strong>ileri</strong>, çıkış katmanına doğru<br />
tek yönlü bir şekilde iletilir ve dağıtılır. Aynı katmanda bulunan yapay nöronlar<br />
arasında bağlantı tanımlanmazken bir katmanın tüm yapay nöronları bir üst katmanın<br />
yapay nöronları ile bağlantılıdır. Diğer bir ifadeyle, nöronlar bir katmandan diğer bir<br />
katmana bağlanırken, aynı katman içerisinde bağlantıları bulunmamaktadır. Bu tip<br />
ağlarda herhangi bir andaki çıkış o andaki giriş vektörünün bir fonksiyonu olarak<br />
ifade edilir. İleri beslemeli ağlara örnek olarak çok katmanlı perseptron ve LVQ<br />
(Learning Vector Quantization) ağları verilebilir.
80<br />
3.3.2.1.2. Geri Beslemeli Yapay Sinir Ağları<br />
Geri beslemeli yapay sinir ağlarında <strong>ileri</strong> beslemeli olanların aksine bir nöronun<br />
çıktısı kendinden önceki katmana veya kendi katmanında bulunan herhangi bir<br />
nörona girdi olarak bağlanabilir. Geri beslemeli yapay sinir ağları çıkış katmanı dahil<br />
herhangi bir katmanın veya tüm katmanların girişleri bir önceki katmana geri iletilir.<br />
Böylece, girişler hem <strong>ileri</strong> yönde, hem de geri yönde aktarılmış olur. Bu tip sinir<br />
ağlarında herhangi bir andaki çıkış, o andaki girişlerin bir fonksiyonu olduğu kadar<br />
önceki giriş ve çıkış değerlerini de yansıtmaktadır. Bu yapısı ile geri beslemeli yapay<br />
sinir ağları doğrusal olmayan bir yapıdadır. Veri akışının çift yönlü olmasından<br />
dolayı bu tip ağlarda ağırlıklar dinamik bir hafıza yapısı tanımlarlar. Geri besleme<br />
özelliğini kazandıran bağlantıların bağlanış şekline göre geri aynı yapay sinir ağıyla<br />
farklı davranışta ve yapıda geri beslemeli yapay sinir ağları elde edilebilir. Bu<br />
yapılardaki yapay sinir ağlarında herhangi bir andaki çıkış o ana kadar işlenmiş tüm<br />
ver<strong>ileri</strong>n bir sonucudur. Hopfield, Elman ve Jordan yapıları bu tür yapay sinir ağları<br />
yapılarına örnektir.<br />
3.3.2.2. Öğrenme Algoritmalarına Göre Yapay Sinir Ağları<br />
Yapay sinir ağlarının verilen girdilere göre çıktı üretebilmesinin yolu ağın<br />
öğrenebilmesidir. Öğrenme algoritmalarına göre yapay sinir ağları kontrollü,<br />
kontrolsüz ve takviyeli öğrenme olarak üçe ayrılmaktadır.<br />
3.3.2.2.1. Kontrollü Öğrenme<br />
Kontrollü öğrenmede ağa öznitelik bilg<strong>ileri</strong> ve bu öznitelik bilg<strong>ileri</strong>ne ait sınıf<br />
etiketlerini içeren eğitim verisi giriş verisi olarak tanımlanır. Ağ, verilen girdiler için<br />
istenen çıkışları oluşturabilmek için kendi ağırlıklarını günceller. Diğer bir ifadeyle,<br />
kontrollü öğrenme algoritması yapay nöronlar arasındaki bağlantı ağırlıklarını,<br />
eğitim verisindeki gerçek sınıf etiketleri ile ağın çıkış katmanında elde edilen sınıf<br />
etiketleri arasındaki farka göre güncellemektedir. Ağın çıktıları ile beklenen çıktılar<br />
arasındaki hata hesaplanarak ağın yeni ağırlıkları bu hata payına göre düzenlenir.<br />
Hata payı hesaplanırken ağın bütün çıktıları ile beklenen çıktıları arasındaki fark
81<br />
hesaplanır ve bu farka göre her nörona düşen hata payı bulunur. Daha sonra her<br />
nöron kendine gelen ağırlıkları günceller. Bu algoritmaya örnek olarak Delta kuralı<br />
ve LVQ algoritması gösterilebilir.<br />
3.3.2.2.2. Kontrolsüz Öğrenme<br />
Kontrolsüz öğrenme algoritmasında, ağın eğitimi sırasında girdi verisi olarak<br />
sınıf etiketleri belli olmayan öznitelik ver<strong>ileri</strong> kullanılmaktadır. Ağın giriş<br />
katmanında tanımlanan bu verilere göre ağ her bir örneği kendi arasında<br />
sınıflandıracak şekilde kendi kurallarını oluşturur. Ağ bağlantı ağırlıklarını aynı<br />
özellikte olan dokuları ayırabilecek şekilde düzenleyerek öğrenme işlemini<br />
tamamlar. Girişe verilen örnekten elde edilen çıkış bilgisine göre ağ, sınıflandırma<br />
kurallarını kendi kendine geliştirmektedir. Kontrolsüz öğrenme algoritmasını<br />
kullanan yapay sinir ağlarına örnek olarak ART ve SOM gösterilebilir.<br />
3.3.2.2.3. Takviyeli Öğrenme<br />
Kontrolsüz öğrenme algoritmasında olduğu gibi bu algoritmada da giriş<br />
ver<strong>ileri</strong>ne ait sınıf etiketleri kullanılmamaktadır. Takviyeli öğrenme algoritmasında<br />
ağın her iterasyonu sonucunda elde ettiği sonucun iyi veya kötü olup olmadığına dair<br />
bir bilgi verilir. Ağ bu bilgilere göre kendini yeniden düzenler. Bu sayede ağ<br />
herhangi bir girdi dizisiyle hem öğrenerek hem de sonuç çıkararak işlemeye devam<br />
eder. Bu algoritmada yapay sinir ağlarına çıkış ver<strong>ileri</strong> verilmezken, elde edilen<br />
çıkışın verilen girişe karşılık uygunluğunu değerlendiren bir ölçüt kullanılmaktadır.<br />
Takviyeli öğrenme algoritmalarına örnek olarak genetik algoritma gösterilebilir.<br />
3.3.3. Çok Katmanlı Perceptron<br />
Günümüzde en çok bilinen ve yaygın biçimde kullanılan <strong>ileri</strong> beslemeli ağ<br />
yapısı algoritmalarından çok katmanlı perseptron (ÇKP) modelidir. Çok katmanlı<br />
perseptron modelleri esnek ve çoklu tabakalar halinde organize edilmiş işlemci<br />
elemanlardan (nöron) oluşan doğrusal olamayan bir yapıya sahiptirler. ÇKP
82<br />
modelinin yaygın olarak kullanılmasının en önemli nedeni sinir ağının üstünlüğü,<br />
işlemci elemanlarda kullanılan doğrusal olmama özelliğidir.<br />
Çok katmanlı perceptron ağ yapısının esas aldığı <strong>ileri</strong> beslemeli ağ algoritması<br />
üç farklı katmandan meydana gelir. Çok katmanlı perceptronun genel yapısını<br />
gösteren Şekil 3.14’den de görüleceği üzere bu katmanlar, girdi katmanı, bir veya<br />
birden fazla saklı katman ve çıktı katmanıdır. Girdi ver<strong>ileri</strong>ni temsil eden girdi<br />
tabakası her bir sınıfa ait değerlerin ağdaki dağılımını tanımlar. Saklı katmanlar<br />
hesaplamalar için kullanılırlar ve her bir düğüme ilişkin değerler girdi düğümü ile bu<br />
düğüme gelen bağlantılara ait ağırlıklarının çarpımının toplamından elde edilir. Çıktı<br />
katmanı tanımlanacak sınıfları göstermek için bir grup koda sahip son işlem<br />
katmanıdır. Tüm ara düğüm bağlantıları ağırlıklarla birleştirilir. Bir değer ara<br />
bağlantılarından geçerken ara düğüm bağlantılarıyla birleştirilen ağırlıklarla çarpılır<br />
[Kavzoglu and Reis, 2008].<br />
Saklı Katmanlar<br />
Girdi Katmanı<br />
Çıktı Katmanı<br />
Arazi Örtüsü<br />
Şekil 3.14. Dört tabakalı <strong>ileri</strong> beslemeli basit bir çok katmanlı perseptron ağı.<br />
3.3.3.1. Öğrenme Algoritmaları<br />
Öğrenme algoritması yapay sinir ağları uygulamalarının temelini<br />
oluşturmaktadır. Nöron ağlarının oluşturulması ve ağırlıkların belirlenebilmesi<br />
açısından öğrenme algoritmalarına ihtiyaç duyulmaktadır. Farklı yapay sinir ağı<br />
modelleri için birçok öğrenme stratejisi geliştirilmiştir [Kavzoglu, 2001]. Bunlar<br />
arasında <strong>ileri</strong> beslemeli yapay sinir ağlarının eğitiminde geri yayılım öğrenme<br />
algoritması en popüler yöntemlerdendir [Werbos, 1995].
83<br />
Genelleştirilmiş delta kuralı olarak da bilinen geri yayılım öğrenme algoritması,<br />
iteratif gradyan azaltım öğrenme yöntemidir. Geri yayılım öğrenme algoritması<br />
hataları çıkıştan girişe geriye doğru azaltmaya hedeflemektedir. Bu işlem iki adımda<br />
gerçekleşir. İlk adımda, tüm ağa ait başlangıç ağırlıkları gelişi güzel belirlenir, girdi<br />
verisi ağa sunulur ve çıktı değerlerinin belirlenmesi için <strong>ileri</strong> doğru yayılır. İkinci<br />
adımda, bilinen ve tahmin edilen çıktı değerleri arasındaki fark (hata) ağdan geriye<br />
doğru beslenir ve ağırlıklar bu farkı (hatayı) azaltacak şekilde değiştirilir. Her<br />
iterasyonda tüm bu işlemler yeniden hesaplanan ağırlıklar ile hata en aza olana veya<br />
önceden belirlenen bir eşik değerine ulaşılıncaya kadar tekrar edilir.<br />
İşlem düğümü ya da yapay nöron, bağlantılara ait ağılıklar ile çarpılan girdi<br />
değerlerini toplar ve aktivasyon fonksiyonunu kullanarak çıkış düğümünü tahmin<br />
eder. Girdi ver<strong>ileri</strong>nin toplamı ve çıktı düğümüne ilişkin eşitlikler:<br />
net<br />
Pj<br />
= ∑<br />
i<br />
w<br />
ji<br />
i<br />
Pi<br />
(3.42)<br />
oPj = f ( net Pj )<br />
(3.43)<br />
şeklindedir. Bu eşitliklerde; net , girdi değerlerinin toplamını; w , ağırlık<br />
Pj<br />
ji<br />
vektörünü; i , girdi değerlerinden i.<br />
elemanın değerini; o ,<br />
Pi<br />
Pj<br />
p örneği için j çıktı<br />
düğümünü ve<br />
f ( o )<br />
doğrusal olmayan aktivasyon fonksiyonunu göstermektedir.<br />
Doğrusal olmayan aktivasyon fonksiyonlardan en çok kullanılanı sigmoid<br />
fonksiyondur [Kavzoglu, 2001].<br />
Geriye yayılma algoritması gerçek ve hesaplanan çıktı değerleri arasındaki<br />
farkın toplamı olara ifade edilen hatayı minimum hale getirmeyi amaçlar. Bu hata<br />
p örneği için:<br />
( t o ) 2<br />
1<br />
E p = ∑ Pj −<br />
2<br />
j<br />
Pj<br />
(3.44)
84<br />
eşitliği ile hesaplanır. Bu eşitlikte; tPj<br />
,<br />
p örneğinin j . bileşenine ait hesaplanan<br />
çıktı değerini; oPj<br />
, p girdi örneğinin j . bileşenine ait gerçek çıktı değerini<br />
göstermektedir. Bu durumda ağın toplam hatası:<br />
E = ∑ EP<br />
(3.45)<br />
eşitliği ile hesaplanır. Yeni ağırlıklar, bir önceki ağırlıkların Δ şeklinde<br />
güncellenmesi ile:<br />
w ji<br />
w<br />
1<br />
ji<br />
= w + Δw<br />
(3.46)<br />
ji<br />
ji<br />
∂E<br />
Δ w ji = −η<br />
(3.47)<br />
∂w<br />
ji<br />
şeklinde hesaplanır. Eşitlik 3.47’de η öğrenme oranı olarak ifade edilir ve kullanıcı<br />
tarafından belirlenen bir parametredir. Bu parametre her bir iterasyonda hesaplanan<br />
hatalarla ilgili ağırlıklardaki değişimin derecesinin kontrolü için kullanılır [Kavzoglu,<br />
2001].<br />
Bir veri setinin karakteristiklerinin belirlenmesi için öğrenme algoritmaları<br />
kullanılır. Bu öğrenme algoritmaları ağırlıkların eğitim döngüleri veya evreleri<br />
arasında nasıl ayarlanacağını belirler. YSA uygulamalarında, ağ yapısının<br />
tasarlanması ve seçilen algoritmaya ait parametrelerin kullanıcı tarafından<br />
belirlenmesi en önemli iki adımı oluşturmaktadır. Saklı katmanın boyutu ve düğüm<br />
sayısı ile ilgili özellikler eğitim veri setinin özeliklerinin öğrenilmesi ve ağ için yeni<br />
olan piksellerin tanımlanmasında ağın kapasitesi açısından önemlidir. Buna ağın<br />
genelleştirme kabiliyeti denir. Saklı tabakadaki düğümlerin sayısı yapay ağın gücünü<br />
ve karmaşıklığını direkt olarak belirler [Kavzoglu and Mather, 2003]. Ağın eğitim<br />
parametrelerinin ayarlanması (öğrenme oranı, momentum, ağırlıklar için başlangıç<br />
değerleri, vb.) öğrenme algoritmasının çalışmasını ve eğitilen ağın performansını<br />
etkileyen ana unsurdur. Dış ve iç parametreler olarak ele alınabilecek bu<br />
parametrelerden; dış parametreler, giriş verisinin karakteristikleri ve çalışma
85<br />
ölçeğini, iç parametreler ise, uygun ağ yapısının seçimi, ağ parametrelerinin<br />
başlangıç değerlerinin belirlenmesi, iterasyon sayısı, aktivasyon fonksiyon tipi ve<br />
öğrenme oranının belirlenmesi gibi sınırlamaları içermektedir [Özkan, 2001]. İleri<br />
beslemeli bir yapay ağın geri yayılma algoritmasıyla eğitimi ağ yapısı, öğrenme<br />
oranı, momentum katsayısı ve aktivasyon fonksiyonu gibi birkaç parametrenin<br />
başlangıçta belirlenmesini gerektirmektedir. Öğrenme oranı yapay sinir ağlarının<br />
başarısı açısından önemli bir etkiye sahiptir. Bu parametre bağlantıların ağırlık<br />
değerlerindeki değişimin miktarını ifade eder. Eğer öğrenme oranı çok yüksek<br />
seçilirse global minimuma ulaşılamaz ve hatada bir artış gözlenir. Bununla beraber<br />
öğrenme oranı çok küçük seçilirse minimum hatanın aranması için gereken süre<br />
artacağından ağın eğitim süreci artacaktır. Momentum katsayısı, bir önceki<br />
iterasyonda hesaplanan ağırlık değişimlerinin oranı olarak yeni oluşturulan<br />
ağırlıklara eklenir. Bu katsayı öğrenme işleminin hızını arttırmak için kullanılır.<br />
3.3.4. Yapay Sinir Ağları ile Görüntü Sınıflandırma<br />
Yapay sinir ağları, herhangi bir istatistiksel kabul gerektirmediğinden<br />
parametrik olmayan kontrollü bir sınıflandırma algoritmasıdır. Kontrollü öğrenme<br />
işleminde, öğrenmeyi temsil eden bağlantı ağırlık değerleri, iteratif bir şekilde ağın<br />
ürettiği çıkışların hedef çıkışlarla karşılaştırılmalarıyla elde edilen belirli bir hata<br />
değerinin minimize edilmesiyle güncellenirken, kontrolsüz öğrenme işleminde,<br />
ağırlık değerlerinin güncelleştirilmesi (öğrenme, eğitim) giriş örneğine en büyük<br />
benzerlik değerini üreten işlemci elemanın aktifleşmesiyle gerçekleştirilmektedir<br />
[Özkan, 2001]. Yapay sinir ağları ile eğitim öncesinde gerçekleştirilmesi gereken bir<br />
takım işlem adımları mevcuttur. Bunlar; ön işlemler, ağ giriş ve çıkışının<br />
kodlanması, sınıfların çıkarılması, ağ topolojisinin oluşturulması ve ağın eğitilmesi<br />
ve genelleştirme kabiliyetinin test edilmesi olarak ifade edilebilir.<br />
Ön işlemlerde amaç, YSA sınıflandırma performansını arttırmak için özellik<br />
çıkartımıdır. Bu amaçla ana-bileşen dönüşümüyle boyutluluk azaltılabilir veya piksel<br />
ver<strong>ileri</strong>yle birlikte veya sadece doku, moment gibi uzaysal bilgiler kullanılabilir.<br />
Bununla beraber, öncül işlemeyle elde edilen bilgilerle ağın hız ve performans<br />
kapasitesi artabilmesine rağmen işlenmemiş orijinal verinin kullanılması ağı daha<br />
uygulanabilir yapmaktadır. Örneğin bir grup piksel üzerinden hesaplanan tek bir
86<br />
doku bilgisi kullanılabileceği gibi, bunun yerine bu bilginin çıkarıldığı orijinal piksel<br />
grubunun işlenmesi daha esneklik kazandıracaktır.<br />
Birçok istatistiksel sınıflandırma algoritmasında olduğu gibi en temel ve basit<br />
veri giriş kodlaması şekli, piksel örneklerinin tek tek kullanılmasıdır. İlgili örnek için<br />
özellik (spektral kanal) sayısı kadar giriş katmanı işlemci elemanın kullanılması en<br />
yaygın kullanılan veri giriş tekniğidir. Yapay sinir ağlarının eğitimi için kullanılacak<br />
ver<strong>ileri</strong>n ölçeklenmesi önemli bir husustur [Sarle, 2008]. Çok katmalı persptron<br />
yapılarında matematiksel bir zorunluluk olmamasına rağmen özellikle sigmoid veya<br />
tanjant hiperbolik (TANH) aktivasyon fonksiyonu kullanılarak verinin [0 1] veya [-1<br />
1] aralığına çekilmesi işlemsel etkinliği arttırabilmektedir. Yapay sinir ağları ile<br />
yapılan sınıflandırmada, her bir öznitelik verisi (<strong>uzaktan</strong> algılamada her bir bant)<br />
[ 0,1] veya [ − 1, + 1]<br />
aralığında ölçeklenmektedir. Ölçekleme ile çok geniş sayısal<br />
aralıktaki veri daha dar bir sayısal aralıkta ifade edilebilmektedir. Bu şekilde eğitim<br />
sırasındaki işlemler kolay ve hızlı gerçekleştirilebilecektir. Sigmoid ve TANH<br />
fonksiyonlarının sıkıştırma etkisi olduğu için giriş verisinin bu şekilde ölçeklenmesi,<br />
ağ performansını ve yakınsama hızını olumlu yönde etkileyebilmektedir [Kavzoglu,<br />
2001].<br />
Ağ çıkışının kodlanmasında en doğal kodlanma şekli her bir sınıf için bir<br />
işlemci eleman kullanımıdır. Her bir sınıf için ayrı bir işlemci eleman kullanılmasıyla<br />
pikseller en yüksek çıkış değerini aldığı işlemci elemanın temsil ettiği sınıfa atanır.<br />
Yüksek değer, ilgili pikselin o sınıfa yüksek bir doğrulukla ait olduğunu ifade eder.<br />
Genellikle istenen çıkış değerlerine, örneğin ait olduğu sınıfı temsil eden işlemci<br />
eleman için yüksek, diğerleri için düşük değerler atanır [Kansu, 2006]. YSA<br />
yapılarında giriş ve çıkış katmanlarındaki işlemci eleman sayıları, veri boyutu ve<br />
istenen sınıf sayısı gibi dış etkenlere göre belirlenirken, saklı katmanlardaki<br />
elemanlar deneme yanılma yoluyla belirlenmektedir. Yapay sinir ağlarının teorik<br />
kapasitesi teorik olarak ara katman işlemci eleman sayısına bağlıdır [Kavzoglu and<br />
Mather, 2003].<br />
MLP ağlarının eğitilmesi için kullanılan geri yayılım algoritmasında eğitim, ya<br />
örneklerin ağa bireysel girişlerinden elde edilen hataya göre ya da örneklerin ağa<br />
bütünüyle girildiklerinde elde edilen toplam hataya dayanarak gerçekleştirilmektedir.
87<br />
Genel olarak YSA eğitimi, aşağıdaki aşamaları içermektedir:<br />
1. Eğitim ve buna karşılık gelen çıkış ver<strong>ileri</strong>nin belirlenmesi.<br />
2. Ağ topolojisinin belirlenmesi (giriş, ara ve çıkış katman sayıları).<br />
3. Ağırlık başlangıç değerlerinin atanması. Bu değerler rastgele atanır. Aksi<br />
takdirde, ağın dağıtılmış bilgisini içeren farklı ağırlık değerlerine ulaşmak mümkün<br />
olamamaktadır.<br />
4. Öğrenme ve momentum oranı gibi gereken ağ parametrelerinin belirlenmesi.<br />
Bu parametrelerin optimum değerlerinin deneme-yanılma yoluyla belirlenmesinin<br />
yanında adaptif yöntemlerde kullanılabilir.<br />
5. Çıktı kodlamasının belirlenmesi.<br />
3.4. Örnek Tabanlı Öğrenme ve K-Star Sınıflandırıcısı<br />
Örnek tabanlı öğrenme (ÖTÖ) algoritmaları literatürde en yaygın kullanımı<br />
olan öğrenme algoritmalarından birisidir [Okamoto and Yugami, 2003]. Örnek<br />
tabanlı öğreniciler test veri setindeki öznitelik bilgisi bilinmeyen bir örneğin<br />
sınıflandırılması işlemini veri tabanında saklanan ve önceden sınıflandırılmış eğitim<br />
veri setindeki örnekler ile karşılaştırarak gerçekleştirirler [Aha et al., 1991; Aha,<br />
1992; Wilson and Martinez, 2000]. Bu karşılaştırma işleminde temel kabul benzer<br />
örneklerin benzer sınıflandırmalara sahip olacağıdır [Piramuthu and Sikora, 2009].<br />
Burada esas olan benzer örnekler ve benzer sınıflandırmanın nasıl belirleneceğidir.<br />
Örnek tabanlı öğrenicinin karşılıklı bileşenleri, iki örneğin ne kadar benzer olduğunu<br />
belirleyen uzaklık fonksiyonu ve örnekler arasındaki benzerliklerden yeni bir örnek<br />
için sonuç sınıflandırıcının nasıl oluşturulacağını belirleyen sınıflandırma<br />
fonksiyonudur. Bu iki bileşene ek olarak ÖTÖ algoritmaları yeni örneklerin örnek<br />
veri tabanına eklenip eklenmeyeceğini ve veri tabanındaki hangi örneklerin<br />
sınıflandırmada kullanılacağını belirler. Basit bir ÖTÖ algoritmasında bir örnek<br />
sınıflandırıldıktan sonra her zaman örnek veri tabanında doğru sınıflandırılan<br />
örnekler arasına taşınır. Daha karmaşık algoritmalarda örnek veri tabanına eklenen<br />
örnekler, bellek gereksinimini azaltmak ve kirli (gürültülü) veri için toleransı<br />
arttırmak amacıyla filtrelenebilir. Örnek tabanlı öğreniciler iki örnek arasındaki<br />
benzerliğin belirlenmesinde bazı uzaklık veya benzerlik fonksiyonlarından
88<br />
yararlanırlar. Bu uzaklık fonksiyonu hangi örneğin girdi vektörüne en yakın<br />
olduğuna karar verilmesinde kullanılmaktadır [Wilson and Martinez, 2000]. Örnek<br />
tabanlı öğrenmede yeni bir örnek ile çevresindeki örnekler arasındaki uzaklık ölçülür<br />
[Aha et al., 1991]. Literatürde bir çok uzaklık fonksiyonu geliştirilmiştir. Bu<br />
fonksiyonlara örnek olar Öklit, Mahalonobis, Quadratic ve Ki-Kare gibi uzaklık<br />
fonksiyonları gösterilebilir [Nadler and Smith, 1993; Michhalski et al., 1981; Diday,<br />
1974]. Örnek tabanlı öğreniciler küçük bir ön işlemle eğitim verisini kaydettikten<br />
sonra test veri seti sisteme giriş yapıncaya dek beklerler. Bu nedenle bu algoritmalar<br />
eğitim işlemi için daha az zamana gereksinim duyarken test veri seti kullanarak<br />
öznitelik değerlerinin tahmin edilmesi işlemi için daha fazla zamana gereksinim<br />
duymaktadırlar [Aha, 1997; Hullermeier, 2003; Piramuthu and Sikora, 2009].<br />
Literatürde en yakın komşuluk, IB1, IB2, IB3, IB4 ve IB5 algoritmaları gibi<br />
birçok ÖTÖ algoritmaları geliştirilmiş ve çeşitli uygulamalarda kullanılmıştır [Cover<br />
and Hart, 1967; Dasarathy, 1991; Aha et al., 1991; Aha, 1992]. En yakın komşuluk<br />
algoritmaları en basit örnek tabanlı öğrenme algoritmalarıdır [Cover and Hart, 1967].<br />
Bu algoritmalar eğitim verisinden en çok bezeyen tek bir örneği bulmak için bir<br />
takım alan özellikli uzaklık fonksiyonları kullanırlar. Bulunan örnek yeni bir örneğin<br />
sınıflandırılması için kullanılır. En yakın komşuluk algoritması veri tabanında<br />
saklanacak ve sınıflandırmada kullanılacak örnekleri seçimsel yapacak şekilde<br />
düzenlenmiştir [Hart, 1968; Gates, 1972]. K en yakın komşuluk algoritmaları bu<br />
anlamda biraz daha karmaşık bir yapıya sahiptir. Bu algoritmalarda, yeni bir örneğin<br />
k- en yakın komşulukları ve bu örneğin sınıflandırılması için verilen sınıflar arasında<br />
hangi sınıfın daha baskın olduğu belirlenir. K en yakın komşuluk algoritması k=1<br />
olduğunda standart en yakın komşuluk algoritmasında ile aynıdır. Aha et al. (1991)<br />
çok yönlülüğü artıran üç örnek tabanlı algoritma tanımlamışlardır. IB1 algoritması<br />
özel bir uzaklık fonksiyonuna sahip en yakın komşuluk algoritmasının bir<br />
uygulamasıdır. Bu algoritmada, gerçek değerli öznitelikler ortak bir ölçekte<br />
normalleştirilir ve böylece tüm öznitelikler eşit ağırlığa sahip olurlar. Bununla<br />
beraber kayıp değerlerin gerçek değerden maksimum olarak farklı olduğu kabulü söz<br />
konusudur. IB2 algoritması sadece yanlış sınıflandırılmış örneklerin kaydedildiği ve<br />
bellek gereksinimini azaltmak için IB1 algoritmasına çeşitli eklemelerin yapılmasıyla<br />
geliştirilen bir algoritmadır. IB3 ise gürültülü veriler için toleransı arttıran eklentiler<br />
içerir. Bu yöntemde yeterince kötü sınıflandırma geçmişi olan örnekler göz ardı
89<br />
edilirken, iyi bir sınıflandırma geçmişine sahip olan örnekler sınıflandırmada<br />
kullanılırlar.<br />
Cleary and Trig (1995) iki örnek arasındaki uzaklığın belirlenmesinde<br />
kullanılacak uzaklık fonksiyonu olarak bilgi teorisine dayanan entropik uzaklık<br />
ölçüsünü kullanmışlardır. Bilgi teorisinde, entropi rastgele değişkenler ile ilgili<br />
belirsizliğin ölçüsü olarak tanımlanmıştır [Sahnnon, 1948]. İki özellik arasındaki<br />
uzaklığın hesaplanmasında kullanılan bu yöntem bilgi teorisinden yola çıkılarak<br />
ortaya atılmıştır. Örnekler arasındaki uzaklığa ilişkin bu öngörü bir örneğin başka bir<br />
örneğe dönüşümündeki karmaşıklık olarak tanımlanır. Bu karmaşıklığın<br />
hesaplanması iki adımda gerçekleştirilir. İlk olarak, özellikten özelliğe dönüşüm<br />
olarak tanımlanan sonlu sayıda dönüşümler kümesi belirlenir. Bir özelliğin (a) diğer<br />
bir özelliğe (b) dönüşümü, (a) dan başlayıp (b) de sonlanan sınırlı dönüşümler dizisi<br />
olarak tanımlanabilir [Cleary and Trig, 1995].<br />
I’nın sınırlı sayıda örnekler kümesi ve T’nin I üzerinde sınırlı sayıdaki<br />
dönüşümler kümesi olduğu göz önüne alınsın. Her bir t ∈ T , t : I → I şeklinde<br />
örnekten örneğe dönüşüm yaptığı ve T σ gibi ayırt edilebilir bir üye içerdiği<br />
düşünülsün. Bu σ ile gösterilen eleman σ ( a)<br />
= a şeklinde ifade edilir ve örneklerin<br />
kend<strong>ileri</strong>ne dönüşümündeki bütünlüğü göstermektedir. P’nin σ tarafından<br />
sonlandırılan T * nin tüm örnek kodlarını içeren altküme olduğu düşünüldüğünde, T *<br />
nin elemanları I ile ilgili dönüşümü belirler. Bu<br />
−<br />
t =<br />
t<br />
1,...,<br />
t n<br />
olmak üzere;<br />
t − ( a)<br />
= tn ( tn− 1(...<br />
t1(<br />
a)...))<br />
(3.48)<br />
şeklinde ifade edilir. p olasılık fonksiyonu T * dan belirlenir. Bu olasılık fonksiyonu<br />
aşağıdaki özellikleri sağlamaktadır:<br />
0 p( t<br />
− u)<br />
≤ ≤ 1<br />
−<br />
p ( t )<br />
(3.49)
90<br />
∑<br />
u<br />
−<br />
−<br />
p ( t u)<br />
= p(<br />
t)<br />
(3.50)<br />
p(<br />
Λ ) = 1<br />
(3.51)<br />
Sonuç olarak p olasılık fonksiyonu Eşitlik 3.52’yi sağlamaktadır.<br />
∑<br />
_<br />
t∈P<br />
−<br />
p ( t)<br />
(3.52)<br />
Olasılık fonksiyonu P * , a örneğinden b örneğine kadar tüm yolların olasılıkları<br />
olarak belirlenir (Eşitlik 3.53).<br />
( b a) = ∑ p(<br />
t<br />
−<br />
P * )<br />
−<br />
t ∈P:<br />
−<br />
t ( a)<br />
= b<br />
(3.53)<br />
Bunlarla beraber P * fonksiyonun aşağıdaki özellikleri sağlamaktadır.<br />
∑<br />
b<br />
( b a) = 1<br />
*<br />
P (3.54)<br />
( b a) ≤ 1<br />
*<br />
0 ≤ P (3.55)<br />
Bu durumda K * fonksiyonu;<br />
K<br />
*<br />
*<br />
( b a) − log P ( b a)<br />
= (3.56)<br />
2<br />
şeklinde belirlenir. K * fonksiyonu tam anlamıyla bir uzaklık fonksiyonu değildir.<br />
Örneğin, K * ( a a)<br />
genelde sıfırdan farklıdır ve fonksiyon simetrik değildir [Cleary<br />
and Trig, 1995].
91<br />
K * algoritması sayısal veya sembolik öznitelik değerine sahip veri setlerinin<br />
sınıflandırılmasında kullanılabilmektedir. Sayısal değere sahip öznitelik değerlerinin<br />
sınıflandırılmasında yoğunluk fonksiyonu,<br />
−x<br />
*<br />
P 0<br />
2x 0<br />
( x) = 1 x<br />
e dx<br />
(3.57)<br />
şeklinde hesaplanır. Bu eşitlikte kullanıcı tarafından belirlenen<br />
x 0<br />
parametresi; x ’in<br />
tüm<br />
*<br />
P dağılımları için beklenen ortalama değerini ifade eden bir ölçek uzunluğudur.<br />
Sembolik özniteliklerin olması durumunda 1 ≤ i ≤ n olmak üzere p i olasılığında<br />
n örneğe sahip bir veri seti olduğu düşünülür. Bir sembolün olasılığı; s olasılığı ve j<br />
sembolüne ait t dönüşümlerinin olasılığı<br />
( 1 − s )p olduğunda aynı kalır. Özetle tüm<br />
j<br />
olası dönüşlümler,<br />
* ⎧ ( 1 − s) p j ⎫ if i j<br />
( ) = ⎨<br />
⎩ + ( − ) p ⎭ ⎬<br />
≠<br />
P j i<br />
s 1 s i if i = j<br />
(3.58)<br />
şeklinde ifade edilir. Bu eşitliklerde s olasılığı göstermektedir ve kullanılacak veri<br />
setine göre kullanıcı tarafından belirlenmesi gerekir [Cleary and Trig, 1995].<br />
Uzaklık ölçüsü olarak Entropi’yi kullanan örnek tabanlı bir sınıflandırıcının<br />
uygulanabilmesi için gerekli olan x 0 ve s parametre değerlerinin seçiminde uygun bir<br />
yöntem kullanılmalıdır. Her bir boyut için x 0 (sayısal değerli örneklerde) ve s<br />
(sembolik özniteliklerde) parametre değerlerinin belirlenmesi gerekir. Sembolik<br />
öznitelikler için olasılık fonksiyonu olan s parametresindeki değişimler göz önüne<br />
alınsın. s değeri 1’e yakın bir değerde olduğunda aynı sembol özniteliğine sahip<br />
örnekler yüksek dönüşüm olasılığına sahip olurken, söz konusu özniteliklerle farklı
92<br />
bir sembol özniteliğine sahip olan örnek düşük dönüşüm olasılığına sahip olacaktır. s<br />
değeri 0 olduğunda, dönüşüm olasılığı direkt olarak sembollerin olasılık dağılımını<br />
gösterecektir. Gerçek değerli öznitelikler için uzaklık ölçümü aynı özellikleri<br />
sergiler. x 0 değeri küçük olduğunda örneklerin olasılığı çok çabuk düşer. Diğer<br />
taraftan x 0 değeri çok büyük olduğunda tüm örnekler aynı dönüşüme ve dolayısıyla<br />
eşit ağırlığa sahip olacaklardır.<br />
Her iki durumda da olasılık dağılımına dahil olan örnek sayısı, en yakın<br />
komşuluk dağılımı olan 1 değeri ile tüm örneklerin eşit ağırlığa sahip olduğu N<br />
değeri aralığında değişir. Herhangi bir P * fonksiyonu için etkili örnek sayısı,<br />
n<br />
0<br />
⎛<br />
⎜<br />
≤<br />
⎝<br />
∑<br />
b<br />
∑<br />
b<br />
*<br />
P ( b<br />
*<br />
P ( b<br />
⎞<br />
a)<br />
⎟<br />
⎠<br />
2<br />
a)<br />
2<br />
≤ N<br />
(3.59)<br />
şeklinde ifade edilebilir. Burada N eğitim örneklerinin tümünün sayısını, n 0 ise<br />
eğitim örneklerinden a örneğine en kısa mesafedeki örneklerin sayısını gösterir. K *<br />
algoritması x 0 ve s parametreleri için a değerini n 0 ve N arasındaki bir değer<br />
seçilmesiyle belirler. Böylece seçilen n 0 en yakın komşuluk algoritmasını ve seçilen<br />
N eşit ağırlıklı örneklerin sayısını verir. Belirlenen bu sayıların uygunluğu<br />
harmanlama parametresi (b) kullanılarak belirlenir. Harmanlama parametresi b =<br />
(n 0 için) ve b = % 100 (N için) arasında değişmektedir. Ancak her bir öznitelik için<br />
eşit ağılık sağlayan harmanlama parametresi kullanılmasıyla x 0 veya s parametreleri<br />
her bir boyut için bağımsız olarak belirlenir.<br />
%0
93<br />
4. UYGULAMA<br />
4.1. Çalışma Alanı<br />
Gebze, Marmara bölgesinde Kocaeli ilinin kuzeybatısında, İstanbul il sınırında<br />
yer alan Kocaeli iline bağlı bir ilçedir. Türkiye sanayisinin %15'ini, Kocaeli'nin<br />
endüstrisinin büyük bölümün barındıran Gebze, Marmara bölgesinin en büyük ikinci<br />
ilçesidir. Yaklaşık olarak yüz ölçümü 610 km² olan ilçe, coğrafi konumu itibariyle<br />
40 o 45’ 08’’ ile 41 o 02’ 38’’ kuzey enlemleriyle 29 o 19’ 56’’ ile 29 o 45’ 14’’ doğu<br />
boylamları arasında yer almaktadır (Şekil 4.1). Doğusunda İzmit, batısında İstanbul,<br />
kuzeyinde Şile, güneyinde (İzmit Körfezi) ile sınırlanan Gebze, yayla görünümünde<br />
bir düzlüğün üzerinde kurulmuştur [URL–3]. Gebze ilçesinin 2008 yılında yapılan<br />
adrese dayalı nüfus kayıt sitemine göre toplam nüfusu 546.933’tür [URL–4].<br />
Şekil 4.1. Çalışma Alanı Haritası.<br />
Gebze ilçesinin ekonomik yapısını bünyesinde barındırdığı büyük ve küçük<br />
ölçekteki birçok sanayi kuruluşu oluşturmaktadır. İlçenin İstanbul ilinin sınırında<br />
bulunması, çevre yolu ve diğer bağlantı yolları üzerinde olması nedeniyle ulaşım
94<br />
kolaylığı ilçeyi bir sanayi kenti haline getirmiştir. Gebze’de boya, plastik, elektrik,<br />
metal, makine ve kimya sanayisinin önde gelen kuruluşları faaliyet göstermektedir.<br />
Bunun yanında TÜBİTAK Marmara Araştırma Merkezi (MAM), Gebze Yüksek<br />
teknoloji Enstitüsü (GYTE) ve Türk Standartları Enstitüsü (TSE) gibi önemli kurum<br />
ve kuruluşlar ilçede yer almaktadırlar.<br />
4.2. Uygulama Konusu ve Amacı<br />
Arazi kullanım şekillerinin belirlenmesi, çevresel değişiklerin izlenmesi ve<br />
doğal kaynaklara ait envanterlerin çıkarılması gibi geniş ölçekli birçok çalışmada<br />
yeryüzüne ait bilgilere ihtiyaç duyulmaktadır. Uzaktan algılama teknoloj<strong>ileri</strong> farklı<br />
konumsal ve zamansal çözünürlüklerde yeryüzünü görüntüleyebilme kabiliyetine<br />
sahip olduğundan bu önemli bilg<strong>ileri</strong>n elde edilmesinde önemli bir kaynak<br />
durumundadır. Bu nedenle uydu görüntüleri yardımıyla arazi örtüsünün ve arazi<br />
kullanımının sınıflandırılması <strong>uzaktan</strong> algılama uygulamalarının önemli bir parçası<br />
olmuştur. Günümüze kadar <strong>uzaktan</strong> algılanmış görüntülerin sınıflandırılmasında<br />
birçok yöntem geliştirilmiş ve kullanılmıştır.<br />
Bu çalışmada, Gebze ilçesindeki arazi örtüsünün sınıflandırılması için çalışma<br />
alanını kapsayan 1997 yılında kaydedilmiş Landsat ETM+ ile 2002 yılında<br />
kaydedilmiş Terra ASTER uydu görüntüleri kullanılmıştır. Söz konusu uydu<br />
görüntülerinin sınıflandırılmasında <strong>ileri</strong> sınıflandırma algoritmalarından destek<br />
vektör makineleri, karar ağaçları, çeşitli birleştirme algoritmaları, yapay sinir ağları<br />
ve K-star sınıflandırıcıları kullanılmıştır. Çalışmada, söz konusu algoritmaların<br />
sınıflandırma performansları birbir<strong>ileri</strong>yle ve popüler sınıflandırma yöntemlerinden<br />
En Çok Benzerlik sınıflandırıcısıyla karşılaştırılarak elde edilen sınıflandırılma<br />
sonuçlarının detaylı bir şekilde analiz edilmesi amaçlanmıştır. Uygulanan metotların<br />
paremetrelerinin performanslarına olan etkisi de bu çalışmada araştırılmıştır.<br />
4.3. Kullanılan Veri ve Yazılımlar<br />
Uygulamada, Gebze ilçesine ait arazi örtüsünün belirlenmesi amacıyla<br />
18.07.1997 tarihinde görüntülenen Landsat ETM+’in termal bant haricindeki 6 bandı
95<br />
ve 28.10.2002 tarihinde görüntülenen Terra ASTER uydu görüntüsünün ilk 9 bandı<br />
kullanılmıştır. Uydu görüntülerinin geometrik düzeltmesinde bölgeye ait 1/25.000<br />
ölçekli haritalardan yararlanılmıştır. Ayrıca, uydu görüntülerinin sınıflandırılması<br />
amacıyla eğitim alanlarının belirlenmesinde farklı tarihlerde çekilmiş hava<br />
fotoğrafları (1996, 1999 ve 2003) ve Gebze orman bölge şefliğine ait meşcere<br />
haritalarından yararlanılmıştır. Bunların yanı sıra arazide görsel olarak da alanlara ait<br />
konumlar el GPS aletleriyle tespit edilmiştir.<br />
Uydu görüntülerinin geometrik olarak düzeltilmesi ve sınıflandırmaya esas<br />
olacak kontrol alanlarının belirlenmesinde ERDAS IMAGINE 8.7 yazılımı<br />
kullanılmıştır. Söz konusu görüntülerin sınıflandırılmasında YALE Üniversitesi<br />
tarafından geliştirilen Rapid-Miner 4.1, MATLAB 6.5, Stuttgart Üniversitesi<br />
tarafından geliştirilen Stuttgart Neural Network Simulator (SNNS) programı ve<br />
Gebze Yüksek Teknoloji Üniversite’sinde Doç. Dr. Taşkın Kavzoğlu’ nun C++<br />
dilinde yazdığı programlar kullanılmıştır.<br />
4.4. Uygulama Aşamaları<br />
4.4.1. Uydu Görüntülerinin Geometrik Düzeltilmesi ve Yeniden<br />
Örneklenmesi<br />
Landsat ETM+ ve Terra ASTER uydu görüntülerinin geometrik düzeltmesinde<br />
bölgeye ait 1/25.000 ölçekli haritalar sayısallaştırılarak bilgisayar ortamına aktarılmış<br />
ve ERDAS/Imagine yazılımı ile UTM koordinat sisteminde tanımlanarak haritalar<br />
mozaik haline getirilmiştir.<br />
Uydu görüntülerinin farklı veri gruplarıyla beraber değerlendirilebilmesi için<br />
aynı koordinat sisteminde olmaları gerekmektedir [Mather, 1987]. Bu nedenle uydu<br />
görüntülerinin geometrik dönüşümü için, UTM projeksiyon sisteminde sayısal<br />
ortama aktarılmış topoğrafik haritalardan faydalanılmıştır. Koordinat dönüşümünde<br />
yer kontrol noktalarının tüm çalışma alanına homojen olarak dağılmasına dikkat<br />
edilmiştir. Uydu görüntülerine birinci derece Afin dönüşümü kullanılarak UTM<br />
projeksiyon sisteminde yaklaşık 0.5 piksel karesel ortalama hata ile geometrik
96<br />
düzeltme getirilmiştir. Uydu görüntülerinin yeniden örneklenmesinde orijinal<br />
değerleri koruduğundan en yakın komşuluk yöntemi tercih edilmiştir.<br />
4.4.2. Arazi Örtüsü Sınıfları ve Eğitim Alanlarının Belirlenmesi<br />
Görüntü sınıflandırma, görüntüyü oluşturan her bir pikselin tüm bantlardaki<br />
değerlerinin diğer pikseller ile karşılaştırılarak benzer piksellerin kullanıcının<br />
belirlediği bilgi kategor<strong>ileri</strong> dahilinde sınıflara ayrılması işlemidir (Campbell, 1996).<br />
Objelerin, sınıf olarak adlandırılan kategorilerden birine atanmasına örüntü<br />
sınıflandırması denir. Özel bir örüntü sınıflandırma probleminde bir sınıflandırıcı<br />
sınıflandırılmak istenilen nesneleri belirli bir doğrulukla sınıflandıracak şekilde<br />
oluşturulur. Girdi ve çıktı çiftleri kullanılarak yapılan eğitim yardımıyla<br />
sınıflandırıcılar girdi ver<strong>ileri</strong>ni verilen sınıflardan birine atamak için karar<br />
fonksiyonlarını oluşturur. Kontrollü sınıflandırma da, çalışma alanındaki yeryüzü<br />
özelliklerini tanımlayan yeteri sayıdaki kontrol alanı kullanılarak, piksel değerlerinin<br />
özellik dosyaları (eğitim ver<strong>ileri</strong>) oluşturulur. Seçilen sınıflara ait kontrol alanlarını<br />
ifade eden bu eğitim ver<strong>ileri</strong>nin görüntü ver<strong>ileri</strong>ne uygulanması ile her bir görüntü<br />
elemanı (piksel), hesaplanan olasılık değerine göre en çok benzer olduğu sınıfa<br />
atanmaktadır. Eğitim alanlarına ait veriler, mümkün oldukça uydu görüntüsünün<br />
kaydedildiği tarihe yakın bir zaman diliminde araziden toplanmalıdır. Doğru bir<br />
sınıflandırmanın yapılabilmesi, eğitim alanlarının arazide homojen bir şekilde<br />
belirlenmesi ve yeterli büyüklükte tanımlanması ile mümkündür [Lillesand et al.,<br />
2007]. Kontrollü sınıflandırmada, ilk adım arazi örtüsünü temsil edecek sınıfların ve<br />
bu sınıflara ait kontrol alanlarının belirlenmesidir. Belirlenen sınıflara ait kontrol<br />
alanlarından her bir arazi örtüsü çeşidini temsil edecek örnekleme bölgeleri seçilir ve<br />
bu bölgelerin spektral özelliklerini açıklayacak sayısal değerler geliştirir.<br />
Her iki uydu görüntüsü üzerinden yapılan ön çalışmalar neticesinde çalışma<br />
alanında altı temel sınıfın mevcut olduğu belirlenmiştir. Belirlenen bu sınıflar su,<br />
yerleşim, toprak-taş, bozkır, iğne yapraklı orman ve geniş yapraklı orman sınıflarıdır.<br />
Çalışma alanını kapsayan görüntülerin sınıflandırılması işlemi için öncelikle her iki<br />
tarihte arazideki durumu en iyi yansıtacak şekilde belirlenen bu altı sınıfı kapsayan<br />
eğitim alanları tespit edilmiştir. Belirlenen eğitim alanlarını kapsayan görüntü<br />
katmanı yazılan bir MATLAB programı yardımıyla rastgele örnekleme prensibinden
97<br />
hareketle örneklendirilerek eğitim ve test veri setleri oluşturuldu. Eğitim ve test veri<br />
setleri belirlenirken tüm sınıflar için eşit sayıda örnek seçilerek özellikle test verisi<br />
için hesaplanan doğruluk değerlerinde oluşabilecek “önyargı” giderildi. Sonuçta<br />
sınıflandırmada kullanılmak üzere, eğitim için Landsat ETM+ görüntüsü için toplam<br />
3900 piksel (her sınıf için 650 piksel), test verisi olarak 2100 piksel ve Terra Aster<br />
görüntüsü için eğitim verisi olarak toplam 2400 piksel, test verisi olarak toplam 1350<br />
piksel belirlenmiştir.<br />
4.4.3. Uydu Görüntülerinin Sınıflandırılması<br />
Küresel ve çevresel değişimlerin belirlenmesi amacıyla yapılan çalışmalarda<br />
yeryüzüne ait bilg<strong>ileri</strong>n elde edilmesi önemli bir aşamadır. Yersel çalışmaların aksine<br />
uydu görüntüleri ile çalışmak zaman ve maliyet açısından büyük avantajlar<br />
sağlamaktadır [Kavzoğlu ve Çetin, 2005]. Uzaktan algılama sistemlerinin farklı<br />
genişlikteki alanları farklı zamanlarda görüntüleyebilme özelliği, bu sistemleri<br />
yeryüzüne ait bilg<strong>ileri</strong>n elde edilmesinde önemli bir kaynak haline getirmiştir. Bu<br />
nedenle arazi örtüsü veya kullanım şekillerinin belirlenmesi amacıyla yapılan<br />
çalışmalarda uydu görüntülerinin sınıflandırılması önemli bir aşamadır.<br />
Uzaktan algılanmış görüntüler ile arazi örtüsünün haritalanması, her bir<br />
pikselin yansıtma ve parlaklık değerlerini kullanarak bu pikselleri belirli arazi örtüsü<br />
sınıflarından birine atanması işlemini içermektedir [Huang et al., 2002]. Başka bir<br />
ifadeyle, görüntüdeki pikselleri arazide karşılık geldikleri sınıflar veya temalar içine<br />
atamak veya yerleştirmektir. Çeşitli arazi örtülerinin spektral yansıma<br />
karakteristikleri uydu sensörlerinin çeşitli dalga boylarında veri elde etmesi<br />
durumunda arazi örtüsü tipinin belirlenmesinin mümkün olabileceğini göstermiştir<br />
[Richards, 1993]. Görüntü sınıflandırma kullanıcının ilgi duyduğu objeler veya<br />
çeşitli sınıflar ile objelere ait spektral imzalar arasındaki ilişkiyi kurarak görüntüler<br />
üzerinden tematik bilg<strong>ileri</strong>n çıkarıldığı bir görüntü işleme bileşenidir. 1970 yılların<br />
başında ilk Landsat uydu görüntüsünün elde edilmesinden itibaren birçok<br />
sınıflandırma algoritması geliştirilmiş ve sınıflandırmada kullanılmıştır [Townshend,<br />
1992; Hall et al., 1995; Lu and Weng, 2007].
98<br />
Bu çalışmada, kontrollü sınıflandırma algoritmalarından destek vektör<br />
makineleri, karar ağaçları, karar ağaçlarının sınıflandırma performansının<br />
arttırılmasına yönelik olarak kullanılan çeşitli birleştirme algoritmaları, yapay sinir<br />
ağları ve nesne tabanlı sınıflandırma algoritmalarından K-star sınıflandırıcıları<br />
kullanılmıştır.<br />
4.4.3.1. En Çok Benzerlik Yöntemi İle Sınıflandırma<br />
En çok benzerlik yöntemi istatistiksel bir sınıflandırıcı olup literatürde<br />
kullanımı yaygın olan bir sınıflandırma yöntemidir. En çok benzerlik (EÇB)<br />
yöntemiyle sınıflandırma işlemi MATLAB 6.5 yazılımında hazırlanan bir program<br />
ile gerçekleştirilmiştir. Sınıflandırma işleminde Landsat ETM+ ve Terra ASTER<br />
görüntüleri için oluşturulan eğitim setleri ile model oluşturulmuş ve test veri setleri<br />
kullanılarak doğruluk analizi gerçekleştirilmiştir. Sınıflandırma sırasında piksellerin<br />
belirlenen sınıflardan veya bu sınıfların dışında bir sınıftan olduğunun tespiti için<br />
eşik değeri %50 olarak belirlenmiştir. EÇB yöntemiyle yapılan sınıflandırma<br />
sonuçlarının genel doğruluğu Tablo 4.1’den de görüleceği üzere Landsat ETM+<br />
görüntüsü için yaklaşık %87, Terra ASTER uydu görüntüsü için %88 olarak<br />
hesaplanmıştır.<br />
Tablo 4.1. En Çok Benzerlik (EÇB) Yöntemi ile elde edilen sınıflandırma<br />
doğrulukları.<br />
Landsat ETM+<br />
Terra ASTER<br />
Genel Doğruluk (%) Kappa Değeri Genel Doğruluk (%) Kappa Değeri<br />
86.95 0.84 88.00 0.86<br />
Her iki uydu görüntüsünün en çok benzerlik yöntemi ile sınıflandırılması<br />
sonucunda oluşturulan tematik haritalar Şekil 4.2’de gösterilmiştir.
99<br />
(a)<br />
(b)<br />
Şekil 4.2. En çok benzerlik yöntemiyle elde edilen tematik haritalar. (a) Landsat<br />
ETM+ görüntüsü , (b) Terra ASTER görüntüsü.<br />
4.4.3.2. Destek Vektör Makineleri İle Sınıflandırma<br />
Destek vektör makineleri istatistiksel öğrenme prensibine dayalı parametrik<br />
olmayan bir sınıflandırma algoritmasıdır. Uzaktan algılama ver<strong>ileri</strong>nde olduğu gibi<br />
doğrusal olarak ayrılamayan ver<strong>ileri</strong>n sınıflandırılması probleminin çözümünde<br />
destek vektör makineleri kernel fonksiyonları olarak adlandırılan doğrusal olmayan<br />
fonksiyonlar kullanır. Sınıf sayısının ikiden fazla olması durumunda çoklu<br />
sınıflandırma yöntemlerinden yararlanılır. Çoklu sınıflandırma yöntemlerinden en<br />
öneml<strong>ileri</strong> “bire karşı hepsi” ve “bire karşı bir” yöntemleridir [Mathur and Foody,<br />
2008]. Debnath et al., (2004), kullanılan çoklu sınıflandırma yöntemleri arasında bire<br />
karşı bir yönteminin pratik uygulamalarda en uygun yöntem olduğunu ifade<br />
etmişlerdir. DVM’nin eğitimi için kullanılacak kernel fonksiyonun ve kernel<br />
fonksiyonuna ait parametrelerin belirlenmesi son derece önemlidir. DVM ile yapılan<br />
sınıflandırmada karşılaşılan en büyük problem, kullanılacak kernel fonksiyonları için
100<br />
hangi parametre değerlerinin en iyi sonucu vereceğinin bilinmemesidir (Oommen et<br />
al., 2008). Seçilen kernel fonksiyonu ve kernel parametreleri ise sınıflandırılacak veri<br />
setine göre değişiklik göstermektedir (Huang, et al., 2002; Dixon and Candade,<br />
2008).<br />
Bu çalışmada, doğrusal olmayan ve ikiden fazla sınıfı içeren uydu<br />
görüntülerinin sınıflandırılmasında “bire karşı bir” çoklu sınıflandırma yöntemi<br />
kullanılmıştır. DVM ile yapılan sınıflandırılmada polinom, radyal tabanlı ve Pearson<br />
VII kernel fonksiyonları kullanılmıştır. Bu fonksiyonlar için gerekli parametreler<br />
çapraz geçerlilik yöntemi ile eğitim sırasında belirlenmiş ve parametre değerlerindeki<br />
değişimlerin sınıflandırma doğruluğuna etk<strong>ileri</strong> incelenmiştir. Belirlenen optimum<br />
parametrelerle uydu görüntüleri sınıflandırılmış ve elde edilen sınıflandırma<br />
sonuçları analiz edilerek tematik haritalar oluşturulmuştur.<br />
4.4.3.2.1. Polinom Kernel Fonksiyonu ile Sınıflandırma<br />
Polinom kernel kullanımı için önceden belirlenmesi gereken parametreler<br />
polinomun derecesi (d) ve düzenleme parametresidir (C). Çapraz geçerlilik yöntemi<br />
ile bu parametreler Landsat ETM+ ve Terra ASTER görüntüleri için oluşturulan<br />
eğitim ve test ver<strong>ileri</strong> kullanılarak ayrı ayrı belirlenmiştir. Seçilecek düzenleme<br />
parametresine (C) göre sınıflandırma doğruluğunda meydana gelen değişimler<br />
Landsat ETM+ için Şekil 4.3’de ve Terra ASTER için Şekil 4.4’te gösterilmiştir.<br />
Şekil 4.3’den de görüleceği üzere düzenleme parametresinin (C), 850–1000<br />
aralığında alacağı değerler için elde edilen sınıflandırma doğruluğunun yaklaşık<br />
olarak %90 seviyesinde olduğu görülmektedir. Landsat ETM+ görüntüsünün<br />
polinom kernel fonksiyonu kullanılarak sınıflandırılmasında düzenleme parametresi<br />
(C), test verisi için bu aralıkta en yüksek sınıflandırma doğruluğunun elde edildiği<br />
değer olan 890 olarak belirlenmiştir. Terra ASTER uydu görüntüsünün<br />
sınıflandırılmasında Şekil 4.4’den de görüleceği üzere test veri seti için en yüksek<br />
sınıflandırma doğruluğunun elde edildiği 1000 değeri düzenleme parametresi (C)<br />
olarak belirlenmiştir.
101<br />
Sınıflandırma Doğruluğu (%)<br />
91<br />
90<br />
89<br />
88<br />
87<br />
86<br />
85<br />
90,05<br />
10 50 100 250 500 750 850 890 1000 5000<br />
Düzenleme Parametresi (C)<br />
Şekil 4.3. Landsat ETM+ uydu görüntüsü için düzenleme parametresi C’deki<br />
değişimlerin sınıflandırma doğruluğuna etkisi.<br />
92<br />
Sınıflandırma Doğruluğu (%)<br />
91<br />
90<br />
89<br />
88<br />
91,04<br />
10 50 100 250 500 750 1000 5000<br />
Düzenleme Parametresi (C)<br />
Şekil 4.4. Terra ASTER uydu görüntüsü için düzenleme parametresindeki (C)<br />
değişimlerin sınıflandırma doğruluğuna etkisi.<br />
Polinom kernel fonksiyonu ile yapılacak sınıflandırma öncesinde kullanıcı<br />
tarafından belirlenen diğer parametre ise polinomun derecesidir. Literatürde yapılan<br />
çalışmalarda polinom kernelin derecesi arttıkça hesaplama zorluğunun ve hesaplama<br />
zamanının arttığı ifade edilmektedir (Cortes and Vapnik, 1995; Huang et al., 2002).<br />
Her iki uydu görüntüsü için polinom derecesindeki değişimler ve buna karşılık test<br />
verisi için hesaplanan genel sınıflandırma doğrulukları Şekil 4.5 ve 4.6’da ayrı ayrı
102<br />
gösterilmiştir. Şekil 4.5’den polinom derecesinin 1–5 aralığında alacağı değerler ile<br />
test verisi için yaklaşık %90 sınıflandırma doğruluğuna ulaşıldığı görülmektedir. Bu<br />
aralıkta 3. dereceden bir fonksiyon ile en yüksek sınıflandırma doğruluğuna<br />
ulaşılmış, dolayısıyla Landsat ETM+ görüntüsünün sınıflandırılmasında optimum<br />
polinom derecesi 3 olarak belirlenmiştir.<br />
Sınıflandırma Doğruluğu (%)<br />
91<br />
88<br />
85<br />
82<br />
79<br />
76<br />
90,05<br />
1 2 3 4 5 7 9<br />
Polinom Derecesi (d)<br />
Şekil 4.5. Landsat ETM+ uydu görüntüsü için polinom derecesindeki (d)<br />
değişimlerin sınıflandırma doğruluğuna etkisi.<br />
Terra ASTER görüntüsü için bu parametredeki değişimlerin gösterildiği Şekil<br />
4.6 incelendiğinde, 2. ve 3. dereceden bir polinom ile test verisi için yaklaşık %91<br />
sınıflandırma doğruluğuna ulaşılmıştır. Özellikle 2. dereceden bir polinom ile en<br />
yüksek sınıflandırma doğruluğuna ulaşıldığından Terra ASTER uydu görüntüsünün<br />
sınıflandırılması için bu değer tercih edilmiştir.<br />
Sınıflandırma Doğruluğu (%)<br />
92<br />
91<br />
90<br />
89<br />
88<br />
87<br />
91,04<br />
1 2 3 4 5 7 9<br />
Polinom Derecesi<br />
Şekil 4.6. Terra ASTER uydu görüntüsü için polinom derecesindeki (d) değişimlerin<br />
sınıflandırma doğruluğuna etkisi.
103<br />
Her iki uydu görüntüsünün polinom kernel ile sınıflandırılması için gerekli<br />
parametrelerin belirlenmesinin ardından model oluşturulmuş ve sınıflandırma işlemi<br />
gerçekleştirilerek Şekil 4.7’de gösterilen tematik haritalar elde edilmiştir. Genel<br />
sınıflandırma sonuçları Tablo 4.2’den de görüleceği üzere Landsat ETM+ görüntüsü<br />
için %90.05 ve Terra ASTER uydu görüntüsü için %91.04 olarak hesaplanmıştır.<br />
Tablo 4.2. Polinom kernel fonksiyonu için belirlenen en uygun parametre değerleri<br />
ve elde edilen genel sınıflandırma doğrulukları<br />
Landsat ETM+<br />
Terra ASTER<br />
C= 890; d= 3 C= 1000; d= 2<br />
Genel Doğruluk (%) Kappa Değeri Genel Doğruluk (%) Kappa Değeri<br />
90.05 0.88 91.04 0.89<br />
(a)<br />
(b)<br />
Şekil 4.7. Polinom kernel fonksiyonu kullanılarak elde edilen tematik haritalar. (a)<br />
Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.
104<br />
4.4.3.2.2. Radyal Tabanlı Kernel Fonksiyonu ile Sınıflandırma<br />
Radyal tabanlı fonksiyon kerneli kullanımında kullanıcı tarafından belirlenmesi<br />
gereken iki parametre söz konusudur. Bunlardan ilki düzenleme parametresi olarak<br />
ifade edilen C, diğeri ise gama γ parametresidir. Herhangi bir sınıflandırma<br />
probleminde hangi C ve γ değerinin en iyi sonuç vereceği bilinmemektedir. Bu<br />
nedenle en uygun parametrelerin belirlenmesi gerekmektedir. En uygun<br />
parametrelerin belirlenmesiyle amaç en iyi sınıflandırma sonucunu verecek<br />
parametre çiftini (C, γ ) belirlemektir. Radyal tabanlı fonksiyon için gerekli olan bu<br />
parametreler eğitim ve test ver<strong>ileri</strong> kullanılarak çapraz geçerlilik yöntemi ile<br />
belirlenmiştir.<br />
Landsat ETM+ uydu görüntüsünün RTF kernel ile sınıflandırılması için<br />
belirlenmesi gereken düzenleme parametresi C’deki değişimlerin sınıflandırma<br />
doğruluğuna etkisi Şekil 4.8’de gösterilmiştir. Şekilde C değerindeki artışlara karşılık<br />
sınıflandırmaya esas olacak test veri seti için elde edilen genel sınıflandırma<br />
doğruluğunun belirli bir parametreden sonra düşmeye başladığı görülmektedir. Bu<br />
parametre değerlerinden test veri seti için en yüksek genel sınıflandırma doğruluğuna<br />
ulaşılan 75 değeri düzenleme parametresi olarak belirlenmiştir.<br />
92<br />
Sınıflandırma Doğruluğu (%)<br />
91<br />
90<br />
89<br />
88<br />
90,81<br />
1 50 75 100 200 450 1000 5000<br />
Düzenleme Parametresi (C)<br />
Şekil 4.8. Landsat ETM+ uydu görüntüsü için düzenleme parametresi C’deki<br />
değişimlerin sınıflandırma doğruluğuna etkisi.
105<br />
Terra ASTER uydu görüntüsü için düzenleme parametresindeki değişimler ve<br />
bu parametrelere karşılık gelen genel sınıflandırma doğrulukları Şekil 4.9’da<br />
gösterilmiştir. Şekilde düzenleme parametrelerinden 245 değerinde test verisi için en<br />
yüksek genel sınıflandırma doğruluğuna ulaşıldığı görülmektedir.<br />
94<br />
Sınıflandırma Doğruluğu (%)<br />
93<br />
92<br />
91<br />
90<br />
92,81<br />
10 50 100 150 200 245 250 270 350 500 1000 5000<br />
Düzenleme Parametresi (C)<br />
Şekil 4.9. Terra ASTER uydu görüntüsü için düzenleme parametresi C’deki<br />
değişimlerin sınıflandırma doğruluğuna etkisi.<br />
RTF kernel kullanımında düzenleme parametresinin yanında kernel genişliği<br />
olarak ifade edilen gama (γ ) parametresinin de belirlenmesi gereklidir. Her iki uydu<br />
görüntüsü için oluşturulan eğitim ve test veri setleri kullanılarak çapraz geçerlilik<br />
yöntemi ile bu parametreler ve parametre değişimlerinin genel sınıflandırma<br />
doğruluğuna etk<strong>ileri</strong> incelenmiştir.<br />
Landsat ETM+ görüntüsünün RTF kernel ile sınıflandırılmasında seçilecek<br />
gama (γ ) parametreleri ve bu parametrelerin seçilmesi durumunda test veri seti için<br />
elde edilecek genel sınıflandırma doğrulukları Şekil 4.10’da gösterilmiştir. Şekilde<br />
gama parametresindeki artışın test seti için elde edilen sınıflandırma doğruluğunu<br />
%90 seviyelerinde değiştirdiği görülmektedir. Gama parametresi 3 değerini aldığında<br />
en yüksek genel sınıflandırma doğruluğuna ulaşıldığından, RTF kernel ile Landsat<br />
ETM+ görüntüsünün sınıflandırılmasında değer kullanılmıştır.
106<br />
Sınıflandırma Doğruluğu (%)<br />
91,5<br />
91,0<br />
90,5<br />
90,0<br />
89,5<br />
90,81<br />
1 2 3 4 5 7 9<br />
Gamma Parametresi<br />
Şekil 4.10. Landsat ETM+ uydu görüntüsü için gama parametresindeki (γ )<br />
değişimlerin sınıflandırma doğruluğuna etkisi.<br />
RTF kernel ile sınıflandırılacak diğer uydu görüntüsü içinde bu parametrenin<br />
belirlenmesi gerekmektedir. Bu amaçla Terra ASTER görüntüsü için hazırlanan<br />
eğitim ve test ver<strong>ileri</strong> kullanılarak, RTF kernel için en uygun gama (γ ) parametresi<br />
belirlenmiştir. Şekil 4.11’den görüleceği üzere özellikle gama parametresi 1<br />
olduğunda test veri seti için en yüksek sınıflandırma doğruluğunun elde edildiği<br />
görülmektedir. Şekilde, gama parametresinin aldığı yüksek değerlerin genel<br />
sınıflandırma doğruluğunda düşüşlere neden olduğu görülmektedir.<br />
94<br />
Sınıflandırma Doğruluğu (%)<br />
93<br />
92<br />
91<br />
90<br />
89<br />
92,81<br />
0,5 1,0 1,5 2,0 3,0 5,0 7,0 9,0<br />
Gamma Parametresi<br />
Şekil 4.11. Terra ASTER uydu görüntüsü için gama parametresindeki (γ )<br />
değişimlerin sınıflandırma doğruluğuna etkisi.
107<br />
RTF kernel ile sınıflandırma işlemi için en uygun parametrelerin<br />
belirlenmesinin ardından her iki veri seti için modeller oluşturulmuş ve görüntülerin<br />
sınıflandırılması işlemi tamamlanmıştır. Her iki görüntü için belirlenen optimum<br />
RTF kernel parametreleri ve elde edilen genel sınıflandırma doğrulukları Tablo<br />
4.3’de gösterilmiştir. Sınıflandırma sonucu oluşturulan her iki görüntüye ait tematik<br />
haritalar ise Şekil 4.12’de gösterilmiştir.<br />
Tablo 4.3. Radyal Tabanlı Fonksiyon Kerneli için belirlenen en uygun parametre<br />
değerleri ve elde edilen genel sınıflandırma doğrulukları.<br />
Landsat ETM+<br />
Terra ASTER<br />
C= 75; γ = 3 C= 245; γ = 1<br />
Genel Doğruluk (%) Kappa Değeri Genel Doğruluk (%) Kappa Değeri<br />
90.81 0.89 92.81 0.91<br />
(a)<br />
(b)<br />
Şekil 4.12. Radyal Tabanlı kernel fonksiyonu kullanılarak elde edilen tematik<br />
haritalar. (a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.
108<br />
4.4.3.2.3. Pearson VII Fonksiyonu ile Sınıflandırma<br />
Karl Pearson (1985) tarafından geliştirilmiş olan Pearson VII fonksiyonu<br />
(PUK) ilk olarak X-ray ışınlarındaki dağılmaları belirlemek için kullanılmıştır. Üstün<br />
et al., (2006) bu fonksiyonu genelleştirerek kernel fonksiyonu olarak kullanımını<br />
ortaya koymuşlardır. Bu fonksyon ile yapılacak sınıflandırma öncesinde kullanıcı<br />
tarafından belirlenmesi gereken üç parametre vardır. Bu parametreler; düzenleme<br />
parametresi (C), Pearson genişliği olarak ifade edilen omega (ω ) ve sigma (σ )<br />
parametreleridir. Bu parametrelerden omega (ω ) parametresinin 0.25–0.75 değer<br />
aralığında doğrusal fonksiyon; 0.5 değeri için RTF kernel veya yüksek dereceli<br />
polinom kerneli gibi davranış sergilediğini, bunu yanında 1 değerini için Gauss ve<br />
Lorentzian tepe noktasına ulaştığı ifade edilmektedir. Üstün et al. (2006) yapılan<br />
çalışmada, sigma (σ ) parametresindeki artışların omega parametresinde azalmaya<br />
neden olacağını dolayısıyla doğrusal fonksiyondan radyal tabanlı fonksiyona doğru<br />
bir geçiş söz konusu olacağını ifade etmişlerdir. Yine aynı çalışmada omega (ω )<br />
parametresinin sonuç model üzerindeki etkisinin daha az olduğu ifade edilmiştir.<br />
Çalışmada Pearson VII fonksiyonu (PUK) ile her iki görüntünün<br />
sınıflandırılmasından önce kullanıcı tarafından belirlenmesi gereken bu üç parametre<br />
( C ,ω, σ ) eğitim ve test ver<strong>ileri</strong> kullanılarak çapraz geçerlilik yöntemiyle<br />
belirlenmiştir. Landsat ETM+ görüntüsü için eğitim ve test ver<strong>ileri</strong> ile yapılan çapraz<br />
geçerlilik sonucundan omega (ω ) ve sigma (σ ) parametreleri için 1 değerinin en<br />
uygun sonuçları verdiği görülmüştür. Düzenleme parametreleri (C) ve bunlara<br />
karşılık genel sınıflandırma doğrulukları Şekil 4.13’da gösterilmiştir. Şekilde farklı<br />
parametre değerleri ile test verisi için %89–91 aralığında genel sınıflandırma<br />
doğruluğuna ulaşıldığı görülmektedir. Düzenleme parametrelerinden 245 değeri ile<br />
en yüksek genel sınıflandırma doğruluğuna ulaşıldığından model oluşumunda bu<br />
değer kullanılmıştır.
109<br />
92,0<br />
)<br />
Sınıflandırma Doğruluğu (%<br />
91,0<br />
90,0<br />
89,0<br />
90,90<br />
10 100 200 245 400 600 1000 5000<br />
Düzenleme Parametresi (C)<br />
Şekil 4.13. Landsat ETM+ uydu görüntüsü için düzenleme parametresindeki<br />
(C) değişimlerin sınıflandırma doğruluğuna etkisi.<br />
Terra ASTER görüntüsünün PUK fonksiyonu ile sınıflandırılması için gerekli<br />
parametrelerden sigma (σ ) için 0.6 ve omega için (ω ) 1 değerinin en uygun<br />
parametreler olduğu eğitim ve test ver<strong>ileri</strong>yle belirlenmiştir. Düzenleme<br />
parametresinin (C) alacağı farklı değerler için değişik genel sınıflandırma<br />
doğrulukları elde edilmiştir. Bu değişimlerin gösterildiği Şekil 4.14’de düzenleme<br />
parametresinin 35 değeri için en yüksek genel sınıflandırma doğruluğunun elde<br />
edildiği görülmektedir.<br />
93<br />
Sınıflandırma Doğruluğu (%<br />
)<br />
92<br />
91<br />
90<br />
92,15<br />
10 35 70 150 300 750 5000<br />
Düzenleme Parametresi (C)<br />
Şekil 4.14. Terra ASTER uydu görüntüsü için düzenleme parametresindeki (C)<br />
değişimlerin sınıflandırma doğruluğuna etkisi.
110<br />
Pearson VII fonksiyonu için en uygun parametreler ayrı ayrı belirlendikten<br />
sonra her iki uydu görüntüsü için modeller oluşturulmuş ve sınıflandırma işlemi<br />
gerçekleştirilmiştir. En uygun parametreler ve bu parametrelerin kullanımı ile elde<br />
edilen genel sınıflandırma doğrulukları Tablo 4.4’te gösterilmiştir.<br />
Tablo 4.4. Pearson VII fonksiyonu için belirlenen en uygun parametre değerleri ve<br />
elde edilen genel sınıflandırma doğrulukları.<br />
Landsat ETM+<br />
Terra ASTER<br />
C= 245;ω = 1; σ = 1 C= 35;ω = 1; σ = 0.6<br />
Genel Doğruluk (%) Kappa Değeri Genel Doğruluk (%) Kappa Değeri<br />
90.90 0.89 92.15 0.90<br />
Her iki görüntünün PUK fonksiyonu kullanılarak sınıflandırılmasında en uygun<br />
parametre değerleri ile oluşturulan modellerin tüm görüntüye uygulanması<br />
sonucunda elde edilen tematik haritalar Şekil 4.15’te gösterilmiştir.<br />
(a)<br />
(b)<br />
Şekil 4.15. PUK fonksiyonu kullanılarak elde edilen tematik haritalar. (a) Landsat<br />
ETM+ görüntüsü, (b) Terra ASTER görüntüsü.
111<br />
4.4.3.3. Karar Ağaçları İle Sınıflandırma<br />
Ağaç yapılarının oluşturulmasında kullanılan kuralların anlaşılabilir ve sade<br />
olması, karar ağacı sınıflandırma yönteminin yaygın olarak kullanılmasını<br />
sağlamıştır. Yöntem çok karışık bir sınıflandırma problemini çok aşamalı bir hale<br />
getirerek basit bir karar verme işlemi gerçekleştirir [Safavian and Landgrebe, 1991].<br />
4.4.3.3.1. C4.5 Karar Ağacı Algoritması ile Sınıflandırma<br />
Ağaç oluşumunun her bir aşamasında kullanılan değişkenlerin sayısına bağlı<br />
olarak tek değişkenli veya çok değişkenli karar ağacı yapıları mevcuttur [Friedl and<br />
Brodley, 1997]. Tek değişkenli karar ağaçları genellikle arazi örtüsü<br />
sınıflandırmalarında kullanılan ağaç yapılarıdır [DeFries et al. 1998, Hansen et al.<br />
2000]. Tek değişkenli karar ağaçlarından bölünme bilgisi kavramı ile bilgi<br />
kazancından yararlanarak hesaplanan kazanç oranı yaklaşımını kullanan C4.5<br />
gelişmiş bir karar ağacı oluşturma algoritmasıdır [Quinlan, 1993]. C4.5 algoritması<br />
ile karar ağaçlarının oluşturulmasındaki en önemli adım ağaçtaki dallanmanın hangi<br />
kritere veya kıstasa göre yapılacağı ya da hangi öznitelik değerlerine göre ağaç<br />
yapısının oluşturulacağıdır.<br />
Karar ağacı oluşturulmasında diğer önemli bir husus oluşturulan ağacın<br />
budanması işlemidir [Özkan, 2008; Pal, 2002]. Budama ile karar ağacının<br />
sınıflandırma doğruluğunu etkilemeyen veya katkısı olmayan kısımlarının<br />
çıkarılması işlemi gerçekleştirilir. Böylece daha az karmaşık ve daha anlaşılabilir bir<br />
ağaç elde edilir. Daha basit bir ağaç oluşturulması için karar ağacı sınıflandırıcısının<br />
düzenlenmesinde kullanılan iki yöntem vardır [Breiman et al., 1984; Mingers, 1989].<br />
Bunlardan ilki eğitim setinin daha <strong>ileri</strong>ye bölünüp bölünmemesine karar verilen ön<br />
budama, diğeri ağaç yapısının budama yapılmaksızın oluşturulduğu daha sonra<br />
budamaların yapıldığı son budama yöntemleridir. C4.5 algoritmasının kullandığı ön<br />
budama yöntemi daha az hesaplama içermesi, veri setinin ayrılması için en iyi yolu<br />
araştırması gibi önemli avantajlara sahiptir [Breiman et al., 1984].
112<br />
Çalışmada, Landsat ETM+ ve Terra ASTER uydu görüntülerinin karar ağacı<br />
sınıflandırma yöntemi ile sınıflandırılması işlemi tek değişkenli karar ağacı<br />
algoritmalarından C4.5 ile gerçekleştirilmiştir. Karar ağacının oluşumunda<br />
dallanmaya esas olacak özniteliklerin seçiminde kazanç oranı kriteri hesaplamalarda<br />
kullanılmıştır. Karar ağaçları ilk önce budama işlemine tabi tutulmadan oluşturulmuş<br />
ve elde edilen modellerin genelleştirme kabiliyeti her iki görüntü için test edilmiştir.<br />
Her iki veri seti için oluşan ağaç yapılarına ait bilgiler ve elde edilen genel<br />
sınıflandırma doğrulukları Tablo 4.5’te gösterilmiştir. Tablodan da görüldüğü üzere<br />
budama yapılmadan oluşturulan 324 yaprak ve 627 daldan oluşan KA modeli ile<br />
birlikte Landsat ETM+ görüntüsü için genel sınıflandırma doğruluğu yaklaşık %87<br />
olarak hesaplanmıştır. Aynı şekilde budama yapılmaksızın 289 yaprak ve 577 daldan<br />
oluşan KA modeli ile birlikte Terra ASTER görüntüsü için genel sınıflandırma<br />
doğruluğu yaklaşık %88 olarak hesaplanmıştır.<br />
Tablo 4.5. Landsat ETM+ ve Terra ASTER görüntülerin budama yapılmaksızın<br />
oluşturulan karar ağaçları ile sınıflandırılması ile elde edilen sonuçlar.<br />
Landsat ETM+ Terra ASTER<br />
Ağaçtaki Yaprak Sayısı 324 289<br />
Ağaçtaki Dal Sayısı 627 577<br />
Genel Sınıflandırma Doğruluğu (%) 87.14 87.55<br />
Kappa 0.84 0.85<br />
Budama yapılmaksızın oluşturulan karar ağacı modellerinin sadeleştirilmesi ve<br />
elde edilen genel sınıflandırma doğruluğunun arttırılması amacıyla ön budama<br />
yöntemi ve budama sırasındaki hataların tahmini için karamsar budama tekniğinden<br />
yararlanılmıştır. Ön budama yöntemi ile gerçekleştirilecek sınıflandırma öncesinde<br />
eşik değeri parametresinin belirlenmesi gerekmektedir. Eşik değeri, budama<br />
sırasında ulaşılan bir noktadan daha <strong>ileri</strong>ye ayrım yapılıp yapılmayacağının<br />
değerlendirilmesi için kullanılır. Bu değerlendirmede ulaşılan noktada elde edilen<br />
hata bu eşik değerinin altına düştüğünde bölünme kabul edilmez ve ulaşılan bu<br />
noktanın veri için en uygun yaprak olduğuna karar verilir (Breiman et al., 1984).<br />
Landsat ETM+ görüntüsü için oluşturulan KA modelinde eşik değeri 0.10, Terra<br />
ASTER görüntüsü için oluşturulan KA modelinde eşik değeri 0.45 olarak
113<br />
belirlenmiştir. Her iki veri seti için oluşturulan KA modellerine ait bilgiler ve elde<br />
edilen genel sınıflandırma doğrulukları Tablo 4.6’da gösterilmiştir. Budama<br />
sonucunda oluşan modeller ile yapılan sınıflandırma sonucunda Landsat ETM+<br />
görüntüsü için genel sınıflandırma doğruluğu %87.62 ve Terra ASTER görüntüsü<br />
için %87.95 olarak hesaplanmıştır.<br />
Tablo 4.6. Landsat ETM+ ve Terra ASTER görüntülerin ön budama yöntemiyle<br />
oluşturulan karar ağaçları ile sınıflandırılması ile elde edilen sonuçlar.<br />
Landsat ETM+ Terra ASTER<br />
Ağaçtaki Yaprak Sayısı 138 257<br />
Ağaçtaki Dal Sayısı 275 513<br />
Genel Sınıflandırma Doğruluğu (%) 87.62 87.95<br />
Kapa 0.84 0.85<br />
Landsat ETM+ görüntüsü için budama öncesi ve sonrası oluşan ağaç modelleri<br />
Şekil 4.16’de görülmektedir. Bu iki ağaç modeli karşılaştırıldığında Tablo 4.5 ve<br />
4.6’da görüldüğü üzere özellikle Landsat ETM+ görüntüsü için budama sonrasında<br />
oluşan KA modelindeki yaprak sayısında yaklaşık %58, dal sayısında ise %56’lık bir<br />
azalma görülmektedir. Buna karşılık genel sınıflandırma doğruluğunda yaklaşık<br />
%0.6’lık bir artış görülmektedir. Her iki tablo incelendiğinde Terra ASTER<br />
görüntüsü için budama yapılarak oluşturulan KA modelindeki yaprak ve dal<br />
sayısında yaklaşık olarak %11’lik bir azalma görülürken, genel sınıflandırma<br />
doğruluğunda %0.5’lik bir iyileşme olduğu görülmektedir. Şekil 4.16 (a)’da<br />
görüleceği üzere C4.5 algoritması ile oluşturulan ağaç yapısı, budama işlemi<br />
sonrasında Şekil 4.16(b)’de gösterilen daha basit ve sadeleşmiş bir ağaç yapısı halini<br />
almıştır. Budama sonucu elde edilen modelle yapılacak eğitim için gereken zaman<br />
azalırken, oluşturulan ağaç yapısının testi sonucunda elde edilen sınıflandırma<br />
doğruluğunda yaklaşık %1’lik bir iyileşme gözlemlenmiştir. Budanmış C4.5<br />
algoritması ile elde edilen modeller kullanılarak Landsat ETM+ ve Terra ASTER<br />
uydu görüntüleri sınıflandırılarak Şekil 4.17’de gösterilen tematik haritalar<br />
oluşturulmuştur.
114<br />
(a)<br />
(b)<br />
Şekil 4.16. Landsat ETM+ görüntüsünün sınıflandırılması için (a) budama öncesi, (b)<br />
budama sonrası oluşturulan modeller.<br />
(a)<br />
(b)<br />
Şekil 4.17. C4.5 algoritması ve ön budama yöntemiyle oluşturulan tematik haritalar.<br />
(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.
115<br />
4.4.3.3.2. Karar Ağacı İyileştirme Algoritmaları ile<br />
Sınıflandırma<br />
Karar ağacı oluşturulmasında kullanılan C4.5 algoritmasının performansını<br />
arttırmaya yönelik olarak hızlandırma, torbalama, çoklu hızlandırma, rastgele orman<br />
ve DECORATE iyileştirme algoritmaları kullanılmıştır. Her bir iyileştirme<br />
yönteminde C4.5 algoritması temel sınıflandırıcı olarak kullanılmış ve Landsat<br />
ETM+ ve Terra ASTER uydu görüntüleri için oluşturulan eğitim ve test ver<strong>ileri</strong><br />
kullanılarak her bir algoritma için modeller oluşturulmuştur.<br />
4.4.3.3.2.1. Hızlandırma Algoritması İle Sınıflandırma<br />
Literatürde hızlandırma algoritmalarından en çok kullanılanı Adaboost<br />
algoritmasıdır [Freund and Schapire, 1996]. Bu algoritma birleşmeye esas olan<br />
sınıflandırıcıların ağırlıklı örnekleri kullanabileceğini kabul etmektedir. Adaboost<br />
algoritması kullanımında önceden belirlenmesi gereken en önemli parametre<br />
gerçekleştirilecek iterasyon sayısıdır. Şekil 4.18 ve 4.19’te Landsat ETM+ ve Terra<br />
ASTER görüntüleri için oluşturulacak modellerde seçilecek farklı iterasyon sayıları<br />
ve test verisi için elde edilen genel sınıflandırma doğrulukları gösterilmiştir. Landsat<br />
ETM+ görüntüsü için eğitim ve test ver<strong>ileri</strong> kullanılarak en uygun iterasyon sayısı 60<br />
olarak belirlenmiş ve oluşturulan modelin test verisine uygulanması ile yaklaşık %90<br />
sınıflandırma doğruluğuna ulaşılmıştır.<br />
Sınıflandırma Doğruluğu (%)<br />
90,0<br />
89,5<br />
89,0<br />
88,5<br />
88,0<br />
89,6<br />
10 20 30 40 50 60 65 70 80 90 100<br />
İterasyon Sayısı<br />
Şekil 4.18. Landsat ETM+ için oluşturulacak modelde seçilecek iterasyon sayısı ve<br />
elde edilen sınıflandırma doğrulukları.
116<br />
Şekil 4.19 incelendiğinde Terra ASTER uydu görüntüsü için iterasyon sayısının<br />
70 seçilmesi ile elde edilen genel sınıflandırma doğruluğunun %92 olduğu<br />
görülmektedir. Optimum parametrelerle oluşturulan modeller kullanılarak uydu<br />
görüntüleri sınıflandırılmış ve tematik haritalar oluşturulmuştur (Şekil 4.20).<br />
Sınıflandırma Doğruluğu (%)<br />
93<br />
92<br />
91<br />
90<br />
89<br />
10 20 30 40 50 60 70 80 90 100<br />
İterasyon Sayısı<br />
92<br />
Şekil 4.19. Terra ASTER için oluşturulacak modelde seçilecek iterasyon sayısı ve<br />
elde edilen sınıflandırma doğrulukları.<br />
(a)<br />
(b)<br />
Şekil 4.20. Hızlandırma Algoritması ile elde edilen tematik haritalar. (a) Landsat<br />
ETM+ görüntüsü, (b) Terra ASTER görüntüsü.
117<br />
4.4.3.3.2.2. Torbalama Algoritması İle Sınıflandırma<br />
İyileştirme algoritmalarından sınıflandırıcıların birleştirilmesi amacıyla<br />
geliştirilen diğer bir yöntem torbalama yöntemidir. Bu yöntem eğitim setinin rastgele<br />
bir şekilde yeniden oluşturulması ile ayrı ayrı her bir sınıflandırıcının eğitiminin<br />
gerçekleştirilmesi esasına dayanmaktadır. Torbalama algoritması ile oluşturulacak<br />
modelde kullanıcı tarafından belirlenen iki parametre vardır. Bunlar torba boyutu ve<br />
gerçekleştirilecek iterasyon sayısıdır. Bu parametrelerden torba boyutu her iki veri<br />
seti içinde 100 olarak belirlenmiştir. Kullanıcı tarafından belirlenen iterasyon sayısı<br />
her iki veri seti için farklı değerler almıştır. Landsat ETM+ görüntüsü için<br />
oluşturulacak modelde seçilecek iterasyon sayıları ve bu değerlere karşılık gelen<br />
sınıflandırma doğrulukları Şekil 4.21’te gösterilmiştir. Şekilde iterasyon sayısının<br />
50–70 aralığında seçilmesi durumunda yaklaşık %89 genel sınıflandırma<br />
doğruluğuna ulaşıldığı görülmektedir. Landsat ETM+ görüntüsünün sınıflandırılması<br />
için oluşturulacak model için iterasyon sayısı olarak bu aralıkta en yüksek<br />
sınıflandırma doğruluğuna (%89.10) ulaşılan 65 değeri kullanılmıştır.<br />
Sınıflandırma Doğruluğu (%)<br />
90,0<br />
89,5<br />
89,0<br />
88,5<br />
88,0<br />
89,10<br />
10 20 30 40 50 60 65 70 80 90 100<br />
İterasyon Sayısı<br />
Şekil 4.21. Landsat ETM+ için oluşturulacak modelde seçilecek iterasyon sayısı ve<br />
elde edilen sınıflandırma doğrulukları.<br />
Aynı şekilde, Terra ASTER görüntüsü için iterasyon sayısı eğitim ve test<br />
ver<strong>ileri</strong> ile kullanılarak belirlenmiş ve iterasyon sayısındaki değişimlere karşılık elde<br />
edilen genel sınıflandırma doğrulukları Şekil 4.22’de gösterilmiştir. Şekil
118<br />
incelendiğinde iterasyon sayısının 70 olarak seçilmesiyle en yüksek genel<br />
sınıflandırma doğruluğuna (%89.70) ulaşıldığı görülmektedir. Belirlenen optimum<br />
parametrelerle modeller oluşturularak her iki görüntü sınıflandırılmış ve Şekil<br />
4.23’de gösterilen tematik haritalar elde edilmiştir.<br />
Sınıflandırma Doğruluğu (%)<br />
90,0<br />
89,5<br />
89,0<br />
88,5<br />
88,0<br />
89,7<br />
10 20 30 40 50 60 70 80 90 100<br />
İterasyon Sayısı<br />
Şekil 4.22. Terra ASTER için oluşturulacak modelde seçilecek iterasyon sayısı ve<br />
elde edilen sınıflandırma doğrulukları.<br />
(a)<br />
(b)<br />
Şekil 4.23. Torbalama yöntemiyle elde edilen tematik haritalar. (a) Landsat ETM+<br />
görüntüsü, (b) Terra ASTER görüntüsü.
119<br />
4.4.3.3.2.3. Çoklu Hızlandırma Algoritması İle Sınıflandırma<br />
Çoklu hızlandırma algoritması hızlandırma ve torbalama algoritmalarının<br />
belirli özelliklerinin bir algoritmada toplanarak daha güçlü bir iyileştirme yöntemi<br />
oluşturulması esasına dayanmaktadır. Bu nedenle çoklu hızlandırma algoritması<br />
hızlandırma ve torbalama algoritmalarının birleşimi gibi düşünülebilir. Bu algoritma<br />
ile oluşturulacak modelde kullanıcı tarafından belirlenen üç parametre mevcuttur. Bu<br />
parametreler ağırlıklı eşik değeri, alt komitelerin sayısı ve gerçekleştirilecek<br />
iterasyon sayısıdır. Bu parametrelerden ağırlıklı eşik değeri her iki veri seti içinde<br />
100 olarak belirlenmiştir. Kullanıcı tarafından belirlenen iterasyon sayısı ve alt<br />
komite sayısı her iki veri seti için farklı değerler almıştır. Landsat ETM+<br />
görüntüsünün çoklu hızlandırma algoritması ile sınıflandırılmasında kullanılacak<br />
model için alt komite sayısındaki değişimler ve bu parametre değerlerine karşılık<br />
gelen sınıflandırma doğrulukları Şekil 4.24’te gösterilmektedir. Bu parametre<br />
değerlerinden en yüksek sınıflandırma doğruluğuna ulaşılan 3 alt komite sayısı<br />
model oluşumunda kullanılmıştır.<br />
Sınıflandırma Doğruluğu (%)<br />
91,0<br />
90,5<br />
90,0<br />
89,5<br />
89,0<br />
88,5<br />
88,0<br />
89,9<br />
1 2 3 4 5 6 7 8 9 10 20 50<br />
Alt Komite Sayısı<br />
Şekil 4.24. Landsat ETM+ için alt komitelerin sayısı ve sınıflandırma doğrulukları.<br />
Çoklu hızlandırma algoritması ile oluşturulacak model için kullanıcı tarafından<br />
belirlenmesi gereken iterasyon sayısı Landsat ETM+ için oluşturulan eğitim ve test<br />
ver<strong>ileri</strong> kullanılarak belirlenmiştir. Şekil 4.25’de iterasyon sayısındaki değişimler ve<br />
bu değişimlere karşılık hesaplanan genel sınıflandırma doğrulukları görülmektedir.
120<br />
Bu parametre değerleri arasında Landsat ETM+ görüntüsünün sınıflandırılması için<br />
çoklu hızlandırma yöntemi ile oluşturulacak modelde kullanılmak üzere en yüksek<br />
sınıflandırma doğruluğunun elde edildiği 36 değeri kullanılmıştır.<br />
Sınıflandırma Doğruluğu (%)<br />
90,50<br />
90,00<br />
89,50<br />
89,00<br />
88,50<br />
89,90<br />
10 20 30 35 36 37 40 50 60 70 80 100<br />
İterasyon Sayısı<br />
Şekil 4.25. Landsat ETM+ için iterasyon sayısı ve sınıflandırma doğrulukları.<br />
93<br />
Sınıflandırma Doğruluğu (%)<br />
92<br />
91<br />
90<br />
89<br />
92,07<br />
1 2 3 4 5 6 7 8 9 10 20 50<br />
Alt Komitelerin Sayısı<br />
Şekil 4.26. Terra ASTER için oluşturulacak modelde seçilecek alt komitelerin sayısı<br />
ve elde edilen sınıflandırma doğrulukları.<br />
Şekil 4.26’da Terra ASTER görüntüsü için oluşturulacak modelde kullanılmak<br />
üzere seçilecek alt komite sayısı ve bu değerlere karşılık gelen sınıflandırma<br />
doğrulukları gösterilmektedir. Şekilde 1–10 aralığında seçilecek parametre
121<br />
değerleriyle yaklaşık %91’in üzerinde genel sınıflandırma doğruluğuna ulaşılacağı<br />
görülmektedir. Bu değerler arasında alt komite sayısı 9 değerini aldığında en yüksek<br />
sınıflandırma doğruluğuna (%92.07) ulaşılmıştır.<br />
Bunun yanında iterasyon sayısındaki ve bu değerlere karşılık elde edilen genel<br />
sınıflandırma doğruluğundaki değişimler Şekil 4.27’de gösterilmiştir. Şekilden de<br />
görüleceği üzere Terra ASTER görüntüsünün sınıflandırılması için oluşturulacak<br />
modelde iterasyon sayısı en yüksek sınıflandırma doğruluğuna ulaşılan değer olan 87<br />
olarak belirlenmiştir.<br />
93<br />
Sınıflandırma Doğruluğu (%)<br />
92<br />
91<br />
90<br />
89<br />
88<br />
92,07<br />
10 20 30 40 50 60 70 80 87 90 100<br />
İterasyon Sayısı<br />
Şekil 4.27. Terra ASTER için oluşturulacak modelde seçilecek iterasyon sayısı ve<br />
elde edilen sınıflandırma doğrulukları.<br />
Belirlenen en uygun parametrelerle kullanılarak modeller oluşturulmuş ve her<br />
iki görüntünün sınıflandırılması yapılarak Şekil 4.28’de gösterilen tematik haritalar<br />
elde edilmiştir.
122<br />
(a)<br />
(b)<br />
Şekil 4.28. Çoklu hızlandırma algoritması ile elde edilen tematik haritalar. (a)<br />
Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />
4.4.3.3.2.4. Rastgele Orman Algoritması İle Sınıflandırma<br />
Rastgele orman algoritması birçok karar ağacından meydana gelen ve<br />
torbalama yöntemiyle rastgele özellik seçiminin birleşimi olarak ifade edilen bir<br />
sınıflandırma algoritmasıdır. Rastgele orman algoritmasında ağaç oluşumu için her<br />
bir düğümde kullanılan özelliklerin sayısı ve ağaç sayısı kullanıcı tarafından<br />
belirlenmesi gereken parametrelerdir. Her bir düğümde en iyi bölünme için yalnızca<br />
seçilen özellikler araştırılır. Bu nedenle rastgele orman sınıflandırıcısı kullanıcı<br />
tarafından belirlenen N sayıda ağaçtan oluşmaktadır. Rastgele orman sınıflandırıcısı<br />
için kullanıcı tarafından belirlenmesi gereken parametreler için eğitim ve test ver<strong>ileri</strong><br />
kullanılarak denemeler gerçekleştirilmiştir. Landsat ETM+ görüntüsü için<br />
özelliklerin sayısına göre ve ağaç sayısına göre elde edilen genel sınıflandırma<br />
doğrulukları Şekil 4.29 ve 4.30’de gösterilmiştir. Her iki şekilden de görüleceği<br />
üzere Landsat ETM+ için rastgele orman algoritması ile oluşturulacak modelde her<br />
bir düğümdeki özellik sayısı 3 ve ağaç sayısı 58 olarak belirlenmiştir. Bu parametre
123<br />
değerleri ile oluşturulan modelin test edilmesi sonucunda elde edilen genel<br />
sınıflandırma doğruluğu %89.10 olarak hesaplanmıştır.<br />
Sınıflandırma Doğruluğu (%)<br />
89,50<br />
89,00<br />
88,50<br />
88,00<br />
89,29<br />
88,95 89,04 89,00<br />
88,80 88,85 88,89 88,82<br />
88,76 88,70<br />
1 2 3 4 5 6 7 8 9 10<br />
Özellik Sayısı<br />
Şekil 4.29. Landsat ETM+ görüntüsü için çeşitli sayıdaki özellikler ile genel<br />
sınıflandırma doğruluğundaki değişimler.<br />
90<br />
Sınıflandırma Doğruluğu (%)<br />
88<br />
86<br />
84<br />
82<br />
89,3<br />
1 5 20 40 55 60 80 100 500<br />
Ağaç Sayısı<br />
Şekil 4.30. Landsat ETM+ görüntüsü için üç özellik kullanılarak oluşturulacak ağaç<br />
sayıları ile genel sınıflandırma doğruluğundaki değişimler.<br />
Rastgele orman algoritması kullanılarak Terra ASTER görüntüsünün<br />
sınıflandırılması için oluşturulacak model için de eğitim ve test ver<strong>ileri</strong> kullanılarak<br />
en uygun ağaç sayısı ve her bir düğümdeki özellik sayısı parametreleri belirlenmiştir.<br />
Şekil 4.31 Terra ASTER için oluşturulacak model için seçilecek özellik sayılarını ve
124<br />
bunlara karşılık elde edilecek genel sınıflandırma doğruluklarını göstermektedir.<br />
Şekilden bu veri seti için her bir düğümde 2 özellik seçilmesi durumunda<br />
oluşturulacak modelin test verisine uygulanması ile en yüksek sınıflandırma<br />
doğruluğuna (%91.19) ulaşıldığı görülmektedir.<br />
Sınıflandırma Doğruluğu (%)<br />
92<br />
91<br />
91<br />
90<br />
90<br />
89<br />
89<br />
91,19 91,11<br />
90,81<br />
90,67<br />
90,52<br />
89,93<br />
89,78<br />
89,41 89,48 89,48<br />
1 2 3 4 5 6 7 8 9 10<br />
Özellik Sayıları<br />
Şekil 4.31. Terra ASTER görüntüsü için çeşitli sayıdaki özellikler ile genel<br />
sınıflandırma doğruluğundaki değişimler.<br />
Aynı şekilde her bir düğümde iki özellik olması durumunda ağaç sayısındaki<br />
değişimler ve buna karşılık elde edilen genel sınıflandırma doğrulukları Şekil 4.32’de<br />
gösterilmiştir. Şekilden Terra ASTER görüntüsü için oluşturulacak rastgele orman<br />
modelde ağaç sayısını ifade eden parametrenin 82 seçilmesi durumunda en yüksek<br />
sınıflandırma doğruluğu olan %91.2 değerine ulaşıldığı görülmektedir.<br />
94<br />
Sınıflandırma Doğruluğu (%)<br />
92<br />
90<br />
88<br />
86<br />
84<br />
82<br />
91,2<br />
1 5 20 40 60 80 85 100 500<br />
Ağaç Sayısı<br />
Şekil 4.32. Terra ASTER görüntüsü için her bir düğümde iki özellik ile oluşturulacak<br />
ağaç sayıları ve genel sınıflandırma doğruluğundaki değişimler.
125<br />
Rastgele orman algoritması ile yapılacak sınıflandırma öncesinde her iki veri<br />
seti için en uygun parametre değerleri belirlenmesinin ardından modeller<br />
oluşturulmuş ve her iki görüntü bu modellerle sınıflandırılarak Şekil 4.33’te<br />
gösterilen tematik haritalar elde edilmiştir.<br />
(a)<br />
(b)<br />
Şekil 4.33. Rastgele orman algoritması ile elde edilen tematik haritalar. (a) Landsat<br />
ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />
4.4.3.3.2.5. DECORATE Algoritması İle Sınıflandırma<br />
DECORATE algoritmasında ilk önce sınıflandırıcının eğitim işlemi<br />
tamamlandığı ve sonra eğitim işlemi tamamlanan sınıflandırıcının birleştirmeye dahil<br />
edildiği iteratif bir yöntemdir. Her bir iterasyonda sınıflandırıcılar bir takım yapay<br />
verilerle birleştirilmiş orijinal eğitim verisi ile eğitilirler. Yapay olarak elde edilen<br />
eğitim örneklerine ait öznitelik bilg<strong>ileri</strong> ya da etiketler birleştirilme tahminlerinden<br />
oluşturulur. Bu algoritma ile oluşturulacak model için kullanıcı tarafından<br />
belirlenmesi gereken üç parametre mevcuttur. Bunlardan ilki algoritma tarafından
126<br />
gerçekleştirilecek iterasyon sayısıdır. Her bir iterasyonda bir sınıflandırıcı<br />
oluşturulur; ancak bu sınıflandırıcının birleşime dahil edilip edilmeyeceğine<br />
sonradan karar verilir. DECORATE algoritması gerekli birleşme boyutuna<br />
ulaştığında durur. Bu parametre aday sınıflandırıcıların sayısından büyük olmalıdır.<br />
İkinci parametre eğitim sırasında kullanılan yapay örneklerin sayısını gösteren yapay<br />
boyuttur. Bu parametre eğitim ver<strong>ileri</strong>nin bir oranı olarak belirlenir. Üçüncü<br />
parametre ise DECORATE birleştirme algoritmasına dahil edilecek aday<br />
sınıflandırıcıların sayısı olarak ifade edilen beklenen boyuttur. Algoritma önceden<br />
belirlenen bu aday sayısına ulaşmadan da iterasyon sayısına bağlı olarak eğitim<br />
işlemini tamamlayabilir. Melville and Money (2004), yaptıkları çalışmada aday<br />
sayısının artmasıyla doğruluğun artacağını bununla birlikte daha karmaşık bir model<br />
ortaya çıkacağından çözüm süresinin uzayacağını ifade etmişlerdir. Aynı çalışmada<br />
yapay boyut parametresinin 0.5–1 arasında ve beklenen boyut parametresin de 10–25<br />
aralığında alacağı değerler ile anlamlı sonuçlara ulaşılacağı ifade edilmiştir. Bu<br />
bağlamda her iki veri seti için en uygun yapay boyut ve beklenen boyut parametre<br />
değerleri eğitim ve test veri setleri kullanılarak belirlenmiştir. Yapılan değerlendirme<br />
sonucunda her iki veri setinin sınıflandırılmasında kullanılacak DECORATE<br />
modelleri için en uygun yapay boyut parametresi Landsat ETM+ görüntüsü için 1,<br />
Terra ASTER için 0.5 olarak belirlenmiştir. Aynı şekilde eğitim ve test ver<strong>ileri</strong><br />
kullanılarak en uygun beklenen boyut parametresi değeri her iki görüntü içinde 10<br />
olarak belirlenmiştir. Gerekli modellerin oluşturulmasında kullanıcı tarafından<br />
belirlenmesi gereken son parametre olan iterasyon sayısı her iki görüntü için<br />
belirlenen en uygun yapay boyut ve beklenen boyut parametreleri kullanılarak<br />
belirlenmiştir. Yapılan değerlendirme sonucunda Landsat ETM+ görüntüsü için<br />
iterasyon sayısı 15 ve Terra ASTER görüntüsü için 30 olarak belirlenmiştir.<br />
Her iki görüntü için DECORATE algoritması ile oluşturulacak modelde<br />
kullanılmak üzere belirlenen en uygun parametre değerleri ve elde edilen genel<br />
sınıflandırma doğrulukları Tablo 4.7’de gösterilmiştir. Tablodan da görüleceği üzere<br />
en uygun parametre değerleri ile yapılan eğitim sonucu oluşturulan modeller ile her<br />
iki görüntü için yaklaşık %89 genel sınıflandırma doğruluğu elde edilmiştir.
127<br />
Tablo 4.7. DECORATE algoritması için belirlenen en uygun parametre değerleri ve<br />
elde edilen genel sınıflandırma doğrulukları.<br />
Landsat ETM+<br />
* Y.Boyut= 1; B. Boyut=10; İ.Sayısı= 15<br />
Terra ASTER<br />
* Y.Boyut= 0.5; B.Boyut=10; İ.Sayısı= 30<br />
Genel Doğruluk (%) Kappa Değeri Genel Doğruluk (%) Kappa Değeri<br />
89.10 0.87 89.11 0.88<br />
* Y.Boyut=Yapay Boyut; B.Boyut=Beklenen Boyut; İ.Sayısı=İterasyon sayısını<br />
göstermektedir.<br />
Oluşturulan ve geçerliliği test edilen modeller ile Landsat ETM+ ve Terra<br />
ASTER görüntüleri sınıflandırılarak Şekil 4.34’te gösterilen tematik haritalar<br />
oluşturulmuştur.<br />
(a)<br />
(b)<br />
Şekil 4.34. DECORATE algoritması kullanılarak elde edilen tematik haritalar (a)<br />
Landsat ETM+ görüntüsü (b) Terra ASTER görüntüsü
128<br />
4.4.3.4. Yapay Sinir Ağları İle Sınıflandırma<br />
Yapay sinir ağları (YSA) ile uydu görüntülerinin sınıflandırılmasında çok<br />
katmanlı perseptron ağ yapılarından geriye yayılma öğrenme algoritması<br />
kullanılmıştır. Kullanılan YSA geri yayılım algoritmasında giriş katmanı, kullanılan<br />
her bir banda karşılık bir yapay nöron gelecek şekilde tasarlanmıştır. Bu yaklaşıma<br />
göre 6 banttan oluşan Landsat ETM+ görüntüsü için 6 nöron, 9 bant içeren Terra<br />
ASTER görüntüsü için 9 nöron tesis edilmiştir. Çıktı katmanı her iki görüntü içinde<br />
arazi örtüsü sınıflarını temsil eden 6 sınıfın (su, yerleşim, toprak-taş, bozkır, iğne<br />
yapraklı orman ve geniş yapraklı orman) her birine bir nöron gelecek şekilde tesis<br />
edilmiştir. Çok katmanlı persptron ağ yapısında oluşturulacak ağdaki saklı katmanlar<br />
ve bu katmanlardaki işlemci düğüm sayısı ağın genelleştirme kabiliyeti açısından<br />
önemlidir ve girdi çıktı katmanları arasındaki saklı katman sayısı optimum olmalıdır<br />
[Kavzoglu and Mather, 2001]. En uygun saklı katman sayısının belirlenmesinde<br />
kesin bir yöntem olmamasına karşın, literatürde kullanılan bir takım yaklaşımlar<br />
mevcuttur. Bu tez kapsamında Kanellopoulos and Wilkinson (1997) tarafından<br />
önerilen, saklı katmanlardaki düğüm sayısının, sınıflandırılacak verideki bant<br />
sayısının iki katı olarak belirlendiği yaklaşım kullanılmıştır. Bu yaklaşımla 6 bantlı<br />
Landsat ETM+ görüntüsü için saklı katmanda 12 düğüm, 9 bantlı Terra ASTER<br />
görüntüsü için 18 düğüm olarak belirlenmiştir. Sonuç olarak YSA ile eğitimde<br />
Landsat ETM+ görüntüsü için 6–12–6; Terra ASTER görüntüsü için 9–18–6<br />
katmanlı yapay sinir ağ yapısı kullanılmıştır. Kullanılacak ağ yapıları belirlenmesinin<br />
ardından ağın eğitiminde kullanılacak en uygun ilk ağırlık parametreleri, öğrenme<br />
parametreleri ve momentum oranları deneme yanılma yöntemiyle belirlenmeye<br />
çalışılmıştır. Oluşturulan ağların eğitiminde ilk ağırlıklar –0.25 ile 0.25 arasında<br />
aralığında seçilirken, eğitimin başlangıcında öğrenme oranı 0.3 ve momentum 0.5<br />
olarak belirlenmiştir.<br />
Farklı sayıda iterasyonlar sonucunda en uygun parametre değerleri belirlenmiş<br />
ve bu parametre değerleriyle oluşturulan yapay sinir ağ modelleri kullanılarak<br />
Landsat ETM+ ve Terra ASTER uydu görüntüleri sınıflandırılmıştır. Sınıflandırma<br />
sonucu elde edilen tematik haritalar Şekil 4.35’de gösterilmiştir.
129<br />
(a)<br />
(b)<br />
Şekil 4.35. Yapay sinir ağları kullanılarak elde edilen tematik haritalar. (a) Landsat<br />
ETM+ görüntüsü, (b) Terra ASTER görüntüsü<br />
4.4.3.5. K-Star Algoritması İle Sınıflandırma<br />
Örnek tabanlı öğrenme algoritmalarından K-star algoritması pikseller<br />
arasındaki benzerliğin belirlenmesi için entropik uzaklık fonksiyonu kullanılır. Bu<br />
algoritma ile oluşturulacak model için kullanıcı tarafından belirlenmesi gereken tek<br />
bir parametre vardır. Bu parametre harmanlama parametresi (b) olarak ifade edilir ve<br />
0 ile 100 arasında değerler almaktadır. Cleary and Trig (1995), bu harmanlama<br />
parametresinin 0 değeri alması durumunda en yakın komşuluk algoritması, 100<br />
değerini aldığında ise örneklerin eşit ağırlıklı olduğu bir özellik gösterdiğini ifade<br />
etmişlerdir. Landsat ETM+ ve Terra ASTER uydu görüntülerinin K-star algoritması<br />
ile sınıflandırılması için oluşturulacak modelde en uygun harmanlama parametresinin<br />
belirlenmesi amacıyla her iki veri seti için oluşturulan eğitim ve test veri setleri<br />
kullanılmıştır.
130<br />
Şekil 4.36’da Landsat ETM+ görüntüsü için oluşturulacak modelde<br />
harmanlama parametresindeki değişimler ve bu parametre değerlerine karşılık gelen<br />
genel sınıflandırma doğrulukları gösterilmektedir. Şekilden de görüleceği üzere<br />
harmanlama parametresi için 1–30 aralığındaki değerler ile %88’ın üzerinde genel<br />
sınıflandırma doğruluğu elde edilirken, bu aralıkta parametre değerinin 10 olduğunda<br />
oluşturulan model ile en yüksek sınıflandırma doğruluğuna (%89) ulaşılmıştır.<br />
Sınıflandırma Doğruluğu (%)<br />
94<br />
90<br />
86<br />
82<br />
78<br />
74<br />
89,00<br />
1 5 10 40 70 100<br />
Harmanlama Parametresi (b)<br />
Şekil 4.36. Landsat ETM+ görüntüsü için harmanlama parametresi ve genel<br />
sınıflandırma doğruluğundaki değişimler.<br />
Terra ASTER görüntüsü için harmanlama parametresindeki değişimler ve bu<br />
değerlere karşılık gelen genel sınıflandırma doğrulukları Şekil 4.37’de gösterilmiştir.<br />
Bu veri setinin sınıflandırılması için oluşturulacak K-star modelinde en yüksek<br />
sınıflandırma doğruluğunun (%91.41) elde edildiği parametre değeri 9 kullanılmıştır.<br />
Sınıflandırma Doğruluğu (%)<br />
96<br />
92<br />
88<br />
84<br />
80<br />
76<br />
91,41<br />
1 5 9 20 40 60 80 100<br />
Harmanlama Parametresi (b)<br />
Şekil 4.37. Terra ASTER görüntüsü için harmanlama parametresi ve genel<br />
sınıflandırma doğruluğundaki değişimler.
131<br />
K-star algoritması ile yapılacak sınıflandırma öncesi gerekli olan en uygun<br />
parametrelerin belirlenmesinin ardından her iki görüntü için modeller oluşturulmuş<br />
ve görüntüler sınıflandırılmıştır. Sınıflandırma sonucu çalışma alanını kapsayan 6<br />
arazi örtüsünü gösteren Landsat ETM+ ve Terra ASTER uydu görüntülerine ait<br />
tematik haritalar Şekil 4.38’de gösterilmiştir.<br />
(a)<br />
(b)<br />
Şekil 4.38. K-star algoritması kullanılarak elde edilen tematik haritalar. (a) Landsat<br />
ETM+ görüntüsü, (b) Terra ASTER görüntüsü.
132<br />
5. SONUÇLAR<br />
Uzaktan algılama teknoloj<strong>ileri</strong> geniş alanları görüntüleyebilme kabiliyetine<br />
sahip olduğundan yeryüzü üzerindeki bilg<strong>ileri</strong>n elde edilmesi amacıyla yapılan<br />
uygulamalar için önemli bir veri kaynağıdır. Sınıflandırma sonucu elde edilen<br />
tematik haritaların ve sınıflara ait bilg<strong>ileri</strong>n güvenirliği sınıflandırmada kullanılacak<br />
yöntem ve elde edilecek sınıflandırma doğruluğu ile ilişkilidir.<br />
Bu çalışmada Landsat ETM+ ve Terra ASTER uydu görüntüleri tez<br />
kapsamında ayrıntılı olarak incelenen <strong>ileri</strong> sınıflandırma teknikleri ile sınıflandırılmış<br />
ve çalışma alanını temsil eden 6 arazi örtüsü sınıfını gösteren tematik haritalar elde<br />
edilmiştir. Bu sınıflandırma yöntemlerinin yanında uygulamada yaygın kullanıma<br />
sahip en çok benzerlik yöntemi ile görüntüler sınıflandırılmıştır. Şekil 5.1’de her iki<br />
uydu görüntüsünün sınıflandırılmasında kullanılan yöntemler ve elde edilen genel<br />
sınıflandırma doğrulukları gösterilmiştir.<br />
94<br />
)<br />
Sınıflandırma Doğruluğu (%<br />
93<br />
92<br />
91<br />
90<br />
89<br />
88<br />
87<br />
86<br />
1 2 3 4 5 6 7 8 9 10 11 12 13<br />
Landsat ETM+ 86,95 90,05 90,81 90,90 87,14 87,62 89,60 89,10 89,90 89,29 89,10 90,14 89,00<br />
Terra ASTER 88,00 91,04 92,81 92,15 87,55 87,95 92,00 89,70 92,07 91,19 89,11 90,82 91,41<br />
Sınıflandırma Yöntemleri<br />
Şekil 5.1. Landsat ETM+ ve Terra ASTER görüntüsünün sınıflandırılmasında<br />
kullanılan yöntemler ve elde edilen genel sınıflandırma doğrulukları. 1: En Çok<br />
Benzerlik, 2: Polinom Kernel, 3: Radyal Tabanlı Kernel, 4: PUK, 5: C4.5, 6: C4.5<br />
(Budanmış), 7: Hızlandırma, 8: Torbalama, 9: Çoklu Hızlandırma, 10. Rastgele<br />
Orman, 11: DECORATE, 12: Yapay Sinir Ağları, 13: K-star.
133<br />
En çok benzerlik sınıflandırıcısı literatürde geçerliliği kabul gören ve<br />
günümüzde <strong>uzaktan</strong> algılama yazılımlarının içerisinde temel sınıflandırıcı olarak yer<br />
alan bir kontrollü sınıflandırma yöntemidir. Matematiksel ifadesinin basit oluşu ve<br />
sınıflandırma işlemini gerçekleştirmedeki hızı yöntemin <strong>uzaktan</strong> algılama alanındaki<br />
araştırmacılar tarafından yaygın kullanımını ortaya çıkarmıştır. Ancak yöntemin bir<br />
takım istatistiki kabuller gerektirmesi ve işlem sonucunda sınıflandırılamayan<br />
piksellerin ortaya çıkması yöntemin sınıflandırma performansını etkilemektedir.<br />
Şekil 5.1’den görüleceği üzere her iki uydu görüntüsünün sınıflandırılması<br />
sonucunda ile elde edile en düşük genel sınıflandırma doğrulukları en çok benzerlik<br />
yöntemiyle elde edilmiştir.<br />
Kullanılan metotların veri setleri için aynı trendi göstermeleri yapılan<br />
uygulamadaki sistematiğin doğruluğunun bir göstergesi olarak düşünülebilir.<br />
Metotların birbirinden farklı veri setleri için yaklaşık olarak aynı performansı<br />
gösterdiğinden, söz konusu yöntemlerin veriden bağımsız oldukları söylenebilir. Her<br />
iki uydu görüntüsü için elde edilen genel sınıflandırma sonuçlarının gösterildiği şekil<br />
incelendiğinde kullanılan yöntemler arasında destek vektör makinelerinin<br />
sınıflandırma performansının diğerlerine göre daha yüksek olduğu görülmektedir.<br />
Destek vektör makineleri sınıflar arasında en uygun hiper düzlemin belirlenmesi<br />
prensibine dayalı bir öğrenme algoritmasıdır. Uzaktan algılanmış görüntülerde<br />
olduğu gibi doğrusal olmayan ve ikiden fazla sınıfa ait ver<strong>ileri</strong>n sınıflandırılması<br />
probleminin çözümünde kernel fonksiyonlarından yararlanmaktadır. Bu nedenle<br />
kernel fonksiyonun seçimi ve seçilen kernel fonksiyonuna ait en uygun parametre<br />
değerlerinin belirlenmesi yöntemin sınıflandırma performansı açısından önemlidir.<br />
Tez kapsamında kullanılan kernel fonksiyonları (polinom, radyal tabanlı kernel ve<br />
Pearson VII) Bölüm 4’te ayrı ayrı değerlendirilmiş ve sınıflandırma performansları<br />
analiz edilmiştir. Kullanılan üç fonksiyon bir arada değerlendirildiğinde birkaç<br />
önemli husus göze çarpmaktadır. Bunlardan ilki radyal tabanlı kernel ve Pearson VII<br />
(PUK) fonksiyonları ile polinomal fonksiyona göre Landsat ETM+ görüntüsü için<br />
yaklaşık %0.5 ve Terra ASTER görüntüsü için yaklaşık %2 daha iyi sınıflandırma<br />
doğruluğuna ulaşılmıştır. İkinci olarak söz konusu kernel fonksiyonları için<br />
sınıflandırma öncesinde kullanıcı tarafından belirlenmesi gereken parametrelerle<br />
ilgili analizlerdir. Pearson VII fonksiyonu, radyal tabanlı kernel fonksiyonu ile yakın<br />
sınıflandırma sonuçları üretmesine karşın sınıflandırma öncesinde üç farklı
134<br />
parametrenin belirlenmesini gerektirmektedir. Bu parametrelerin sınıflandırma<br />
doğruluğuna direkt etk<strong>ileri</strong> olduğu düşünülürse en uygun parametre değerlerinin<br />
belirlenmesi için gerekli süre artacaktır.<br />
Radyal tabanlı kernel ve polinom kernel fonksiyonları kullanıcı tarafından<br />
belirlenmesi gereken iki parametre değerine sahiptirler. Radyal tabanlı kernelin<br />
gamma ve polinom kernel kullanılacak polinomun derecesi iki önemli parametredir.<br />
Gama parametresinin sınıflandırma doğruluğu üzerindeki etkisinin polinomun<br />
derecesine göre daha az olduğu gözlemlenmiştir. Polinom derecesi arttıkça<br />
matematiksel olarak daha karmaşık bir fonksiyon elde edileceğinden hesaplama<br />
zorluğu dolayısıyla çözüm için gerekli süre artmaktadır. Kernel fonksiyonları ile<br />
ilgili elde edilen bu sonuçlar kernel fonksiyonu ve fonksiyona ait parametre<br />
seçimlerinin DVM ile yapılacak sınıflandırma öncesinde dikkate alınması gereken<br />
bir durum olduğunu göstermektedir.<br />
Kernel parametre değerleri sınıflandırmaya esas olan veri setine göre değişiklik<br />
gösterdiğinden en yüksek performansın hangi parametre çiftleri ile elde edileceği<br />
önceden bilinmemektedir. Bu nedenle kernel fonksiyonu seçiminde, seçilecek<br />
fonksiyona ait parametrelerin sınıflandırma performansına etkisi dikkate alınmalıdır.<br />
Buna ek olarak en uygun parametrelerin belirlenmesi için kullanılacak yöntem diğer<br />
önemli bir husustur. Tez kapsamında incelenen kernel fonksiyonları ile ilgili yapılan<br />
analizler ışığında destek vektör makineleri ile yapılacak sınıflandırmada öncesinde<br />
kernel fonksiyonu seçiminde öncelikli olarak radyal tabanlı kernelin tercih<br />
edilebileceği sonucuna ulaşılmaktadır.<br />
Karar ağaçları iş akışı şemalarına benzer yapılarıyla ifade edilmesi ve<br />
anlaşılması kolay bir sınıflandırma yöntemidir. Karar ağacı oluşumunda en önemli<br />
hususlardan biriside ağacın budanması işlemidir. Tez kapsamında kullanılan uydu<br />
görüntüleri için C4.5 algoritması ile oluşturulan karar ağacının ön budama<br />
yöntemiyle budanması ile ağaç yapısındaki yaparak ve dal sayısında Landsat ETM+<br />
görüntüsü için yaklaşık %57 ve Terra ASTER görüntüsü için %11’lik bir sadeleşme<br />
olmuştur. Budama ile elde edilen sadeleşmiş ve basitleşmiş bu modeller ile<br />
sınıflandırma için gerekli süre azalmıştır. Bunun yanında budama ile elde edilen
135<br />
modeller ile yapılan sınıflandırma sonuçlarında yaklaşık %1’lik bir iyileşme olduğu<br />
görülmüştür.<br />
Son yıllarda literatürde karar ağaçlarının sınıflandırma performansını<br />
arttırmaya yönelik geliştirilen çeşitli iyileştirme algoritmaları mevcuttur. Tez<br />
çalışmasında söz konusu iyileştirme algoritmalarından hızlandırma, torbalama, çoklu<br />
hızlandırma, rastgele orman ve DECORATE algoritmaları kullanılarak C4.5 karar<br />
ağacı algoritması ile elde edilen sınıflandırma performansındaki değişimler naliz<br />
edilmiştir. Şekil 5.1’den de görüleceği üzere karar ağaçlarının tekil kullanımından<br />
ziyade bir iyileştirme algoritması ile kullanımı sonucunda sınıflandırma<br />
performansında Landsat ETM+ görüntüsü için ortalama %2 ve Terra ASTER<br />
görüntüsü için ortalama %3’lük iyileşmeler olmuştur. Kullanılan iyileştirme<br />
algoritmaları da sınıflandırma öncesinde birtakım parametrelerin belirlenmesini<br />
gerektirmektedir. Kullanılan algoritmalar arasında üç farklı parametreye sahip<br />
DECORATE algoritması ile karar ağacı sınıflandırma performansında en düşük<br />
iyileşme (yaklaşık %1) elde edilmiştir. Diğer algoritmalar kullanıcı tarafından<br />
belirlenecek iki parametreye sahip olmakla beraber özellikle hızlandırma ve çoklu<br />
hızlandırma algoritmaları ile sınıflandırma doğruluğunda yaklaşık %3’lük iyileşme<br />
elde edilmiştir. Elde edilen sonuçlar budama yöntemleri kullanılarak sadeleştirilmiş<br />
karar ağaçlarının bir sınıflandırma probleminin çözümünde tekil olarak<br />
kullanılmalarından ziyade bir iyileştirme algoritması kullanılmasının beklenen<br />
sınıflandırma doğruluğunu olumlu yönde etkileyeceği söylenebilir.<br />
Yapay sinir ağları (çok katmanlı perseptron) literatürde <strong>uzaktan</strong> algılanmış<br />
görüntülerin sınıflandırılmasında kullanılan parametrik olmayan bir yapıya sahip,<br />
güçlü ve etkili bir sınıflandırıcıdır. YSA yapıları itibariyle karmaşık ve matematiksel<br />
olarak ifadesi zor olan bir algoritma kullanmakta, bu özellikleriyle kara-kutu<br />
algoritmalar olarak da adlandırılmaktadırlar. Uygun ağ yapısının belirlenmesi, ağın<br />
başlangıç ağırlık değerleri, öğrenme oranı, iterasyon sayısı, momentum gibi<br />
sınıflandırma doğruluğunu direkt olarak etkileyen parametrelere sahiptir. Ağın<br />
eğitimi ve sınıflandırmada kullanılacak YSA modelinin oluşturulmasında en uygun<br />
parametre değerlerinin belirlenmesinde kullanılan bir yöntem olmaması yaşanan en<br />
büyük problemdir. Bu parametreler eğitim ve test ver<strong>ileri</strong> kullanılarak deneme<br />
yoluyla belirlenebildiğinden, bu konuda deneyim sahibi olmak önemlidir.
136<br />
Öğrenme tabanlı sınıflandırıcılardan K-Star algoritması örnekler arasındaki<br />
benzerliğin belirlenmesinde bilgi teorisine dayanan entropik uzaklık fonksiyonunu<br />
kullanmaktadır. Literatürde bu konu üzerine yapılan çalışmalar incelendiğinde söz<br />
konusu K-star algoritmasının farklı sınıflandırma problemlerinde kullanılmakta iken<br />
tez kapsamında <strong>uzaktan</strong> algılanmış görüntülerin sınıflandırılması probleminde<br />
kullanımı incelenmiştir. Bu açıdan algoritmanın <strong>uzaktan</strong> algılamada kullanımı<br />
açısından elde edilen sonuçlar önemlidir. K-star algoritmasının kullanımında<br />
kullanıcı tarafından belirlenmesi gereken tek parametre harmanlama parametresidir.<br />
Harmanlama parametresi 1 ile 100 aralığında değerler almaktadır. 1 değeri için en<br />
yakın komşuluk algoritması 100 değeri içinse örneklerin eşit ağırlığa sahip olduğu<br />
durumlar elde edilmektedir. Tek bir parametre değerine sahip oluşu ve söz konusu<br />
parametrenin dar bir aralıkta değerler alması K-star algoritmasının kullanımındaki en<br />
önemli avantajlardır. Bununla birlikte en uygun harmanlama parametresi kullanılarak<br />
modelin eğitimi için gerekli süre, modelin test edilmesi için gerekli süreden çok daha<br />
uzun olduğu gözlemlenmiştir. Bu durum tüm uydu görüntüsünün sınıflandırılması<br />
sırasında da yaşanmıştır. Sınıflandırma için gerekli olan sürenin diğer yöntemlere<br />
göre uzun olması K-star algoritmasının olumsuz yönüdür. K-star ile elde edilen<br />
sınıflandırma sonuçları incelendiğinde başta en çok benzerlik sınıflandırıcısı olmak<br />
üzere tez kapsamında kullanılan bir çok sınıflandırıcıdan daha yüksek sınıflandırma<br />
doğruluğu elde edilmiştir.<br />
Bu çalışmada kullanılan uydu görüntüleri farklı tarihlerde (1997 ve 2002)<br />
algılanmış olduğundan zamansal bir çözünürlüğe sahiptir. Çalışma alanı olarak<br />
belirlenen Gebze ilçesinin yoğun sanayi alanlarını içerisinde barındırması, İstanbul<br />
iline yakınlığı ve taşımacılık açısından önemli yollar üzerinde bulunması bölgenin<br />
yoğun bir nüfus ve yapılaşma baskısı altında olmasına neden olmuştur. Bu açıdan<br />
1997 ve 2002 yılları arasındaki 5 yıllık bir süre içerisinde çalışma alanındaki arazi<br />
kullanımında meydana gelen değişimler belirlenmiş ve analiz edilmiştir. Arazi<br />
kullanımındaki değişimlerin belirlenmesi amacıyla en yüksek sınıflandırma<br />
doğruluğunun elde edildiği radyal tabanlı kernel fonksiyonu ile elde edilen<br />
sınıflandırma sonuçları kullanılmıştır. Tablo 5.1’de Landsat ETM+ ve Terra ASTER<br />
görüntüleri üzerinden belirlenen altı arazi örtüsü sınıfının çalışma alanında<br />
kapladıkları alanlar ve 1997–2002 yılları arasında çalışma alanındaki arazi<br />
kullanımında meydana gelen değişimler gösterilmektedir. Tablodan görüleceği üzere
137<br />
beş yıllık süreç içerisinde çalışma alanında yaklaşık %30’luk bir şehirleşme artışı<br />
yaşanmıştır. Yerleşim sınıfındaki pikseller 1997 yılında 71.72 km 2 iken 2002 yılında<br />
bu piksellerin kapladığı alan 92.34 km 2 olmuştur. Şehirleşmenin özellikle iğne<br />
yapraklı ağaçların ve bozkırların kapsadığı alanlar üzerinde yaşandığı görülmüştür.<br />
Tablo 5.1 incelendiğinde çalışma bölgesindeki geniş yapraklı ağaçların kapsadığı<br />
alanların beş yıl gibi kısa bir süreç içerisinde yaklaşık %15 azaldığı görülmektedir.<br />
Bu durum bölgenin sürdürülebilir çevresel yapısı açısından önemli olan arazi<br />
bozulmalarını ve çevresel problemlerin seviyesini göstermektedir. Tabloda 1997 ve<br />
2002 yılları arasında su alanlarında %2’lik bir artış yaşandığı görülmektedir.<br />
Uygulama öncesinde sınıflandırmaya esas olacak arazi örtüsü sınıfları belirlenirken<br />
su olarak genelleştirilen sınıf içerisinde denizler, göller, akarsular ve barajlar gibi<br />
yaklaşık olarak aynı spektral özelliklere sahip alanlar tek bir sınıf altında<br />
toplanmıştır. Su alanlarındaki söz konusu değişimin çalışma alanında 5 yıllık süreç<br />
içerisinde tamamlanan baraj alanlarının içerdiği su kütleleri ve akarsu yataklarındaki<br />
su miktarlarındaki değişimden kaynaklanabileceği düşünülmektedir.<br />
Tablo 5.1. 1997 ve 2002 yıllarında arazi kullanımında meydana gelen değişimlerin<br />
analizi.<br />
1997 2002 1997–2002<br />
Arazi Kullanım<br />
Kapladığı Alan Kapladığı Alan Değişim<br />
Sınıfları km 2 % km 2 % km 2 %<br />
Su 44.85 9.97 45.95 10.21 1.10 2.46<br />
Geniş Yapraklı 22.27 4.95 18.97 4.22 -3.30 -14.82<br />
İğne Yapraklı 65.29 14.51 54.48 12.10 -10.82 -16.56<br />
Bozkır 227.72 50.60 219.62 48.80 -8.10 -3.56<br />
Toprak-Taş 18.18 4.04 18.68 4.15 0.50 2.72<br />
Yerleşim 71.72 15.94 92.34 20.52 20.62 28.75<br />
Uzaktan algılama görüntülerinin sınıflandırılması ile elde edilen tematik<br />
haritaların güncel ve doğru bir şekilde üretilmesi yapılacak yorum ve<br />
değerlendirmelerle alınacak kararlar açısından çok büyük önem taşımaktadır. Tez
138<br />
kapsamında incelenen <strong>ileri</strong> sınıflandırma teknikleri bu amaç için geliştirilen ve<br />
literatürde bir çok araştırmacının üzerinde yoğunlaştığı alanlardan birisidir. Elde<br />
edilen sonuçlar <strong>ileri</strong> sınıflandırma teknikleri kullanılarak hesaplanan genel<br />
sınıflandırma doğruluklarının standart sınıflandırıcı olarak kabul gören en çok<br />
benzerlik sınıflandırıcısına göre yaklaşık %4 daha iyi olduğunu göstermektedir. Tez<br />
kapsamında kullanılan uydu görüntülerinin piksel bazında 500039, alansal olarak<br />
yaklaşık 450 km 2 ’lik bir alanı kapsadığı düşünüldüğünde sınıflandırma<br />
doğruluğundaki %4’lük artışın yaklaşık 20.000 pikselin, dolayısıyla yaklaşık 18<br />
km 2 ’lik alanın doğru sınıflandırılan alanlara ilave olacağı söylenebilir. Genel<br />
sınıflandırma doğruluğundaki %4’lük iyileşmenin piksel bazında ve alansal olarak<br />
karşılığı kullanılan <strong>ileri</strong> sınıflandırma <strong>tekniklerinin</strong> sınıflandırmadaki önemini ve<br />
etkinliğini ortaya koymaktadır. Bununla birlikte tüm bu teknikler kullanıcı tarafından<br />
belirlenmesi gereken ve sınıflandırma doğruluğuna çeşitli derecede etki eden<br />
parametrelerin belirlenmesini gerektirmektedir. Bu durum söz konusu <strong>ileri</strong><br />
sınıflandırma teknikleri kullanımında bir deneyim gerektirdiğini göstermektedir. Her<br />
iki uydu görüntüsünün sınıflandırılması sonucu elde edilen sınıflandırma sonuçları,<br />
özellikle yüksek genelleştirme kabiliyetine sahip destek vektör makinelerinin<br />
<strong>uzaktan</strong> algılanmış görüntülerinin sınıflandırmasında kullanılabilecek etkili ve<br />
alternatif bir yöntem olduğunu göstermektedir.
139<br />
KAYNAKLAR<br />
1. Aha, D.W., 1992. Tolerating noisy, irrelevant and novel attributes in<br />
instance-based learning algorithms. International Journal of Man-Machine<br />
Studies, 36, 267–287.<br />
2. Aha, D.W., 1997. Lazy learning. Artificial Intelligence Review, 11, 7–10.<br />
3. Aha, D.W., Kibler, D. and Albert, M.K., 1991. Instance-based learning<br />
algorithms. Machine Learning, 6, 37–66.<br />
4. Altuntaş, C. ve Çorumluoğlu, Ö., 2002. Uzaktan algılama görüntülerinde<br />
digital görüntü işleme ve RSImage yazılımı, Selçuk Üniversitesi Jeodezi ve<br />
Fotogrametri Mühendisliği Öğretiminde 30. Yıl Sempozyumu, Konya,<br />
Bildiriler Kitabı, 434-442<br />
5. Altun, H. and Curtis, K.M., 1998. Exploiting the statistical characteristic of<br />
the speech signals for an improved neural learning in a MLP neural<br />
network. Neural Networks for Signal Processing, 598, 547-556.<br />
6. Atkinson, P. M. and Tatnall, A. R. L., 1997. Neural networks in remote<br />
sensing. International Journal of Remote Sensing, 18, 699–709.<br />
7. Ayhan, E., 2003. KTÜ Uzaktan Algılama Ders Notları (yayınlanmamış),<br />
KTÜ, Lisans Programı, Trabzon.<br />
8. Ayhan, E., Karslı, F. ve Tunç E., 2003. Uzaktan algılanmış görüntülerde<br />
sınıflandırma ve analiz, Harita Dergisi, 130, 32–46.<br />
9. Bauer, E. and Kohavi, R., 1999. An empirical comparison of voting<br />
classification algorithms: bagging, boosting and variants. Machine<br />
Learning, 36, 105–139.<br />
10. Blamire, P.A., 1994. An investigation into the identification and<br />
classification of urban areas from remotely sensed satellite data using<br />
neural Networks. MSc Thesis, Edinburgh University, UK.
140<br />
11. Boser, B. E., Guyon, I. M. and Vapnik, V., 1992. A training algorithm for<br />
optimum margin classifiers. In Fifth Annual Workshop on Computational<br />
Learning Theory, Pittsburgh, ACM.<br />
12. Breiman, L., 1996. Bagging predictors. Machine Learning, 24, 123–140.<br />
13. Breiman, L., 2001. Random forests. Machine Learning, 45, 5-32.<br />
14. Breiman, L., Friedman, J.H., Olshen, R.A. and Stone, C.J., 1984.<br />
Classification and regression trees, Monterey, CA: Wadsworth.<br />
15. Brodley, C.E. and Utgoff, P.E., 1995. Multivariate decision trees. Machine<br />
Learning, 19, 45-77.<br />
16. Burges, C.J.C., 1998. A tutorial on support vector machines for pattern<br />
recognition. Data Mining and Knowledge Discovery, Kluwer Academic<br />
Publishers, 2, 121-167.<br />
17. Campbell, J.B., 1996. Introduction to remote sensing, Second Edition, The<br />
Guilford Press, New York, USA.<br />
18. Cleary, J. G. and Trigg, L. E., 1995. K*: An instance-based learner using an<br />
entropic distance measure. Proceedings of the 12th International<br />
Conference on Machine Learning, 108–114.<br />
19. Cortes, C. and Vapnik, V., 1995. Support-vector network. Machine<br />
Learning, 20, 273–297.<br />
20. Cover, T. M. and Hart, P. E.,1967. Nearest neighbor pattern classification.<br />
IEEE Transactions on Information Theory, 21–27.<br />
21. Crammer, K. and Singer, Y., 2001. On the algorithmic implementation of<br />
multiclass kernel-based vector machines. Journal of Machine Learning<br />
Research, 2, 265-292.<br />
22. Dasarathy, B. V., 1991. Nearest neighbor (NN) norms: NN pattern<br />
classification techniques. Los Alamitos, CA: IEEE Computer Society Press.
141<br />
23. Debnath, R., Takahide, N. and Takahashi, H., 2004. A decision based oneagainst-one<br />
method for multi-class support vector machine. Pattern<br />
Analysis & Applications, 7, 164–175.<br />
24. DeFries, R. S., Hansen, M., Townshend, J. R. G. and Sohlberg, R., 1998.<br />
Global land cover classifications at 8km spatial resolution: the use of<br />
training data derived from Landsat imagery in decision tree classifiers.<br />
International Journal of Remote Sensing, 19, 3141–3168.<br />
25. Demirci, D.A., 2007. Destek vektör makineleri ile karakter tanıma. Yüksek<br />
Lisans Tezi, Yıldız Teknik Üniversitesi Fen Bilimleri Enstitüsü, İstanbul.<br />
26. Dickson, S., Thomas, B.T. and Goddard, P., 1997. Using neural networks to<br />
automatically detect brain tumours in MR images. International Journal of<br />
Neural Systems, 8, 91-99.<br />
27. Diday, E., 1974. Recent progress in distance and similarity measures in<br />
pattern recognition. Second International Joint Conference on Pattern<br />
Recognition, 534–539.<br />
28. Dietterich, T. G., 2000. An experimental comparison of three methods for<br />
constructing ensembles of decision trees: bagging, boosting, and<br />
randomization. Machine Learning, 40, 139 - 157.<br />
29. Dietterich, T., 2002. The handbook of brain theory and neural networks.<br />
The MIT Press, Ch. Ensemble Learning, 405-408.<br />
30. Dixon, B. and Candade, N., 2008. Multispectral landuse classification using<br />
neural networks and support vector machines: one or the other, or both<br />
International Journal of Remote Sensing, 29,1185-1206.<br />
31. Efron, B. and Tibshirani, R.J., 1993. An introduction to the bootstrap.<br />
London: Chapman and Hall.<br />
32. Erdas, 2008. Erdas Imagine 9.2 Field Guide.<br />
33. Fletcher, R., 2000. Practical methods of optimization. 2nd Edition, John<br />
Wiley & Sons, Chichester.
142<br />
34. Foody, G.M., 1995. Using prior knowledge in artificial neural-network<br />
classification with a minimal training set. International Journal of Remote<br />
Sensing, 16, 301-312.<br />
35. Foody, G.M. and Mathur A., 2004. A relative evaluation of multiclass<br />
image classification by support vector machines. IEEE Transactions on<br />
Geoscience and Remote Sensing, 42, 1335–1343.<br />
36. Freund, Y. and Schapire, R. E., 1996. Experiments with a new boosting<br />
algorithm. In: Saitta, L. (Ed.), Proceedings of the Thirteenth International<br />
Conference on Machine Learning (ICML-96). Morgan Kaufmann, 148-156.<br />
37. Friedl, M.A. and Brodley, C.E., 1997. Decision tree classification of land<br />
cover from remotely sensed data. Remote Sensing of Environment, 61,<br />
399–409.<br />
38. Gelfand, S.B., Ravishankar, C.S. and Delp, E.J., 1991. An iterative growing<br />
and pruning algorithm for classification tree design. IEEE Transactions on<br />
Pattern Analysis and Machine Intelligence, 13, 163-174.<br />
39. Giacinto, G. and Roli, F., 1997. Ensembles of neural networks for soft<br />
classification of remote sensing images, Proceedings of the European<br />
Symposium on Intelligent Techniques, European Network for Fuzzy Logic<br />
and Uncertainty Modelling in Information Technology, Bari, Italy, 166-<br />
170.<br />
40. Gibson, P.J., 2000. Introductory remote sensing: Principles and concepts.<br />
Routledge publishers, London.<br />
41. Giles, C.L., Lawrence, S. and Tsoi, A.C., 1997. Rule inference for financial<br />
prediction using recurrent neural networks. Proceedings of the IEEE/IAFE<br />
1997 Computational Intelligence for Financial Engineering (CIFER), 307,<br />
253-259.<br />
42. Göksel, Ç., 1996. Elmalı ve Alibey su havzalarının uydu görüntü ver<strong>ileri</strong>yle<br />
izlenmesi ve bilgi sistemi oluşturma olanakları, Doktora Tezi, İstanbul.
143<br />
43. Hall, F. G., Townshend, J. R. and Engman, E. T., 1995. Status of remote<br />
sensing algorithms for estimation of land surface state parameters. Remote<br />
Sensing of Environment, 51, 138–156.<br />
44. Hansen, L. and Salamon, P., 1990. Neural network ensembles. IEEE<br />
Transactions on Pattern Analysis and Machine Intelligence, 12, 993–1001.<br />
45. Hansen, M., Dubayah, R. and DeFries, R., 1996. Classification trees: an<br />
alternative to traditional land cover classifiers. International Journal of<br />
Remote Sensing, 17, 1075–1081.<br />
46. Hansen, M., DeFries, R. S., Townshend, J. R. G. and Sohlberg, R., 2000.<br />
Global land cover classification at 1km spatial resulution using a<br />
classification tree approach. International Journal of Remote Sensing, 21,<br />
1331–1364.<br />
47. Hashem, S., 1997. Optimal linear combinations of neural networks. Neural<br />
Networks, 10, 599–614.<br />
48. Hastie, T. J. and Tibshirani, R. J., 1998. Classification by pairwise<br />
coupling. Advances in Neural Information Processing Systems. (Jordan, M.<br />
I., Kearns, M. J., and Solla, S. A., eds.), 10, The MIT Press.<br />
49. Heisele, B., Serre, T., Prentice, S. and Poggio, T., 2003. Hierarchical<br />
classification and feature reduction for fast face detection with support<br />
vector machines. Pattern Recognition, 36, 2007-2017.<br />
50. Hewitson, B.C. and R.G. Crane, 1994. Neural computing: applications in<br />
geography. Kluwar Academic Publishers, Dordrecht.<br />
51. Hong, J., Min, J., Cho, U. and Cho, S., 2008. Fingerprint classification<br />
using one-vs-all support vector machines dynamically ordered with naïve<br />
Bayes classifiers. Pattern Recognition, 41, 662-671.<br />
52. Huang, C., Davis, L. S. and Townshed, JRG., 2002. An assessment of<br />
support vector machines for land cover classification. International Journal<br />
of Remote Sensing, 23, 725–749.
144<br />
53. Hullermeier, E., 2003. Possibilistic instance-based learning. Artificial<br />
Intelligence, 335-383.<br />
54. Hsu, C.W., Chang, C.C. and Lin, C.J., 2008. A practical guide to support<br />
vector classification.<br />
http://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf.<br />
55. Jehnsen, J.R., 1996. Introductory digital image processing: A remote<br />
sensing perspective, Prentice Hall, New Jersey.<br />
56. Jensen, J.R., 2000. Remote sensing of the environment: An Earth resource<br />
perspective, Prentice Hall, New Jersey.<br />
57. Joachims, T., 1998. Text categorization with support vector machines—<br />
learning with many relevant features. In Proceedings of European<br />
Conference on Machine Learning, 137-142.<br />
58. Kanellopoulos, I. and Wilkinson, G.G., 1997. Strategies and best practice<br />
for neural network image classification. International Journal of Remote<br />
Sensing, 18, 711-725<br />
59. Kansu, O., 2006. Uzaktan algılamada görüntü sınıflandırma yöntemleri<br />
analizi. Yüksek Lisans Tezi, KTÜ Fen Bilimleri Enstitüsü, Trabzon.<br />
60. Kavzoglu, T. and Mather, P.M., 2003. The use of backpropagating artificial<br />
neural networks in land cover classification. International Journal of<br />
Remote Sensing, 24, 4907-4938.<br />
61. Kavzoglu, T. and Reis, S., 2008. Performance analysis of maximum<br />
likelihood and artificial neural network classifiers for training sets with<br />
mixed pixels. GIScience & Remote Sensing, 45, 330-342.<br />
62. Kavzoğlu, T. ve Çetin, M., 2005. Gebze bölgesindeki sanayileşmenin<br />
zamansal gelişiminin ve çevresel etk<strong>ileri</strong>nin uydu görüntüleri ile<br />
incelenmesi. TMMOB Harita ve Kadastro Mühendisleri Odası, 10. Türkiye<br />
Harita Bilimsel ve Teknik Kurultayı, Ankara.
145<br />
63. Kavzoglu, T., 2001. An investigation of the design and use of feed-forwad<br />
artificial neural Networks in the classification of remotely sensed images.<br />
PhD Thesis, Nottingham University, UK.<br />
64. Kavzoğlu, T., 2008. Uzaktan algılama ve uygulamaları ders notları<br />
(yayınlanmamış), G.Y.T.E , Yüksek Lisans Programı, Gebze.<br />
65. Kavzoglu, T., 2009, Increasing the accuracy of neural network<br />
classification using refined training data. Environmental Modelling &<br />
Software, 24, 850-858<br />
66. Kechman, V., 2001. Learning and soft computing. MIT.<br />
67. Keerthi, S. and Lin, C. J., 2003. Asymptotic behaviors of support vector<br />
machines with gaussian kernel. Neural Computation, 15, 1667–1689.<br />
68. Kim, B. and Landgrebe, D. A., 1991. Hierarchical classifier design in<br />
highdimensional, numerous class cases. IEEE Transactions on Geoscience<br />
and Remote Sensing. 29, 518-528.<br />
69. Knerr, S., Personnaz, L. and Dreyfus, G., 1990. Single-layer learning<br />
revisited: A stepwise procedure for building and training neural network.<br />
Neurocomputing: Algorithms, Architectures and Applications, NATO ASI,<br />
Berlin: Springer-Verlag.<br />
70. Kononenko, I. and Hong, S.J., 1997. Attribute selection for modelling.<br />
Future Generation Computer Systems, 13, 181-195.<br />
71. Krogh, A. and Vedelsby, J., 1995. Neural network ensembles, cross<br />
validation, and active learning. In Tesauro, G., Touretzky, D., & Leen, T.<br />
(Eds.), Advances in Neural Information Processing Systems, 7, 231–238<br />
Cambridge, MA. MIT Press.<br />
72. Landeweerd, G.H., Timmers, T., Gelsema, E.S., Bins, M. and Halie, M.R.,<br />
1983. Binary-Tree Versus Single Level Tree Classification of White Blood-<br />
Cells. Pattern Recognition, 16, 571-577.
146<br />
73. Lee, Y., Lin, Y. and Wahba, G., 2001. Multicategory support vector<br />
machines. Tech.Rep. 1043, Department of Statistics, University of<br />
Wisconsin, Madison, WI.<br />
74. Lillesand, T.M. and R.W. Kiefer. 1994. Remote sensing and photo<br />
interpretation. 3rd. Edition, John Wiley & Sons: New York.<br />
75. Lillesand, T.M., Kiefer, R.W. and Chipman, J.W., 2007. Remote sensing<br />
and image interpretation. 6th Edition, John Wiley & Sons: New York.<br />
76. Lin, K.M and Lin C.J., 2003. A study on reduced support vector machines.<br />
IEEE Transactions on Neural Networks, 6, 1449-1459.<br />
77. Lippman, R. P., 1987. An introduction to computing with neural nets. IEEE<br />
ASSP Magazine, 4, 2–22.<br />
78. Liu, C., Nakashima, K., Sako, H. and Fujisawa, H., 2003. Handwritten digit<br />
recognition: bench-marking of state-of-the-art techniques. Pattern<br />
Recognition, 36, 2271–2285.<br />
79. Lu, D. and Weng, Q., 2007. A survey of image classification methods and<br />
techniques for improving classification performance. International Journal<br />
of Remote Sensing, 28, 823–870.<br />
80. Maclin, R. and Opitz, D., 1997. An empirical evaluation of bagging and<br />
boosting. In: Proceedings of the Fourteenth National Conference on<br />
Artificial Intelligence. AAAI Press, Providence, RI, 546-551.<br />
81. Maktav, D. ve Sunar, F., 1991. Uzaktan algılama: Kantitatif yaklaşım.<br />
Hürriyet Ofset A.Ş., İstanbul.<br />
82. Mather, P.M., 1987. Computer processing of remote-sensed images. John<br />
Wiley and Sons Ltd.<br />
83. Mathur, A. and Foody, G.M., 2008a. Multiclass and binary SVM<br />
classification: Implications for training and classification users. IEEE<br />
Geoscience and Remote Sensing Letters 5, 241-245.
147<br />
84. Mathur A. and Foody, G.M.., 2008b. Crop classification by support vector<br />
machine with intelligently selected training data for an operational<br />
application. International Journal of Remote Sensing, 29, 2227–2240.<br />
85. Melgani, F. and Bruzzone, L., 2004. Classification of hyperspectral remote<br />
sensing images with support vector machines. IEEE Transactıons on<br />
Geoscience and Remote Sensing, 42, 1778–1790.<br />
86. Melville, P. and Mooney, R.J. 2004a. Creating diversity in ensembles using<br />
artificial, In: Information Fusion: Special Issue on Diversity in<br />
Multiclassifier Systems, 6, 99–111.<br />
87. Melville, P., Shah, N., Mihalkova, L. and Mooney, R. J., 2004b.<br />
Experiments on ensembles with missing and noisy data. In: Proceedings of<br />
the Workshop on Multi Classifier Systems, 293-302, Italy.<br />
88. Michalski, R. S., Stepp, R. E. and Diday, E., 1981. In L. N. Kanal and<br />
Azriel Rosenfeld (Eds.). A recent advance in data analysis: clustering<br />
objects into classes characterized by conjunctive concepts. Progress in<br />
Pattern Recognition, New York: North-Holland, 1, 33–56.<br />
89. Milgram J, Cheriet M. and Sabourin, R., 2006. One against one or one<br />
against all: which one is better for handwriting recognition with SVMs<br />
10th International Workshop on Frontiers in Handwriting Recognition<br />
(IWFHR 2006).<br />
http://www.livia.etsmtl.ca/publications/<br />
90. Mingers, J., 1989. An empirical comparison of pruning methods for<br />
decision tree induction. Machine Learning, 4, 227–243.<br />
91. Murthy, S. K., Kasif, S. and Salzberg, S., 1994. A system for induction of<br />
oblique decision trees. Journal of Artificial Intelligence Research, 2, 1-32.<br />
92. Nadler, M. and Smith, E. P. 1993. Pattern recognition engineering. Wiley:<br />
New York.
148<br />
93. Okamoto, S. and Yugami, N., 2003. Effects of domain characteristics on<br />
instance-based learning algorithms. Theoretical Computer Science, 207-<br />
233.<br />
94. Opitz, D. and Maclin R., 1999. Popular ensemble methods: An empirical<br />
study. Journal of Artificial Intelligence Research, 11, 169–198.<br />
95. Opitz, D. and Shavlik, J., 1996. Actively searching for an effective neuralnetwork<br />
ensemble. Connection Science, 8, 337–353.<br />
96. Oommen, T., Misra, D., Twarakavi, N.K.C., Prakash, A., Sahoo, B. and<br />
Bandopadhyay, S., 2008. An objective analysis of support vector machine<br />
based classification for remote sensing. Mathematical Geosiences 40, 409–<br />
424.<br />
97. Örmeci, C., 1987. Uzaktan algılama (Temel esaslar ve algılama sistemleri),<br />
İTÜ yayınları, cilt 1, no: 1345, İTÜ Matbaası, İstanbul.<br />
98. Osuna, E. E., Freund, R. and Girosi, F., 1997. Support vector machines:<br />
training and applications, http://cbcl.mit.edu/cbcl/publications/aipublications/1500-1999/AIM-1602.ps<br />
(10.05.2008).<br />
99. Özkan, C., 1998. Uzaktan algılama ver<strong>ileri</strong>yle orman yangını analizi,<br />
Yüksek Lisans Tezi, İTÜ Fen Bilimleri Enstitüsü, İstanbul.<br />
100. Özkan, C., 2001. Uydu görüntü verisinin yapay sinir ağları ile<br />
sınıflandırılması, Doktora tezi, İTÜ Fen Bilimleri Enstitüsü, İstanbul.<br />
101. Özkan, Y., 2008. Veri madenciliği yöntemleri. Papatya yayıncılık eğitim,<br />
İstanbul, 216 s.<br />
102. Pal, M., 2005a. Multiclass approaches for support vector machine based<br />
land cover classification. In Proceedings of Map India, 8th Annual<br />
International Conference and Exhibition in the Field of GIS, GPS, Arial<br />
Photography, and Remote Sensing, New Delhi. Available online at:<br />
www.mapindia.org/2005/papers/pdf/54.pdf (22.10.2008).<br />
103. Pal, M., 2005b. Random forest classifier for remote sensing classification.<br />
International Journal of Remote Sensing, 26, 217-222.
149<br />
104. Pal, M. and Mather, P.M., 2003. An assessment of the effectiveness of<br />
decision tree methods for land cover classification. Remote Sensing of<br />
Environment, 86, 554-565.<br />
105. Pal, M. and Mather, P.M., 2005. Support vector machines for classification<br />
in remote sensing. International Journal of Remote Sensing, 26, 1007–1011.<br />
106. Pal, M., 2002. Factors influencing the accuracy of remote sensing<br />
classifications: a comparative study. PhD thesis, University of Nottingham.<br />
107. Paola, J. D., and Schowengerdt, R. A., 1995. A review and analysis of<br />
backpropagation neural networks for classification of remotely sensed<br />
multi-spectral imagery. International Journal of Remote Sensing, 16, 3033–<br />
3058.<br />
108. Pearson, K., 1895. Contributions to the mathematical theory of evolution,<br />
II: skew variation in homogeneous material, Philosophical Transactions of<br />
the Royal Society of London, 186, 343-414.<br />
109. Piramuthu, S. and Sikora, R.T., 2009. Iterative feature construction for<br />
improving inductive learning algorithms. Expert Systems with<br />
Applications, 3401-3406.<br />
110. Platt, J. C., Cristianini, N., and Shawe-Taylor, J., 2000. Large margin<br />
DAGs for multiclass classification. In S. A. Solla, T. K. Leen, and K. –R.<br />
Müller, eds., Advance in Neural Information Processing Systems, The MIT<br />
Press, 12, 547-553.<br />
111. Quinlan, J. R., 1987. Simplifying decision trees. International Journal of<br />
Man-Machine Studies, 27, 221-234.<br />
112. Quinlan, J. R., 1990. Decision tree and decision making. IEEE Transactions<br />
on Systems, Man, and Cybernetics, 20, 339-346.<br />
113. Quinlan, J. R., 1993. C4.5: Programs for Machine Learning. Morgan<br />
Kaufmann Publishers, San Mateo, CA.
150<br />
114. Quinlan, J. R., 1996. Bagging, boosting, and C4.5. In: Proceedings of the<br />
Thirteenth National Conference on Artificial Intelligence (AAAI-96).<br />
Portland, OR, 725-730.<br />
115. Richards, J.A., 1993. Remote sensing digital image analysis: An<br />
introduction, Second Edition, Springer-Verlag, Berlin.<br />
116. Roli, F., Giacinto, G. and Vernazza, G., 1997. Comparison and combination<br />
of statistical and neural networks algorithms for remote-sensing image<br />
classification. Neurocomputation in Remote Sensing Data Analysis, Austin,<br />
J., Kanellopoulos, I., Roli, F. and Wilkinson G. (Eds.), Berlin: Springer-<br />
Verlag, 117-124.<br />
117. Sabins, F.F., 1987. Remote sensing: Principles and interpretation. Freeman,<br />
New York.<br />
118. Safavian, S. R. and Landgrebe, D., 1991. A survey of decision tree<br />
classifier methodology. IEEE T ransactions on Systems, Man, and<br />
Cybernetics, 21, 660–674.<br />
119. Sarle, W.S., 2008. Neural Network FAQ, (ftp://ftp.sas.com/pub/neural/<br />
FAQ.html).<br />
120. Schapire, R. E., 1999. Theoretical views of boosting and applications. In:<br />
Proceedings of the Tenth International Conference on Algorithmic Learning<br />
Theory, 13 – 25.<br />
121. Schölkopf, B. and Smola, A. J., 2002. Learning with Kernels – Support<br />
Vector Machines, Regularization, Optimization and Beyond. Cambridge,<br />
MA: The MIT Press.<br />
122. Sesören, A., 1999. Uzaktan algılamada temel kavramlar. Mart Matbaacılık<br />
Sanatları Ltd. Şti., İstanbul.<br />
123. Shannon, C.E., 1948. A mathematical theory of communication. Bell<br />
System Technical Journal, 27, 379-423.
151<br />
124. Sherrod, P. H., 2003. Classification and regression trees and support vector<br />
machines for predictive modeling and forecasting. http://www.dtreg.com/<br />
(12.06.2008).<br />
125. Su, L., Chopping M.J., Rango, A., Martonchik, J.V. and Peters, D.P.C.,<br />
2007. Support vector machines for recognition of semi-arid vegetation<br />
types using MISR multi-angle imagery. Remote Sensing of Environment,<br />
107, 299–311.<br />
126. Süslü, A., 2007. Şereflikoçhisar ilçesindeki tarım araz<strong>ileri</strong>nde <strong>uzaktan</strong><br />
algılama yöntemiyle ekili alanların tespiti ve rekolte tahmini. GYTE Fen<br />
Bilimleri Enstitüsü, Yüksek Lisans Tezi, Gebze.<br />
127. Swain, P.H. and Hauska, H., 1977. Decision tree classifier - design and<br />
potential. IEEE Transactions on Geoscience and Remote Sensing, 15, 142-<br />
147.<br />
128. Tatar, Y. ve Tatar, O., 2006. Jeolojide <strong>uzaktan</strong> algılama, Cumhuriyet<br />
Üniversitesi Yayınları, No: 102, Esform Ofset Ltd. Şti., Sivas. 248 s.<br />
129. Tseng, M.H., Chen, S.J., Hwang, G.H. and Shen, M.Y., 2008. A genetic<br />
algorithm rule-based approach for land-cover classification. ISPRS Journal<br />
of Photogrammetry and Remote Sensing, 63, 202-212.<br />
130. Townshend, J. R. G., 1992. Land cover. International Journal of Remote<br />
Sensing, 1319–1328.<br />
131. Ustun, B., Melssen, W.J. and Buydens, L.M.C. 2006. Facilitating the<br />
application of Support Vector Regression by using a universal Pearson VII<br />
function based kernel. Chemometrics and Intelligent Laboratory Systems,<br />
81, 29-40.<br />
132. Vapnik, V. N., 1995. The nature of statistical learning theory. Springer-<br />
Verlag, New York.<br />
133. Vapnik, V.N. and Chervonenkis, A.Ja., 1968. In Russian: on the uniform<br />
convergence of relative frequencies of events to their probabilities. Doklady<br />
Akademii Nauk USR, 181(4). English translation: Uniform convergence of
152<br />
frequencies of occurrence of events to their probabilities. Soviet<br />
Mathematics Doklady, 9, 915–918.<br />
134. Vapnik, V.N. and Chervonenkis, A.Ja., 1971. On the uniform convergence<br />
of relative frequencies of events to their probabilities. Theory of Probability<br />
and its Applications, 16, 264–280.<br />
135. Vapnik, V.N., 2000. The nature of statistical learning theory, Second<br />
Edition. Springer-Verlag, New York.<br />
136. Wang, F., 1990, Fuzzy supervised classification of remote sensing images.<br />
IEEE Transactions on Geoscience and Remote Sensing, 28, 194–201.<br />
137. Webb, G.I., 2000. MultiBoosting: A technique for combining boosting and<br />
wagging. Machine Learning, 40, 159-196.<br />
138. Werbos, P. J., 1995. Backpropagation: Basic and new developments, in The<br />
handbook of brain behaviour and neural networks, ed. Michael A. Arbib,<br />
The MIT Press, Cambridge MA.<br />
139. Weston, J. and Watkins, C., 1998. Multi-class Support Vector Machines.<br />
Royal Holloway, University of London, U. K., Technical Report CSD-TR-<br />
98-04.<br />
140. Wilson, D.R. and Martinez, T.R., 2000. Reduction techniques for instancebased<br />
learning algorithms. Machine Learning, 38:257-286.<br />
141. Yang, J., Ling, X., Zhu, Y. and Zheng, Z., 2008. A face detection and<br />
recognition system in color image series. Mathematics and Computers in<br />
Simulation, 77, 531–539.<br />
142. Yao, X., Tham, L.G. and Dai, F.C., 2008. Landslide susceptibility mapping<br />
based on support vector machine: a case study on natural slopes of Hong<br />
Kong, China. Geomorphology, 101, 572-582.<br />
143. URL-1 : http://www.yildiz.edu.tr/~bayram/sgi/saygi.htm (06.04.2008)<br />
144. URL- 2 : http://nik.com.tr/ (18.07.2008)<br />
145. URL- 3 : http://www.gebze.bel.tr (22.03.2008)<br />
146. URL-4 : http://www.tuik.gov.tr/ (19.03.2008)
153<br />
ÖZGEÇMİŞ<br />
İsmail Çölkesen, 22 Ocak 1981 tarihinde Ankara’da doğdu. Lise eğitimini<br />
Yabancı Dil Ağırlıklı Seyranbağları Lisesinde tamamladıktan sonra, 1999 yılında<br />
Hacettepe Üniversitesi Ankara Meslek Yüksek Okulu Harita ve Kadastro bölümünü<br />
kazandı. 2001 yılında dikey geçiş sınavı ile Karadeniz Teknik Üniversitesi Jeodezi<br />
ve Fotogrametri Mühendisliği’nde lisans eğitimine başladı ve 2004 yılında mezun<br />
oldu. 2005 yılında KTÜ Fen Bilimleri Enstitüsü Jeodezi ve Fotogrametri<br />
Mühendisliği bölümünde yüksek lisans eğitimine başladı. 2006–2007 yılları arasında<br />
aynı bölümde araştırma görevlisi olarak görev yaptı. 2007 yılında Gebze Yüksek<br />
Teknoloji Enstitüsü’nde yüksek lisans eğitimine başladı. 2007 yılının Eylül ayı<br />
içerisinde GYTE Mühendislik Fakültesi Jeodezi ve Fotogrametri Mühendisliği<br />
Bölümü’nde araştırma görevlisi unvanı ile çalışmaya başladı. Halen bu görevi<br />
sürdürmektedir.