15.01.2015 Views

uzaktan algılamada ileri sınıflandırma tekniklerinin karşılaştırılması ...

uzaktan algılamada ileri sınıflandırma tekniklerinin karşılaştırılması ...

uzaktan algılamada ileri sınıflandırma tekniklerinin karşılaştırılması ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

T.C.<br />

GEBZE YÜKSEK TEKNOLOJİ ENSTİTÜSÜ<br />

MÜHENDİSLİK VE FEN BİLİMLERİ ENSTİTÜSÜ<br />

UZAKTAN ALGILAMADA İLERİ<br />

SINIFLANDIRMA TEKNİKLERİNİN<br />

KARŞILAŞTIRILMASI VE ANALİZİ<br />

İsmail ÇÖLKESEN<br />

YÜKSEK LİSANS TEZİ<br />

JEODEZİ VE FOTOGRAMETRİ MÜHENDİSLİĞİ<br />

ANABİLİM DALI<br />

TEZ DANIŞMANI<br />

Doç. Dr. Taşkın KAVZOĞLU<br />

GEBZE<br />

2009


ii<br />

ÖZET<br />

TEZİN BAŞLIĞI: Uzaktan Algılamada İleri Sınıflandırma Tekniklerinin<br />

Karşılaştırılması ve Analizi<br />

YAZAR ADI : İsmail ÇÖLKESEN<br />

Global ve yerel ölçekteki birçok uygulamada yeryüzüne ait doğru ve hassas bilgilere<br />

ihtiyaç duymaktadır. Bu bilgiler çevre kalitesinin analizi, şehircilik faaliyetleri, doğal<br />

kaynakların yönetimi ve planlanması gibi çeşitli uygulamalar için önemli birer kaynak<br />

durumundadır. Uzaktan algılama teknoloj<strong>ileri</strong> farklı konumsal ve spektral çözünürlüklerde,<br />

değişik zaman aralıklarında yeryüzünü görüntüleyebilme kabiliyetine sahip olduğundan bu<br />

bilg<strong>ileri</strong>n elde edilmesinde önemli bir kaynak durumundadır. Bu geniş çalışma alanı içerisinde<br />

<strong>uzaktan</strong> algılamanın en yoğun olarak kullanıldığı alan arazi örtüsü ve arazi kullanımının<br />

belirlenmesidir. Uzaktan algılanmış görüntülerin sınıflandırılması arazi örtüsü ve/veya arazi<br />

kullanımına ait bilg<strong>ileri</strong>nin elde edilmesinde kullanılan en yaygın yöntemdir. Sınıflandırma<br />

sonucu elde edilen tematik haritaların analizi ve yorumlanması ile yeryüzüne ait bilgilere<br />

ulaşmak mümkün olmaktadır. Doğru ve güncel tematik haritaların kullanımı herhangi bir<br />

çalışmanın başarı oranını artırabilir. Literatürde 1972’de ilk uydu görüntüsünün elde<br />

edilmesinden günümüze kadar birçok sınıflandırma yöntemi geliştirilmiş ve çeşitli<br />

derecelerde başarılar elde edilmiştir. Bu yöntemler arasında istatistiksel bir temele dayanan en<br />

çok benzerlik sınıflandırıcısı en yaygın kullanılanıdır. Parametrik yaklaşımların istatistiksel<br />

kabullere dayalı yapıları nedeniyle, son yıllarda <strong>uzaktan</strong> algılanmış görüntülerin<br />

sınıflandırılmasında parametrik olmayan yöntemler (yapay sinir ağları, destek vektör<br />

makineleri ve karar ağaçları) kullanılmaktadır.<br />

Bu tez çalışmasının ikinci bölümünde <strong>uzaktan</strong> algılama ve temel esasları, sayısal<br />

görüntü analizi, sınıflandırma yöntemleri ve çeşitli uydu sistemleri hakkında genel bilgiler<br />

verilmiştir. Çalışmanın üçüncü bölümünde, son yıllarda <strong>uzaktan</strong> algılamada kullanılan <strong>ileri</strong><br />

sınıflandırma tekniklerinden destek vektör makineleri, karar ağaçları, karar ağacı iyileştirme<br />

algoritmaları, yapay sinir ağları ve K-star sınıflandırıcıları ile ilgili literatür taraması<br />

yapılmıştır. Çalışmanın dördüncü bölümü olan uygulama kısmında ise Gebze ilçesini<br />

kapsayan Landsat ETM+ (1997) ve Terra ASTER (2002) görüntülerinin söz konusu<br />

yöntemler ile sınıflandırılarak arazi örtüsü ve kullanımının belirlenmesi amaçlanmıştır. Bu<br />

yöntemler ve elde edilen sonuçlar etkili faktörlerde (parametreler) göz önüne alınarak detaylı


iii<br />

bir şekilde analiz edilmiştir. Sınıflandırıcıların sahip olduğu parametreler ve bu parametrelerin<br />

sınıflandırma doğruluğuna etk<strong>ileri</strong> muhtemel parametre kombinasyonları kullanılarak<br />

incelenmiştir. Son olarak metotların kullanımları ve performansları en çok benzerlik yöntemi<br />

ile karşılaştırılmıştır.<br />

İleri sınıflandırma algoritmaları <strong>uzaktan</strong> algılanmış görüntülerin sınıflandırılmasında<br />

etkili yöntemlerdir. Özellikle parametrik olmayan yapılarıyla destek vektör makineleri, yapay<br />

sinir ağları, iyileştirilmiş karar ağaçları ve K-star sınıflandırıcıları en öneml<strong>ileri</strong>dir. Yüksek<br />

genelleştirme kabiliyetleri ve sınıflandırma performanslarının yanında matematiksel ifadeleri<br />

zor ve karmaşıktır. Sınıflandırma öncesinde kullanıcı tarafından belirlenmesi gereken çeşitli<br />

parametrelere sahiptirler. Parametre seçimi sınıflandırma performanslarını önemli ölçüde<br />

etkilediğinden en uygun parametre değerlerinin belirlenmesinin bu yöntemlerinin<br />

kullanımında karşılaşılan en önemli problem olduğu söylenebilir. En çok benzerlik<br />

sınıflandırıcısı basit bir matematiksel ifadeye sahip olmasına karşın bu çalışmada<br />

değerlendirilen sınıflandırıcılarla karşılaştırıldığında sınıflandırma doğruluğu açısından daha<br />

düşük sonuçlar üretmektedir. Elde edilen sonuçlar <strong>ileri</strong> sınıflandırma <strong>tekniklerinin</strong> <strong>uzaktan</strong><br />

algılanmış görüntülerin sınıflandırılmasında geleneksel sınıflandırıcılara göre iyi ve etkili bir<br />

alternatif olduklarını göstermektedir.


iv<br />

SUMMARY<br />

TITLE : Comparing and Analyzing of Advanced Classifier Techniques in<br />

Remote Sensing<br />

NAME : İsmail ÇÖLKESEN<br />

Accurate and precise information about the Earth’s surface are required for many<br />

applications at global and local scales. This information is invaluable sources in various<br />

applications, such as environmental quality analysis, urban activities, managing and planning<br />

of natural resources. Having a capability of monitoring the Earth’s surface at various spatial<br />

and temporal scales, the remote sensing technology is the only source providing such<br />

information. Within this wide application area determination of land cover and land use<br />

information has been is the most concentrated issue in remote sensing field. Classification of<br />

remotely sensed images has been the way of obtaining to land cover and land use information.<br />

It is possible to acquire such information through the analysis and interpreting of thematic<br />

maps produced after the classification process. The use of accurate and up to date thematic<br />

maps can increase the success rate of any application. Numerous classification algorithms<br />

have been developed and applied in the literature for the classification of remotely sensed<br />

image since the first satellite image was acquired in 1972. Among these algorithms the<br />

maximum likelihood classifier has been the most widely used one that is based on statistical<br />

theory. In order to avoid the assumptions of the parametric approaches, non-parametric<br />

methods (i.e. artificial neural networks, support vector machines and decision trees) have been<br />

recently introduced for the classification of remote sensing images.<br />

In the introduction part of this thesis, general information about the basic principles of<br />

remote sensing, digital image analysis, classification techniques and various satellite systems<br />

are given. In the second part, literature review about the advanced classification techniques<br />

namely support vector machines, decision trees, decision tree enhancement algorithms,<br />

artificial neural networks and K-star classifier are discussed. In the application part (Section<br />

4), the classifiers were employed to determine land cover/use types of Gebze district of<br />

Kocaeli using Landsat ETM+ (1997) and Terra ASTER (2002) images. The methods and their<br />

results were analyzed in detail considering the effective factors (i.e. parameters). Parameters<br />

of the classifiers and their effects on the classification accuracy were also examined by


v<br />

applying possible combinations of the parameters. At the end, comparisons of the methods<br />

were made in terms of their use and performances with the benchmark classifier, the<br />

maximum likelihood.<br />

Advanced classifier algorithms have been reported to be effective in the classification of<br />

remotely sensed images. Especially, support vector machines, neural networks, enhanced<br />

decision trees and K-star classifiers with their non-parametric natures are the most important<br />

ones. Despite they have significant generalization capability and high classification<br />

performances, their mathematical expressions are difficult and complex. In addition, they<br />

have parameters that need to be defined by the analyst before the classification process. It can<br />

be said that determining the optimum parameters is the main problem encountered in the use<br />

of these methods since parameter choices significantly affect the classification performances.<br />

The maximum likelihood classifier has a simple mathematical expression, but they produce<br />

lower results in terms of classification accuracy compared to the classifier considered in this<br />

research. Results show that advanced classifiers are good and effective alternatives to the<br />

traditional parametric classifier for the classification of remotely sensed imagery.


vi<br />

TEŞEKKÜR<br />

Yüksek lisans tez çalışmamda, tez konusunun seçiminden hazırlanmasına<br />

kadar tüm aşamalarında değerli görüşlerinden ve bilgisinden istifade ettiğim tez<br />

danışmanım değerli hocam Sayın Doç.Dr. Taşkın Kavzoğlu’na,<br />

Tez araştırması süresince değerli fikirleri yol gösteren Yrd.Doç.Dr Halis<br />

Saka’ya ve bölümümüzde görev yapmakta olan değerli öğretim elemanlarına,<br />

Bana, her konuda ilgisini ve desteğini hiçbir zaman eksik etmeyen sevgili eşim<br />

Solmaz Çölkesen’e ve değerli aileme;<br />

Teşekkürlerimi sunarım.


vii<br />

İÇİNDEKİLER DİZİNİ<br />

Sayfa<br />

ÖZET<br />

ii<br />

SUMMARY<br />

iv<br />

TEŞEKKÜR<br />

vi<br />

İÇİNDEKİLER DİZİNİ<br />

vii<br />

ŞEKİLLER DİZİNİ<br />

xi<br />

TABLOLAR DİZİNİ<br />

xv<br />

1. GİRİŞ 1<br />

2. UZAKTAN ALGILAMA VE TEMEL ESASLARI 4<br />

2.1. Işık Kaynağı ve Elektromanyetik Enerji 4<br />

2.2. Atmosferik Etkiler 6<br />

2.3. Atmosferik Pencereler ve Nesnelerin İmzası 7<br />

2.4. Uzaktan Algılamada Çözünürlük Kavramı 11<br />

2.4.1. Konumsal Çözünürlük 12<br />

2.4.2. Spektral Çözünürlük 14<br />

2.4.3. Radyometrik Çözünürlük 14<br />

2.4.5. Zamansal Çözünürlük 15<br />

2.5. Uzaktan Algılamada Görüntü Analiz Sistemleri 16<br />

2.5.1. Ön İşlem 16<br />

2.5.2. Görüntü İyileştirme 18<br />

2.5.3. Görüntü Dönüşümleri 19<br />

2.5.4. Görüntü Sınıflandırma ve Analiz 20<br />

2.5.4.1. Kontrolsüz Sınıflandırma 21<br />

2.5.4.2. Kontrollü Sınıflandırma 22<br />

2.5.4.2.1. En Kısa Uzaklık Sınıflandırıcısı 23<br />

2.5.4.2.2. Paralel Kenar Sınıflandırıcısı 24<br />

2.5.4.2.3. Mahalanobis Uzaklığı Sınıflandırıcısı 25<br />

2.5.4.2.4. En Çok Benzerlik Sınıflandırma Algoritması 26<br />

2.6. Uzaktan Algılama Uyduları 27<br />

2.6.1. LANDSAT Uydu Sistemi 27


viii<br />

2.6.2. TERRA Uydu Sistemi 29<br />

2.6.3. SPOT Uydu Sistemi 29<br />

3. UZAKTAN ALGILAMADA İLERİ SINIFLANDIRMA TEKNİKLERİ 31<br />

3.1. Destek Vektör Makineleri 31<br />

3.1.1. Doğrusal Olarak Ayrım Yapılabilen Veriler 33<br />

3.1.2. Doğrusal Olmayan Veriler 37<br />

3.1.3. Doğrusal Olmayan Destek Vektör Makineleri 41<br />

3.1.4. Çok Sınıflı Destek Vektör Makineleri 43<br />

3.1.5. DVM ile Sınıflandırmada Veri Ön İşleme ve Model Seçimi 46<br />

3.2. Karar Ağaçları 48<br />

3.2.1. Karar Ağacı Oluşturulmasında Kullanılan Yöntemler 51<br />

3.2.1.1. Aşağıdan-Yukarıya Yaklaşımı 52<br />

3.2.1.2. Yukarıdan-Aşağıya Yaklaşımı 52<br />

3.2.1.2.1. Karar Ağaçlarında Dallanma Kriterleri ve Öznitelik Seçimi 54<br />

3.2.1.2.2. Bilgi Kazancı ve Bilgi Kazanç Oranı Kriterleri 54<br />

3.2.1.2.3. Gini İndeksi 57<br />

3.2.1.2.4. Towing Kuralı 58<br />

2<br />

3.2.1.2.5. Ki-Kare Olasılık Tablo İstatistiği ( χ )<br />

58<br />

3.2.1.3. Melez Yaklaşım 59<br />

3.2.1.4. Gelişme-Budama Yöntemi 60<br />

3.2.2. Veri Ayırma Yöntemine Dayalı Karar Ağacı Sınıflandırma Algoritmaları 60<br />

3.2.2.1. Tek değişkenli Karar Ağaçları 61<br />

3.2.2.2. Çok Değişkenli Karar Ağaçları 62<br />

3.2.2.3. Melez Karar Ağacı Sınıflandırıcısı 64<br />

3.2.3. Karar Ağaçlarının Budanması 65<br />

3.2.4. Karar Ağaçlarının İyileştirilmesinde Kullanılan Yöntemler 68<br />

3.2.4.1. Hızlandırma 69<br />

3.2.4.2. Torbalama 71<br />

3.2.4.3. Çoklu Hızlandırma 73<br />

3.2.4.4. Rastgele Orman 73<br />

3.2.4.5. DECORATE Algoritması 75<br />

3.3. Yapay Sinir Ağları 75<br />

3.3.1. Biyolojik ve Yapay Sinir Ağlarının Çalışma Prensibi 76


ix<br />

3.3.2. Yapay Sinir Ağlarının Sınıflandırılması 79<br />

3.3.2.1. Yapılarına Göre Yapay Sinir Ağları 79<br />

3.3.2.1.1. İleri Beslemeli Yapay Sinir Ağları 79<br />

3.3.2.1.2. Geri Beslemeli Yapay Sinir Ağları 80<br />

3.3.2.2. Öğrenme Algoritmalarına Göre Yapay Sinir Ağları 80<br />

3.3.2.2.1. Kontrollü Öğrenme 80<br />

3.3.2.2.2. Kontrolsüz Öğrenme 81<br />

3.3.2.2.3. Takviyeli Öğrenme 81<br />

3.3.3. Çok Katmanlı Perseptron 81<br />

3.3.3.1. Öğrenme Algoritmaları 82<br />

3.3.4. Yapay Sinir Ağları ile Görüntü Sınıflandırma 85<br />

3.4. Örnek Tabanlı Öğrenme ve K-Star Sınıflandırıcısı 87<br />

4. UYGULAMA 93<br />

4.1. Çalışma Alanı 93<br />

4.2. Uygulama Konusu ve Amacı 94<br />

4.3. Kullanılan Veri ve Yazılımlar 94<br />

4.4. Uygulama Aşamaları 95<br />

4.4.1. Uydu Görüntülerinin Geometrik Düzeltilmesi ve Yeniden Örneklenmesi 95<br />

4.4.2. Arazi Örtüsü Sınıfları ve Eğitim Alanlarının Belirlenmesi 96<br />

4.4.3. Uydu Görüntülerinin Sınıflandırılması 97<br />

4.4.3.1. En Çok Benzerlik Yöntemi ile Sınıflandırma 98<br />

4.4.3.2. Destek Vektör Makineleri ile Sınıflandırma 99<br />

4.4.3.2.1. Polinom Kernel Fonksiyonu ile Sınıflandırma 100<br />

4.4.3.2.2. Radyal Tabanlı Kernel Fonksiyonu ile Sınıflandırma 104<br />

4.4.3.2.3. Pearson VII Fonksiyonu ile Sınıflandırma 108<br />

4.4.3.3. Karar Ağaçları ile Sınıflandırma 111<br />

4.4.3.3.1. C4.5 Karar Ağacı Algoritması ile Sınıflandırma 111<br />

4.4.3.3.2. Karar Ağacı İyileştirme Algoritmaları ile Sınıflandırma 115<br />

4.4.3.3.2.1. Hızlandırma Algoritması İle Sınıflandırma 115<br />

4.4.3.3.2.2. Torbalama Algoritması İle Sınıflandırma 117<br />

4.4.3.3.2.3. Çoklu Hızlandırma Algoritması İle Sınıflandırma 119<br />

4.4.3.3.2.4. Rastgele Orman Algoritması İle Sınıflandırma 122<br />

4.4.3.3.2.5. DECORATE Algoritması İle Sınıflandırma 125


x<br />

4.4.3.4. Yapay Sinir Ağları ile Sınıflandırma 128<br />

4.4.3.5. K-Star Algoritması İle Sınıflandırma 129<br />

5. SONUÇLAR VE ÖNERİLER 132<br />

KAYNAKLAR DİZİNİ 139<br />

ÖZGEÇMİŞ 153


xi<br />

ŞEKİLLER DİZİNİ<br />

Şekil<br />

Sayfa<br />

2.1. Elektromanyetik dalgalar. 5<br />

2.2. Elektromanyetik spektrum ve <strong>uzaktan</strong> algılamada kullanılan bölgeleri. 6<br />

2.3. Toprak, bitki ve su için genelleştirilmiş spektral yansıtım grafiği. 10<br />

2.4. Uzaktan algılama uyduları için anlık görüş alanının açısal ve uzunluk<br />

olarak ifadesi.<br />

2.5. Konumsal çözünürlük kavramı. (a) 1 metre, (b) 10 metre, (c) 30 metre<br />

çözünürlüklü görüntüler.<br />

13<br />

13<br />

2.6. En kısa uzaklık (spektral uzaklık) sınıflandırıcısı. 24<br />

2.7. Paralelkenar sınıflandırıcısı. 25<br />

3.1. İki sınıflı bir problemde ver<strong>ileri</strong> ayıran hiper düzlemler. 32<br />

3.2. İki sınıflı bir problemde en uygun hiper düzlem, sınır ve destek<br />

vektörleri.<br />

3.3. Doğrusal olarak ayrılabilen veri setleri için hiper düzlemin<br />

belirlenmesi.<br />

32<br />

35<br />

3.4. Doğrusal olarak ayrılamayan veri seti. 38<br />

3.5. Ayrım yapılamayan veri setleri için hiper düzlemler. 38<br />

3.6. Doğrusal olmayan verin yüksek boyutlu uzaya dönüşümü ve verinin<br />

doğrusal olarak ayrılması.<br />

3.7. Beş boyutlu bir özellik uzayı ve üç sınıf için bir sınıflandırma ağacı.<br />

Şekilde xi<br />

özellik değerlerini, ηi<br />

eşik değerlerini ve Y ise sınıf<br />

etiketlerini göstermektedir.<br />

41<br />

51<br />

3.8. Tek değişkenli karar ağacının paralel eksenli karar sınırları. 61<br />

3.9. Çok değişkenli karar ağacı sınıflandırıcısı için karar sınırları. 63<br />

3.10. Melez karar ağacı sınıflandırıcısına ait örnek bir yapı. 64<br />

3.11. Karar ağacı sınıflandırıcısının birleşimi olan sınıflandırıcı. 69<br />

3.12. Biyolojik nöronun genel yapısı ve bileşenleri. 77


xii<br />

3.13. Yapay nöronun genel yapısı ve bileşenleri. 78<br />

3.14. Dört tabakalı <strong>ileri</strong> beslemeli basit bir çok katmanlı perseptron ağı. 82<br />

4.1. Çalışma alanı haritası. 93<br />

4.2. En çok benzerlik yöntemiyle elde edilen tematik haritalar.<br />

(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />

4.3. Landsat ETM+ uydu görüntüsü için düzenleme parametresi C’deki<br />

değişimlerin sınıflandırma doğruluğuna etkisi.<br />

4.4. Terra ASTER uydu görüntüsü için düzenleme parametresindeki (C)<br />

değişimlerin sınıflandırma doğruluğuna etkisi.<br />

4.5. Landsat ETM+ uydu görüntüsü için polinom derecesindeki (d)<br />

değişimlerin sınıflandırma doğruluğuna etkisi.<br />

4.6. Terra ASTER uydu görüntüsü için polinom derecesindeki (d)<br />

değişimlerin sınıflandırma doğruluğuna etkisi.<br />

4.7. Polinom kernel fonksiyonu kullanılarak elde edilen tematik haritalar.<br />

(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />

4.8. Landsat ETM+ uydu görüntüsü için düzenleme parametresi C’deki<br />

değişimlerin sınıflandırma doğruluğuna etkisi.<br />

4.9. Terra ASTER uydu görüntüsü için düzenleme parametresi C’deki<br />

değişimlerin sınıflandırma doğruluğuna etkisi.<br />

4.10. Landsat ETM+ uydu görüntüsü için Gama parametresindeki (γ )<br />

değişimlerin sınıflandırma doğruluğuna etkisi.<br />

4.11. Terra ASTER uydu görüntüsü için Gama parametresindeki (γ )<br />

değişimlerin sınıflandırma doğruluğuna etkisi.<br />

4.12. Radyal Tabanlı kernel fonksiyonu kullanılarak elde edilen tematik<br />

haritalar. (a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />

4.13. Landsat ETM+ uydu görüntüsü için düzenleme parametresindeki (C)<br />

değişimlerin sınıflandırma doğruluğuna etkisi.<br />

4.14. Terra ASTER uydu görüntüsü için düzenleme parametresindeki (C)<br />

değişimlerin sınıflandırma doğruluğuna etkisi.<br />

4.15. PUK fonksiyonu kullanılarak elde edilen tematik haritalar.<br />

(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />

4.16. Landsat ETM+ görüntüsünün sınıflandırılması için (a) budama<br />

öncesi, (b) budama sonrası oluşturulan modeller.<br />

99<br />

101<br />

101<br />

102<br />

102<br />

103<br />

104<br />

105<br />

106<br />

106<br />

107<br />

109<br />

109<br />

110<br />

114


xiii<br />

4.17. C4.5 algoritması ve ön budama yöntemiyle oluşturulan tematik<br />

haritalar. (a) Landsat ETM+ görüntüsü (b) Terra ASTER görüntüsü.<br />

4.18. Landsat ETM+ için oluşturulacak modelde seçilecek iterasyon sayısı<br />

ve elde edilen sınıflandırma doğrulukları.<br />

4.19. Terra ASTER için oluşturulacak modelde seçilecek iterasyon sayısı<br />

ve elde edilen sınıflandırma doğrulukları.<br />

4.20. Hızlandırma algoritması ile elde edilen tematik haritalar.<br />

(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />

4.21. Landsat ETM+ için oluşturulacak modelde seçilecek iterasyon sayısı<br />

ve elde edilen sınıflandırma doğrulukları.<br />

4.22. Terra ASTER için oluşturulacak modelde seçilecek iterasyon sayısı<br />

ve elde edilen sınıflandırma doğrulukları.<br />

4.23. Torbalama yöntemiyle elde edilen tematik haritalar.<br />

(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />

4.24. Landsat ETM+ için alt komitelerin sayısı ve sınıflandırma<br />

doğrulukları.<br />

114<br />

115<br />

116<br />

116<br />

117<br />

118<br />

118<br />

119<br />

4.25. Landsat ETM+ için iterasyon sayısı ve sınıflandırma doğrulukları. 120<br />

4.26. Terra ASTER için oluşturulacak modelde seçilecek alt komitelerin<br />

sayısı ve elde edilen sınıflandırma doğrulukları.<br />

4.27. Terra ASTER için oluşturulacak modelde seçilecek iterasyon sayısı<br />

ve elde edilen sınıflandırma doğrulukları.<br />

4.28. Çoklu hızlandırma algoritması ile elde edilen tematik haritalar.<br />

(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />

4.29. Landsat ETM+ görüntüsü için çeşitli sayıdaki özellikler ile genel<br />

sınıflandırma doğruluğundaki değişimler.<br />

4.30. Landsat ETM+ görüntüsü için üç özellik kullanılarak oluşturulacak<br />

ağaç sayıları ile genel sınıflandırma doğruluğundaki değişimler.<br />

4.31. Terra ASTER görüntüsü için çeşitli sayıdaki özellikler ile genel<br />

sınıflandırma doğruluğundaki değişimler.<br />

4.32. Terra ASTER görüntüsü için her bir düğümde iki özellik ile<br />

oluşturulacak ağaç sayıları ve genel sınıflandırma doğruluğundaki<br />

değişimler.<br />

4.33. Rastgele orman algoritması ile elde edilen tematik haritalar.<br />

(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />

120<br />

121<br />

122<br />

123<br />

123<br />

124<br />

124<br />

125


xiv<br />

4.34. DECORATE algoritması kullanılarak elde edilen tematik haritalar.<br />

(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />

4.35. Yapay sinir ağları kullanılarak elde edilen tematik haritalar.<br />

(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />

4.36. Landsat ETM+ görüntüsü için harmanlama parametresi ve genel<br />

sınıflandırma doğruluğundaki değişimler.<br />

4.37. Terra ASTER görüntüsü için harmanlama parametresi ve genel<br />

sınıflandırma doğruluğundaki değişimler.<br />

4.38. K-star algoritması kullanılarak elde edilen tematik haritalar.<br />

(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü<br />

5.1. Landsat ETM+ ve Terra ASTER görüntüsünün sınıflandırılmasında<br />

kullanılan yöntemler ve elde edilen genel sınıflandırma doğrulukları.<br />

127<br />

129<br />

130<br />

130<br />

131<br />

132


xv<br />

TABLOLAR DİZİNİ<br />

Tablo<br />

Sayfa<br />

2.1. Landsat uydularının teknik özellikleri 28<br />

2.2. Terra ASTER uydusunun teknik özellikleri 29<br />

2.3. SPOT uydularının teknik özellikleri 30<br />

3.1. Kernel fonksiyonları ve kullanımları 43<br />

3.2. Adaboost yönteminde kullanılan eğitim ver<strong>ileri</strong>nin oluşturulması 71<br />

3.3. Torbalama yönteminde kullanılan eğitim ver<strong>ileri</strong>nin oluşturulması 72<br />

4.1. En Çok Benzerlik (EÇB) yöntemi ile elde edilen sınıflandırma<br />

doğrulukları<br />

4.2. Polinom kernel fonksiyonu için belirlenen en uygun parametre<br />

değerleri ve elde edilen genel sınıflandırma doğrulukları<br />

4.3. Radyal Tabanlı Fonksiyon Kerneli için belirlenen en uygun parametre<br />

değerleri ve elde edilen genel sınıflandırma doğrulukları<br />

4.4. Pearson VII fonksiyonu için belirlenen en uygun parametre değerleri<br />

ve elde edilen genel sınıflandırma doğrulukları<br />

4.5. Landsat ETM+ ve Terra ASTER görüntülerin budama yapılmaksızın<br />

oluşturulan karar ağaçları ile sınıflandırılması ile elde edilen sonuçlar<br />

4.6. Landsat ETM+ ve Terra ASTER görüntülerin ön budama yöntemiyle<br />

oluşturulan karar ağaçları ile sınıflandırılması ile elde edilen sonuçlar<br />

4.7. DECORATE algoritması için belirlenen en uygun parametre değerleri<br />

ve elde edilen genel sınıflandırma doğrulukları<br />

5.1. 1997 ve 2002 yıllarında arazi kullanımında meydana gelen<br />

değişimlerin analizi<br />

98<br />

103<br />

107<br />

110<br />

112<br />

113<br />

127<br />

137


1<br />

1. GİRİŞ<br />

Uzaktan algılama teknoloj<strong>ileri</strong>nin kullanıldığı en önemli uygulama alanlarından<br />

birisi uydu görüntüleri yardımıyla arazi örtüsü ve/veya arazi kullanımının<br />

belirlenerek tematik haritalarının üretilmesidir. Arazi örtüsü ve/veya kullanımının<br />

belirlenmesi gerek planlama gerekse doğal çevrenin korunması açısından son derece<br />

önemlidir. Uzaktan algılama teknoloj<strong>ileri</strong>nin sahip olduğu en önemli avantajlar farklı<br />

konumsal, spektral, radyometrik ve zamansal çözünürlüklere sahip görüntüleri<br />

kullanma imkanı vermesidir. Zamansal çözünürlük özellikle arazi<br />

örtüsü/kullanımında meydana gelen değişimlerin tespit edilmesi ve sürdürülebilir<br />

çevre açısından önem kazanmaktadır.<br />

Uydu görüntüleri üzerinden arazi örtüsü/kullanımının belirlenmesi için en<br />

yaygın olarak kullanılan yöntem söz konusu görüntülerin sınıflandırılmasıdır.<br />

Görüntü sınıflandırma işleminin esası görüntü üzerindeki çeşitli spektral özelliklere<br />

sahip piksellerin, önceden belirlenen arazi örtüsü sınıflarından benzer olduğu bir<br />

sınıfa atanması olarak ifade edilebilir. Uzaktan algılamada uydu görüntülerinin<br />

sınıflandırılmasında kontrollü ve kontrolsüz sınıflandırma olarak bilinen iki yaklaşım<br />

vardır. Kontrolsüz sınıflandırma genellikle arazi hakkında herhangi bir ön bilgiye<br />

sahip olunmadığında veya arazi hakkında bir ön bilgi elde etmek için kullanılan bir<br />

yaklaşımdır. Bu yöntemde görüntü piksellerinin sahip olduğu spektral özellikler<br />

kullanılarak benzer özelliklere sahip piksellerin spektral sınıflar oluşturması ile işlem<br />

gerçekleştirilir. Kontrollü sınıflandırma olarak bilinen yaklaşımda sınıflandırma<br />

öncesinde tüm görüntüyü temsil eden ve sınıfları belli olan sınırlı sayıdaki piksellerin<br />

kullanımı söz konusudur.<br />

Kontrollü sınıflandırma yöntemlerinden literatürde en yaygın olarak kullanılan<br />

ve günümüzde görüntü analiz programlarının birçoğunda yer alan yöntem en çok<br />

benzerlik (EÇB) yöntemidir. EÇB istatistiksel bir teoriye dayanan parametrik bir<br />

sınıflandırma yöntemidir. Sınıfların normal dağılımda olduğu varsayımı nedeniyle<br />

sınırlandırmalar söz konusu olmasına rağmen bu yöntem en yaygın kullanılan<br />

sınıflandırma metotlarından birisidir [Wang, 1990; Hansen et al., 1996]. Son yıllarda


2<br />

<strong>uzaktan</strong> algılanmış görüntülerin sınıflandırılmasında kullanılmaya başlanılan yapay<br />

sinir ağları, destek vektör makineleri, karar ağaçları ve örnek tabanlı sınıflandırıcılar<br />

gibi güçlü ve yüksek genelleştirme kabiliyetine sahip kontrollü sınıflandırma<br />

yöntemleri uygulamalarda yer almaktadır.<br />

Başlangıçta iki sınıflı ver<strong>ileri</strong>n sınıflandırılmasında kullanılan destek vektör<br />

makineleri (DVM) sınıflar arasındaki en uygun ayrımı yapan bir hiper düzlemin<br />

belirlenmesi esasına dayanmaktadır. DVM <strong>uzaktan</strong> algılanmış görüntülerde olduğu<br />

gibi çok sınıflı ve doğrusal olmayan ver<strong>ileri</strong>n sınıflandırılmasında kernel<br />

fonksiyonlarını kullanarak veriyi daha yüksek boyutlu bir uzayda görüntülemekte ve<br />

doğrusal olarak ayrımını gerçekleştirmektedir [Huang et al., 2002].<br />

Karar ağaçları (KA) uydu görüntülerinin sınıflandırılması gibi karmaşık<br />

yapıdaki bir sınıflandırma problemini çok aşamalı bir hale getirerek bir karar verme<br />

işlemi gerçekleştirir [Safavaian and Landgrebe, 1991]. Her bir aşamada kullanılan<br />

değişkenlerin sayısına bağlı olarak tek değişkenli veya çok değişkenli karar ağaçları<br />

vardır [Friedl and Brodley, 1997]. Tek değişkenli karar ağaçları genellikle küresel<br />

ölçekte arazi örtüsü sınıflandırmaları için kullanılmaktadır [DeFries et al., 1998;<br />

Hansen et al., 2000]. Çok değişkenli karar ağaçları tek değişkenli karar ağaçlarına<br />

göre daha hassas olmalarına rağmen, daha karmaşık algoritmalar içermektedirler.<br />

Literartürde karar ağaçlarının sınıflandırma performansını arttırmaya yönelik çeşitli<br />

yaklaşımlar geliştirilmiştir. Bunlar arasında en çok kullanılan yaklaşım birden çok<br />

sınıflandırıcının birleştirilerek tek bir sınıflandırıcının elde edilmesi ve sonuç<br />

sınıflandırıcının kullanılması olarak ifade edilen yaklaşımdır [Opitz and Maclin,<br />

1999; Pal and Mather, 2003]. Hızlandırma, torbalama, çoklu hızlandırma, rastgele<br />

orman ve DECORATE algoritmaları birleştirme işleminde kullanılana<br />

algoritmalardan en öneml<strong>ileri</strong>dir. Bu algoritmalar temel olarak yeniden örneklenen<br />

eğitim setleri ile sınıflandırıcıların ayrı ayrı eğitilmesi ve sonuçta ortaya çıkan<br />

tahminler ile sınıflandırma işleminin gerçekleştirilmesi işlemlerini içermektedirler.<br />

Yapay sinir ağları insan beynindeki nöronların temel çalışma prensibini esas<br />

alan sınıflandırma yöntemleridir. Eğitim örneklerini kullanarak problemi öğrenmekte<br />

ve test ver<strong>ileri</strong> ile yöntemin geçerliliği test edilmektedir. YSA algoritmalarının<br />

istatistiksel kabul gerektirmemeleri, farklı kaynaklardan gelen farklı karakterdeki


3<br />

bilg<strong>ileri</strong> aynı anda kolaylıkla kullanabilmeleri, gürültüyü tolere edebilmeleri ve<br />

öğrenebilme kabiliyetlerinden dolayı bu konuda birçok araştırma yapılmasına neden<br />

olmuştur. Günümüzde birçok yapay sinir ağı modeli geliştirilmiştir [Lippman, 1987].<br />

Bunlar arasında çok katmanlı perseptron (ÇKP) <strong>uzaktan</strong> algılanan görüntülerin<br />

sınıflandırılmasında en yaygın olarak kullanılan [Paola and Schowengerdt, 1995;<br />

Atkinson and Tatnall, 1997] yöntem olmuştur.<br />

Örnek tabanlı sınıflandırıcılar, pikseller arasındaki spektral uzaklıkların yada<br />

benzerliklerin belirlenmesi ile sınıflandırma işlemini gerçekleştiren yöntemlerdir.<br />

Söz konusu uzaklıkların belirlenmesinde çeşitli uzaklık (benzerlik)<br />

fonksiyonlarından yararlanmaktadırlar. Cleary and Trig (1997) tarafından önerilmiş<br />

K-star sınıflandırıcısı pikseller arasındaki uzaklığın belirlenmesinde bilgi teorisine<br />

dayanan entropik uzaklık ölçüsünü kullanmaktadır.<br />

Bu tez çalışmasında Kocaeli ili, Gebze ilçesini kapsayan 1997 ve 2002 tarihli<br />

Landsat ETM+ ve Terra ASTER uydu görüntüleri üzerinden arazi<br />

örtüsü/kullanımının belirlenerek, tematik haritaların elde edilmesi amaçlanmıştır.<br />

Sınıflandırma işleminde en çok benzerlik sınıflandırıcısının yanında tez kapsamında<br />

detaylı olarak incelenen <strong>ileri</strong> sınıflandırma tekniklerinden yapay sinir ağları, destek<br />

vektör makineleri, karar ağaçları ve K-star sınıflandırıcıları kullanılmıştır. Bu<br />

tekniklerin yanında hızlandırma, torbalama, çoklu hızlandırma, rastgele orman ve<br />

DECORATE algoritmaları kullanılarak karar ağacı performansında meydana gelen<br />

değişimler analiz edilmiştir. Söz konusu <strong>ileri</strong> sınıflandırma <strong>tekniklerinin</strong><br />

kullanımında kullanıcı tarafından belirlenmesi esas olan parametreler ve bu<br />

parametrelerin sınıflandırma sonucuna etk<strong>ileri</strong> araştırılmış ve elde edilen sonuçlar<br />

analiz edilmiştir. Yöntemler için belirlenen en uygun parametre değerleri<br />

kullanılarak oluşturulan modeller ile Landsat ETM+ ve Terra ASTER görüntüleri<br />

sınıflandırılmış ve çalışma alanına ait arazi örtüsü/kullanımını gösteren tematik<br />

haritalar oluşturulmuştur. Çalışmada kullanılan tüm sınıflandırma yöntemleri<br />

karşılaştırılarak <strong>uzaktan</strong> algılanmış görüntülerin sınıflandırılmasında kullanımları,<br />

olumlu ve olumsuz yönleri değerlendirilerek irdelenmiştir.


4<br />

2. UZAKTAN ALGILAMA VE TEMEL<br />

ESASLARI<br />

Uzaktan algılama bir cisimle direkt temas etmeksizin onun fiziksel özellikleri<br />

hakkında bilgi elde etme bilimi olarak tanımlanmaktadır [Lillesand and Kiefer,<br />

1994]. Yeryüzünden belirli uzaklıkta, atmosferde veya uzayda hareket eden<br />

platformlara yerleştirilmiş ölçüm aletleriyle objelerle fiziksel temasa geçilmeksizin,<br />

yeryüzünün doğal ve yapay objeleri hakkında bilgi alma ve bunları değerlendirme<br />

tekniğidir [Sesören, 1999]. Jeoloji, ormancılık, hidroloji, tarım, şehircilik gibi bilim<br />

dalları <strong>uzaktan</strong> algılamanın uygulamalarının bulunduğu, bütünleştiği bilim dalıdır.<br />

Uzaktan algılamada uydular üzerinde taşınan algılayıcılar ile yapılan gözlem ve<br />

ölçümler dikkate alınmaktadır. Uzaktan algılama sistemlerinde ölçülen nicelik,<br />

ilgilenilen cisimden yayılan elektromanyetik enerjidir. Uydular veya hava araçları<br />

üzerinde taşınan aletlerle yapılan gözlem ve ölçümlerde elektromanyetik enerjiden<br />

yararlanılır [Kavzoğlu, 2008].<br />

2.1. Işık Kaynağı ve Elektromanyetik Enerji<br />

Uzaktan algılama teknoloj<strong>ileri</strong> ile yeryüzündeki objelerin algılanabilmesinde<br />

ilk gereksinim algılanmış enerji hedeften yayılmadıkça hedefi aydınlatmak için bir<br />

enerji kaynağına sahip olunmasıdır. Uzaktan algılamada kullanılan en önemli enerji<br />

kaynağı güneştir. Elektromanyetik enerji elektromanyetik dalgalar olarak yeryüzüne<br />

ulaşır. Işık bir enerjidir ve güneşten gelen elektromanyetik dalgalar halinde<br />

yeryüzüne ulaşır. Bu enerji elektromanyetik radyasyon şeklindedir. Uzaktan<br />

algılamada, enerjinin ışıma yolu ile taşınması elektromanyetik radyasyon olarak<br />

ifade edilir. Şekil 2.1’de genel yapısı gösterilen elektromanyetik radyasyon (EMR)<br />

bir elektriksel alan (E) ve elektriksel alana dik yönde bir manyetik alandan (M)<br />

oluşur. Bu alanlarda ışık hızında hareket eden sinüzoidal yapıdaki dalgaların her ikisi<br />

de yayılma yönüne dik açı yapmaktadırlar.


5<br />

Şekil 2.1. Elektromanyetik dalgalar.<br />

Bir elektromanyetik dalga tepesinden diğerine olan uzaklığa dalga boyu denir.<br />

Birim zamanda sabit bir noktadan geçen dalga sayısı veya saniyedeki titreşim sayısı<br />

frekans olarak adlandırılır. Elektromanyetik enerjinin yayılma hızı aynı ortam<br />

içerisinde her yerde sabit olup 3x10 8 m/sn dir.<br />

Elektromanyetik spektrum (EMS), 3x10 8 m/sn hızla hareket eden, dalga<br />

uzunluğu nanometreden kilometreye kadar uzanan sürekli enerji ortamıdır. Bütün<br />

cisimler az veya çok elektromanyetik enerji yayarlar. Elektromanyetik spektrum<br />

yapılan çalışmalarda kolaylık sağlanması açısından belirli bölgelere ayrılmıştır.<br />

Ancak bu bölgeler arasında kesin bir sınır yoktur ve bazı kısımları çakışabilmektedir<br />

[Sesören, 1999]. Şekil 2.2’de elektromanyetik manyetik spektrum ve belirlenen<br />

bölgeleri gösterilmektedir. Bu bölgelerden yaklaşık olarak 0.4 µm ile 0.7 µm arası<br />

görünür bölge olarak adlandırılmakta ve insan gözünün görebildiği dalga boyu<br />

aralığını ifade etmektedir. Görünür bölge dalga boyu aralığı içerisinde 0.4 µm ile 0.5<br />

µm mavi, 0.5 µm ile 0.6 µm yeşil ve 0.6 µm ile 0.7 µm kırmızı renge karşılık gelen<br />

dalga boylarıdır. Kızıl ötesi ışınlar özellikle de yakın kızıl ötesi; bitkilerde var olan<br />

klorofile duyarlıdır. Mikro dalga ışınlar ise yükseklik ve neme ilişkin çalışmalarda<br />

daha çok kullanılır. 0.4 µm 1.5 µm arası bitki, toprak ve kimyasal araştırmalar için<br />

kullanılmaktadır. Termal bantlar yeryüzü ısısını gösterirler. Bu bantlar özellikle<br />

jeolojik çalışmalar için önemlidir. Mineral, petrol ve kimya türü belirlenmesini bu<br />

bantlar yardımıyla yapabilmektedir. Özellikle gece ve gündüz algılanmış görüntüler<br />

bu araştırmalara yardımcı olur. Uzaktan algılanmış görüntülerin bilgisayarda<br />

görüntülenmesinde sadece üç ana renge atama yapabileceğimizden seçeceğimiz üç<br />

bantla False-Color görüntüleme yapılabilir [Kavzoğlu, 2008].


6<br />

Dalga Boyu (metre)<br />

Radyo Mikrodalga Kızılötesi Görünür Mor Ötesi X - ışını Gama - ışını<br />

Frekans (Hz)<br />

Şekil 2.2. Elektromanyetik spektrum ve <strong>uzaktan</strong> algılamada kullanılan bölgeleri.<br />

2.2. Atmosferik Etkiler<br />

Güneşten yayılan elektromanyetik enerji yeryüzüne ulaşmadan önce yoğun bir<br />

atmosfer tabakasından geçişi ve atmosferi oluşturan bileşenler ile etkileşimi söz<br />

konusudur. Bu enerjinin atmosferi oluşturan bileşenlerle etkileşimi sonucunda enerji<br />

bir takım değişikliklere uğrar. Başka bir ifadeyle ver<strong>ileri</strong>n uçak veya uydu alıcıları<br />

tarafından algılanmalarında, algılayıcı ile hedef arasındaki atmosfer ve ışınım<br />

kaynağı ile hedef arasındaki atmosfer ver<strong>ileri</strong> etkiler. Atmosfer <strong>uzaktan</strong> algılama<br />

ver<strong>ileri</strong>ni saçılma ve soğurulma olmak üzere iki şekilde etkileyebilir. Saçılım,<br />

ışınımın atmosferdeki taneciklerinden yansıması veya kırılması ile oluşur. Bu<br />

tanecikler atmosferi oluşturan gaz molekülleri, toz tanecikleri ve su damlacıklarıdır.<br />

Genel varsayım, ister güneşten gelsin ister yeryüzünden yansısın saçılan ışınımın<br />

zayıflamayıp sadece yeniden yönlendiğidir. Bu yeniden yönlenme genel olarak dalga<br />

boyuna bağlıdır. Saçılmayan ışınım ise, dalga boyuna bağlı olarak atmosfer<br />

tarafından soğurulur ve sonuçta atmosfer, soğurulan bu ışınım tarafından ısınır. Hiç<br />

soğurulma olmaması halinde saf saçılma olur. Bu durumda sadece enerji yeniden<br />

yönlenmiş olur. Uzaktan algılamada saçılımın etkisi, algılayıcının enerjinin bir<br />

bölümünü kaydedememesidir.


7<br />

Saçılım, teorik olarak saçılan ışınımın dalga boyu ile saçılıma neden olan<br />

taneciklerin büyüklüğü arasındaki bağıntıya bağlı olarak üç farklı kategoriye<br />

ayrılabilir. Bunlar Rayleigh, Mie ve Seçici olmayan saçılımlardır.<br />

Rayleigh Saçılımı, ışının dalga boyunun, saçan taneciklerden çok daha büyük<br />

olması halinde oluşur. Bu saçılım sayesinde, gökyüzü mavi görünür. Güneşin<br />

batışındaki kızıllığın nedeni de bu saçılımdır. Güneş ufka yaklaştığında ışınlar<br />

atmosferde daha uzun bir yol kat ettiğinden daha kısa dalga boylu olan ışınımlar<br />

saçılır ve sadece kırmızı ve turuncu gibi daha uzun dalga boylu ışınım gözümüze<br />

gelir. Bu saçılımın etkisini gidermek için hava fotoğrafı çekimi sırasında özel filtreler<br />

konmaktadır. Mie saçılımı, ışığın dalga boyunun atmosferdeki taneciklerle yaklaşık<br />

eşit büyüklüklerde olmasından kaynaklanır. Bu saçılım genellikle puslu atmosferik<br />

koşullardaki spektrum boyunca oluşur ve görüntülerde genel bir kalite düşüklüğü<br />

şeklinde kendini gösterir. Seçici olmayan saçılım ise, taneciklerin ışının dalga<br />

boyundan çok daha geniş olması halinde oluşur. Bu saçılım genellikle atmosferin çok<br />

toz yüklü olması durumunda ortaya çıkar ve elde edilen ver<strong>ileri</strong>n önemli ölçüde<br />

zayıflamasına yol açar [Örmeci, 1987].<br />

2.3. Atmosferik Pencereler ve Nesnelerin İmzası<br />

Atmosfer, güneşten yeryüzüne gelen elektromanyetik enerjinin bazı<br />

bölümlerini büyük oranda soğururken, bazı bölümlerinin geçişine izin vermektedir.<br />

Elektromanyetik spektrumun fazla soğrulmadan atmosferden geçen bölümleri<br />

atmosferik pencereler olarak adlandırılmaktadır [Tatar ve Tatar, 2006]. Diğer bir<br />

ifadeyle atmosferik pencereler, elektromanyetik spektrumun radyasyonun geçmesine<br />

izin verdiği kısımlardır [Sesören, 1999]. Elektromanyetik spektrumda atmosferik<br />

pencerelerin bulunduğu dalga boyu bölgelerinde atmosferin içerisinde bulunan<br />

bileşikler güneşten gelen elektromanyetik enerjiyi; soğurma, yansıtma ve saçılma<br />

nedeniyle fazlaca etkilemezler. Bu nedenle, atmosfere gelen enerji pencerelerin<br />

bulunduğu yerlerden geçerek yeryüzüne ulaşabilirken, pencerelerin bulunmadığı<br />

dalga boyu aralıklarında atmosferden hemen hemen hiç geçememekte, dolayısıyla<br />

yer yüzeyine ulaşamamaktadır. Başlıca atmosferik pencereler, mor ötesi, görünür<br />

bölge, termal bölge, mikrodalgalar ve radar bölgelerinde bulunmaktadır. Uzaktan


8<br />

algılama çalışmalarında uygulama konusuna göre bant seçiminde söz konusu<br />

atmosferik pencereler son derece önemlidir. Elektromanyetik enerjinin 400 µm’den<br />

küçük ve 1 µm’nin üzerindeki dalga boyları atmosferin bileşenleri tarafından<br />

soğurulur. Görünür bölge dalga boyu aralığının tamamı bir atmosferik pencereye<br />

oluştururken, kızılötesi dalga boyu aralığının yalnızca bazı bölgelerinde atmosferik<br />

pencereler mevcuttur. Bu nedenle <strong>uzaktan</strong> algılama uygulamalarında görünür,<br />

kızılötesi ve termal dalga boyları kullanılmaktadır [Sesören, 1999].<br />

Uzaktan algılama dalga uzunluğu ve cismin ısısına bağlı olarak ışıyan enerji<br />

miktarı önemlidir. Elektromanyetik enerji katı, sıvı veya gaz halindeki cisimlerle<br />

temasta şiddet, doğrultu, dalga uzunluğu, polarizasyon ve faz farkı gibi bakımlardan<br />

birçok değişikliğe uğramaktadır. Uzaktan algılamada bu değişiklikler belirlenip,<br />

kayıt edilir. Bu işlem sonucu ortaya çıkan görüntü ve veriler kayıt edilen<br />

elektromanyetik ışınımda değişikliğe neden olan cismin özelliklerinin belirlenmesi<br />

için yorumlanmaktadır [Örmeci, 1987].<br />

Bir cisme veya yüzeye kaynaktan (güneş) gelen enerji geçirilir, yutulur, saçılır<br />

ve/veya yansıtılır. Cisim ve enerji arasındaki bu ilişki <strong>uzaktan</strong> algılamanın temelini<br />

oluşturmaktadır. Uzaktan algılanmış görüntülerde her element veya objenin yapısına<br />

göre bu objeler farklı şekilde algılanır. Diğer bir ifadeyle, yeryüzü üzerindeki her bir<br />

objenin elektromanyetik enerji ile ilişkisi farklıdır. Uzaktan algılamada buna<br />

nesnelerin imzası veya özel davranışı denir. Yeryüzü üzerindeki objelerin <strong>uzaktan</strong><br />

algılama yöntemiyle ayırt edilebilmelerinin en önemli nedeni; yeryüzü üzerinde<br />

bulunan objelerin farklı spektral özelliklere sahip olmasıdır. Uzaktan algılama<br />

sistemleri, seçilen dalga boyu bantlarında yer yüzeyindeki cisimlerden yansıyan ve<br />

yayılan enerji miktarlarındaki değişimleri kayıt etmektedir. Veriler, fotoğrafik<br />

algılayıcılarla doğrudan doğruya fotoğrafik film olarak kaydedilebileceği gibi;<br />

tarayıcı sistemlerle yansıyan veya yayılan enerji manyetik bir banda sayısal olarak<br />

kaydedilebilir. Daha sonra elde edilen bu veriler yeryüzü üzerindeki objelerin<br />

yorumlanması ve analizi için kullanılmaktadır.<br />

Elektromanyetik enerjinin herhangi bir cisimle etkileşimi dalga boyuyla<br />

ilişkilidir. Bir başka deyişle, farklı etkileşimler enerjinin farklı dalga boylarında olur.<br />

Enerji etkileşiminin dalga boyuna bağımlı olması nedeniyle, <strong>uzaktan</strong> algılayıcılar


9<br />

farklı cisimlerdeki bu değişikliği çeşitli dalga boyları için ayırt edilebilecek şekilde<br />

tasarlanmıştır. Yansıyan, soğurulan ve geçirilen enerji miktarı; yeryüzüne ait<br />

nesnenin türü ve durumuna bağlı olarak değişmektedir. Bu değişiklikler, bir görüntü<br />

üzerindeki farklı nesneleri sınıflandırma olanağı verir. Söz konusu nesne için<br />

yansıyan, soğrulan ve geçirilen enerji her bağımsız dalga boyunda farklılık gösterir.<br />

Bu nedenle herhangi iki nesne bir spektral alanda sınıflandırılamazken, bir başka<br />

dalga boyu bandında çok büyük farklılıklar gösterebilir.<br />

Uzaktan algılanan ver<strong>ileri</strong>nin bilgisayar ortamında analiz edilebilmesi için<br />

objelerin spektral özelliklerinin bilinmesi gerekmektedir. Bu nedenle çeşitli bitki<br />

örtülerinin, toprağın, suyun ve ilgilenilen diğer yer yüzeyi özelliklerinin spektral<br />

özelliklerinin bilinmesi, <strong>uzaktan</strong> algılanan ver<strong>ileri</strong>n uygun bir şekilde analizi ve<br />

yorumlanması açısından son derece önemlidir [Maktav ve Sunar, 1991]. Şekil 2.3’te<br />

bitki örtüsü, toprak ve suya ait spektral yansıma eğr<strong>ileri</strong> gösterilmiştir. Şekilde<br />

görüleceği üzere yeşil bitki örtüsünün spektral yansıtımı diğerlerinden farklı olup<br />

dalga boyuna göre değişmektedir. Görünür dalga boylarında (0.4–0.7 µm) özellikle<br />

yeşil bitk<strong>ileri</strong>n yapısında yoğun bir şekilde bulunan klorofil maddesi önemlidir.<br />

Yakın kızılötesi bölgesinde yansıtım önemli derecede artar, çünkü bu bölgede yeşil<br />

yaprak çok az enerji soğurmaktadır. Orta kızıl ötesi bölgede ise su belirli dalga<br />

boylarındaki enerjiyi çok fazla soğurur ve yeşil yapraklar çok fazla nem içerdiğinden<br />

bu su-soğurma bantları bu bölgede baskındır. Bitkilerdeki klorofilin soğurması mavi<br />

ve kırmızı bantlarda gerçekleşir. 0.5–0.6 µm arası klorofil yansıtması mavi ve<br />

kırmızıya göre daha yüksektir. Ancak en yüksek yansıma değeri yakın kızılötesi<br />

bölgesinde oluşur. Görünür dalga boylarında, yeşil bir yaprağa gelen enerjinin büyük<br />

bir kısmı soğurulur ve çok azı yapraktan geçer. Yeşil dalga boylarındaki bu düşük<br />

soğurma sağlıklı yaprakları yeşil olarak görmemize neden olmaktadır. Bitk<strong>ileri</strong>n<br />

yapısında karoten, ksantofil ve antosyanin pigmentleri bulunmaktadır. Yeşil bir bitki<br />

yaşlandıkça yapısındaki klorofil miktarı azalır ve bitki yapısındaki karoten ve<br />

ksantofil pigmentleri baskın hale gelir. Bu durum ağaç yapraklarının son baharda sarı<br />

renk almasının temel nedenidir. Bazı ağaç türlerinin sonbaharda açık kırmızı<br />

görünmesinin nedeni ise aynı şekilde klorofil miktarının azalması ile birlikte ağaç<br />

yapısındaki antosyanin pigmentlerinin baskın hale gelmesidir.[Maktav ve Sunar,<br />

1991].


10<br />

60<br />

Toprak<br />

50<br />

Yansıtma Oranı (%)<br />

40<br />

30<br />

20<br />

Su<br />

Yakın Kızılötesi<br />

Bitki<br />

10<br />

0.3 0.5 0.7 0.9 1.1 1.3 1.5 1.7 1.9 2.1 2.3<br />

Dalga Boyları (µm)<br />

Şekil 2.3. Toprak, bitki ve su için genelleştirilmiş spektral yansıtım grafiği.<br />

Toprak maddelerinin çoğunun spektral özellikleri genellikle bitki örtülerinde<br />

olduğu kadar karmaşık değildir. Toprağın spektral yansıması temel olarak kimyasal<br />

yapısına (mineral ve organik maddeler), optik geometrik saçılmaya (parçacık<br />

büyüklüğü ve pürüzlülük) ve yüzeyin nemlilik durumuna bağlıdır. Büyük tanecikler<br />

arasındaki boşluklarda hava ve su birikir bu da yansıma değerini düşürür. Küçük<br />

tanecikliler daha çok yansıma verir. Nemli olunca daha az yansıma verir. Organik<br />

madde içeriği arttıkça yansıma değeri düşer ve toprak daha koyu gözükür. Demir<br />

oksit miktarı da yansımayı düşürür. Topraktaki nemin belirlenmesinde termal bant<br />

çok önemlidir. Çünkü nemli olan yerde buharlaşma olur ve çevreye göre daha<br />

soğuktur. Yansıtıcı bölgede çok koyu termal bölgede çok açık olan bir toprak organik<br />

içerik açısından zayıftır [Maktav ve Sunar, 1991].<br />

Suyun spektral duyarlılığı dalga boyuna göre değişmektedir. Su ile enerji<br />

arasındaki etkileşimler, suyun mevcut yapısının bir sonucudur ve suyun çeşitli<br />

durumlarından etkilenir. Suyun diğer örtü tiplerinden ayrımı en iyi şekilde yansıtıcı<br />

kızılötesi dalga boyları (yakın kızılötesi ve orta kızılötesi) kullanılarak yapılır. Su<br />

kitlelerinin <strong>uzaktan</strong> algılama ile konumlandırılması ve sınıflandırılması, en kolay,<br />

yakın kızılötesi dalga boylarında yapılabilir. Diğer taraftan suyun durumunun bazı<br />

yönleri ise, görünür dalga boylarında elde edilen ver<strong>ileri</strong>n kullanılması ile en iyi<br />

saptanabilir. Doğal bir ortamda, su çok sığ bile olsa, su kitleleri, yakın kızılötesi ve


11<br />

orta kızıl ötesi dalga boylarının her ikisinde de, gelen enerjinin hemen hemen tümünü<br />

soğurur. Suyun, enerjiyi, yakın ve kızıl ötesi dalga boylarında bu kadar etkin bir<br />

biçimde soğurması nedeniyle, bu dalga boylarında yansıtılacak çok az enerji vardır.<br />

Bu durum, su özelliklerinin, spektrumun yansıtıcı kızılötesi bölgesi boyunca, hem<br />

bitki örtüsünden, hem topraktan daha önemli ve daha farklı bir düşük yansıtıma sahip<br />

olmasına neden olduğundan, <strong>uzaktan</strong> algılama amaçları açısından oldukça<br />

avantajlıdır. Kızılötesi yansıtımdaki bu tür belirgin farklar, su kitlelerinin kolaylıkla<br />

tanımlanmasını ve haritalanmasını sağlamaktadır [Maktav ve Sunar, 1991].<br />

Yeryüzü üzerindeki çeşitlilik düşünüldüğünde, yer yüzeyi üzerindeki objelerin<br />

spektral özelliklerinin her yerde aynı olmadığı görülmektedir. Hatta herhangi bir<br />

objeye ait spektral özelliklerin dahi coğrafi konuma ve zamana göre değişkenlik<br />

gösterdiği söylenebilir. Örneğin buğday, güneyde olgunlaşmış ve biçilmekte iken,<br />

aynı tarihte kuzeyde halen yeşildir ve bu nedenle buğday tamamen farklı bir spektral<br />

özelliğe sahiptir. Zamana bağlı değişim göz önüne alındığında; örneğin Temmuz<br />

ayında yeşil olan bir orman örtüsü, Eylül sonlarında cinsine bağlı olarak kırmızı, sarı<br />

veya kahverengi olabilir. Çok sayıda yaprak döken ağaçlar ve geniş yeşil alanlara<br />

sahip bölgeler; sonbaharda yapraklar ağaçlardan döküldükten ve çimenler sarardıktan<br />

sonra, birkaç ay öncesine nazaran çok farklı spektral özelliğe sahip olacaklardır. Bu<br />

nedenle, <strong>uzaktan</strong> algılama ver<strong>ileri</strong> için en uygun zamanın belirlenmesinde; yeryüzü<br />

üzerindeki biyolojik çeşitliliğe ait mevsimsel değişimlerin veya zamana göre<br />

değişebilirliğin dikkate alınması gerekir [Kavzoğlu, 2008].<br />

2.4. Uzaktan Algılamada Çözünürlük Kavramı<br />

Çözünürlük genel anlamda ekranda veya monitörde görünen piksel sayısını<br />

ifade ederken <strong>uzaktan</strong> algılamada görüntüdeki bir pikselin yeryüzündeki karşılığını<br />

ifade etmektedir. Bir resim, görüntü matrisini oluşturmak üzere ızgara biçiminde<br />

küçük alanlara bölündüğü zaman oluşan her elemana resim elemanı ya da piksel adı<br />

verilir. Geometrik ayrım, diğer bir ifadeyle çözünürlük kavramı ile yakından ilişkili<br />

olan piksel sayısı görüntünün en küçük parçasıdır. Her bir piksel<br />

Ps x , Ps y<br />

boyutunda<br />

bir resim elemanına karşılık gelir. Piksellerin bu<br />

Ps<br />

x<br />

, Ps y<br />

boyutuna geometrik<br />

çözünürlük denir [Ayhan, 2003]. Pikseller genellikle kare biçimindedirler.


12<br />

Yeryüzünde bir piksele karşılık gelen alan ne kadar değişik görünüm ve değere sahip<br />

olursa olsun, pikselin bir spektral banttaki değeri tek bir sayı ile ifade edilir.<br />

Sayısal bir görüntü, bir resmin sürekli bir biçimde sayısallaştırılması ile elde<br />

edilebileceği gibi, modern çok bantlı tarayıcılar ve bazı elektronik kameralar ile<br />

direkt olarak elde edilebilirler. Sayısal görüntü elde edebilen bir tarayıcı yapısı<br />

itibariyle belirli bir anda yeryüzünde ancak belirli bir alana ait spektral değeri<br />

kaydeder. Algılayıcının belirli bir anda yeryüzünde görüntüleyebildiği alana anlık<br />

görüş alanı adı verilir. Uzaktan algılamada konumsal, spektral, radyometrik ve<br />

zamansal çözünürlük olmak üzere dört farklı çözünürlük söz konusudur.<br />

2.4.1. Konumsal Çözünürlük<br />

Konumsal çözünürlük veya konumsal ayırma gücü görüntü üzerindeki<br />

objelerin ayırt edilebilirliği ile ilgilidir ve belirlenebilen özelliğin olası en küçük<br />

boyutunu ifade eder. Başka bir ifadeyle; bir görüntüleme sistemi tarafından kayıt<br />

edilebilen iki nesne arasındaki en küçük uzaklık olarak tanımlanan konumsal<br />

çözünürlük amaca bağlı olarak değişik ölçütlerle belirlenebilir [Ayhan, 2003]. Bu<br />

ölçütlerden birisi algılayıcının anlık görüş alanıdır (AGA). Konumsal çözünürlüğün<br />

en genel şekilde tanımı görüntüyü kaydeden sistemin alıcısının anlık görüş alanının<br />

yeryüzünde karşılığı olarak ifade edilebilir. Anlık görüş alanı, <strong>uzaktan</strong> algılama<br />

uyduları üzerinde bulunan tarayıcı optiğin gücünü ifade eder ve herhangi bir anda<br />

belirli bir yükseklikten algılayıcı sensör ile gözlenen veya kayıt edilen yeryüzüne<br />

karşılık gelen alan olarak tanımlanabilir. Uzaktan algılamada bir sensörün veya<br />

alıcının anlık görüş alanı açısaldır; yeryüzündeki karşılığı da uydu yüksekliğine göre<br />

değişebilmektedir (Şekil 2.4). Bu büyüklük aynı zamanda pikselin boyutuna eşittir.<br />

Anlık görüş alanı açısal ve uzunluk olarak iki şekilde ifade edilebilir.


13<br />

Şekil 2.4. Uzaktan algılama uyduları için anlık görüş alanının açısal ve uzunluk<br />

olarak ifadesi.<br />

Şekilde X-Y noktaları arasındaki mesafe anlık görüş alanıdır ve bu uzaklık<br />

uydu görüntüsünde yaklaşık olarak bir piksele karşılık gelmektedir. Bu uzunluk<br />

algılayıcı tarafından yeryüzünde ayırt edilmesi mümkün olan en küçük uzunluktur.<br />

Şekil 2.5’de aynı bölgeye ait farklı konumsal çözünürlüğe sahip uydu<br />

görüntülerine ait örnekler verilmiştir. Şekilde konumsal çözünürlüğün artmasıyla<br />

görüntüdeki objelerin birbirinden ayırt edilebilirliğinin arttığı ve yorumlanma<br />

açısından daha kolay bir hale geldiği açıkça görülmektedir. Aynı şekilde çözünürlük<br />

azaldıkça objelerin ayırt edilebilmesi ve görüntünün analizi zorlaşmaktadır.<br />

(a) (b) (c)<br />

Şekil 2.5. Konumsal çözünürlük kavramı. (a) 1 metre, (b) 10 metre, (c) 30 metre<br />

çözünürlüklü görüntüler.


14<br />

2.4.2. Spektral Çözünürlük<br />

Spektral çözünürlük, algılayıcının kaydedebileceği elektromanyetik<br />

spektrumun dalga aralıklarını ve sayısını ifade etmektedir. Bu çözünürlük genel<br />

tanımıyla kullanılan bantların sayısını ve genişliğini ifade eder. Spektral çözünürlük<br />

yeryüzündeki cisimlerin ve arazi türlerinin <strong>uzaktan</strong> algılama yolu ile<br />

tanımlanabilmeleri için gerekli olan en önemli özelliktir. Spektral özellik, her cismin<br />

yansıma, yayılma, geçirgenlik ve soğurma özelliği olarak ifade edilebilir.<br />

Algılayıcıların tasarımı da bu spektral özelliklerdeki değişiklikleri fark edecek ve<br />

istenen ayrımları yapabilecek şekilde yapılmıştır. Yeryüzündeki cisimlerin spektral<br />

özellikleri ile kend<strong>ileri</strong>ne has özellikleri arasında kuvvetli bir ilişki vardır. Her<br />

spektral bant elektromanyetik spektrumun belirli bir bölümüne duyarlıdır. Bu<br />

bölümlerde başlangıç ve bitiş dalga boyları ya da merkez frekansı ve bant genişliği<br />

biçiminde verilir. Uzaktan algılama aletlerinin spektral ayırma gücü kullanılan bant<br />

genişliği ile belirlenir. Daha iyi spektral çözünürlük özel bir kanal ya da bant için<br />

daha dar dalga boyu aralığı anlamındadır. Teorik olarak spektrum ne kadar çok ve<br />

küçük parçaya ayrılırsa, spektral ayırma gücü de o kadar artar. Bu nedenle en iyi<br />

çözüm en az bant kullanılarak istenilen ayrımı yapabilmektir. Spektrumun<br />

pozisyonu, genişliği ve sayısı hedefe göre düzenlenir. Spektrumun değişik<br />

bölgelerini kullanan çok bantlı görüntülere Multi-Spektral Görüntüler adı verilir. Çok<br />

bantlı veri setleri, her bir tabaka için dijital değerler ile her bir pikselin birleştirildiği<br />

değişken sayıdaki tabakaları içermektedir. Veri içinde her bir tabaka bir bandı<br />

kapsamaktadır. Uzaktan algılama uydularına ait spektral çözünürlük uydunun kaç<br />

bantta görüntü verdiği ve kullanılan her bir bandın genişliğine özelliklerine göre<br />

tanımlanır. Örneğin, Landsat MSS dört bant içinde ver<strong>ileri</strong> edinirken, Landsat TM<br />

yedi bantlı bir sistem içinde aynı işlemi gerçekleştirir [Gibson, 2000].<br />

2.4.3. Radyometrik Çözünürlük<br />

Piksellerin yapısı, bir görüntünün uzaysal yapısını tanımlarken, radyometrik<br />

özellikler bir görüntüdeki gerçek bilgiyi ifade etmektedir. Bir filmden ya da bir<br />

algılayıcı tarafından elde edilen görüntünün elektromanyetik enerji miktarına<br />

duyarlılığı, radyometrik çözünürlüğü ifade etmektedir. Yeryüzündeki her bir piksele<br />

karşılık gelen alanlardan yansıyan ışığın şiddetine göre her obje, algılayıcılar


15<br />

tarafından değişik derecelerde kaydedilir. Buna o alıcının radyometrik çözünürlüğü<br />

adı verilir. Kısaca radyometrik çözünürlük, objeleri tanımlamada ve ayırt etmede<br />

kullanılan toplam renk tonu sayısıdır. Derecelendirme veya tonlandırma ne kadar<br />

yüksek olursa, ayırt etme gücü de o kadar yüksek olur. Bir <strong>uzaktan</strong> algılama<br />

sisteminde radyometrik çözünürlük, siyah ve beyaz renkleri arasında ölçülen gri<br />

derecelerinin sayısını ölçmektedir. Radyometrik çözünürlükte ölçme değeri bit olarak<br />

adlandırılır. Bir bitlik sistem sadece iki gri düzeyini ölçebilmektedir (2 1 =2). 8-bitlik<br />

bir sistemde 256 gri derecesi kaydedilmektedir. Böyle bir sistemde siyah renk dijital<br />

değer olarak sıfıra, beyaz renk ise 255 değerine atanmaktadır. Çoğu <strong>uzaktan</strong> algılama<br />

sisteminde radyometrik çözünürlük 6-bit ya da daha fazladır [Gibson, 2000].<br />

Birbirlerinden farklı amaçlara hizmet eden uydular farklı radyometrik çözünürlüklere<br />

sahiplerdir. Örneğin, Landsat 1 ve Landsat 3 uyduları 6 bitlik çözünürlüğe sahipken,<br />

Hyperion uydusu 12 bitlik çözünürlüktedir.<br />

2.4.4. Zamansal Çözünürlük<br />

Zaman içindeki değişimleri göstermeleri birçok cisim için ayrımı kolaylaştırıcı<br />

etken olmaktadır. Görüntülerin farklı zamanlarda, değişik zaman aralıklarıyla<br />

alınması çok zamanlı uydu görüntülerin elde edilmesini sağlar. Burada hem iki<br />

görüntü arasındaki zaman farkı hem de alım zamanı önemlidir. Uygun zaman aralığı<br />

amaca bağlı olarak yıl, mevsim, birkaç gün veya hafta olabilir. Uzaktan algılamanın<br />

önemli işlevlerinden biri de zaman içerisindeki değişimleri izlemektir. Bu nedenle<br />

algılayıcı sistemin ayırma gücü özelliklerin belirlenmesinde zamansal ayırma gücü<br />

sistem için tanıtıcı bir özellik olmaktadır [Ayhan, 2003]. Uzaktan algılama sistemleri<br />

için zamansal çözünürlük, aynı alan için hangi sıklıkta ver<strong>ileri</strong>n edinildiğini ifade<br />

etmektedir [Gibson, 2000]. Bir alıcının belirli bir noktayı ardışık olarak<br />

algılayabileceği zaman dilimidir. Örneğin, Spot uydusu 26 günde bir aynı noktadan<br />

geçerken Landsat uydularından 1. 2. ve 3. uydular 18 günde bir; 4. 5. ve 6. uydular<br />

ise 16 günde bir aynı noktadan geçerler. Atmosferik etkiler nedeniyle her uydu geçişi<br />

sırasında yapılan kayıt kullanılamamaktadır.


16<br />

2.5. Uzaktan Algılamada Görüntü Analiz Sistemleri<br />

Uzaktan algılanan görüntülerin analiz ve yorumlanması, görüntüler üzerinden<br />

yararlı bilg<strong>ileri</strong>n çıkarılması için görüntüdeki değişik hedeflerin belirlenmesi veya<br />

ölçümünü içerir. Hedefler; noktalar, çizgiler veya alanları içeren doğal veya yapay<br />

özellikler olabilir ve bu hedefler yansıttıkları veya yaydıkları radyasyon yardımıyla<br />

tanımlanabilirler. Bu radyasyon bir algılayıcı tarafından ölçülebilir veya<br />

kaydedilebilir. Hedefler ve onların çevresi ile arasındaki farkların gözlenmesi ton,<br />

şekil, boyut, desen, doku, gölge ve ilişki gibi görüntü elemanlarının herhangi biri<br />

veya hepsinin kullanılması ile gerçekleştirilir [Ayhan, 2003]. Elde edilen görüntüler<br />

analog veya sayısal formatta olabilirler. Analog formatta görüntülenmiş görüntülerde<br />

hedefin belirlenmesi ve yorumlanması bir yorumlayıcı tarafından manuel veya görsel<br />

olarak yapılır. Sayısal formattaki görüntüler piksellerden oluşmaktadır. Görüntü<br />

üzerindeki her bir piksel parlaklık derecesini gösteren sayısal bir değere sahiptir.<br />

Pikseller bilgisayar ortamında bir araya getirilerek sayısal görüntü elde edilir. Özel<br />

yazılımlarla bilgisayar ortamında piksellerin sayısal değerleri üzerinde sistematik<br />

değişiklikler yapılabilmesi olanağı, görüntülerin sayısal olarak işlenmesi ve<br />

yorumlanması için temel oluşturmaktadır. Görüntü analiz sistemlerinde en yaygın<br />

görüntü işleme fonksiyonları; ön işlem, görüntü iyileştirme, görüntü dönüşümleri,<br />

görüntü sınıflandırma ve analizidir [Lillesand and Kiefer, 1994].<br />

2.5.1. Ön İşlem<br />

Ön işlemler, elde edilen sayısal uydu görüntüsüne ait verilerden istenilen<br />

bilg<strong>ileri</strong>n veya özelliklerin elde edilmesi için gerekli olan hazırlıkları içerir ve bunlar<br />

radyometrik ve geometrik düzeltmeler olarak sınıflandırılır. Ön işlem aşamasında<br />

uydu görüntüleri radyometrik ve geometrik düzeltmelere tabii tutulurlar. Bazen bu<br />

işlemlere görüntü restorasyonu veya rektifikasyonu adı verilir. Ön işlemde amaç,<br />

algılayıcı ve platformdan kaynaklanan radyometrik ve geometrik bozulmaları<br />

ortadan kaldırmaktır. Radyometrik düzeltmeler, algılayıcı düzensizlikleri,<br />

istenmeyen algılar, atmosferik gürültülerin düzeltilmesi ve sensör tarafından ölçülen<br />

radyasyonun doğru şekilde gösterimi için gerekli dönüşümleri içerir. Geometrik<br />

sapmalar ise birçok faktöre bağlıdır. Bunlar; algılayıcı aygıt optiğinin yapısı, tarama<br />

sistemlerinin hareketi, platform hareketi, platformun yüksekliği, arazinin eğimi ve


17<br />

yeryüzünün küreselliğidir [Kavzoğlu, 2008]. Uydu platformlarına monte edilmiş<br />

algılayıcılardan elde edilen görüntüler ham hallerinde bazı hatalar ve eksiklikler<br />

içerirler. Bu hataların ve eksikliklerin düzeltilmesi, istenen amaca uygun olarak<br />

yapılacak uygulamalar öncesinde gerçekleştirdiğimizden dolayı bu tip işlemlere ön<br />

işlemler adı verilir. Düzeltmelerin bazıları yer istasyonlarında yapılmasına rağmen,<br />

kullanıcı tarafından da düzeltme yapılmasına sıkça gerek duyulmaktadır. Bu<br />

düzeltmelerden birisi, atmosferik etk<strong>ileri</strong>n giderilmesi amacıyla yapılan<br />

düzeltmelerdir. Fakat bazı özel durumlarda bu düzeltmeye gerek duyulmaz. Tek bir<br />

zamanda belirli bir alandaki bitki örtüsünün veya diğer özelliklerin analizlerinin<br />

yapılmasında araştırmacı piksellerin asıl değerlerinden çok bu piksellerin birbirlerine<br />

göre göreceli değerleri ile ilgilenildiğinden piksel değerlerinin atmosferik etkilerden<br />

arındırılması gereksizdir. Fakat değişik zamanlarda elde edilen görüntülerin<br />

kullanılmasında atmosferik etk<strong>ileri</strong>n giderilmesi gerekir. Geometrik ve radyometrik<br />

düzeltmeler görüntü iyileştirme ve görüntü sınıflandırma işlemlerinden önce<br />

yapılması gereken ön işlemlerdir.<br />

Geometrik düzeltmenin amacı, görüntüyü geometrik olarak gerçek dünyaya en<br />

yakın şekle dönüştürmektir. Geometrik sapmaların birçoğu sistematik olduğundan<br />

uygun modeller oluşturularak giderilebilir. Sistematik olmayan veya rastgele hatalar<br />

modellenemez. Geometrik düzeltme, bilinen bir koordinat sistemine dönüşüm<br />

yapılarak sağlanabilir. Geometrik düzeltme işlemi ile ham haldeki uydu görüntüsü,<br />

bulunduğu resim koordinat sisteminden, görüntü üzerinde ve arazideki koordinatları<br />

bilinen uygun sayı ve konumdaki yer kontrol noktaları yardımıyla arazi koordinat<br />

sistemine dönüştürülür. Bu işleme görüntüden haritaya geçiş denir. Ham haldeki<br />

görüntünün geometrik olarak düzeltilmesinde kullanılan bir diğer yöntem görüntüden<br />

görüntüye dönüşümdür. Bu yöntemde daha önce coğrafik olarak referanslandırılmış<br />

diğer bir görüntü yardımıyla, her iki görüntüdeki ortak noktalar kullanılarak<br />

geometrik düzeltme işlemi gerçekleştirilir [Mather, 1987].<br />

Uydu görüntüleri geometrik olarak düzeltilip kullanıcı tarafından belirlenmiş<br />

herhangi bir koordinat sistemine bağlandıktan sonra ortaya çıkan görüntü eğiminden<br />

dolayı oluşan piksellere yeni değerlerin atanması gerekir. Diğer bir ifadeyle,<br />

geometrik olarak düzeltilmiş görüntü üzerindeki piksellere ait sayısal bilgiler<br />

geometrik dönüşüm sonucunda olması gerekenden farklı olabilirler. Bu nedenle


18<br />

düzeltilmiş görüntüdeki yeni piksellerin sayısal değerlerinin belirlenmesinde yeniden<br />

örnekleme adı verilen bir işlem kullanılır. Yeniden örnekleme ile geometrik dönüşüm<br />

öncesinde görüntüdeki orijinal sayısal piksel değerleri yardımıyla yeni piksel<br />

değerleri hesaplanır. En yakın komşuluk, bilineer enterpolasyon ve kübik eğri olarak<br />

bilinen üç farklı yöntem yeniden örnekleme işleminin gerçekleştirilmesinde<br />

kullanılmaktadır. En yakın komşuluk yönteminde, orjinal görüntüde yeni piksel<br />

konumuna en yakın sayısal piksel değerlerinden faydalanılarak düzeltilmiş piksel<br />

değerleri hesaplanır. Bu metot basit bir mantığa dayanır ve orijinal değerler<br />

değişmediğinden en çok tercih edilen yöntemdir. Bilineer enterpolasyon yönteminde,<br />

orijinal görüntüde yeni piksel konumuna en yakın dört pikselin ortalama ağırlığı<br />

kullanılarak yeni piksel değerleri hesaplanır. Bu durumda orjinal piksel değerleri<br />

değişir ve yeni piksel değerleri oluşur. Kübik eğri yöntemi ile yeniden örnekleme<br />

işleminde orijinal görüntüde yeni piksel konumunu çevreleyen sekiz pikselli bir<br />

bloğun ağırlıklı ortalaması kullanılarak yeni piksel değeri hesaplanır. Bilineer<br />

enterpolasyonda olduğu gibi bu metotta tamamen yeni piksel değerleriyle sonuçlanır.<br />

Bir görüntüdeki bozukluklar ya da gürültüler; düzensizlikler ya da verinin<br />

alınması ve veri iletimi esnasında meydana gelen olaylardan dolayı olabilir.<br />

Bozuklukların ortak yapısı sistematik kayıplar içermesi ya da bant alımı esnasındaki<br />

kayıplardır. Kayıp hatlar bant alımı esnasındaki değişim ve sürüklenmeden dolayı<br />

meydana gelir. Kayıp hatlar normal olarak, hattın altında ya da üstündeki değerlerle<br />

ya da her ikisinin ortalaması yeni bir hatla düzeltilir. Radyometrik bir düzeltmenin<br />

gerçekleştirilmesi bazı filtreleme yöntemlerinin kullanılmasıyla da yapılabilmektedir<br />

[Altuntaş ve Çorumluoğlu, 2002].<br />

2.5.2. Görüntü İyileştirme<br />

Görüntü iyileştirme işlemi, görüntünün görsel yorumlama ve anlaşılmasını<br />

artırmak için yapılır. Görüntü üzerinde zıtlık ve netlik düzeltmeleri ve çeşitli<br />

filtreleme teknikleriyle aynı ham görüntüden farklı renkli görüntüler üretilmesi<br />

işlemidir [Tatar ve Tatar, 2006]. Hedeflerin farklı durumlarından dolayı spektral<br />

yansımalarındaki büyük değişimlerle ilgili radyometrik düzeltmeler, bütün<br />

hedeflerde optimum kontrast ve parlaklık gösterimi için hesaplanabilir. Bu nedenle,<br />

her uygulama ve her görüntü için, mutlaka alanın tanınması ve yansıma değerlerinin


19<br />

dağıtımı gereklidir [Sabins, 1987]. En yaygın olarak kullanılan örüntü iyileştirme<br />

yöntemleri lineer kontrast artırımı, histogram eşitleme, yoğunluğa göre<br />

derecelendirme ve sahte renk (pseudo-color) dönüşümüdür.<br />

Lineer kontrast artırımı yöntemi ile görüntüdeki minimum piksel değeri sıfıra,<br />

maksimum piksel değeri de 255 değerine atanması için lineer enterpolasyon metodu<br />

geliştirilir. Eğer renkli bir görüntü elde edilecekse, bu işlem üç bant için ayrı ayrı<br />

yapılır ve sonra sonuçlar üç ana renk olan kırmızı, yeşil ve mavi (KYM)’ye atanır.<br />

Histogram eşitleme yönteminde sadece minimum ve maksimum değerler yerine<br />

görüntüdeki tüm piksel değerlerinin oluşturduğu histogram dikkate alınarak daha<br />

karmaşık bir görüntü iyileştirme yapılabilir. Böylece histogramın boyutları ve şekli<br />

dikkate alınmış olur. Bu metotta görüntüdeki her bir derecenin (renk tonunun)<br />

yaklaşık olarak eşit sayıda piksel içerdiği kabulü yapılır. Histogram eşitleme görüntü<br />

iyileştirme teknikleri arasında en çok kullanılan ve en iyi sonuç veren metottur. Bu<br />

teknikte kenar gruplar birleştirilirken orta gruplar daha ayrık hale getirilip görüntü<br />

kalitesi iyileştirilir. Yoğunluğa göre derecelendirme yönteminde amaç, ard arda gelen<br />

bazı piksel değerlerini bir grup altında birleştirip; kırmızı, yeşil ve mavi (KYM)<br />

olarak tanımlanmış bir renkle ifade etmektir. Sonuçta 0–255 aralığındaki değerler<br />

birkaç renkle ifade edilir. Özellikle siyah-beyaz görüntülerdeki homojen alanların<br />

renkli şekilde görüntülenmesinde kullanılır. Bu dönüşümle 256 renkli bir görüntüden<br />

birkaç renge dönüşüm yapıldığından, görüntüdeki ayrıntılar kaybolur. Sahte renk<br />

dönüşümü ile tek bir bandın gri tonlar yerine yalancı olara renklendirilmesidir. Bu<br />

işlemi gerçekleştirmek için asal bir KYM histogram dönüşümü kullanılır. Ayrıntılı<br />

bilgi Mather (1987) den elde edilebilir.<br />

2.5.3. Görüntü Dönüşümleri<br />

Görüntü dönüşümleri yardımıyla görüntüde yer alan farklı fiziksel özellikler<br />

arasındaki ayrımın ve görüntünün görsel yorumlanabilirliğinin arttırılması<br />

amaçlanmaktadır. Bunu gerçekleştirmek için ise çeşitli sayısal filtreleme matrisleri<br />

kullanılır. Görüntüdeki farkların vurgulanması, kenar çizg<strong>ileri</strong>nin vurgulanması ya da<br />

giderilmesi işlemleri için farklı sayı matrisleri kullanılmaktadır. Görüntüler üzerinde<br />

matris işlemlerine benzer şekilde tüm temel matematiksel işlemler (toplama,<br />

çıkarma, çarpma, bölme) gerçekleştirebilir. Bölme işlemi, özellikle topoğrafik


20<br />

etk<strong>ileri</strong>n azaltılmasına ve giderilmesine olanak sağlar. Sayısal filtreleme yönteminde<br />

her bir pikselin yeni gri renk tonları hesaplanmaktadır. Piksellerin yeni gri tonları<br />

yalnızca ortaya çıkarılacak detaya bağlı değil komşu piksellere de bağlıdır. Uzaysal<br />

frekans filtreleme de denilen bu işlemde, bir görüntüde istenilen detayı ortaya<br />

çıkarabilmek için; yüksek, orta ve düşük frekanslı filtrelerden birisi kullanır.<br />

2.5.4. Görüntü Sınıflandırma ve Analiz<br />

Ham halde elde edilen uydu görüntülerinden yeryüzüne ait bilg<strong>ileri</strong>n elde<br />

edilmesi için çeşitli istatistiksel analizler ve yorumlama teknikleri kullanılmaktadır.<br />

Ver<strong>ileri</strong> bilgiye dönüştürebilmek için en yaygın yöntem uydu görüntülerinin<br />

sınıflandırılmasıdır. Uzaktan algılamada sınıflandırma, cisimlerin farklı spektral<br />

yansıtma değerleri esasına dayanarak orijinal görüntüdeki her görüntü elemanını ait<br />

olduğu özellik grubuna ayırma işlemidir. Ayırt etme ya da tanıma problemi her<br />

pikselin, algılama yapılan spektral bantlara göre farklılık gösteren sayısal değerler<br />

kümesinden yaralanılarak aşılmaktadır [Mather, 1987]. Sınıflandırmada amaç,<br />

yeryüzü üzerinde aynı spektral özellikleri taşıyan nesnelerin gruplandırılmasıdır.<br />

Sınıflandırmanın yapılabilmesi için çok spektrumlu veri kullanılır. Her bir piksele ait<br />

spektral özellik verisi sınıflandırma için nümerik değerleri oluşturur. Her nesne<br />

çeşidi doğasındaki spektral yansıtım ve yutulmaya bağlı olarak farklı sayılarla ifade<br />

edilirler. Sınıflandırma, tematik bilgi çıkarmak için kullanılan en önemli yöntemdir.<br />

Sınıflandırma sonucu elde edilen görüntü tematik harita olarak adlandırılmaktadır.<br />

Tematik harita haline getirilen yani sınıflandırılan görüntü, bir harita projeksiyonuna<br />

dönüştürüldüğünde coğrafi bilgi sistemlerinde kullanılabilir [Jehnsen, 1996].<br />

Sınıflandırma işlemi, genel olarak şu adımları içerir:<br />

1. Yeryüzü özelliklerini ortaya koyabilecek sınıfların belirlenmesi ve<br />

kontrol alanlarının seçimi. Çalışma bölgesine ait bilg<strong>ileri</strong>n toplanılması için<br />

arazi çalışmasının yapılması, sınıflandırmada kullanılmak üzere mevcut<br />

ver<strong>ileri</strong>n ve haritaların temini.<br />

2. Çalışma amacına göre görüntülerin ve çalışılacak spektral bantların<br />

seçimi.


21<br />

3. Tespit edilen sınıflara ait kontrol alanlarından yararlanarak<br />

sınıflandırılmada kullanılmak üzere eğitim ve test ver<strong>ileri</strong>nin oluşturulması.<br />

4. Çalışma amacına yönelik olarak uygun bir sınıflandırma<br />

algoritmasının seçimi ve uygulanması.<br />

5. Sınıflandırılmış görüntü için doğruluk analizi ve elde edilen tematik<br />

haritaların yorumlanması.<br />

Sınıflandırma işleminde, sınıfların oluşturulması, yapılacak çalışmanın amacına<br />

ve ölçeğine bağlı olmaktadır [Kavzoğlu, 2008]. Ayrıca, çalışmada kullanılacak<br />

spektral aralığın belirlenmesi, yeterli doğrulukta ve sayıda kontrol alanlarının seçimi<br />

ve sınıflandırılmış görüntülerde doğruluk değerlendirilmesinin yapılması, bu işlemin<br />

gerçekleştirilmesinde büyük önem taşımaktadır.<br />

Sınıflandırma işleminde genel olarak kontrollü ve kontrolsüz sınıflandırma<br />

olarak adlandırılan iki yaklaşım vardır. Kontrollü sınıflandırma farklı spektral<br />

grupları temsil eden kontrol alanları kullanılarak spektral ayrılabilirlik incelemekte,<br />

buna karşılık kontrolsüz sınıflandırmada ise spektral olarak ayrılabilir sınıflar<br />

belirlenmekte ve bunlardan bilgi elde etme yoluna gidilmektedir [Süslü, 2007].<br />

2.5.4.1. Kontrolsüz Sınıflandırma<br />

Kontrolsüz sınıflandırma yöntemi, görüntü üzerindeki piksellerin kullanıcı<br />

müdahalesi olmaksızın belirli algoritmalar kullanılarak otomatik olarak<br />

kümelendirilmesi veya gruplandırılması temeline dayanmaktadır. Kontrolsüz<br />

sınıflandırma; görüntüdeki veri tanımlanamadığında başvurulan yöntemdir. Çalışma<br />

alanına ait yeterli bilginin olmaması ve bölgenin genel yapısı hakkında ön bilgiye<br />

gereksinim duyulan çalışmalarda bu sınıflandırma yöntemi kullanılmaktadır. Bu<br />

yöntemde, arazi örtüsü tipini bilinmesine gerek yoktur, öncelikle görüntü üzerinde<br />

sınıf sayıları belirlenir. Kontrolsüz sınıflandırmada görüntü üzerindeki piksellere ait<br />

farklı bantlardaki sayısal değerler kullanılarak benzer piksellerin otomatik olarak<br />

bulunması ve bu piksellerin bir sınıfa atanması temel alınmaktadır. Ortak özelliklere<br />

sahip veya benzer pikseller sembol, değer ya da sınıf etiketine atanır, gerektiğinde de<br />

aynı tip sınıflarla birleştirilir [URL–1]. Kontrolsüz sınıflandırma sonucu oluşacak


22<br />

sınıflar, spektral sınıflardır [Lillesand et al., 2007]. Elde edilen bu spektral sınıfların<br />

ne olduğu önceden bilinmemekte olup, daha sonra o bölgeye ait topoğrafik haritalar,<br />

hava fotoğrafları ve mevcut yardımcı bilgilerle karşılaştırılarak oluşturulan sınıfların<br />

doğal özellikleri belirlenebilmektedir [Özkan, 1998].<br />

Kontrolsüz sınıflandırma da karar kuralı olarak minimum uzaklık kullanır.<br />

Pikseller, görüntünün sol üst köşesinden başlanarak soldan sağa ve satır satır analiz<br />

edilir. Aday piksel ile her bir küme ortalaması arasında spektral uzaklık hesaplanır ve<br />

en yakın kümeye atanır. Tam otomatik bir sınıflandırma yöntemi olan kontrolsüz<br />

sınıflandırmada pikseller arasındaki spektral uzaklıklar, Mahalonobis ve Öklit<br />

uzaklığı gibi formüllerle hesaplanır. Öncelikle istenilen sınıf sayısı kadar oluşturulan<br />

kümenin ortalaması hesaplanır ve her iterasyondan sonra, her bir kümenin yeni<br />

ortalaması hesaplanılarak, bu ortalamalar bir sonraki iterasyon kümelerinin<br />

tanımlanmasında kullanılır. Kontrolsüz sınıflandırmada küme merkezleri geçici<br />

olarak hesaplanarak, piksellerin dahil olacağı sınıflar belirlenir ve bu işlem küme<br />

merkezlerinin konumlarında değişim olmayana kadar devam eder [URL–1].<br />

Uygulamada ISODATA, ardışık kümeleme ve istatistiksel kümeleme gibi çeşitli<br />

kontrolsüz sınıflandırma yöntemleri kullanılmaktadır.<br />

2.5.4.2. Kontrollü Sınıflandırma<br />

Kontrollü sınıflandırma görüntü üzerindeki alanlara ait dış verilere dayalı<br />

olarak gerçekleştirilir. Bu veriler arazi çalışmaları yapılarak, hava fotoğraflarının<br />

analiz edilmesiyle veya konu ile ilgili mevcut haritalardan elde edilebilir [Mather,<br />

1987]. Yöntemde görüntünün hangi sınıflara ayrılacağı, ya da görüntüden hangi<br />

sınıfların elde edilmek istenildiği önceden belirlenir. Bunun için görüntüden<br />

belirlenen sınıflara ait kontrol alanlarının seçilmesi gerekmektedir. Bu seçim için<br />

gerektiğinde arazide yer gerçekliği yapılması zorunludur. Kontrol alanlarının seçimi<br />

sınıflandırmanın doğruluğunu etkileyen bir aşamadır. Uygulamada sıkça karşılaşılan<br />

sorun sınıf çakışmasıdır. Sınıf çakışmasının nedenlerinden biri de kontrol alanlarının<br />

ölçümünde yapılan hatalardır [URL–1].<br />

Kontrollü sınıflandırma da, çalışma alanındaki yeryüzü özelliklerini tanımlayan<br />

yeteri sayıdaki örnekleme alanları kullanılarak, piksel değerlerinin özellik dosyaları


23<br />

oluşturulur. Kontrol alanlarının örneklediği özellik dosyalarının görüntü ver<strong>ileri</strong>ne<br />

uygulanması ile her bir piksel, hesaplanan olasılık değerine göre en çok benzer<br />

olduğu sınıfa atanmaktadır.<br />

Kontrollü sınıflandırma da, ilk adım örnekleme adımıdır. Örnekleme<br />

aşamasında, analist her bir arazi örtüsü çeşidini temsil edecek örnekleme bölgeleri<br />

seçer ve bu bölgelerin spektral özelliklerini açıklayacak sayısal değerler geliştirir.<br />

İkinci adım, sınıflandırma adımıdır. Sınıflandırma adımında, görüntü verisindeki her<br />

bir piksel en çok benzer olduğu arazi örtüsü kategorisine dahil edilir. Görüntü<br />

elemanı örnekleme bölgeleriyle uyum sağlamıyorsa bilinmeyen olarak etiketlenir.<br />

Bilinmeyen piksel değerinin hangi arazi örtüsü grubuna dahil olacağı daha sonra<br />

belirlenir. Her bir piksele atanan sınıf, yorumlanmış veri dizisinde yerini alır ve<br />

böylece çok boyutlu görüntü matrisi, karşılık gelen yorumlanmış arazi örtü sınıfı<br />

tiplerinin oluşturduğu matrisi geliştirme de kullanılır [Kansu, 2006]. Bütün veriler<br />

kategorize edildikten sonra sonuçlar çıktı adımında sunulur. Sonuçlar tematik<br />

haritalar, istatistiksel tablolar veya coğrafi bilgi sistemlerine dahil edilebilecek<br />

nitelikteki sayısal veri kütükleri şeklinde ortaya koyulurlar [Lillesand and Kiefer,<br />

1994]. Kontrollü sınıflandırma yönteminde kullanılan en önemli algoritmalar, en kısa<br />

uzaklık karar kuralı, paralelkenar karar kuralı, Mahalanobis uzaklığı ve en çok<br />

benzerlik algoritmalarıdır.<br />

2.5.4.2.1. En Kısa Uzaklık Sınıflandırıcısı<br />

En kısa uzaklık sınıflandırıcısında her bir örnek sınıf için hesaplanan ortalama<br />

vektör ile aday piksel arasındaki spektral uzaklık hesaplanır. Hesaplanan spektral<br />

uzaklıklara göre aday piksel en kısa mesafedeki örnek sınıfa atanır [Erdas, 2008].<br />

Şekil 2.6’da aday pikselin üç özelliğe ait ortalama vektöre olan spektral uzaklıkları<br />

bir çizgi ile ifade edilmiştir. Şekle göre aday piksel bu spektral uzaklıklardan en kısa<br />

mesafede olan sınıfa atanmasıyla sınıflandırma işlemi gerçekleştirilir. Örnek sınıf<br />

ortalama vektörü ile bilinmeyen piksel arasındaki uzaklığa spektral uzaklık denir ve<br />

uzaklığın bulunması Eşitlik 2.1’de ifade edilen Öklit uzaklığı esasına dayanmaktadır.<br />

( ) 2<br />

− X<br />

n<br />

SDxyc<br />

= ∑ μ ci xyi<br />

(2.1)<br />

i= 1


24<br />

Bu eşitlikte; n, bant sayısını (boyutu); i, belirli bir bandı; c, belli bir sınıfı;<br />

X xyi , i. banttaki pikselin x, y değerlerini; μ ci , i bandındaki c sınıfına ait örneklere<br />

ait değerlerin ortalamasını;<br />

SDxyc<br />

, aday piksel<br />

x, y ’nin c sınıfına ait ortalama<br />

vektöre olan spektral uzaklığı olarak ifade edilebilir [Erdas, 2008].<br />

Aday piksel<br />

B bandı değerleri<br />

μ B 2<br />

μ B 3<br />

μ 1<br />

1<br />

B<br />

μ 1<br />

μ 2<br />

μ 3<br />

μ A μ A2<br />

μ A 3<br />

A bandı değerleri<br />

Şekil 2.6. En kısa uzaklık (spektral uzaklık) sınıflandırıcısı.<br />

En kısa uzaklık yöntemi matematiksel ifadesi anlaşılabilir, basit ve hesaplama<br />

zamanı açısından hızlı olan bir kontrollü sınıflandırma algoritmasıdır. Yöntemin bu<br />

önemli avantajlarının yanında en önemli eksikliği görüntü üzerindeki objelerin<br />

spektral olarak birbirine çok yakın değerlere sahip olması ve yüksek varyans<br />

değerlerine sahip olması durumlarında ürettiği düşük doğruluktur. Bununla beraber<br />

yöntemle yapılan sınıflandırma sonucunda spektral uzaklıklar göz önüne<br />

alındığından her bir aday pikselin örnek sınıflardan birine atanması söz konusudur<br />

[Lillesand and Kiefer, 1994].<br />

2.5.4.2.2. Paralelkenar Sınıflandırıcısı<br />

Paralelkenar sınıflandırıcısında her bir örnek sınıfın her bir banttaki en düşük<br />

ve en yüksek spektral değerleri dikkate alınarak, dikdörtgen bölgeler oluşturulur.<br />

Daha sonra sınıflandırılmak istenen aday piksel içerisinde bulunduğu dikdörtgen<br />

bölgenin ait olduğu örnek sınıfa atanır [Lillesand et al., 2007]. Parametrik olmayan<br />

bir yaklaşım olan paralelkenar karar kuralı hesaplama zamanı açısından hızlı ve


25<br />

matematiksel ifadesi basit olan bir yöntemdir. Bu yöntemin sonucunda<br />

sınıflandırılamayan piksel sayısı fazladır. Sınıflar arasında çakışan alanlar olması<br />

durumunda sınıflandırma işlemi zorlaşmaktadır. Bu durumda aday piksellerin<br />

çakışan sınıflardan birine rastgele atanması ile problem çözülür. Sonuç olarak aday<br />

pikselin olması gerekenden farklı bir sınıfa atanması da söz konusu olabilmektedir.<br />

Şekil 2.7’de iki boyutlu bir veri seti için paralelkenar karar kuralı sınıflandırıcısı<br />

gösterilmiştir. Şekilde iki banttaki üç sınıfa ait veriler ve bu sınıfların oluşturduğu<br />

dikdörtgen bölgeler görülmektedir. Sınıflandırma sonucunda bazı bölgelerde çakışma<br />

ve çok sayıda aday pikselin sınıflandırılamaması söz konusudur.<br />

Sınıf 1<br />

B bandı değerleri<br />

Sını f 3<br />

Sınıf 2<br />

A bandı değerleri<br />

Sınıf 1’e ait pikseller<br />

Sınıf 2’e ait pikseller<br />

Sınıf 3’e ait pikseller<br />

Sınıflandırılamayan pikseller<br />

Şekil 2.7. Paralelkenar sınıflandırıcısı.<br />

2.5.4.2.3. Mahalanobis Uzaklığı Sınıflandırıcısı<br />

Mahalanobis uzaklığı sınıflandırıcısı, bantlardaki ver<strong>ileri</strong>n normal dağılımda<br />

olduğunu kabul eder ve bu kabulle iyi sonuçlar vermektedir. Yöntem en kısa uzaklık<br />

karar kuralına benzemekte ancak bu yöntemde eşitliklerde kovaryans matrisi de<br />

kullanılmaktadır [Erdas, 2008]. Mahalanobis yöntemi varyans ve kovaryans gibi<br />

istatistiki değerler kullanmasından ötürü parametrik bir yaklaşımdır. Varyans ve<br />

kovaryans değişik özellikteki çeşitli sınıflar için denklemde karşılıklı olarak<br />

hesaplanır. Yüksek varyansa sahip kümeler aynı şekilde varyansa sahip sınıflara,<br />

düşük varyansa sahip kümeler düşük varyanslı sınıflara atanacaktır [Göksel, 1996].<br />

Mahalanobis uzaklığı sınıfandırıcısı, minimum uzaklık ya da paralelkenardan faklı


26<br />

olarak sınıf değişimi göz önüne alınır. Mahalanobis uzaklığında işlenen örnekte ya<br />

da bir kümedeki piksellerde büyük bir dağılma varsa o işaretin kovaryans matrisi<br />

büyük değerler içerecektir [Kansu, 2006]. Mahalanobis uzaklığı sınıflandırıcısı için<br />

kullanılan eşitlik;<br />

D =<br />

T −1<br />

( X − M ) ( Cov )( X − M )<br />

c<br />

c<br />

c<br />

(2.2)<br />

şeklinde ifade edilmektedir. Bu eşitlikte; D, mahalanobis uzaklığını; c, belirli bir<br />

sınıfı; X, aday pikselin ölçüm vektörünü;<br />

vektörü; Cov c , c sınıfındaki piksellere ait kovaryans matrisini; Covc<br />

, Covc<br />

’nin<br />

M c<br />

, c sınıfındaki özelliklere ait ortalama<br />

ters matrisini ve T ise transpoze fonksiyonunu ifade etmektedir. Yöntemin temel<br />

çalışma prensibi, sınıflandırılacak aday pikselin, Eşitlik 2.2 ile hesaplanan<br />

mahalanobis uzaklığının en düşük olduğu sınıfa atanması şeklindedir. Yöntem<br />

istatistiki değerlerin dikkate alınmasının zorunlu olduğu durumlarda en kısa uzaklık<br />

yöntemine göre daha doğru sonuçlar vermektedir. Diğer taraftan yöntem,<br />

paralelkenar ve en kısa uzaklık yöntemine göre daha uzun bir hesaplama süresi<br />

gerektirmektedir [Erdas, 2008].<br />

−1<br />

2.5.4.2.4. En Çok Benzerlik Sınıflandırma Algoritması<br />

En çok benzerlik yöntemi literatürde en yaygın olarak kullanılan etkili bir<br />

kontrollü sınıflandırma algoritmasıdır. Bu yöntemde ortalama değer, varyans ve<br />

kovaryans gibi istatistiki değerlerin tümü dikkate alınır. Kontrol alanlarını oluşturan<br />

sınıflar için olasılık fonksiyonları hesaplanmakta ve buna göre her bir pikselin hangi<br />

sınıfa daha yakın olduğuna karar verilmektedir. Bir pikselin hangi sınıfa ait olduğu<br />

her bir sınıfa ait olma olasılıklarının hesabından sonra en yüksek olasılıklı grubu<br />

atama şeklinde yapılır [Mather, 1987]. Bu noktada kullanıcı tarafından tespit<br />

edilecek bir eşik değer sınıflandırılacak pikselin belirlenen sınıflardan veya bu<br />

sınıfların dışında bir sınıftan olduğunun tespitinde kullanılır. Bu yöntemde, sınıf<br />

kontrol ver<strong>ileri</strong>ni oluşturan noktalar kümesindeki dağılımın, normal dağılım olduğu<br />

kabul edilir. Sınıfların ilk olasılıkları hakkında bilgi mevcut değilse, hepsi eşit<br />

olasılıklı olarak kabul edilir. Yöntem, pikselleri sadece parlaklık değerlerine göre<br />

değil, her sınıf için ayrım oluşturacak varyans-kovaryans matris değerine göre


27<br />

oluşturur. Böylece örnek piksellerin özellik uzayındaki dağılımları da dikkate alınmış<br />

olur. Olasılık yoğunluk fonksiyonları, bilinmeyen piksellerin olasılıklarının<br />

hesaplanarak belirli bir sınıfa atanması için kullanılır. Aday piksel olasılık değerine<br />

göre en çok benzediği sınıfa atanır. Sınıflandırma sırasında piksellerin belirlenen<br />

sınıflardan veya bu sınıfların dışında bir sınıftan olduğunun tespiti için eşik değeri<br />

kullanılmaktadır. Eğer aday pikselin olasılığı tüm sınıflar için belirlenen eşik<br />

değerinin altındaysa piksel bilinmeyen olarak etiketlenir [Lillesand and Kiefer,<br />

1994]. En çok benzerlik yönteminde kullanılan formül aşağıdaki şekildedir:<br />

D = ln<br />

T −1<br />

[ ] 0.5 * ( X − M ) * ( Cov )*<br />

( X − M )]<br />

( a ) − 0.5 * ln( Cov ) − [<br />

c<br />

c<br />

c<br />

c<br />

C<br />

(2.3)<br />

Bu eşitlikte; D, uzaklık ağırlıklı olasılık değerini; C, örnek bir sınıfı; X, aday<br />

pikselin ölçüm vektörünü;<br />

M c<br />

, C örnek sınıfının ortalama vektörünü; a , aday<br />

pikselin C sınıfına ait olma yüzdesini, Cov , C örnek sınıfındaki piksellerin varyanskovaryans<br />

matrisini göstermektedir.<br />

c<br />

c<br />

2.6. Uzaktan Algılama Uyduları<br />

2.6.1. LANDSAT Uydu Sistemi<br />

İlk LANDSAT uydusunun 1972 yılında uzaya gönderilmesinden sonra dört<br />

adet Landsat uydusu daha yörüngeye oturtulmuştur. İlk kuşak üç uydudan<br />

oluşmaktadır. Bu uydular iki sensör taşımaktadır: Return Beam Vidicon (RBV)<br />

kamera ve Multispectral Scanner (MSS). İkinci kuşak Landsat uyduları, 1982'de<br />

Landsat 4 ile başlayarak, RBV yerine Thematic Mapper (TM) adında yeni bir cihazla<br />

donatılmışlardır. 1999 yılında, Landsat 7 Thematic Mapper+ ve yüksek çözünürlüklü<br />

scanner ile donatılarak uzaya gönderilmiştir. Landsat 7 uydusu uzaya gönderildiği<br />

zaman üzerinde tek bir aygıt olarak ETM+ (Enhanced Thematic Mapper Plus)<br />

taşımaktadır [URL–2].<br />

Landsat uydusu tekrarlı, dairesel, güneşe senkronize, kutuplara-yakın<br />

yörüngeye sahiptir. Bu özellikleri sayesinde 81° N and 81° S arasında görüntüleme


28<br />

yapar. LANDSAT 1 – 3 uyduları için tekrar süresi 18 gündür, LANDSAT 4 ve 5 için<br />

16 gündür.<br />

TM ve MSS ver<strong>ileri</strong> için veri dizisi 8-bit'ten oluşmaktadır. Multi-Spectral<br />

Scanner (MSS) alıcısı görünür ve yakın-infrared bölgede 4 adet banda sahiptir ve 79<br />

metre çözünürlüktedir. Thematic Mapper adlı cihazın spektral ve geometrik<br />

çözünürlük üstünlüğü nedeniyle MSS' in talebi hızla azalmıştır.<br />

Landsat 7 geliştirilmiş TM tarayıcısı taşımaktadır. Standart 7 banda ek olarak<br />

15m çözünürlüğe sahip pankromatik band (0.50- 0.90μm) eklenmiştir. Bunlara ek<br />

olarak termal bandın çözünürlüğü de 60 metreye indirilmiştir. Landsat 5–7<br />

uydularının genel özellikleri Tablo 2.1’de gösterilmiştir. Tabloda VNIR, görünür<br />

yakın kızılötesini; SWIR, orta kızılötesini ve TIR, termal kızılötesini göstermektedir.<br />

Tablo 2.1. Landsat uydularının teknik özellikleri.<br />

Uydu<br />

Sensör<br />

Tipi<br />

Spektral<br />

(μm)<br />

Çözünürlük<br />

Yersel<br />

(m)<br />

Radyometrik<br />

(bit)<br />

Landsat 1/2/3<br />

MSS<br />

VNIR: 0.5–0.6, 0.6–0.7,<br />

0.7–0.8, 0.8–0.11<br />

79 6<br />

VNIR: 0.45–0.52, 0.52–0.60,<br />

30<br />

Landsat 4/5<br />

TM<br />

0.63–0.69, 0.76–0.90<br />

SWIR: 1.55–1.75,2.08–2.35<br />

TIR: 10.42–12.5<br />

30<br />

120<br />

8<br />

PAN<br />

0.52–0.9<br />

15<br />

Landsat 7<br />

ETM<br />

VNIR ve SWIR Landsat 5 ile aynı<br />

TIR: 10.42–12.5<br />

30<br />

60<br />

8


29<br />

2.6.2. TERRA Uydu Sistemi<br />

Terra uydusu 1999 yılında uzaya gönderilmiştir. Uydu üzerinde ASTER,<br />

MODIS, CERES, MOPITT ve MISR olarak bilinen beş adet model bulunmaktadır.<br />

Bu modüller arasında ASTER sensörü 14 bantlı ve 15m - 90m yersel çözünürlükteki<br />

görüntüler elde edilmektedir. ASTER ver<strong>ileri</strong>; arazi yüzeyi, sıcaklık, reflektans,<br />

parlaklık değişim oranı ve yükseklik haritalarını çıkarmak için kullanmaktadırlar.<br />

Üzerinde yüksek verimlilikte çalışan optik sensörler mevcut olup, 14 bantla termal<br />

kızıl ötesi ile kara yüzeylerini spektral bantlarla incelemektedir [URL–2]. Terra<br />

ASTER uydusuna ait teknik özellikler Tablo 2.2’de gösterilmiştir. Tabloda VNIR,<br />

görünür yakın kızılötesini; SWIR, orta kızılötesini ve TIR, termal kızılötesini<br />

göstermektedir.<br />

Tablo 2.2. Terra ASTER uydusunun teknik özellikleri.<br />

Uydu<br />

Sensör<br />

Tipi<br />

Spektral<br />

(μm)<br />

Çözünürlük<br />

Yersel<br />

(m)<br />

Radyometrik<br />

(bit)<br />

VNIR<br />

0.52–0.60, 0.63–0.69,<br />

0.76–0.86<br />

15 8<br />

1.60–1.70, 2.145–2.185,<br />

Terra/ASTER<br />

SWIR<br />

2.185–2.225, 2.235–2.285,<br />

2.295–2.365, 2.360–2.430<br />

30 8<br />

TIR 10.95–11.65 90 12<br />

2.6.2. SPOT Uydu Sistemi<br />

SPOT uydusu Fransız, İsveç ve Belçika ortak yapımı olup 1986 yılında<br />

uzaydaki yörüngesine yerleştirilmiştir. SPOT uydusu üzerinde iki adet HRV ve<br />

vejetasyon algılayıcı mevcuttur. HRV algılayıcıları, pankromatik ve çok bantlı<br />

görüntüler elde edebilmektedir.


30<br />

Günümüze kadar beş adet SPOT uydusu uzaya gönderilmiştir. Bunlardan<br />

SPOT-1,2,3,4 uyduları yüksek çözünürlüğe sahip (10m pankromatik ve 20m çok<br />

bantlı görüntüleme modunda) ve değişik ihtiyaçları karşılayacak spektral bandlar<br />

içermektedir. Bu uydular iyi bir tekrar görüntüleme süresine sahip olup, 900 km'lik<br />

görüntüleme alanı içerisinde kalan 60km x 60km 'lik herhangi bir bölgeyi her geçişte<br />

görüntüleme olanağı sağlamaktadırlar. SPOT–5 zenginleştirilmiş görüntü ile Spot<br />

serisinin beşincisidir. SPOT–5 deki iki yeni HRG cihazı Spot 4 deki HRVIR<br />

cihazlarından türetilmiştir ve 2,5,-5 m pankromatik ve 10 metre de çok bantlı yersel<br />

çözünürlüklü görüntü imkanı sağlar [URL–2]. SPOT uydularının teknik özellikleri<br />

Tablo 2.3’de gösterilmiştir.<br />

Tablo 2.3. SPOT uydularının teknik özellikleri<br />

Çözünürlük<br />

Uydu Sensör Tipi Spektral<br />

(μm)<br />

Yersel<br />

(m)<br />

Radyometrik<br />

(bit)<br />

PAN 0.51–0.73 10 8<br />

SPOT–1/2/3 HRV VNIR: 0.50–0.59, 0.61–0.68,<br />

0.79–0.89<br />

20 8<br />

PAN 0.61–0.68 10 8<br />

SPOT–4<br />

HRVIR VNIR: 0.50–0.59, 0.61–0.68,<br />

0.79–0.89<br />

SWIR: 1.58–1.75, 0.43–0.47,<br />

0.61–0.68<br />

20 8<br />

Vejetasyon 0.78–0.89, 1.58–1.75 1000 4/8<br />

PAN 0.49–0.69 2.5–5 8<br />

SPOT–5<br />

HRG VNIR: 0.49–0.61, 0.61–0.68,<br />

0.78–0.89<br />

10 8<br />

HRG SWIR: 1.58–1.75 20 8<br />

Vejetasyon<br />

0.43–0.47, 0.61–0.68,<br />

0.78–0.89, 1.58–1.75<br />

1000 4/8


31<br />

3. UZAKTAN ALGILAMADA İLERİ<br />

SINIFLANDIRMA TEKNİKLERİ<br />

3.1. Destek Vektör Makineleri<br />

Destek Vektör Makineleri (DVM), Viladimir N. Vapnik ve çalışma arkadaşları<br />

tarafından ortaya konulan istatistiksel öğrenme teorisine dayalı bir kontrollü<br />

sınıflandırma algoritmasıdır [Vapnik, 1995]. DVM’nin sahip olduğu matematiksel<br />

algoritmalar başlangıçta iki sınıflı doğrusal ver<strong>ileri</strong>n sınıflandırılması problemi için<br />

tasarlanmış daha sonra kullanılan algoritmalar doğrusal olmayan ver<strong>ileri</strong>n ve çok<br />

sınıflı ver<strong>ileri</strong>n sınıflandırılması problemlerinin çözümü için genelleştirilmiştir.<br />

DVM’nin en genel amacı iki sınıfı birbirinden ayırabilen en uygun karar fonksiyonun<br />

tahmin edilmesi başka bir ifadeyle iki sınıfı birbirinden en uygun şekilde ayırabilen<br />

bir hiper düzlemin tanımlanması esasına dayanmaktadır [Vapnik, 2000]. DVM optik<br />

karakterlerin tanımlanması, el yazısı tanımlamaları, parmak izi tespiti, yüz tanıma ve<br />

metin sınıflandırmaları gibi birçok uygulamada kullanılmıştır [Joachims, 1998;<br />

Heisele et al., 2003; Liu et al., 2003; Yang et al., 2008; Hong et al., 2008]. Son<br />

yıllarda DVM’nin <strong>uzaktan</strong> algılanmış görüntülerin sınıflandırılması konusunda<br />

başarıyla kullanımı literatürde bir çok yayında mevcuttur [Huang et al., 2002; Foody<br />

and Mathur, 2004; Pal and Mather, 2005; Su et al., 2007; Yao et al., 2008].<br />

Destek vektör makinelerini diğer öğrenme algoritmalarından ayıran en önemli<br />

özellik; sahip olduğu matematiksel algoritmanın sınıflandırma sonucunda beklenen<br />

riskin üst sınırının minimum olması şeklinde ifade edilen yapısal risk azalımı (YRA)<br />

prensibine dayanmasıdır [Kechman, 2001]. Vapnik (1995)’e göre bir öğrenme<br />

makinesinin riski (R); eğitim ver<strong>ileri</strong>nden elde edilen deneysel gözlemlerin riski<br />

(R emp ) ve güvenilirlik aralığının toplamına ((ψ ) = R ≤ + ψ )<br />

stratejisi deneysel gözlem riskini (R emp ) sabit olarak korumak ve güvenilirlik aralığını<br />

( ψ ) minimum yapmak veya en uygun ayrım yapan hiper düzleme en yakın veri<br />

noktaları arasındaki sınırın maksimum olması olarak tanımlanabilir. En uygun ayrım<br />

yapan hiper düzlemden kasıt çok boyutlu bir uzayda veri örneklerini iki sınıfa ayıran<br />

bir hiper düzlemdir. Bu bağlamda iki sınıfı birbirinden ayıran en uygun hiper<br />

R emp<br />

bağlıdır. YRA


32<br />

düzlem, bu düzlem ile bu düzleme en yakın veri noktalarının oluşturduğu sınırı<br />

maksimum yapan hiper düzlem olarak tanımlanabilir [Huang et al., 2002]. DVM<br />

öznitelik bilg<strong>ileri</strong> verilen bir test veri setine ait sınıf etiketlerini öğrenebilen veya<br />

tahmin edebilen bir model oluşturmayı amaçlamaktadır. Bu doğrultuda sınıflandırma<br />

işleminde, DVM ile eğitim seti içindeki veriler kullanılarak bir hiper düzlem<br />

belirlenir ve bu oluşturulan düzlemin geçerliliği (genelleme yeteneği) test veri seti<br />

olarak adlandırılan bağımsız veri setleri kullanılarak doğrulanır. N boyutlu bir verinin<br />

sınıflandırılmasında DVM ile (N–1) boyutlu bir hiper düzlem geliştirilir. İki sınıfa<br />

sahip doğrusal olarak ayrılabilen bir veri seti düşünülürse, Şekil 3.1’de görüleceği<br />

üzere bu veri setini ayırabilen sonsuz sayıda hiper düzlem vardır.<br />

Şekil 3.1. İki sınıflı bir problemde ver<strong>ileri</strong> ayıran hiper düzlemler.<br />

Ancak, bu düzlemler arasında maksimum sınıra sahip sadece bir hiper düzlem<br />

bulunmaktadır [Sherrod, 2003; Oomen et al., 2008]. Bu hiper düzleme en uygun<br />

ayrım yapan hiper düzlem ve sınır genişliğini sınırlandıran noktalara ise destek<br />

vektörleri adı verilir (Şekil 3.2).<br />

Destek Vektörleri<br />

Sınır<br />

Destek Vektörleri<br />

Optimum Hiper Düzlem<br />

Şekil 3.2. İki sınıflı bir problemde en uygun hiper düzlem, sınır ve destek vektörleri.


33<br />

Destek vektör makineleri ile yapılan sınıflandırma problemlerinde ver<strong>ileri</strong>n<br />

doğrusal olarak ayrılabilen veya doğrusal olarak ayrılamayan bir yapıda olması en<br />

çok karşılaşılan iki durumdur. Doğrusal olarak ayrımı yapılabilen ver<strong>ileri</strong>n<br />

sınıflandırılması ve bu ver<strong>ileri</strong> birbirinden ayıran en uygun hiper düzlemin bulunması<br />

oldukça kolaydır. Ancak <strong>uzaktan</strong> algılanmış görüntülerin sınıflandırılmasında olduğu<br />

gibi güncel hayatta karşımıza çıkan birçok sınıflandırma probleminde ver<strong>ileri</strong>n<br />

doğrusal olarak ayrılması mümkün değildir. Bu tip problemlerin teorik olarak<br />

çözülmesi zor ve karmaşıktır.<br />

3.1.1. Doğrusal Olarak Ayrım Yapılabilen Veriler<br />

Doğrusal olarak ayrılabilen sınıflar DVM’nin eğitimi için en basit durumdur.<br />

İki sınıflı k sayıda örnekten oluşan doğrusal yapıdaki bir eğitim verisi seti { x i<br />

y },<br />

N<br />

i = 1,...,k , şeklinde verilsin. Burada x ∈ R olup N boyutlu bir uzayı, y ∈{<br />

−1 , + 1}<br />

ise<br />

sınıf etiketlerini göstermektedir. Osuna et al. (1997), hiper düzleme ait ağırlık<br />

vektörü w ve hiper düzlemin orijinden olan uzaklığını gösteren b sayısal<br />

büyüklüğünün hesaplanması durumunda iki sınıfı birbirinden ayıran hiper düzlemin<br />

belirlenebileceğini ifade etmiştir. İki sınıflı bir problemde ayrım yapan hiper düzleme<br />

ait eşitlikler Eşitlik 3.1 ve 3.2’de verilmiştir.<br />

,<br />

i<br />

w ⋅ x i<br />

+ b ≥ + 1 her y = + 1 için (3.1)<br />

w ⋅ x i<br />

+ b ≤ −1<br />

her y = −1<br />

için (3.2)<br />

Bu iki eşitlik tek bir eşitlik ile ifade edilecek olursa;<br />

y ( w ⋅ x + b)<br />

−1<br />

≥ 0<br />

i<br />

i<br />

(3.3)<br />

şeklinde olur. Bu durumda hipotez uzayı Eşitlik 3.4 ile verilen fonksiyonlar kümesi<br />

halini alır.<br />

f<br />

w b<br />

,<br />

= sign(<br />

w⋅ x + b)<br />

(3.4)


34<br />

Eğer w ve b parametreleri aynı miktarda ölçeklenirse Eşitlik 3.4’deki karar<br />

yüzeyi değişmeyecektir. Bu fazlalığı kaldırmak ve her bir karar yüzeyinin tek bir<br />

sabit (w,b) çiftine karşılık gelmesi için Eşitlik 3.5 ile verilen sınırlandırmadan<br />

yararlanılır.<br />

min w⋅<br />

x + b = 1<br />

i= 1,..., k<br />

i<br />

(3.5)<br />

N<br />

2<br />

Bu eşitlikte<br />

x<br />

1,...,<br />

x k<br />

veri kümesindeki noktaları göstermektedir. Eşitliği<br />

sağlayan hiper düzlem seti standart hiper düzlem olarak adlandırılır [Osuna et al.,<br />

1997]. Bütün doğrusal karar yüzeyleri standart hiper düzlem ile gösterilebilir. Vapnik<br />

(1995), (w,b) çiftleri için yararlanılan sınırlandırmalardan başka sınırlandırmalar<br />

olmaması durumunda standart hiper düzlemin Vapnik-Chervonenkis (VC)<br />

boyutunun bağımsız parametrelerinin toplam sayısını gösteren (N+1) olacağını ifade<br />

etmiştir. VC boyutu hipotez uzayının kapasitesini ölçer [Vapnik and Chervonenkis,<br />

1968; 1971]. Kapasite bir karmaşıklığın veya zorluğun ölçülmesi anlamına<br />

gelmektedir. Başka bir ifadeyle bir fonksiyon kümesinin ifade gücünü, esnekliğini<br />

veya zenginliğini ölçer. N noktayı içeren bir veri seti düşünüldüğünde, bu N nokta<br />

pozitif veya negatif olarak etiketlenebilir. Bununla beraber, N sayıda veri noktasıyla<br />

farklı öğrenme problemi tanımlanabilir. Bu problemlerden herhangi biri için<br />

pozitif örnekleri negatif örneklerden ayırabilen bir h ∈ H hipotezi bulunabilirse,<br />

H’nın N veri noktasını parçalara ayırdığı söylenebilir. Bu durum, N örnekle<br />

tanımlanabilir herhangi öğrenme probleminin H tarafından çizilen bir hipotez ile<br />

hatasız bir biçimde öğrenilebilir olduğunu göstermektedir. H tarafından<br />

parçalanabilen maksimum nokta sayısı Vapnik-Chervonekis (VC) boyutu olarak<br />

adlandırılır. Yapısal risk azalımı prensibini uygulayabilmek için değişken VC<br />

boyutlu hiper düzlemler setinin oluşturulması gerekmektedir. Ayrıca hem eğitim<br />

sınıflandırma hatasını ifade eden deneysel riskin hem de VC boyutunun aynı anda<br />

minimum olması gerekmektedir. Bir x noktasının, (w,b) çiftine bağlı olarak<br />

oluşturulan hiper düzleme olan uzaklığı Eşitlik 3.6 ile belirlenebilir.<br />

d ( x;<br />

w,<br />

b)<br />

=<br />

x ⋅ w + b<br />

w<br />

(3.6)


35<br />

Eşitlik 3.5’te (w,b) ile tanımlanan standart hiper düzlem ile bu düzleme en<br />

yakın veri noktası arasındaki uzaklık basit bir şekilde<br />

1 / w ’dır [Foody and Mathur,<br />

2004]. Eğer örnek grupları doğrusal olarak ayrılabiliyorsa, veriyi en doğru şekilde<br />

sınıflandıran standart hiper düzlemler arasında en iyisi minimum norma sahip veya<br />

eşit bir biçimde minimum<br />

2<br />

w olanıdır. Bu normun minimum olarak kalması VC<br />

boyutunun minimum olarak kalmasına neden olur. Doğrusal olarak ayrımın<br />

yapılabildiği durumda<br />

w<br />

2<br />

’nin minimum olması, eğitim veri sınıfları arasında hiper<br />

düzleme olan dik çizgiler arasında hesaplanan uzaklığın bulunduğu ayırıcı hiper<br />

düzleme eşittir. Şekil 3.3’de gösterilen bu uzaklık sınır olarak adlandırılır [Burges,<br />

1998].<br />

Y<br />

Sınır<br />

Hiper Düzlemler<br />

w ⋅ x + b = ± 1<br />

w<br />

Destek Vektörleri<br />

b<br />

Optimum Hiper Düzlem<br />

w ⋅ x + b = 0<br />

X<br />

Şekil 3.3. Doğrusal olarak ayrılabilen veri setleri için hiper düzlemin belirlenmesi.<br />

N<br />

( x<br />

1,<br />

y1),......,(<br />

x k<br />

, yk<br />

)<br />

i<br />

∈ R , yi<br />

∈{<br />

−1,<br />

+ 1}<br />

x şeklinde verilen bir veri setinin iki<br />

farklı sınıfa doğru bir şekilde ayrılması için maksimum sınıra sahip hiper düzlemin,<br />

başka bir ifadeyle en uygun ayrım yapan hiper düzlemin belirlenmesine ihtiyaç<br />

duyulmaktadır. Destek vektör makinelerinin üzerinde bulunduğu hiper düzlemler<br />

arasındaki sınırın maksimum hale getirilmesi; w ifadesinin minimum hale<br />

getirilmesi ile mümkün olacaktır. Bu durumda maksimum sınıra sahip hiper<br />

düzlemin belirlenmesi;


36<br />

1 2<br />

min w (3.7)<br />

w, b 2<br />

koşulu ile<br />

y ( w ⋅ x + b)<br />

−1<br />

≥ 0<br />

i<br />

i<br />

i = 1,.......,<br />

k<br />

(3.8)<br />

eşitliğinin çözümü ile mümkündür.<br />

Yukarıdaki koşul ve eşitlik ile ifade edilen doğrusal olmayan optimizasyon<br />

probleminin çözümü için Lagrange fonksiyonu ve Lagrange<br />

çarpanlarından ( λ , i 1,..., k)<br />

yararlanılır. Bunun en önemli nedeni, Lagrange<br />

i<br />

=<br />

fonksiyonu kullanılarak Lagrange çarpanlarının dolayısıyla en uygun hiper düzleme<br />

ait parametrelerin ( w,b ) hesaplanmasının kolay olması ve doğrusal olmayan veriler<br />

için en uygun hiper düzlemin bulunması probleminin çözümü için Lagrange<br />

fonksiyonun genelleştirilebilecek bir yapıda olmasıdır [Burges, 1998]. Bu<br />

optimizasyon probleminin çözümü için oluşturulacak Lagrange fonksiyonu Eşitlik<br />

3.9 ile ifade edilir.<br />

k<br />

k<br />

1 2<br />

L( w,<br />

b,<br />

λ)<br />

= w − ∑λi<br />

yi<br />

( w ⋅ xi<br />

+ b)<br />

+ ∑λi<br />

2<br />

i= 1 i=<br />

1<br />

(3.9)<br />

Karush-Kuhn-Tucker (KKT) şartları sınırlandırılmış optimizasyon probleminin<br />

uygulamasında ve teorisinde önemli bir rol oynamaktadır [Fletcher, 2000].<br />

Yukarıdaki eşitliğin kısmı türevleri alınarak sıfıra eşitlenerek Eşitlik 3.10’daki<br />

ifadeler elde edilir.<br />

∂L(<br />

w,<br />

b,<br />

λ)<br />

k<br />

T<br />

= w<br />

∂ w<br />

i=<br />

1<br />

− ∑ yiλi<br />

xi<br />

= 0<br />

∂L(<br />

w,<br />

b,<br />

λ)<br />

∂b<br />

k<br />

= ∑ yiλi<br />

= 0<br />

i=1<br />

(3.10)


37<br />

Bu eşitliklerden KKT şartları Eşitlik 3.11 şeklinde;<br />

w<br />

T<br />

∑<br />

= k<br />

i= 1<br />

y λ x<br />

i<br />

i<br />

i<br />

k<br />

∑ yi λi<br />

=0<br />

(3.11)<br />

i=1<br />

elde edilir. KKT teorisine göre sadece Eşitlik 3.1 ve 3.2’yi sağlayan noktalar sıfırdan<br />

farklı<br />

q<br />

λ i<br />

katsayılarına sahip olabilirler. Bu noktalar destek vektörleri adı verilen<br />

birbirine paralel iki hiper düzlem üzerinde olurlar (Şekil 3.3). Başka bir ifadeyle<br />

destek vektörleri<br />

q<br />

λ i<br />

≥ 0<br />

olan aynı zamanda Eşitlik 3.1 ve 3.2’yi sağlayan noktalardır<br />

[Osuna et al., 1997]. Kısmi türevler alınarak elde edilen Eşitlik 3.11, Eşitlik 3.9’da<br />

yerine konulduğunda L ( w , b,<br />

λ)<br />

fonksiyonu; ( λ ≥ 0,<br />

i = 1,..., k)<br />

olmak üzere;<br />

i<br />

k<br />

1<br />

L ( w,<br />

b,<br />

λ ) = ∑λi<br />

− ∑λiλ<br />

j<br />

yi<br />

y<br />

j<br />

( xi<br />

⋅ x<br />

j<br />

) (3.12)<br />

2<br />

i<br />

i,<br />

j=<br />

1<br />

şeklinde elde edilir.<br />

Sonuç olarak iki sınıflı doğrusal ver<strong>ileri</strong>n söz konusu olduğu bir problem için<br />

iki sınıfın birbirinden ayrılması ile ilgili karar kuralı Eşitlik 3.13 ile ifade edilebilir<br />

[Vapnik, 1995; Osuna et al., 1997].<br />

k<br />

⎛<br />

f ( x)<br />

= sign⎜<br />

∑ ⎝ i=<br />

1<br />

⎞<br />

λi<br />

yi<br />

( x ⋅ xi<br />

) + b⎟<br />

⎠<br />

(3.13)<br />

3.1.2. Doğrusal Olmayan Veriler<br />

Günlük hayatta karşılaşılan birçok problemde ver<strong>ileri</strong>n doğrusal olmadığı<br />

durumlar söz konusudur. Başka bir ifade ile Şekil 3.4’de gösterildiği gibi doğrusal<br />

bir düzlem ile ver<strong>ileri</strong>n birbirinden ayrılamaması durumu vardır. Cortes ve Vapnik<br />

(1995), iki sınıfın doğrusal olarak ayrımının yapılamadığı ve hiper düzlemin


38<br />

yerleştirilemediği ver<strong>ileri</strong>n olması durumunda en uygun ayrım yapan hiper düzlemin<br />

bulunması metodunu genelleştirmişlerdir.<br />

Şekil 3.4. Doğrusal olarak ayrılamayan veri seti.<br />

Cortes and Vapnik (1995) çalışmalarında doğrusal olmayan ver<strong>ileri</strong>n<br />

sınıflandırılması probleminin Şekil 3.5’den de görüleceği üzere pozitif değerler alan<br />

ve sınıflandırma hatalarını ifade eden yapay değişkenlerin ( ξ i<br />

) tanımlanması ve<br />

optimizasyon modeline eklenmesi ile çözümün bulunabileceğini ifade etmişlerdir.<br />

Y<br />

Sınır<br />

Hiper Düzlemler<br />

w ⋅ x + b = ± 1<br />

w<br />

ξ<br />

b<br />

Optimum Hiper Düzlem<br />

w ⋅ x + b = 0<br />

X<br />

Şekil 3.5. Ayrım yapılamayan veri setleri için hiper düzlemler.<br />

Yapay değişken ξ ≥ 0 olan değerler alır. Doğrusal olmayan veriler olması<br />

i<br />

durumunda yapay değişkenler dikkate alınarak Eşitlik 3.3 yeniden düzenlenecek<br />

olursa;


39<br />

y ( w ⋅ x + b)<br />

−1+<br />

ξ ≥ 0 i = 1,...,<br />

k<br />

(3.15)<br />

i<br />

i<br />

i<br />

elde edilir. Bu durumda DVM algoritması sınırı maksimum yapacak hiper düzlemi<br />

ararken, aynı zamanda yanlış sınıflandırma hatalarının sayısı hakkındaki orantısal bir<br />

niceliği minimum yapmayı amaçlar. Sınırın maksimum hale getirilmesi ve yanlış<br />

sınıflandırma hatalarının minimum hale getirilmesi arasındaki bu denge pozitif<br />

değerler alan ve C ile gösterilen bir düzenleme parametresi ( 0 < C < ∞)<br />

tanımlanmasıyla kontrol edilebilir [Cortes and Vapnik, 1995]. Bu durumda<br />

optimizasyon problemi için Eşitlik 3.7 ile ifade edilen koşula C ξ (i = 1,...,<br />

k)<br />

gibi<br />

yeni bir terimin eklenmesi söz konusudur. C parametresi Lagrange çarpanlarının<br />

alabilecekleri maksimum değeri göstermektedir. Bu şekilde Lagrange çarpanlarının<br />

0 ≤ λi ≤ C aralığında kalması sağlanmaktadır. Burada C > 0 sabit bir parametredir<br />

ve kullanıcı tarafından belirlenir. Eğer C küçük ise doğru olarak sınıflandırılmayan<br />

birçok veriye izin verilir. C parametresi büyük değerler aldığında çok az sayıda hatalı<br />

veriye sahip olunmak istenir. Eğer<br />

∑ k<br />

i= 1<br />

C = ∞ kabul edilirse, ver<strong>ileri</strong>n tümüyle doğrusal<br />

olarak ayrılabildiği durum elde edilir [Özkan, 2008]. Diğer bir ifadeyle bu sabit<br />

terim, ξ<br />

i<br />

değişkeninin büyük değerler alması sonucunda ortaya çıkan çözümlere ceza<br />

i<br />

vererek minimum koşulunun<br />

2<br />

( 1/ 2) w katkısını ayarlamaktadır. Bu durumda<br />

doğrusal olmayan veriler için optimizasyon problemi:<br />

min<br />

⎡1<br />

⎢<br />

⎣<br />

w, b,<br />

ξ1,...,<br />

ξ k 2<br />

w<br />

2<br />

k<br />

⎤<br />

+ C∑ξ<br />

i ⎥<br />

i= 1 ⎦<br />

(3.16)<br />

y ( w ⋅ x + b)<br />

−1+<br />

ξ ≥ 0<br />

(3.17)<br />

i<br />

i<br />

i<br />

ξ ≥ 0, i = 1,......., k<br />

(3.18)<br />

i<br />

eşitlikleri halini alır. Bu optimizasyon probleminin çözümü için Lagrange<br />

fonksiyonu ve Lagrange çarpanları kullanılarak yeniden düzenlendiğinde,


40<br />

1 2<br />

L(<br />

w,<br />

b,<br />

λ,<br />

ξ,<br />

μ)<br />

= w + C∑ξi<br />

− ∑λi<br />

b 1<br />

2<br />

i<br />

i<br />

{ yi<br />

( w⋅<br />

xi<br />

+ ) − + ξi<br />

} − ∑<br />

i<br />

μ ξ<br />

i<br />

i<br />

(3.19)<br />

şeklinde yazılabilir. Bu eşitlikte<br />

λ ve<br />

μ lagrange çarpanlarıdır ve eşitliğin çözümü<br />

Lagrange düğüm noktaları ile tanımlanır. Bu düğüm noktaları<br />

w, ξ ve b’yi minimum<br />

hale getirirken aynı zamanda<br />

λ ≥ 0 ve μ ≥ 0 ile ilgili değerleri maksimum hale<br />

i<br />

i<br />

getiren noktalardır. Yukarıdaki eşitliğin kısmi türevleri alınıp sıfıra eşitlenerek KKT<br />

koşulları;<br />

∂L<br />

= 0<br />

∂w<br />

∑<br />

, w = k λ y x<br />

i= 1<br />

i<br />

i<br />

i<br />

∂L<br />

∂b<br />

∑ k<br />

i=1<br />

= 0 , λ y = 0<br />

(3.20)<br />

i<br />

i<br />

∂L<br />

= 0 , λ i<br />

+ μ i<br />

=<br />

∂ξ<br />

0<br />

şeklinde elde edilir. Buradan hareketle Lagrange fonksiyonu;<br />

k<br />

k<br />

1<br />

L( λ)<br />

= ∑λi − ∑λiλ<br />

j<br />

yi<br />

y<br />

j<br />

( xi<br />

⋅ x<br />

j<br />

)<br />

(3.21)<br />

i= 1 2 i,<br />

j=<br />

1<br />

buna bağlı kısıtlamalar ise ;<br />

∑ k<br />

i=1<br />

λi yi<br />

= 0 , i = 1,..., k<br />

C ≥ λ ≥ 0, i = 1,..., k<br />

(3.22)<br />

i<br />

şeklinde elde edilir.


41<br />

3.1.3. Doğrusal Olmayan Destek Vektör Makineleri<br />

Eğitim ver<strong>ileri</strong> üzerinden doğrusal eşitlikler ile tanımlanan bir karar yüzeyi<br />

(hiper düzlem) belirlenmesi mümkün olmadığı durumlarda 3.1.1 ve 3.1.2<br />

bölümlerinde açıklanan teknikler doğrusal olmayan karar yüzeylerinin oluşturulması<br />

için genişletilebilir. Ver<strong>ileri</strong>n doğrusal olarak ayrılamadığı durumlar için doğrusal<br />

sınıflandırıcı yerine doğrusal olmayan sınıflandırıcılar kullanılabilir. Boser et. al.<br />

N<br />

N F<br />

(1992), x ∈ R ile tanımlanan bir gözlem vektörünün, φ : R a R şeklinde<br />

doğrusal olmayan bir vektör fonksiyonu aracılığıyla daha yüksek boyutlu bir uzayda<br />

(özellik uzayı) eşleştirebileceğini ifade etmiştir. Başka bir ifadeyle bu problemin<br />

çözümü için Şekil 3.6’da görüleceği üzere girdi uzayında doğrusal olarak<br />

ayrılamayan veri daha yüksek boyutlu bir uzayda görüntülenir ve bu yüksek boyutlu<br />

uzayda verinin doğrusal olarak ayrımı gerçekleştirilir.<br />

φ<br />

Hiper Düzlem<br />

Girdi Uzayı<br />

Özellik Uzayı<br />

Şekil 3.6. Doğrusal olmayan verin yüksek boyutlu uzaya dönüşümü ve verinin<br />

doğrusal olarak ayrılması.<br />

Özellik uzayındaki en uygun sınır probleminin çözümü veya en uygun hiper<br />

düzlemin belirlenmesi için Eşitlik 3.21’deki x i<br />

⋅ x j<br />

noktasal çarpım ifadesi yerine<br />

φ( xi<br />

) ⋅φ(<br />

x<br />

j<br />

) yazılabilir. Bu durumda dönüşüm yapılan özellik uzayında<br />

λ için<br />

i<br />

optimizasyon probleminin çözümü λ > 0 ile bağlantılıdır. Bu eşleştirme<br />

kullanılarak DVM’nin çözümü için karar fonksiyonu;<br />

i


42<br />

⎛<br />

⎜ ∑ ⎞<br />

f ( x)<br />

= sign λ<br />

i<br />

yiφ(<br />

x)<br />

⋅φ(<br />

xi<br />

) + b⎟<br />

(3.23)<br />

⎝ i<br />

⎠<br />

şeklinde olacaktır. Bu eşitlikten de anlaşılacağı üzere doğrusal olarak ver<strong>ileri</strong>n ayırt<br />

edilemediği durumlarda ver<strong>ileri</strong> daha yüksek boyutlu bir uzaya taşıyarak<br />

çözümlemek için doğrusal olmayan φ fonksiyonları kullanılmaktadır. Yukarıdaki<br />

eşitlikte verilen φ x)<br />

⋅φ(<br />

x )<br />

(<br />

i<br />

skaler çarpımının yerine tek bir fonksiyon kullanılarak<br />

söz konusu dönüşümler yapılabilir [Vapnik, 1995; Özkan, 2008]. Bu skaler<br />

çarpımının hesaplama zorluğu nedeniyle Kernel fonksiyonları kullanılarak işlem<br />

gerçekleştirilir [Mathur and Foody, 2008a]. Kernel Fonksyonu’nun genel ifadesi<br />

K( xi<br />

, x<br />

j<br />

) = φ(<br />

x)<br />

⋅φ(<br />

xi<br />

)<br />

(3.24)<br />

şeklindedir. Bu fonksiyonlarının belirlenmesinde Mercer teoremine başvurulabilir.<br />

Mercer teoremine göre verinin yüksek boyutlu uzaya dönüşümü ve problemin<br />

çözümü için kullanılacak K x i<br />

, x ) şeklinde ifade edilen kernel fonksiyonu aşağıdaki<br />

koşulları gerçekleştirmelidir:<br />

(<br />

j<br />

a) Sürekli bir fonksiyon olmalıdır.<br />

b) Simetrik olmalıdır : K x , x ) = K x<br />

j<br />

, x )<br />

(<br />

i j<br />

(<br />

i<br />

c) Herhangi x<br />

1<br />

,..., xk<br />

değerleri için pozitif tanımlı olmalıdır.<br />

Tablo 3.1’den görüleceği gibi DVM içerisinde kullanılan birçok kernel<br />

fonksiyonu vardır. Keerthi and Lin (2003), doğrusal kernelin radyal tabanlı kernelin<br />

özel bir hali gibi düşünüleceğini ve sigmoid kernelin belirli parametreler için radyal<br />

tabanlı kernel gibi bir davranış gösterdiğini belirtmişlerdir. Literatürde <strong>uzaktan</strong><br />

algılanmış görüntülerin sınıflandırılması uygulamaları için polinom ve radyal tabanlı<br />

kernelin yaygın olarak kullanıldığını ve radyal tabanlı kernel kullanımı ile daha iyi<br />

sonuçlar elde edildiği ifade edilmektedir [Melgani and Bruzzone 2004; Foody and<br />

Mathur, 2004; Pal and Mather, 2005; Mathur and Foody, 2008b].


43<br />

Tablo 3.1. Kernel fonksiyonları ve kullanımları<br />

Doğrusal Kernel<br />

Fonksiyonu<br />

K( x,<br />

y)<br />

= ( x ⋅ y)<br />

Kernel fonksiyonun<br />

genel ifadesi<br />

Polinom Kernel<br />

(( x + )<br />

d<br />

⋅ y)<br />

1<br />

d, polinom derecesi<br />

Radyal Tabanlı<br />

Fonksiyon<br />

−γ x−<br />

y<br />

2<br />

e<br />

γ , kullanıcı tarafından<br />

belirlenen bir parametre<br />

İki Katmanlı Yapay<br />

Sinir ağı<br />

tanh<br />

( b( x ⋅ y ) − c)<br />

b ve c, kullanıcı<br />

tarafından belirlenen<br />

bir parametreler<br />

Pearson VII<br />

Universal Kernel<br />

(PUK)<br />

⎡ ⎛<br />

⎢ ⎜ 2<br />

⎢1<br />

+ ⎜<br />

⎢<br />

⎣ ⎝<br />

x −<br />

y<br />

1<br />

2<br />

2<br />

σ<br />

(1 / ω )<br />

− 1<br />

⎞<br />

⎟<br />

⎟<br />

⎠<br />

2<br />

ω<br />

⎤<br />

⎥<br />

⎥<br />

⎥<br />

⎦<br />

σ ve ω kullanıcı<br />

tarafından belirlenen<br />

parametrelerdir.<br />

3.1.4. Çok Sınıflı Destek Vektör Makineleri<br />

Destek vektör makineleri başlangıçta iki sınıflı ver<strong>ileri</strong>n sınıflandırılması<br />

esasına dayanarak geliştirilmiştir. Günümüzde birçok uygulamada örneğin arazi<br />

örtüsünün sınıflandırılması probleminde olduğu gibi sınıf sayısının ikiden fazla<br />

olması durumu söz konusudur. Böyle bir problemin destek vektör makineleri ile<br />

çözümü için uygun bir çoklu sınıflandırma yöntemine ihtiyaç duyulmaktadır.<br />

DVM’nin çok sınıfı ayırması aşamasında kullanılan çeşitli yaklaşımlar vardır.<br />

Bunlardan en çok kullanılan yaklaşımlar:<br />

• Çok sınıflı amaç fonksiyonu<br />

• Bire karşı hepsi yaklaşımı<br />

• Bire karşı bir yaklaşımı<br />

• Yönlendirilmiş çevrimsiz çizge yaklaşımı<br />

şeklinde ifade edilebilir.


44<br />

Çok sınıflı amaç fonksiyonu yaklaşımında, ikili sınıflandırma problemlerinin<br />

çözümü için geliştirilen DVM algoritmasının çoklu sınıf problemlerini direkt olarak<br />

çözecek şekilde değiştirilmesi esasına dayanmaktadır [Weston and Watkins, 1998;<br />

Lee et al., 2001; Crammer and Singer, 2001; Schölkopf and Smola, 2002; Debnath,<br />

et al., 2004]. Başka bir ifadeyle bu yaklaşımda ikili sınıflandırmalar için kullanılan<br />

Lagrange fonksiyonunun çoklu sınıfla işlem yapacak hale getirilmesidir. Bu<br />

yaklaşımda optimizasyon algoritması tüm destek vektörlerini aynı anda dikkate<br />

almaktadır. Bu nedenle sınıf sayısının çok fazla olduğu veri setlerinin olması<br />

durumunda bellek gereksinimi ve hem hesaplama zamanı çok fazla artmaktadır.<br />

Bununla beraber, tek bir Lagrange fonksiyonu kullanımından dolayı sınıflandırma<br />

hatalarının arttığı görülmüştür [Pal, 2005a; Demirci, 2007]. Bu nedenle yöntemin çok<br />

sınıflı ver<strong>ileri</strong>n sınıflandırılmasında kullanımı tercih edilmemektedir.<br />

Çok sınıflı amaç fonksiyonunda olduğu gibi bütün ver<strong>ileri</strong>n direkt olarak<br />

optimizasyon problemine eklenerek çözülmesi yerine DVM’nin sınıf sayısına bağlı<br />

olarak ikili sınıflandırmalar yapacak şekilde düzenlenmesi bir başka yaklaşımdır. Bu<br />

amaç için kullanılan yöntemlerden en öneml<strong>ileri</strong> “bire karşı hepsi” ve “bire karşı bir”<br />

yaklaşımlarıdır.<br />

Bire karşı hepsi yaklaşımında, eğitim verisindeki herhangi bir sınıfa ait veriler<br />

bir kümeyi oluştururken, eğitim verisindeki diğer sınıflara ait ver<strong>ileri</strong>n tamamı başka<br />

bir kümeyi oluşturduğu düşünülür. Eğitim verisindeki her bir sınıf için bu ikili<br />

sınıflandırma işlemi tekrar edilir ve bu şekilde çok sınıflı bir problem ikili bir<br />

sınıflandırma problemi gibi düşünülerek DVM’nin eğitimi tamamlanır. Burada N<br />

sayıda farklı sınıfın olduğu düşünülürse N sayıda eğitim işlemi yapılacaktır<br />

[Debnath, et al., 2004; Pal, 2005a; Demirci, 2007]. Lee et al. (2001) ve Schölkopf<br />

and Smola (2002) bu yöntemle elde edilen sınıflandırma sonuçlarının çok sınıflı<br />

amaç fonksiyonu ile benzer olduğunu ifade etmişlerdir. Bu yöntemin en önemli<br />

avantajı oluşturulacak ikili sınıflandırıcı sayısının sınıf sayısına eşit olmasıdır.<br />

Bununla birlikte eğitim sırasında bellek ihtiyacının fazla olması ve eğitimde<br />

kullanılan örnek sayısının fazla olması yöntemin dezavantajıdır. Bu durum özellikle<br />

büyük eğitim ver<strong>ileri</strong> olması durumunda bilgisayar için bellek problemini ortaya<br />

çıkarmaktadır. Diğer taraftan N tane sınıftan oluşan eğitim verisinin her bir sınıf için<br />

eşit sayıda örnekten oluştuğu düşünüldüğünde, eğitim sırasında bir sınıfa ait örnek


45<br />

sayısının geriye kalan diğer tüm sınıflara ait örnek sayısına oranı 1 : (N–1) olacaktır.<br />

Bu oran eğitim örnekleri boyutunun dengesiz olacağını göstermektedir [Huang et al.,<br />

2002; Milgram et al., 2006]. Mathur and Foody (2008b) bire karşı hepsi yaklaşımı ile<br />

yapılan sınıflandırma sonucunda sınıflandırılmamış pikseller oluşabileceğini ifade<br />

etmişlerdir.<br />

Bire karşı hepsi yaklaşımındaki kısıtlamalar bire karşı bir yaklaşımın ortaya<br />

atılmasına neden olmuştur. Bu metotta tüm olası sınıf çiftleri için DVM<br />

sınıflandırıcıları oluşturulur [Knerr et al., 1990; Hastie and Tibshirani, 1998]. Diğer<br />

bir ifadeyle bire karşı bir yaklaşımında, her bir sınıfa ait örnek kümeleri diğer örnek<br />

kümeleri ile ayrı ayrı eğitilir. N sayıda farklı sınıf olması halinde N(N-1)/2 tane<br />

eğitim işlemi yapılır. Eğitim işlemleri sonucunda elde edilen her bir sınıflandırıcı test<br />

verisine uygulanır. Test verisindeki her bir nokta her bir eğitim sonucunda bir oy alır.<br />

Eğitim sonucunda sınıfı belirli olmayan nokta için en çok oy alan sınıf o noktanın<br />

sınıf etiketini oluşturur. Bu yöntemde oluşturulan sınıflandırıcıların sayısı bire karşı<br />

hepsi yaklaşımından fazladır. Bununla birlikte her bir sınıflandırıcı için gerekli<br />

eğitim veri verisinin sayısı daha azdır. Eğitim vektörlerinin oransal boyutu her bir<br />

sınıf için aynıdır. Dolayısıyla bu yöntem bire karşı hepsi yöntemine göre daha<br />

simetrik bir yaklaşımdır. Tüm bu olumlu yönlerine rağmen sınıf sayısının artmasıyla<br />

kullanılacak sınıflandırıcının sayısı da artmaktadır [Pal, 2005a]. Örneğin 6 sınıfa<br />

sahip bir veri seti düşünüldüğünde oluşturulacak sınıflandırıcı sayısı 15 olacaktır.<br />

Yönlendirilmiş çevrimsiz çizge yaklaşımı Platt et al. (2000) tarafından<br />

geliştirilen bir çoklu sınıflandırma yöntemidir. Bu yaklaşımda N sınıflı bir<br />

sınıflandırma problemi için oluşturulacak sınıflandırıcı sayısı N(N–1)/2 olup her bir<br />

sınıflandırıcı ilgilenilen iki sınıfı dikkate alarak eğitilir. Bu yöntemin işleyişi bire<br />

karşı bir yöntemi ile benzerdir ve eğitim aşaması tamamen aynı şekilde yapılır.<br />

Yöntemin farklılığı ise test aşamasında olmaktadır. Bu yöntemde test yapılırken bütün<br />

eğitim işlemleri kontrol edilerek gerçekleştirilmez. Bunun yerine örneğin ait<br />

olmadığı düşünülen eğitim örnekleri elenerek ilerlenir.


46<br />

3.1.5. DVM ile Sınıflandırmada Veri Ön İşleme ve<br />

Model Seçimi<br />

Kontrollü sınıflandırma yönteminde problemin çözümü için sınıflandırılacak<br />

veriye ait örnekleri içeren eğitim ve test ver<strong>ileri</strong> kullanılır. Eğitim setindeki her bir<br />

örnek, öznitelik (özellik) ver<strong>ileri</strong>ni ve bu verilere ait sınıf etiketlerini içermektedir.<br />

DVM’nin amacı sadece öznitelik değerleri belli olan test setindeki ver<strong>ileri</strong>n sınıf<br />

etiketlerini tahmin edecek bir model oluşturmaktır.<br />

DVM uygulanmadan önce ver<strong>ileri</strong>n ölçeklenmesi önemlidir [Sarle, 2008].<br />

Ölçeklendirmenin asıl avantajı çok geniş sayısal aralıktaki verinin daha dar bir<br />

sayısal aralıkta ifade edilmesidir. Bir başka avantajı ise hesaplamalar sırasında işlem<br />

kolaylığı sağlamasıdır. Kernel değerleri genellikle özellik vektörlerinin skaler<br />

çarpımına dayandığından geniş aralıktaki öznitelik değerleri hesaplama sırasında<br />

sayısal problemlere neden olabilmektedir. Yapay sinir ağları ile yapılan<br />

sınıflandırmada olduğu gibi her bir öznitelik verisi (<strong>uzaktan</strong> algılamada her bir bant)<br />

[ 0,1] veya [ −1,<br />

+ 1]<br />

aralığında ölçeklenmektedir. Verinin ölçeklenmesinin<br />

ardından, DVM’nin eğitimi için kullanılacak modelin seçilmesi ve seçilen kernel<br />

fonksiyona ait parametrelerin belirlenmesi esastır.<br />

Model seçiminde öncelikli olarak RTF ve polinom kernelin düşünülmesi<br />

oldukça mantıklıdır. Bunun ilk nedeni, RTF ve polinom kernelin doğrusal olarak<br />

ayrılamayan ver<strong>ileri</strong> daha yüksek boyutlu bir uzayda eşleştirmesidir. Bu nedenle<br />

lineer kernelin aksine sınıf etiketleri ve öznitelik ver<strong>ileri</strong>nin doğrusal olmadığı<br />

durumlarda da kullanılabilmektedir. Keerthi and Lin (2003), lineer kernel RBF<br />

kernelin özel bir hali olduğunu ve C düzenleme parametresine sahip lineer kernelin<br />

bazı parametrelere sahip (C, γ ) RTF kernel ile aynı performansa sahip olduğunu<br />

belirtmişlerdir. Buna ek olarak sigmoid kernel belirli parametreler için RTF kernel<br />

gibi davranış göstermektedir [Lin and Lin, 2003]. RTF kernelin tercih edilmesindeki<br />

ikinci neden ise model seçimini karmaşık hale getiren parametrelerdir. Polinom<br />

kernelin kullanımında söz konusu olan polinom derecesindeki değişimler<br />

matematiksel olarak algoritmayı karmaşık hale getirmekte ve çözümü<br />

zorlaştırmaktadır. Buna karşın RTF kernelin sahip olduğu gamma parametresindeki


47<br />

değişimlerin sınıflandırıcının performansına olan etkisinin daha az olduğu ifade<br />

edilmektedir [Hsu et al., 2008].<br />

RTF ve polinom kernel kullanımında iki parametre (C, γ ve C, d) söz<br />

konusudur. Herhangi bir problem için hangi parametre çiftinin en iyi sonuç vereceği<br />

bilinmemektedir. Bu nedenle en uygun parametrelerin belirlenmesi gerekmektedir.<br />

Bu amaçla geliştirilmiş birkaç yöntem mevcuttur. Bu yöntemlerde amaç en iyi<br />

sınıflandırma sonucunu verecek parametre çiftini belirlemektir. Böylece sınıflandırıcı<br />

veriye ait bilinmeyen sınıf etiketlerini daha doğru bir şekilde tahmin edebilecektir.<br />

Yaygın olarak kullanılan yöntemlerden birisi eğitim verisini iki kısma ayırmaktır.<br />

Birinci kısım sınıflandırıcının eğitimi sırasında eğitim verisi olarak kullanılırken<br />

ikinci kısım bilinmeyen yani test verisi olarak işleme koyulur. Bu sayede bu veri seti<br />

için tahmin doğruluğu başka bir ifadeyle bilinmeyen verinin sınıflandırılma<br />

performansı daha hassas bir şekilde ifade edilecektir. Bu işlemin literatürde çapraz<br />

geçerlik olarak adlandırılmaktadır.<br />

v − katlı çapraz geçerlilikte, ilk önce eğitim seti<br />

eşit boyutta v sayıda alt kümeye ayrılır. Daha sonra bir alt küme eğitilen<br />

sınıflandırıcı ile geriye kalan v −1<br />

alt küme ile test edilir. Bu şekilde tüm eğitim<br />

setindeki her bir örnek tahmin edilir ve doğru olarak sınıflandırılan verinin yüzdesi<br />

çapraz geçerliliğin doğruluğunu gösterir.<br />

C, γ ve C, d parametrelerinin çapraz geçerlilik kullanılarak belirlenmesinde<br />

grid tarama yöntemi kullanılan yöntemlerden birisidir. Bu yöntemin çalışma prensibi<br />

genel olarak parametre çiftlerinin çapraz geçerlilik yoluyla denenmesi ve en iyi<br />

çapraz geçerlilik doğruluğuna sahip olan çiftin tespit edilmesidir. Girid tarama<br />

yönteminde kullanılacak parametre çiftleri için katlanarak büyüyen diz<strong>ileri</strong>nin<br />

5 3 15<br />

(C = 2 − −<br />

−15<br />

−13<br />

3<br />

,2 ,...,2 , γ = 2 ,2 ,...,2 ) denenmesi en pratik yoldur [Hsu et al.,<br />

2008].<br />

Hassas bir grid tarama yapılması zaman alacağından öncelikle kaba bir aralıkta<br />

grid taraması yapılması zaman tasarrufu sağlar. Kaba grid taraması ile en iyi çapraz<br />

geçerlilik doğruluğunu sağlayan çiftler tespit edilir. Daha sonra yakın aralıklardaki<br />

parametre çiftleri için çapraz-geçerlilik yöntemi ile bu problemdeki veri seti için en<br />

yüksek sınıflandırma doğruluğunu veren parametreler belirlenir. En iyi sınıflandırma


48<br />

doğruluğuna ulaşan parametre çifti bu şekilde belirlenerek sınıflandırıcının eğitimi<br />

tamamlanır. Daha sonra eğitilen sınıflandırıcı ile tüm veri seti için sınıf etiketleri<br />

tahmin edilir.<br />

3.2. Karar Ağaçları<br />

Karar ağaçları yaygın kullanımı olan sınıflandırma ve örüntü tanımlama<br />

algoritmalarından birisidir. Bu yöntemin yaygın olarak kullanımının nedeni ağaç<br />

yapılarının oluşturulmasında kullanılan kuralların anlaşılabilir ve sade olmasıdır.<br />

Eğer kullanılan veriye dayalı olarak oluşturulan ağaç yapısı çok büyük değil ise<br />

ağacın oluşturulması ve sınıflandırma işleminin gerçekleştirilmesinde kullanılan<br />

kuralların anlaşılması oldukça kolay olacaktır.<br />

Genellikle karar ağaçlarının tasarımında iki yaklaşım mevcuttur [Swain and<br />

Hauska, 1977]. Bu yaklaşımlar prensipte benzerdir ancak uygulamada ağaçların<br />

tasarlanması açısından önemli farklılıklar vardır.<br />

1. Manuel tasarım yöntemi<br />

2. Sezgisel atama yöntemi<br />

Manuel yöntemler tüm sınıflar için hesaplanan ortalama vektör ve kovaryans<br />

matrisi gibi istatistikleri kullanır. Her bir özellik için tüm sınıfların ortalamaları ve<br />

varyanslarından elde edilen bir grafik çizilir. Bu grafik rastlantısal spektral çizim<br />

olarak adlandırılır. Genelde birkaç karar adımında tüm sınıfların ayrıldığı bu<br />

grafikten en uygun karar sınırlarının tahmin edilmesi mümkündür. Bu, her bir<br />

aşamada bir özelliğin kullanılması koşulu ile kabaca sınıflar arasındaki basit sınır<br />

aralığının tahmin edilmesi anlamına gelmektedir. Bu yöntemin uygun bir<br />

sınıflandırma yöntemi olmamasının başlıca iki nedeni vardır. Bunlardan ilki ağacın<br />

belirli bir basamağında iki veya daha fazla özellik olması durumunda grafiğin<br />

özellikler arasındaki ilişk<strong>ileri</strong>n nasıl kullanılacağını göstermemesidir. İkincisi ise,<br />

verinin normal dağılımda olmadığı durumlarda kovaryans matrisinin tahmin<br />

edilmesinin oldukça zor olmasıdır.


49<br />

Rastlantısal spektral çizim tek bir özelliğe dayalı sınıflar arasındaki<br />

ayrılabilirliğin tahmin edilmesine olanak verir. Sınıfların ayrımının yapılması birkaç<br />

özelliğin kombinasyonunu gerektirdiğinde spektral çizime dayanan manuel tasarım<br />

yaklaşımı oldukça kısıtlıdır. Genel olarak sınıf sayısının çok olduğu veya yeterli<br />

sınıflandırma doğruluğu için birçok özelliğin kullanımının gerektiği karmaşık<br />

problemler daha fazla analitik tasarım işlemlerini gerektirmektedir.<br />

Sezgisel yöntem kullanılarak bir sınıflandırma ağacı oluşturmak için özellik<br />

vektörleri ve bu vektörlere ait sınıf etiketlerinin eğitim verisinde olduğu kabul edilir.<br />

Bundan sonra karar ağacı eğitim verisini tekrarlı bir şekilde ayırarak daha sade, daha<br />

homojen hale getirir ve bir veya daha fazla öznitelik değerine sahip test verisi ağacın<br />

her bir dalında veya düğüm noktasında uygulanır. Bu işlemler ayırma düğümleri,<br />

hangi düğümlerin uç düğümler olacağının belirlenmesi ve uç düğüm noktalarına sınıf<br />

etiketlerinin atanması olmak üzere üç adımda gerçekleşmektedir. Sınıf etiketlerinin<br />

uç düğümlere atanması açık bir şekilde ifade edilecek olursa; belirli sınıfların<br />

diğerlerinden daha yüksek olasılığa sahip olduğu düşünüldüğünde çoğunluk oyuna<br />

veya ağırlıklı oylar esas alınarak sınıf etiketlerinin atanmasıdır.<br />

Bir ağaç yapısı düğüm, dal ve yaprak olarak adlandırılan üç temel kısımdan<br />

oluşur. Bu ağaç yapısında her bir öznitelik bir düğüm tarafından temsil edilir. Dallar<br />

ve yapraklar ağaç yapısının diğer elemanlarıdır. Ağaçta en son kısım yaprak en üst<br />

kısım ise kök olarak adlandırılır. Kök ve yapraklar arasında kalan kısımlar ise dal<br />

olarak ifade edilir [Quinlan, 1993]. Başka bir ifadeyle bir ağaç yapısı ver<strong>ileri</strong> içeren<br />

bir kök düğümü, iç düğümler (dallar) ve uç düğümlerden (yapraklar) oluşur. Karar<br />

ağacındaki her bir düğüm sadece bir ana düğüme ve iki veya daha fazla alt düğüme<br />

sahiptir (Şekil 3.7). Veri seti ağaç tarafından belirlenen karar iskeletine göre aşağı<br />

doğru hareket ettirilerek ve sıralı olarak bir yaprağa ulaşılana kadar alt bölümlere<br />

ayrılarak sınıflandırılır. Eğitim ver<strong>ileri</strong> ve bu verilere ait öznitelik bilg<strong>ileri</strong>nden<br />

yararlanılarak bir karar ağacı yapısı oluşturulmasında temel prensip verilere ilişkin<br />

bir dizi sorular sorulması ve elde edilen cevaplar doğrultusunda hareket edilerek en<br />

kısa sürede sonuca gidilmesi olarak ifade edilebilir. Bu şekilde karar ağacı sorulara<br />

aldığı cevapları toplayarak karar kuralları oluşturur. Ağacın ilk düğümü olan kök<br />

düğümünde ver<strong>ileri</strong>n sınıflandırılması ve ağaç yapısının oluşturulması için sorular<br />

sorulmaya başlanır ve dalları olmayan düğümler ya da yapraklara gelene kadar bu


50<br />

işlem devam eder. Bu noktada belirtilmesi gereken husus yaprak sayısı kadar kural<br />

oluşacağıdır. Oluşturulan ağacın işlevselliğinin başka bir ifadeyle yeni bir veri seti<br />

için genelleme kabiliyetinin belirlenmesi için test veri seti kullanılır. Eğitim veri seti<br />

ile oluşturulan ağaç yapısına yeni gelen bir test verisi, ağacın kökünden girer. Kökte<br />

test edilen bu yeni veri test sonucuna göre bir alt düğüme gönderilir. Ağacın belirli<br />

bir yaprağına gelene kadar bu işleme devam edilir. Kökten her bir yaprağa giden tek<br />

bir yol veya tek bir karar kuralı vardır.<br />

Quinlan (1993) bir karar ağacı oluşturma yöntemini aşağıdaki gibi ifade<br />

etmiştir. Bir karar ağacı oluşturmak için m sınıfa sahip T eğitim veri seti şeklinde<br />

ifade edilsin. Bu durumda üç olasılık vardır:<br />

• T, tümü C i gibi tek bir sınıf olan bir veya daha fazla nesneye sahip olduğunda<br />

karar ağacı C i sınıfını tanımlayan bir yapraktan oluşur.<br />

• T hiçbir veriyi içermiyorsa, karar ağacı yine T’den başka bilgilerle tanımlanan<br />

bir yapraktan oluşur.<br />

• T karışık sınıflardan oluşan veriler içeriyorsa, seçilecek test verisi tek bir<br />

özniteliğe ya da özniteliklerin kombinasyonuna dayanır. Bu durumda test<br />

verisi {O 1 ,O 2 ,…,O k } şeklinde bir veya ayrışık sonuçlara sahip olacaktır. T,<br />

bu durumda şeklinde alt kümelere ayrılır. Burada seçilen test ver<strong>ileri</strong> için O i<br />

çıktı değerlerini içeren tüm T eğitim ver<strong>ileri</strong>ni ifade etmektedir. T eğitim<br />

verisi için karar ağacı test verisini tanımlayan bir karar düğümü ve her bir<br />

olası çıktı değeri için bir daldan oluşur. Aynı ağaç yapısı işlemi tekrarlı bir<br />

şekilde eğitim verisin her bir alt kümesi için uygulanır.<br />

Sınıflandırma işlemi için oluşturulan tipik bir karar ağacı Şekil 3.7’ de<br />

gösterilmiştir. Elips biçimindeki düğümler karar düğümleridir. Bu düğümler x i<br />

değerlerine dayanan η i<br />

eşik değerleri tarafından belirlenir. Karar ağacının farklı<br />

kısımlarında aynı öznitelik değeri farklı eşik değerlerine sahip olabilir. Şekildeki<br />

dikdörtgen düğümler terminal düğümleridir ve sınıf etiketlerini içeririler. Test<br />

verisindeki değerler eğitim sırasında belirlenen eşik değerlerine dayalı olarak karar<br />

ağacında “evet” veya “hayır” şeklinde dallanmalar ile belirlenir. Bilinmeyen test


51<br />

verisinin sınıflandırılması düşünüldüğünde, verilere ait sınıf etiketleri ulaşılan en son<br />

terminal düğümdeki değeri alır.<br />

Evet<br />

x<br />

1<br />

≤ η 1<br />

Hayır<br />

x<br />

4<br />

≤ η 4<br />

x<br />

3<br />

≤ η 31<br />

Evet<br />

Hayır<br />

Evet<br />

Hayır<br />

Evet<br />

Y=1<br />

x<br />

3<br />

≤ η 32<br />

Y=2<br />

Hayır<br />

Evet<br />

x<br />

5<br />

≤ η 5<br />

x<br />

2<br />

≤ η 2<br />

Y=3 Y=2<br />

Hayır<br />

Y=1<br />

Evet<br />

Y=1<br />

Y=3<br />

Hayır<br />

Şekil 3.7. Beş boyutlu bir özellik uzayı ve üç sınıf için bir sınıflandırma ağacı.<br />

Şekilde<br />

xi<br />

göstermektedir.<br />

özellik değerlerini,<br />

η<br />

i<br />

eşik değerlerini ve Y ise sınıf etiketlerini<br />

Karar ağaçları ile sınıflandırma problemlerinde veri setine ait sınıf sayısı iki<br />

olduğunda ikili sınıflandırıcılar, sınıf sayısı ikiden fazla olması durumunda ise çoklu<br />

sınıflandırıcılar söz konusudur. İkili sınıflandırıcılara örnek olarak ID3 [Quinlan<br />

1993] ve bu algoritmanın geliştirilmiş biçimi olan C4.5 algoritmaları gösterilebilir.<br />

Çoklu sınıflandırıcılar arasında CART [Breiman et al., 1984] algoritması örnek<br />

olarak verilebilir.<br />

3.2.1. Karar Ağacı Oluşturulmasında Kullanılan Yöntemler<br />

Literatürde günümüze kadar birçok ağaç yapısı oluşturma yaklaşımları<br />

geliştirilmiştir. Ancak karar ağacı tasarımı üzerine yapılan birçok araştırma bölünme<br />

kurallarının bulunması konusuna yoğunlaşmıştır [Landeweerd et al., 1983;


52<br />

Kononenko and Hong, 1997; Pal, 2002]. Karar ağacının her bir iç düğümünde eğitim<br />

verisinin bölümlenmesi için bir takım algoritmalar geliştirilmiştir. Bu algoritmalar ya<br />

eğitim verisindeki gürültüyü azaltır ya da bölümlenmenin en iyi olmasını sağlar. Bir<br />

karar ağacı oluşturulmasında yaklaşımlar:<br />

• Aşağıdan yukarıya yaklaşımı<br />

• Yukarıdan aşağıya yaklaşımı<br />

• Melez yaklaşım<br />

• Büyüme – budama yaklaşımı<br />

3.2.1.1. Aşağıdan-Yukarıya Yaklaşımı<br />

Aşağıdan-yukarıya yaklaşımında, kullanılarak eğitim seti ve bazı uzunluk<br />

ölçüleri (örn. Mahalanobis uzaklığı) ikili bir ağaç oluşturulur. Önceden belirlenen<br />

sınıflar arasında ikili uzaklıklar hesaplanır ve her bir adımda bir birine en yakın<br />

uzaklığa sahip iki sınıf yeni bir grup olarak birleştirilir. Her bir grup için, bu grubu<br />

oluşturan sınıfların eğitim ver<strong>ileri</strong>nden ortalama vektör ve kovaryans matrisi<br />

hesaplanır. Bu işleme ağaç kökünde tek bir grup kalıncaya kadar tekrar edilir. Bu<br />

şekilde bir ağaç oluşturulmasında ilk önce daha belirgin olan ayrımlar kök düğümün<br />

hemen yanında yapılır, daha karmaşık olanlar ağacın daha sonraki kısımlarında<br />

yapılır [Landeweerd et al., 1983].<br />

3.2.1.2. Yukarıdan-Aşağıya Yaklaşımı<br />

Yukarıdan-aşağıya yaklaşımında, bir karar ağacı sınıflandırıcısının<br />

oluşturulması aşağıdaki üç aşamadan oluşur. Bunlar:<br />

1. Bir bölünme kural düğümünün seçimi,<br />

2. Hangi düğümlerin bağlantı düğümleri olacağına karar verilmesi,<br />

3. Her bir bağlantı düğümüne, bir sınıf etiketinin atanmasıdır.


53<br />

Sınıf atama problemi yukarıda bahsedilen işlerden en basit olanıdır. Çoğunluk<br />

kuralı kullanılarak en yüksek olasılığa sahip sınıflar terminal düğümlerine atanır. Bu<br />

işleme örnek olarak terminal düğümünde en fazla örneğe sahip olan sınıfa ait etiket<br />

terminal düğümüne atanması gösterilebilir. İç düğümdeki herhangi bir bölünme<br />

kriteri seçiminde temel düşünce verinin alt düğümlerde azalmasını sağlamaktır.<br />

Bu işlemin uygulamasındaki genel yaklaşım eğitim verisini en iyi şekilde<br />

sınıflara ayıran öznitelik değerinin seçilmesi ve daha sonra verinin bu öznitelik<br />

değerlerine göre bölünmesidir. Sonlandırma prosedürü ile her bir bölümlenmiş alt<br />

küme için bu işlem mevcut alt kümedeki tüm örnekler aynı sınıfa ait olana kadar<br />

tekrarlanır. Sonuç her bir düğümün bir özniteliği gösterdiği ve bir düğümden çıkan<br />

her bir dalın bu öznitelik değerine ait olası bir değeri belirttiği bir ağaç ile temsil<br />

edilir.<br />

Karar ağacının gelişiminde her bir düğüm noktasında bir dizi gözlem kümesi ve<br />

bu gözlem kümesinin sınıflandırılması için bir dizi öznitelik değeri var olacağından<br />

bu işlemin temel amacı kriter olarak kullanılacak öznitelik değerinin seçilmesidir.<br />

Tüm öznitelik değerlerinin kalitesi belirlenmeden ve her bir öznitelik bilgisinin<br />

veriyi çeşitli sınıflara ne kadar iyi ayırdığını görülmeden herhangi bir öznitelik değeri<br />

kriter olarak seçilemez. Bir öznitelik değerinin kalitesi bu öznitelik verisiyle<br />

sağlanacak yararlı bilg<strong>ileri</strong> göstermelidir. Bir özniteliğin kalitesinin tahmini için iki<br />

temel yaklaşım vardır.<br />

İlk yaklaşım, bir özniteliğin kalitesinin diğer öznitelikleri ihmal edilmesiyle<br />

tahmin edilebileceğidir. Bu durumda tahmin amacıyla öznitelik değerlerinin<br />

birbirinden bağımsız olduğu kabul edilir. İkinci yaklaşım ise, bir özniteliğin<br />

kalitesinin diğer özniteliklerin içeriğinden tahmin edilebileceğidir. Hesaplama hızı<br />

avantajına sahip olan ilk yaklaşım “miyop yaklaşım” olarak da adlandırılır<br />

[Kononenko and Hong, 1997]. Diğer yaklaşım hesaplama açısından daha zahmetlidir<br />

buna karşın öznitelikler arasındaki yüksek seviyedeki bağımlılıkları ortaya çıkarma<br />

potansiyeline sahiptir.


54<br />

3.2.1.2.1. Karar Ağaçlarında Dallanma Kriterleri ve Öznitelik<br />

Seçimi<br />

Karar ağaçlarının oluşturulmasındaki en önemli adım ağaçtaki dallanmanın<br />

hangi kritere veya kıstasa göre yapılacağı ya da hangi öznitelik değerlerine göre ağaç<br />

yapısının oluşturulacağıdır. Karar ağaçlarında dallanma kriterleri veya özniteliklerin<br />

seçimi için makine öğrenmesi ile ilgilenen araştırmacılar tarafından detaylı bir<br />

şekilde incelenen birçok yaklaşım vardır [Murthy et al., 1994; Kononenko and Hong,<br />

1997; Mingers, 1989; Quinlan, 1993]. Diğer yaklaşımlar eğitim verisindeki<br />

gürültüyü minimum hale getirmeye çalışırken bazı yaklaşımlar “bölünmenin<br />

iyiliğini” ölçerler [Brieman et al., 1984].<br />

Sınıflandırmada özniteliğin kalitesi sınıflara ait eğitim gözlemlerinin saflığı ile<br />

tanımlanır ve birçok yaklaşım kalite ölçümünü direkt olarak özniteliklerden belirler.<br />

Eğer tüm gözlemler aynı sınıfa ait ise gözlemler kümesi saftır (katkısızdır). Gürültü<br />

fonksiyonu bir gözlem kümesindeki gürültüyü ölçer ve saf bir küme için bu<br />

gürültüyü minimum hale getirmeyi amaçlar. Gürültü fonksiyonu esas olarak mevcut<br />

düğüm noktasından daha <strong>ileri</strong>ki bölünmeler için en iyi özniteliğin seçiminde<br />

kullanılır. Karar ağaçlarında genellikle kullanılan gürültü ölçümleri:<br />

1. Bilgi Kazancı ve Bilgi Kazanç Oranı kriteri [Quinlan, 1987, 1990,<br />

1993].<br />

2. Gini İndeksi [Brieman et al., 1984]<br />

3. Twoing Kuralı [Brieman et al., 1984]<br />

4. Ki-Kare istatistikleri [Mingers, 1989].<br />

3.2.1.2.2. Bilgi Kazancı ve Bilgi Kazanç Oranı Kriterleri<br />

Bilgi kazancı ve bilgi kazanç oranının kullanımı Quinlan (1993) tarafından<br />

ortaya atılmıştır. Bu yönteme göre karar ağacında hangi özelliğe göre dallanmanın<br />

yapılacağını belirlemek üzere entropi kurallarını içeren bilgi teorisi kullanılmıştır.<br />

Entropi bir sistemdeki düzensizliğin ya da belirsizliğin ölçüsüdür. Entropi bir kodun


55<br />

teorik bilgi içeriğini ölçen bilgi teorisinden elde edilen klasik bir formüle dayanır. Bu<br />

formül;<br />

Entropi = −∑ pi log( pi<br />

)<br />

(3.25)<br />

şeklinde gösterilir. Bu formülde p i , i. pikselin olasılığıdır. Bu ölçünün değeri çeşitli<br />

olası piksellerin olabilirliğine dayanır. Tüm pikseller eşit olasılıkta ise (örneğin p i<br />

değerleri eşit ise) büyük miktarda belirsizlik vardır ve bilgi kazancı büyük olacaktır.<br />

Fonksiyonun değeri olası piksel sayısına da dayanmaktadır. Quinlan (1993), bilgi<br />

kazancı ve bilgi kazanç oranı ölçülerini aşağıdaki şekilde ifade etmiştir: C i şeklinde<br />

birkaç sınıftan oluşan T ile gösterilen bir eğitim seti için olasılık ifadesi<br />

f ( Ci<br />

,T )<br />

T<br />

(3.26)<br />

şeklindedir. Burada<br />

f ( Ci<br />

,T )<br />

ifadesi C i sınıfına ait T eğitim setindeki örnekleri<br />

ifade etmektedir ve T ifadesi ise T eğitim setindeki sınıf sayısını göstermektedir. Bu<br />

durumda bilgi,<br />

− log 2<br />

( f ( Ci<br />

, T ) T )<br />

(3.27)<br />

şeklindedir.<br />

T eğitim setindeki bir gözlemi için sınıfın belirlenmesini gerektiren bilgi<br />

kazancının miktarı;<br />

bi lg i(T ) = −<br />

m<br />

∑<br />

i=<br />

1<br />

f ( Ci ,T ) T × log<br />

2<br />

( f ( Ci<br />

,T ) T ) (3.28)<br />

şeklinde belirlenebilir. Bu miktar T eğitim setinin entropisi olarak ifade edilebilir.<br />

Eğer T eğitim kümesini k sayıda çıktıya bölebilen bir Z test veri seti<br />

tanımlanabilirse, Z uygulandıktan sonra tüm bilgi miktarını belirten benzer bir ölçü<br />

tanımlanabilir.


56<br />

k T j<br />

bi lg iz<br />

(T ) = ∑ × bi lg i(T<br />

j<br />

)<br />

(3.29)<br />

j = 1 T<br />

Bu yaklaşımın kullanılmasıyla, T eğitim setinin Z gibi bir test seti kullanarak<br />

elde edilen bilgi kazancı;<br />

Kazanç(<br />

Z )<br />

= bi lg i(T ) − bi lg i (T )<br />

(3.30)<br />

z<br />

şeklinde belirlenebilir.<br />

Bu kriter Quinlan (1993) tarafından kazanç kriteri olarak ifade edilmiştir.<br />

Kazanç kriteri bilgi kazancını maksimum hale getirmek için bir test verisi seçer. Bu<br />

Z test verisi ile sınıf arasındaki karşılıklı bilgi olarak bilinir.<br />

Birçok çıktı değerini içeren test verisinin lehine güçlü bir önyargıya sahip<br />

olması kazanç kriterinin en önemli dezavantajıdır. Kazanç kriterinin özündeki bu<br />

önyargı birçok çıktı değeri ile birlikte kazancın ayarlandığı bir çeşit normalleştirilme<br />

ile düzeltilebilir. Bu normalleştirme işlemi Eşitlik 3.31’de gösterilen ayırma bilgisi<br />

ile gerçekleştirilebilir.<br />

k T ⎛ ⎞<br />

j ⎜<br />

T j ⎟<br />

Ayırma Bilgisi (Z) = − ∑ × log2<br />

⎜<br />

⎟<br />

j = 1 T T<br />

⎝ ⎠<br />

(3.31)<br />

Kazanç birkaç bölünme sonucu ortaya çıkan sınıflandırma için yararlı bilgiyi<br />

ölçerken, ayırma bilgisi Z test verisinin k sayıda alt kümeye bölünmesi ile oluşturulan<br />

potansiyel bilgi hakkında bir fikir verecektir. Bu durumda kazanç oranı;<br />

Kazanç Oranı( Z ) = Kazanç( Z ) Ayırma Bi lg isi( Z ) (3.32)<br />

şeklinde olacaktır. Bu eşitlik, sınıflandırmada işleminde kullanılacak ayırma ile elde<br />

edilen bilgi oranını vermektedir. Bu kriter kullanılarak, ağacın her bir düğümünde<br />

kazanç oranı maksimum olacak şekilde T eğitim kümesi tekrarlı bir şekilde ayrılır.


57<br />

Bu işlem her bir yaprak düğümü sadece bir sınıfa ait gözlem değerleri içerene kadar<br />

devam eder.<br />

3.2.1.2.3 Gini İndeksi<br />

Brieman et al. (1984) çeşitleme için Gini indeksi olarak adlandırılan bir ölçüm<br />

kullanmışlardır. Gini fonksiyonu sınıflara ilişkin özniteliklerin safsızlığını ölçer. Ci<br />

gibi bazı sınıflara sahip T şeklinde verilen bir eğitim setinin;<br />

f ( Ci ,T ) T<br />

(3.33)<br />

şeklinde bir olasılığa sahip olduğu söylenebilir. Genel Gini fonksiyonu veya<br />

safsızlığın ölçümü;<br />

∑∑<br />

j≠i<br />

( f ( C ,T ) T )( f ( C ,T ) T )<br />

i<br />

j<br />

(3.34)<br />

şeklinde ifade edilebilir. Bu fonksiyon;<br />

⎛<br />

⎜<br />

⎝<br />

⎞<br />

⎟<br />

⎠<br />

2<br />

∑ f ( C ) ⎟<br />

j<br />

,T T − ∑ f ( C<br />

j<br />

,T )<br />

j<br />

2<br />

j<br />

T<br />

(3.35)<br />

şeklinde veya;<br />

∑<br />

( C ,T )<br />

1 − f 2<br />

j<br />

T<br />

(3.36)<br />

j<br />

şeklinde de yazılabilir.<br />

Gini indeksi basittir ve hızlı bir şekilde hesaplanabilir. Bu indeks rastgele<br />

seçilen bir objenin bir düğümden f ( C<br />

i<br />

,T ) T olasılığı ile i sınıfına atanması olarak<br />

özetlenebilir.


58<br />

3.2.1.2.4. Towing Kuralı<br />

Towing kuralı Brieman et al. (1984) tarafından tanımlanmıştır. Bu kural karar<br />

ağacı yapısının oluşturulmasında öznitelik seçimi için farklı bir yaklaşım<br />

kullanmaktadır.<br />

Bir dizi sınıf<br />

C = { 1,...,<br />

j )<br />

ile gösterildiği düşünülsün. Her bir düğümde bu<br />

sınıflar<br />

C { j1<br />

,...,<br />

ve<br />

1<br />

= j n<br />

) C 2<br />

C − C1<br />

= şeklinde iki üst sınıfa ayrılsın. Düğümün<br />

ayrılması sonucunda safsızlığının azaldığı her bir düğümün ayrılması;<br />

⎛<br />

⎞<br />

T ⎜<br />

⎟<br />

L<br />

R<br />

*<br />

∑ Li<br />

TL<br />

− Ri<br />

TR<br />

(3.37)<br />

⎝<br />

⎠<br />

( T )*<br />

( T T )<br />

2<br />

şeklinde hesaplanabilir. Burada<br />

T R<br />

ve TL<br />

düğümün ayrılması ile sağ ve solda<br />

kalan örneklerin sayısını göstermektedir. L i ve T i ise ayırma sonucu sağ ve solda i.<br />

kategoriye ait örneklerin sayısını ifade etmektedir. Safsızlıktaki zamla towing kuralı<br />

olarak ifade edilir.<br />

2<br />

3.2.1.2.5. Ki-Kare Olasılık Tablo İstatistiği ( χ )<br />

Mingers (1989) bu ölçütün karar ağacı oluşturulmasında özniteliklerin seçimi<br />

için kullanımını ifade etmiştir. Bu yöntem olasılık tablosundaki iki değişken<br />

arasındaki ilişkinin ölçüldüğü geleneksel istatistiğe dayanmaktadır. Değişkenler<br />

arasında ilişki olamadığı durumlarda ise beklenen frekansların gözlemlerin<br />

frekansları ile karşılaştırılmasından elde edildiği istatistiğe dayanmaktadır. Sonuçta<br />

elde edilen istatistiğin yaklaşık olarak yüksek değerlerin büyük ilişkiyi ifade ettiği kikare<br />

dağılımında olduğu söylenebilir. Bu fonksiyona ait temel eşitlik;<br />

2<br />

χ<br />

( x ij<br />

− E ij<br />

)<br />

= ∑∑<br />

E ij<br />

2<br />

(3.38)


59<br />

şeklindedir. Bu eşitlikte<br />

Eij = xi<br />

x<br />

j<br />

N ifadesi olasılık tablosundaki her bir hücreye<br />

karşılık gelen ümit değeridir.<br />

Yukarıdan-aşağıya karar ağacı sınıflandırıcısı tasarımının son aşaması<br />

ayırmanın nerede bitirilmesi gerektiğinin belirlenmesidir. Bunun için ilk yaklaşım<br />

terminal düğümlerinin seçilmesidir. Eşik değeri β > 0 için eğer t düğümü;<br />

mak Δ i ( S( t ),t ) < β<br />

(3.39)<br />

S∈T<br />

koşulunu sağlıyorsa terminal düğümü olarak seçilir. Bunu başarmak için her bir t iç<br />

düğüm noktasında i(t) şeklinde bir safsızlık fonksiyonunun tanımlanması bir<br />

yöntemdir [Breiman et al.,1984]. Eğer bir S aday ayırma, t iç düğümünü sağ düğüm<br />

tR ve sol düğüm tL şeklinde düğümlere ayırıyorsa ve t’nin tL düğümüne pL oranında,<br />

tR düğümüne pR oranında ayrılmasını sağlıyorsa; S ayırmasının iyiliği azalan<br />

safsızlıkla ölçülebilir;<br />

Δ i(<br />

S,t ) = i( t ) − i( t )p − i( t ) p<br />

(3.40)<br />

L<br />

L<br />

R<br />

R<br />

Bu nedenle tüm S ayırmaları içerisinden Δ i ( S,t ) ifadesini minimum hale<br />

getirecek bir ayırma seçilir. Bu kuralın kullanılması sonucunda ayırma işlemi bazı<br />

düğümlerde çok erken tamamlanmakta bazı düğümlerde çok geç tamamlanması<br />

problemi ortaya çıkmaktadır. Breiman et al. (1984) ayrılmanın durdurulma kuralının<br />

ayırma kuralına göre karar ağacı sınıflandırıcısının etkinliğinde daha fazla etkisi<br />

olduğunu ifade etmiştir.<br />

3.2.1.3. Melez Yaklaşım<br />

Melez yöntemler karar ağacı sınıflandırıcısının tasarımının sırayla hem<br />

yukarıdan-aşağıya hem de aşağıdan-yukarıya yaklaşımlarının kullanımını<br />

öngörmektedir [Kim and Landgrebe, 1991]. Bu sınıflandırıcının temel çalışma<br />

prensibi şu şekildedir. İlk olarak, tüm sınıflardan oluşan veri aşağıdan-yukarıya<br />

yaklaşımı kullanılarak iki alt gruba ayrılır. Daha sonra her bir alt grubun ortalama ve<br />

kovaryansları hesaplanır ve yukarıdan-aşağıya yaklaşımı kullanılarak iki yeni alt


60<br />

grup oluşturulur. Her bir alt grubun sadece bir sınıf içerip içermediği kontrol edilir.<br />

Eğer tek bir sınıf içeriyorsa bu grup terminal olarak adlandırılır. Eğer birden fazla<br />

sınıfı içeriyorsa işleme tek alt grup tek bir sınıf içerene kadar devam edilir. Bu işlem<br />

tüm alt gruplar terminal olarak belirlenene kadar devam eder.<br />

3.2.1.4. Gelişme-Budama Yöntemi<br />

Bir karar ağacının oluşturulmasında kullanılan bu yöntem Gelfand et al. (1991)<br />

tarafından öne sürülmüştür. Bu yöntemin çalışma prensibi şu şekilde özetlenebilir.<br />

Öncelikle tüm veri seti yaklaşık olarak eşit olacak şekilde iki alt kümeye ayrılır.<br />

Geniş ağaç ilk veri alt kümesi kullanılarak saf terminal düğümleri ile birlikte<br />

büyütülür. Budanan alt-ağaç ikinci veri setine dayalı olarak hata oranını minimum<br />

hale getirilmesi ile belirlenir. Bu işlem iteratif olarak tekrar edilir.<br />

3.2.2. Veri Ayırma Yöntemine Dayalı Sınıflandırma<br />

Algoritmaları<br />

Karar ağaçları iç düğümlerdeki ayrılmaların tahmini için kullanılan<br />

algoritmaların tek tip veya çoklu olup olmadığına göre tanımlanabilir. Bu tür<br />

algoritmalar homojen veya heterojen hipotez uzayına sahip algoritmalar olarak<br />

tanımlanır. Karar ağaçlarının tasarımı için kullanılan geleneksel yaklaşım her bir<br />

ayrımın tahmininde tek bir algoritmayı kullanan homojen sınıflandırma modellerine<br />

dayanan yaklaşımdır. Genel anlamda homojen hipotez uzayına dayanan iki tip karar<br />

ağacı vardır. Bunlar tek değişkenli ve çok değişkenli karar ağaçlarıdır [Friedl and<br />

Brodley, 1997]. Düğümlerin yapısı bakımından karar ağaçlarının üç tipi vardır:<br />

• Tek değişkenli karar ağaçları<br />

• Çok değişkenli karar ağaçları<br />

• Melez karar ağaçları


61<br />

3.2.2.1. Tek değişkenli Karar Ağaçları<br />

Tek değişkenli karar ağaçları her bir düğüm noktasındaki karar sınırlarının girdi<br />

verisindeki tek bir özelliğe göre belirlendiği bir karar ağacı tipidir [Swain and<br />

Hauska, 1977]. Tek değişkenli karar ağacında her bir iç düğümde girdi verisindeki<br />

tek bir özelliğin test edilmesi ile verinin iki veya daha fazla alt kümeye ayrılması söz<br />

konusudur. Bununla birlikte bu karar ağacı yapıları her bir testin ayrı ve sınırlı sayıda<br />

çıktı değerine sahip olmasını gerektirmektedir. Bu şekilde karar ağacı sınıflandırması<br />

tekrarlı bir şekilde girdi verisinin bir yaprak düğümüne ulaşıncaya kadar ve<br />

yapraktaki sınıf etiketi gözlemlere atanıncaya kadar bölünme devam eder. Tek<br />

değişkenli bir karar ağacında karar sınırlarının spesifik değerleri eğitim verisinden<br />

deneysel olarak tahmin edilir. Sürekli ver<strong>ileri</strong>n olması durumunda, eğitim verisinden<br />

her bir iç düğüm noktasında<br />

X i<br />

’nin veri uzayındaki bir özelliği gösterdiği ve b’nin<br />

X<br />

i<br />

’nin gözlenen aralığında bir eşik değeri olduğu<br />

X i<br />

> b<br />

şeklindeki mantıksal<br />

sınama gerçekleştirilir. Farklılıkların maksimum hale getirilmesi veya iniş<br />

düğümlerindeki benzerliğin minimum hale getirilmesi gibi bazı koşullar kullanılarak<br />

eşik değeri b belirlenebilir. Tek değişkenli karar ağacında her bir test tek bir girdi<br />

değişkenine sahip olduğundan, değişkenlere ait eksenlerin birbirine dik olduğu<br />

özellik uzayının ayrılması şeklinde gösterilir (Şekil 3.8).<br />

Şekil 3.8. Tek değişkenli karar ağacının paralel eksenli karar sınırları.<br />

Tek değişkenli karar algoritmalarının temeli Earl B. Hunt tarafından<br />

gerçekleştirilen algoritmaya dayanmaktadır. Bu algoritma en temel karar ağacı


62<br />

yaratma algoritmasıdır. Bu algoritmanın en önemli eksikliği dallanmaya esas olan<br />

özelliklerin rastgele seçilmesidir. Bu eksikliğin giderilmesi ve yöntemin<br />

geliştirilmesi amacıyla çeşitli algoritmalar geliştirilmiştir. Bunlardan en önemlisi<br />

1987’te Quinlan tarafından geliştirilen ID3 algoritmasıdır. Bu algoritma sayısal<br />

olmayan ver<strong>ileri</strong>n sınıflandırılması için geliştirilmiş entropiye dayalı bir algoritmadır.<br />

Hunt algoritmasında dallanma için seçilecek özelliğin rastgele seçilmesinden ziyade<br />

bu yöntemde bilgi kazancı en yüksek olan özellik dikkate alınarak karar ağacı<br />

oluşturulur. Quinlan (1987) bu amaçla entropi kurallarını içeren bilgi teorisi<br />

yaklaşımından yararlanmıştır.<br />

Quinlan (1993) tarafından sayısal özellikli ver<strong>ileri</strong>nde karar ağaçları<br />

kullanılarak sınıflandırılması amacıyla yine entropiye dayalı C4.5 algoritması<br />

geliştirilmiştir. C4.5 algoritması ID3 algoritmasını esas alarak, ID3 algoritmasındaki<br />

bazı eksiklikleri ve sorunları gidermek amacıyla geliştirilmiştir. ID3 Ayrıca bu<br />

yöntem bilinmeyen nitelik değerlerine sahip veri setleri için karar ağacının nasıl<br />

oluşturulacağına dair bir yol göstermektedir. Quinlan (1993) C4.5 algoritmasında<br />

bölünme bilgisi kavramından yararlanarak ID3 algoritmasını güncellemiştir. Bu<br />

durumda bilgi kazancı kavramı yerine kazanç oranı kriteri kullanılarak dallanmaya<br />

hangi özellikten başlanacağı belirlenmektedir.<br />

3.2.2.2. Çok Değişkenli Karar Ağaçları<br />

Sınıf yapısı sadece değişkenlerin kombinasyonları ile meydana geldiğinden, tek<br />

değişkenli karar ağaçları veri yapısının ortaya çıkarılmasında zayıf kalmaktadır<br />

[Brodley and Utgoff, 1995]. Doğrusal bir yapının söz konusu olduğu bir problemde<br />

kabul edilebilir ayrılmalar girdi verisindeki özelliklerin doğrusal kombinasyonlarını<br />

içerek şekilde devam ettirilir (Şekil 3.9).


63<br />

Şekil 3.9. Çok değişkenli karar ağacı sınıflandırıcısı için karar sınırları.<br />

Çok değişkenli karar ağaçları her bir düğümdeki ayırma testinin girdi<br />

verisindeki birden fazla özelliğe dayalı olarak yapılması dışında tek değişkenli karar<br />

ağaçlarına benzemektedir. Çok değişkenli karar ağacının her bir iç düğümünde<br />

doğrusal ayırma fonksiyonları seti tahmin edilir ve eğitim verisinden yararlanılarak<br />

her bir düğüm noktasında doğrusal ayırma fonksiyonuna ait katsayılar belirlenir. Her<br />

bir düğümdeki test;<br />

∑<br />

i<br />

ai<br />

X i<br />

≤ c<br />

(3.41)<br />

şeklinde gerçekleştirilir. Burada<br />

X i<br />

veri uzayındaki özellikleri, a doğrusal ayırma<br />

fonksiyonun katsayılar vektörünü ve c eşik değerini göstermektedir. Çok değişkenli<br />

karar ağaçları daha karmaşık bununla beraber daha hassas olduğu belirtilmiştir<br />

[Brodley and Utgoff, 1995]. Çok değişkenliliğin tek değişkenli karar ağacı<br />

algoritmalarına göre sahip olduğu yüksek karmaşıklık çok değişkenl<strong>ileri</strong>n<br />

performansını etkileyen bir dizi faktör ile açıklanır. Bunlardan ilki, iç düğümlerde<br />

ayrılma kuralının belirlenmesinde farklı algoritmaların kullanılabilmesi ve bu<br />

algoritmaların her birinin sınıflandırma probleminde veriye bağlı olarak farklı<br />

derecelerde performansa sahip olabilmesidir. İkinci olarak, çok değişkenli karar<br />

ağacının her bir iç düğümündeki ayrımın birden fazla özellik kullanılarak<br />

yapılmasıdır. Bu durumda çok değişkenli karar ağaçlarının her bir iç düğümünde<br />

özellik seçimini gerçekleştirmek için farklı algoritmalar kullanılması söz konusudur.<br />

Bu algoritmalar ardışık olarak <strong>ileri</strong>ye ve ardışık olarak geriye elemeleri içerir. Bu


64<br />

algoritmaların global bir özellik seçiminden ziyade lokal bir özellik seçimi<br />

gerçekleştirmesi çok değişkenli karar ağacı algoritmalarındaki bir başka problemdir.<br />

Çok değişkenli karar ağaçları oluşturulmasında kullanılan en önemli yöntem<br />

Breiman et al. (1984) tarafından geliştirilen sınıflandırma ve regresyon ağaçlarıdır<br />

(CART). Bu yöntem ile karar ağacı oluşturulmasında, her bir karar düğümünden<br />

itibaren ağacın iki alt dala ayrılması yani ikili dallanmalar söz konusudur. Başka bir<br />

ifadeyle bir düğümde seçme işlemi yapıldığında, düğümlerden sadece iki dal<br />

ayrılabilir [Özkan, 2008]. CART algoritmasında bölünme işleminde kullanılan en<br />

önemli iki algoritma Gini ve Twoing algoritmasıdır.<br />

3.2.2.3. Melez Karar Ağacı Sınıflandırıcısı<br />

Melez karar ağacı, geniş ağacın farklı alt ağaçlarında farklı sınıflandırma<br />

algoritmalarının kullanıldığı bir karar ağacıdır. Bu algoritmalar doğrusal ayırma<br />

fonksiyonu, k en yakın komşuluk veya diğer sınıflandırma algoritmaları olabilir.<br />

Melez karar sınıflandırma yaklaşımının uygulanmasındaki temel neden<br />

sınıflandırmadaki performanslarına ilişkin üstünlükleridir [Friedl and Brodley, 1997].<br />

Tekil melez ağacı yapısında farklı sınıflandırma algoritmaları kullanılırsa, verinin<br />

farklı alt kümeleri için farklı sınıflandırıcıların kullanılması şeklinde veri seti<br />

ayrılabilir. Şekil 3.10’da doğrusal ayırma fonksiyonu (DAF), k en yakın komşuluk<br />

(K-EK) ve tek değişkenli karar ağacı (TDK) gibi üç farklı sınıflandırma<br />

algoritmasının kullanıldığı melez sınıflandırma algoritmasına ilişkin bir örnek<br />

görülmektedir.<br />

DAF<br />

K-EK<br />

TDK<br />

Sınıf A<br />

Sınıf B<br />

Sınıf A<br />

Sınıf C<br />

Şekil 3.10. Melez karar ağacı sınıflandırıcısına ait örnek bir yapı.


65<br />

3.2.3. Karar Ağaçlarının Budanması<br />

Karar ağacı sınıflandırıcısı eğitim verisini sadece tek bir sınıf içeren alt<br />

kümelere böler. Bu işlem sonucunda çok geniş ve karmaşık bir ağaç ortaya çıkar.<br />

Birçok durumda bir karar ağacının tüm yapraklarının tek bir sınıf verisini içerecek<br />

şekilde ayarlanması eğitim verisindeki kirlilik nedeniyle overfit problemini ortaya<br />

çıkarabilir. Bu problemin çözümünde sınıflandırılacak veri eğitim seti dışarısında<br />

kaldığında oluşan sınıflandırma hatalarını azaltmak için orijinal ağaç budanabilir.<br />

Bir karar ağacı tüm ağaç yapısındaki yaprakların silinmesi ile basitleştirilmez.<br />

Bunun yerine karar ağacının sınıflandırma doğruluğunu etkilemeyen veya katkısı<br />

olmayan kısımlarının çıkarılması işlemi gerçekleştirilir. Böylece daha az karmaşık ve<br />

daha anlaşılabilir bir ağaç elde edilir. Daha basit bir ağaç oluşturulması için karar<br />

ağacı sınıflandırıcısının düzenlenmesinde kullanılan iki yöntem vardır [Breiman et<br />

al., 1984]. Bu yöntemler;<br />

1. Eğitim veri setinin daha <strong>ileri</strong>ye bölünüp bölünmemesine karar vermek;<br />

2. Ağacın bazı kısımlarının geriye dönük bir şekilde kaldırılması için<br />

tekrarlı bir şekilde bölünme ile yapının oluşturulması.<br />

İlk yaklaşım durdurma ya da ön budama olarak adlandırılır. Bu yöntemin en<br />

önemli avantajı sadeleştirilmiş ağaç yapısında kullanılmayan bir yapının<br />

birleştirilmesinde zaman harcamamasıdır. Bu yöntem, veri setinin ayrılması için en<br />

iyi yolu araştırır ve bilgi kazancı ya da hata azalımı gibi faktörler ile bir noktadan<br />

daha <strong>ileri</strong>ye ayrım yapılıp yapılmayacağı değerlendirilir. Bu değerlendirme belirli bir<br />

eşik değerinin altına düştüğünde bölünme kabul edilmez ve veri için en uygun<br />

yaprak olduğuna karar verilir. Bu yaklaşımın dezavantajı ise doğru durdurma<br />

kuralının belirlenmesidir [Pal, 2002]. Eşik değerinin çok yüksek seçilmesi<br />

durumunda ağacın daha <strong>ileri</strong>ye bölünmesine izin verilmediğinden daha iyi sonuçlar<br />

verecek alt bölünmeler yapılmadan işlem sonlanacaktır.<br />

İkinci yaklaşımda, ağacın tüm yapraklar tek bir sınıfa ait veriyi içerdiğinde<br />

ulaşılan en sona kadar büyümesine izin verilir. Ağaç bundan sonra budanır. Bu


66<br />

yöntem ağacın sonradan çıkarılan kısımlarının oluşturulmasında çok fazla hesaplama<br />

yapılmasını gerektirir. Bir karar ağacının budanması eğitim verisinde birçok<br />

sınıflandırılmamış veri oluşmasına neden olacaktır. Bu nedenle budanan karar ağacı<br />

yapraklarının tek bir sınıfa ait eğitim verisini içermesine gerek yoktur. Bir sınıfın bir<br />

yaprakla ilişkilendirmesi yerine her bir sınıf için, o sınıfa ait olan yapraktaki eğitim<br />

verisine ait olan olasılığı belirten sınıf dağılımı olacaktır<br />

Karar ağaçları bir veya daha fazla alt ağacın kaldırılması ile sadeleştirilir ve bu<br />

alt ağaçların yerine yapraklar ile ifade edilir. Bu işlem ağacın en altından başlar ve<br />

yapraksız her bir alt ağaç incelenir. Bu işleme aşağıdan yukarıya yaklaşımı denir.<br />

Alternatif olarak işlem kökten başlar dallar incelenerek ağacın yapraklarına doğru<br />

hareket edilir. Bu yaklaşıma ise yukarıdan aşağıya yaklaşımı olarak adlandırılır. Eğer<br />

tek bir yaprağı olan alt ağacın veya bu ağacın en çok kullanılan dalının değiştirilmesi<br />

beklenen hata oranının daha düşük oluşmasına neden olacaksa ağaç budanır. Alt<br />

ağaçlardaki hata oranı azaldığından tüm ağaç için hata oranı azalacaktır. Bu işlem<br />

sonucunda kabul edilebilir bir budama ile beklenen hata oranının minimum hale<br />

getirildiği bir ağaç elde edilir. Burada dikkat edilmesi gereken husus, budamanın her<br />

zaman eğitim verisi üzerindeki hatanın artmasına neden olacağıdır. Bu nedenle hata<br />

oranlarının tahmin edilmesinde uygun bir tekniğe ihtiyaç duyulmaktadır. Bir karar<br />

ağacının budanmasında kullanılan teknikler aşağıda sıralanmıştır:<br />

1. Karmaşık değerli budama<br />

2. Hata azaltmalı budama<br />

3. Karamsar budama<br />

4. Hata tabanlı budama<br />

5. Kritik değerli budama<br />

Karmaşık değerli budama yönteminde, bir ağacın tahmin edilen hata oranı<br />

ağacın eğitim verisi üzerindeki hatası ve ağacın karmaşıklığının ağırlıklı toplamı<br />

olarak modellenir. Burada en uygun ağırlıkların belirlenmesi için ayrı veri setleri<br />

kullanılır.


67<br />

Hata azaltılan budama yönteminde ise, ağacın test veri setini ayırdığı<br />

kısımlarının ve ağacın tamamının hata oranını belirler. Bu metotta orijinal ağaç tüm<br />

test veri setini sınıflandırır. T’nin S ile adlandırılan her bir yapraksız alt ağacı için,<br />

test veri seti üzerinde hatalı sınıflandırma sonucu oluşan değişiklikler tespit edilen en<br />

iyi olasılığa sahip yaprakla yenilenir. Eğer yeni oluşan ağaç eşit veya daha az hataya<br />

sahipse ve S aynı özelliğe sahip alt ağaçlar içermiyorsa, S alt ağacı bir yaprakla<br />

yinelenir. Bu işlem test seti üzerindeki hatalar artmaya başlayıncaya kadar tekrar<br />

edilir.<br />

Diğer bir karar ağacı budama yöntemi olan karamsar budama yönteminde,<br />

eğitim alt kümelerinin birleşimini ve boyutunu göstermek için alt ağaçların beklenen<br />

hata oranlarını arttırır. Daha sonra tahmin edilen hata oranı bir yaprağınkinden<br />

önemli derecede küçük olmayan her bir alt ağaç yerine koyulur. Bu yöntem Quinlan<br />

(1987) tarafından ortaya konulmuştur. Bu yöntem ayrı bir test veri setine olan<br />

zorunluluktan kaçınmayı amaçlamaktadır. Hatalı sınıflandırma oranının daha<br />

gerçekçi bir şekilde elde edilmesi için binom dağılımı için süreklilik düzeltmesi<br />

kullanılır.<br />

Hata tabanlı budama yöntemi karamsar budama yönteminin geliştirilmiş bir<br />

halidir. Hata tabanlı budama algoritması beklenen hata oranının daha karamsar<br />

tahmini esasına dayanır. Karamsar budamada tanımlanan yöntemin aksine bu metot<br />

ağacın büyüyen düğümlerini yukarıdan aşağıya denetler.<br />

Kritik değerli budama yöntemi, ağaç oluşumu aşamasında yapılan<br />

sınıflandırmalardan bir düğümün etkinliğinin veya öneminin tahmin edilmesi esasına<br />

dayanmaktadır. Orijinal ağaç oluşumunda bölünme ölçülerinin iyiliği bir düğümdeki<br />

özniteliği belirler. Bu ölçü değerleri, bir düğümde seçilen özniteliğin sınıflar<br />

arasındaki ver<strong>ileri</strong> bölmede ne kadar iyi olduğunu yansıtmaktadır. Bu budama<br />

yöntemi bir kritik değer belirler ve kritik değerlere ulaşamayan düğümleri budar. Bu<br />

işleme dallar arasında bu kritik değere ulaşan bir dal bulunana kadar devam edilir.<br />

Burada dikkat edilmesi gereken husus yüksek seçilen kritik değerin budama<br />

derecesinin yüksek olacağı ve sonuçta daha küçük boyutlu bir ağaç yapısı elde<br />

edileceğidir [Mingers, 1989].


68<br />

3.2.4. Karar Ağaçlarının İyileştirilmesinde Kullanılan<br />

Birleştirme Yöntemleri<br />

Son yıllarda <strong>uzaktan</strong> algılama literatüründe birçok çalışmada birden çok<br />

sınıflandırıcının birleştirilmesi ile tek bir sınıflandırıcının elde edilmesi düşüncesi<br />

ifade edilmiştir. Sınıflandırıcıların birleştirilmesi, yeniden örneklenen eğitim setleri<br />

ile sınıflandırıcıların ayrı ayrı eğitilmesi ve sonuçta ortaya çıkan tahminler ile<br />

sınıflandırma işleminin gerçekleştirilmesi işlemlerini içerir. Birleştirme sonucu elde<br />

edilen sınıflandırıcı ile yapılan sınıflandırma doğruluğunun genel olarak her bir<br />

sınıflandırıcının tekil olarak kullanılmasından daha iyi olduğu ifade edilmektedir<br />

[Opitz and Maclin, 1999; Pal and Mather, 2003]. Teorik ve deneysel gözlemlerle<br />

yapılan araştırmalar birleştirme yöntemi ile birleştirmede kullanılan sınıflandırma<br />

yönteminin doğruluğunda artış olmasının yanında sınıflandırıcının hatalarında da<br />

azalma olduğunu göstermektedir [Hansen and Salamon, 1990; Krogh and Vedelsby,<br />

1995; Hashem, 1997; Opitz and Shavlik, 1996]. Bununla birlikte bazı makalelerde<br />

birleştirilmiş yapay sinir ağlarının kullanımı ve farklı sınıflandırıcıların<br />

birleştirilmesi ile elde edilen sonuçlardan bu yöntemin sınıflandırma doğruluğunu<br />

arttırdığı ifade edilmiştir [Giacinto and Roli,1997, Roli et al.,1997]. Sınıflandırma<br />

doğruluğu tüm öğrenme uygulamaları için öncelikli olarak önemli olduğundan bu<br />

araştırmaların birçoğu sınıflandırma doğruluğunun arttırılması üzerine<br />

yoğunlaşmıştır. Hızlandırma ve torbalama yöntemleri birleştirme işleminde<br />

kullanılan en popüler yöntemlerdir [Freund and Schapire, 1996; Schapire, 1999;<br />

Breiman, 1996]. Her iki yöntemde birleştirme işleminde kullanılacak her bir<br />

sınıflandırıcı için farklı eğitim setlerinin oluşturulmasında yeniden örnekleme<br />

tekniklerini kullanmaktadır. Bu iki yöntemin kullanımı arasındaki en temel fark<br />

hızlandırma yönteminin sürekli olarak tekrarlı bir şekilde birden çok sınıflandırıcı<br />

oluşturmasıdır. Birleştirme işleminde kullanılan diğer bir yöntem çoklu sınıflandırma<br />

yöntemidir. Çoklu hızlandırma yöntemi Adaboost yöntemi ile torbalama yönteminin<br />

birleşimi gibi düşünülebilir [Webb, 2000].


69<br />

3.2.4.1. Hızlandırma Yöntemi<br />

Hızlandırma yönteminin esası bir dizi sınıflandırıcı serisi oluşturulmasına<br />

dayanmaktadır [Freund and Schapire, 1996; Schapire, 1990]. Serinin üyesi olan her<br />

bir sınıflandırıcı için kullanılan eğitim seti, serideki bir önceki sınıflandırıcı veya<br />

sınıflandırıcıların performansına göre belirlenir. Bu yöntemde serideki bir önceki<br />

sınıflandırıcı tarafından hatalı tahmin edilen örnekler bir sonraki sınıflandırıcı için<br />

oluşturulacak eğitim setinde doğru tahmin edilen örneklere göre daha fazla tekrar<br />

edilirler. Bu şekilde hızlandırma yöntemi mevcut birleştirme sonucu elde edilen zayıf<br />

performansa göre örnekleri daha iyi tahmin edebilen yeni bir sınıflandırıcı<br />

oluşturmaya çalışır. Hızlandırma herhangi bir öğrenme algoritmasının performansını<br />

arttıran bir yöntemdir. Bu yöntem herhangi bir zayıf öğrenme algoritmasının<br />

hatasının azaltılması için kullanılabilir. Şekil 3.11’de birleştirilmiş bir<br />

sınıflandırıcının çalışma prensibi gösterilmiştir.<br />

Hızlandırma yöntemi genel olarak her bir gözleme bir ağırlık değeri atanması<br />

esasına dayanmaktadır. Bu ağırlık değeri arttıkça daha fazla gözlem sınıflandırıcıdan<br />

etkilenir. Her bir denemede ağırlık vektörleri hatalı sınıflandırılmış gözlemlerin<br />

ağırlıklarının artması sonucu ile sınıflandırıcı ile ilgili olan performansı yansıtacak<br />

şekilde ayarlanır. Sonuç sınıflandırıcı bir oylama ile her bir iterasyon sonucu<br />

oluşturulan sınıflandırıcıların birleşimidir.<br />

Girdi<br />

Sınıflandırıcı–1 Sınıflandırıcı–2 Sınıflandırıcı–3<br />

Birleşmiş Sınıflandırıcı Çıktıları<br />

Birleştirilmiş Sonuç<br />

Şekil 3.11. Karar ağacı sınıflandırıcısının birleşimi olan sınıflandırıcı.


70<br />

Literatürde hızlandırma algoritması ile ilgili çeşitli yöntemler kullanılmaktadır.<br />

Bu algoritmalardan en çok kullanılanı Adaboost algoritmasıdır [Freund and Schapire,<br />

1996]. Bu algoritma birleşmeye esas olan sınıflandırıcıların ağırlıklı örnekleri<br />

kullanabileceğini kabul etmektedir. Adaboost algoritması örneklerin seçilmesinde iki<br />

yaklaşım kullanır. Bunlardan birincisi örneklerin olasılıklarına dayalı olarak eğitim<br />

setinin oluşturulmasıdır. İkincisi ise, basit bir biçimde tüm örnekleri ve ağırlıklarının<br />

kullanılmasıdır. Bu yöntemin ana düşüncesi her bir örneğin hatasının o örneğin<br />

olasılığı ile belirleneceğidir. Örnek olarak yüksek olasılığa sahip örneklerin hataya<br />

daha fazla etki etmesi gösterilebilir. İkinci yaklaşım eğitim setindeki her bir örneğin<br />

birleştirilmesi gibi bir avantaja sahiptir.<br />

Adaboost yönteminde başlangıçta her bir örneğin olasılıkları<br />

1<br />

N<br />

olarak<br />

ayarlanır. Daha sonra eğitilen her bir sınıflandırıcının ardından yöntem bu olasılıkları<br />

tekrar hesaplar. Adaboost yönteminde ε ’nın son eğitilen sınıflandırıcının (C )<br />

kullanımı sonucunda hatalı sınıflandırılan örneklere ait olasılıkların toplamı olduğu<br />

düşünülsün. Bir sonraki deneme için kullanılacak bu olasılıklar,<br />

sınıflandırılmış örneklerinin olasılığı ile<br />

k<br />

K<br />

K<br />

K<br />

C K<br />

K<br />

’nın hatalı<br />

β = ( 1−<br />

ε ) ε şeklinde hesaplanan bir<br />

katsayı ile çarpımından elde edilir. Bu şekilde tüm olasılıklar yeniden normalleştirilir<br />

ve toplamları 1 olur. Adaboost yöntemi,<br />

olduğu ağırlıklı oylama yöntemi kullanarak<br />

CK ’nın log( β<br />

K<br />

) şeklinde ağırlığa sahip<br />

C ,...,C K 1<br />

şeklinde gösterilen<br />

sınıflandırıcıları birleştirir. Bu ağırlıklar Adaboost yönteminin sınıflandırıcıların<br />

tahminlerini hesaplamasına imkan sağlar. Tablo 3.2’de hızlandırma algoritmasında<br />

kullanılacak eğitim veri setlerini gösteren bir örnek verilmiştir. Tabloda sekiz<br />

örnekten oluşan orijinal eğitim seti ve ağırlıklara göre yeniden örneklenen eğitim veri<br />

setleri gösterilmiştir. Yeniden örneklemede orijinal veri setindeki 1 ile ifade edilen<br />

örneğin bir önceki sınıflandırıcı tarafından hatalı tahmin edildiği göz önüne alınsın.<br />

Bu durumda, Adaboost yöntemi bir sonraki sınıflandırıcı için oluşturulacak eğitim<br />

setinde bu örneğin birden fazla tekrarlayarak bu örneğin bir sonraki sınıflandırıcı<br />

tarafından doğru tahmin edilmesini amaçlamaktadır [Opitz and Maclin, 1999].


71<br />

Tablo 3.2. Adaboost yönteminde kullanılan eğitim ver<strong>ileri</strong>nin oluşturulması.<br />

Eğitim Seti (Orijinal) 1, 2, 3, 4, 5, 6, 7, 8<br />

Eğitim seti–1 (yeniden örneklenmiş) 2, 7, 8, 3, 7, 6, 3, 1<br />

Eğitim seti–2 (yeniden örneklenmiş) 1, 4, 5, 4, 1, 5, 6, 4<br />

Eğitim seti–3 (yeniden örneklenmiş) 7, 1, 5, 8, 1, 8, 1, 4<br />

Eğitim seti–4 (yeniden örneklenmiş) 1, 1, 6, 1, 1, 3, 1, 5<br />

Eğitimden sonra, her bir sınıflandırıcının ağırlıklı oyu kullanılarak birleşime ait<br />

tahminler yapılır. Her bir sınıflandırıcıya ait ağırlıklar, sınıflandırıcıların eğitiminde<br />

kullanılan ağırlıklı örneklerden elde edilen doğruluğa göre hesaplanır. Adaboost<br />

yöntemi literatürde birçok araştırmacı tarafından kullanılmış ve etkinliği test edilmiş<br />

etkili bir birleştirme yöntemidir [Bauer and Kohavi, 1999; Dietterrich, 2000;<br />

Quinlan, 1996; Maclin and Opitz, 1997].<br />

Yöntemin popüler bir hızlandırma yöntemi olmasına karşın bir takım olumsuz<br />

yönleri vardır. Hızlandırma yöntemi özellikle yetersiz veri olması durumunda iyi bir<br />

performans sağlayamamaktadır [Schapire, 1999]. Bununla birlikte hızlandırma<br />

algoritması sınıflandırılacak veride gürültü miktarının fazla olması (örneğin eğitim<br />

verisinde yanlış sınıf etiketlerinin olması) durumunda da iyi bir performans<br />

sergilememektedir [Dietterich, 2000; Melville et al., 2004].<br />

3.2.4.2. Torbalama Yöntemi<br />

Torbalama yöntemi, birleştirme için eğitim setinin rastgele bir şekilde yeniden<br />

oluşturulması ile ayrı ayrı her bir sınıflandırıcının eğitimini gerçekleştiren ön<br />

yüklemeli bir birleştirme metodudur [Breiman, 1996; Efron and Tibshirani, 1993].<br />

Torbalama yönteminde, hızlandırma yönteminde olduğu gibi eğitim setinin yeniden<br />

örneklenmesinde bir önceki sınıflandırıcının performansı dikkate alınmamaktadır. Bu<br />

yöntemde her bir sınıflandırıcının kullandığı eğitim seti rastgele örnekleme ile<br />

oluşturulur. Orijinal eğitim setinin boyutunun N olduğu düşünülürse yeni


72<br />

oluşturulacak eğitim setinde N boyutlu olacaktır. Buna karşın yeni eğitim seti<br />

içerisinde orijinal veri setindeki birçok örnek tekrar edilirken, orijinal veri setindeki<br />

bazı örnekler ise hiç bulunmayacaktır. Başka bir ifadeyle, torbalama yönteminde<br />

eğitim seti tekrarlı bir şekilde yeniden örneklenirken oluşturulacak eğitim setinde<br />

bazı örnekler tekrarlanırken bazıları ise hiç yer alamayacaktır. Rastgele örnekleme<br />

yöntemiyle oluşturulan farklı eğitim ver<strong>ileri</strong> ile birleştirme işlemindeki bir<br />

sınıflandırıcının eğitimi tamamlanır. Farklı değerlendirmeler sonucu birleştirme<br />

işlemine katılan tüm sınıflandırıcılar birleştirerek sonuç sınıflandırıcıyı oluşturur<br />

[Breiman,1996]. Herhangi bir örneğin sınıflandırılmasında her bir sınıflandırıcı bu<br />

örneğin hangi sınıfa ait olduğu ile ilgili bir oy kaydeder. Sonuç olarak örneğe ait<br />

öznitelik bilgisi ya da sınıf etiketi en çok oy alan sınıf olarak belirlenir [Pal, 2002].<br />

Tablo 3.3’de torbalama yönteminde kullanılan eğitim setlerinin nasıl<br />

oluşturulmasında ilişkin basit bir örnek gösterilmektedir.<br />

Tablo 3.3. Torbalama yönteminde kullanılan eğitim ver<strong>ileri</strong>nin oluşturulması.<br />

Eğitim Seti (Orijinal) 1, 2, 3, 4, 5, 6, 7, 8<br />

Eğitim seti–1 (yeniden örneklenmiş) 2, 7, 8, 3, 7, 6, 3, 1<br />

Eğitim seti–2 (yeniden örneklenmiş) 7, 8, 5, 6, 4, 2, 7, 1<br />

Eğitim seti–3 (yeniden örneklenmiş) 3, 6, 2, 7, 5, 6, 2, 2<br />

Eğitim seti–4 (yeniden örneklenmiş) 4, 5, 1, 4, 6, 4, 3, 8<br />

Tabloda torbala yönteminde kullanılmak üzere oluşturulan 1. eğitim setinde 3<br />

ve 7 örneklerinin iki kez tekrar edildiği, bunun yanında 4 ve 5 örneklerinin ise bu<br />

eğitim setinde olmadığı görülmektedir. Sonuçta eğitim seti–1 ile eğitimi tamamlanan<br />

bir sınıflandırıcının bir test seti ile genelleştirme kabiliyeti test edildiğinde ortaya<br />

çıkan hata miktarı sınıflandırıcının orijinal veri seti ile sınıflandırılması sonucu<br />

ortaya çıkan hatadan daha yüksek olacaktır. Bu durum örnekteki diğer üç eğitim seti<br />

kullanılarak eğitilecek üç sınıflandırıcı içinde geçerli olacaktır. Buna karşın bu dört<br />

sınıflandırıcının birleşimi ile test seti üzerindeki hata miktarı tek bir sınıflandırıcının<br />

kullanılması sonucu ortaya çıkan hata miktarından daha az olacaktır. Breiman (1996)<br />

eğitim setindeki küçük değişimlerin sonuç tahminlerinde büyük değişiklere yol açtığı<br />

değişken öğrenme algoritmaları için bu yönteminin etkili olduğunu ifade etmiştir.


73<br />

Birleşme işlemindeki her bir sınıflandırıcı aynı örnek kümesiyle işlem<br />

yapmadığından, her biri birbirinden farklı sonuç üretecektir. Birleşmeyi oluşturan her<br />

bir sınıflandırıcının tahminlerinin oylanması ile torbalama algoritması temel<br />

sınıflandırıcının varyansı nedeniyle oluşan hatayı azaltmaya çalışır.<br />

3.2.4.3. Çoklu Hızlandırma Yöntemi<br />

Çoklu hızlandırma yöntemi sınıflandırıcıların birleştirilmesinde başarılı<br />

sonuçlar veren Adaboost tekniğinin genişletilmiş bir halidir. Adaboost ve torbalama<br />

yöntemleri farklı etkilere sahip farklı mekanizmalar ile çalışıyormuş gibi görünseler<br />

de bu iki yöntemin birleştirilmesinin ile daha yararlı olduğu düşünülebilir. Çalışma<br />

mekanizmaları farklı olduğu için, her iki yöntemin ayrı ayrı kullanılmasından ziyade<br />

iki yöntemin birleştirilmesi daha iyi sonuçlar üretebilecektir [Webb, 2000]. Adaboost<br />

yöntemi eğilim ve varyansı azaltırken, torbalama yöntemi temel olarak varyansı<br />

azaltmaktadır. Bunun yanında Bauer and Kohavi (1999), varyansın azaltılmasında<br />

torbalama yönteminin Adaboost yöntemine göre daha etkili olduğunu ifade<br />

etmişlerdir. Web (2000), bu iki yöntemin birleşmesi ile Adaboost yönteminin eğilim<br />

azaltmasına torbalama yönteminin varyans azaltmasının eklenmesi ile devam<br />

edebileceğini ifade etmiştir. Özetlenecek olursa çoklu hızlandırma yöntemi,<br />

Adaboost yönteminin torbalama yönteminin yüksek varyans azaltmasındaki<br />

etkinliğini kullanılması ile yeniden düzenlenmesi olarak ifade edilebilir [Web, 2000].<br />

C4.5 algoritmasının temel sınıflandırma algoritması olarak kullanıldığı<br />

sınıflandırıcıların birleştirilmesi işleminde çoklu hızlandırma yöntemi, Adaboost<br />

veya torbalama yöntemlerinin ayrı ayrı kullanılması sonucunda ortaya çıkan hata<br />

oranına göre daha düşük bir hataya sahiptir.<br />

3.2.4.4. Rastgele Orman Yöntemi<br />

Rastgele orman yöntemi girdi ver<strong>ileri</strong>nin oluşturduğu bir vektörden bağımsız<br />

olarak örneklenen rastgele bir vektör kullanarak her bir sınıflandırıcının<br />

oluşturulduğu karar ağacı sınıflandırıcılarının birleşimini içeren bir yöntemdir. Bu<br />

birleşimde her bir ağaç modeli girdi vektörünü sınıflandırmak için en popüler sınıfa<br />

bir oy verirler [Breiman, 2001]. Rastgele orman sınıflandırıcısı rastgele seçilen


74<br />

örnekleri veya ağacın büyümesi için her bir düğümdeki özelliklerin birleşimini içerir.<br />

Torbalama yönteminde eğitim veri seti N sayıdaki örneğin rastgele tekrarlanması ile<br />

oluşturulmaktadır [Breiman, 1996]. Öznitelik bilgisi olmayan herhangi bir örnek<br />

(piksel), tüm ağaç tahminlerinde en fazla oy alan sınıfa atanması suretiyle<br />

sınıflandırılır. Bir karar ağacının oluşturulmasında dallanma kriterlerinin<br />

belirlenmesi ve uygun bir ağaç budama yönteminin seçilmesi söz konusudur. Karar<br />

ağacı oluşturulması için dallanma kriterlerinin belirlenmesinde kullanılan birçok<br />

yöntem vardır. Bunlar arasında en çok kullanılan yöntemler bilgi kazanç oranı kriteri<br />

ve Gini indeksidir [Quinlan, 1993; Breiman et al., 1984]. Rastgele orman<br />

sınıflandırıcısı karar ağacı oluşumunda dallanma kriterlerinin belirlenmesinde başka<br />

bir ifadeyle dallanma için özniteliklerin seçiminde Gini indeksi yöntemini kullanır.<br />

Bu yöntemde sınıflara ait öz niteliklerin zayıflılığını ölçülmesi esasına<br />

dayanmaktadır [Pal, 2005b].<br />

Rastgele orman yöntemi karar ağaçları için torbalama yöntemi ile rastgele<br />

özellik seçiminin birleştirilmesi ile elde edilen bir sınıflandırma algoritması olarak da<br />

ifade edilebilir [Breiman, 2001]. Bu yöntemde grubun her bir üyesi torbalama<br />

yönteminde olduğu gibi ön yinelemeli kopyalama ile eğitilir. Daha sonra karar<br />

ağaçları rastgele seçilen özelliklerden (F) her bir düğümdeki dallanma için seçilen<br />

özellik ile ağaç yapısı büyür. Rastgele seçilen özellikler kümesi F, [ log 2<br />

( k + 1) ]<br />

şeklinde ifade edilebilir [Breiman, 2001]. Bu ifadede k tüm özelliklerin sayısının<br />

göstermektedir. Bu şekilde oluşturulacak rastgele ağaçta herhangi bir budama<br />

algoritması kullanılmaz [Melville and Mooney, 2004]. Birçok sınıflandırma<br />

yönteminde kullanıcı tarafından belirlenen bazı parametreler söz konusudur. Rastgele<br />

orman sınıflandırıcısı için kullanıcılar tarafından belirlenen bu parametreler ağaç<br />

yapısının oluşturulması için her bir düğümde kullanılacak örneklerin sayısı ve<br />

oluşturulacak ağaç sayısıdır. Her bir düğümde en iyi dallanma için sadece seçilen<br />

özellikler araştırılır. Bu nedenle rastgele orman sınıflandırıcısı kullanıcı tarafından<br />

belirlenen ve oluşturulacak ağaç sayısını ifade N ağaçtan oluşacaktır. Yeni bir veri<br />

setinin sınıflandırılmasında, veri seti bu N sayıda ağacın her birinden geçirilir.<br />

Rastgele orman sınıflandırıcısı bu N sayıda ağaçtan elde edilen N sayıda oy arasından<br />

en fazla oya sahip olan sınıfı seçer ve bu şekilde yeni veri setine ait öznitelik<br />

değerlerini belirler [Pal, 2005b; Dietterich, 2002].


75<br />

3.2.4.5. DECORATE Algoritması<br />

Decorate algoritmasında, sınıflandırıcıların birleştirilmesi işlemi iteratif olarak<br />

gerçekleştirilir. İlk önce sınıflandırıcının öğrenme işlemi tamamlanır ve sonra bu<br />

sınıflandırıcı birleştirmeye dahil edilir. Her bir ardışık iterasyonda sınıflandırıcılar bir<br />

takım yapay verilerle birleştirilmiş orijinal eğitim verisi ile eğitilirler. Her bir<br />

iterasyonda yapay eğitim örnekleri veri dağılımından elde edilir. Yapay olarak elde<br />

edilen eğitim örneklerine ait öznitelik bilg<strong>ileri</strong> ya da etiketler birleştirilme<br />

tahminlerinden farklı maksimumları bulmak için oluşturulur [Melville and Mooney,<br />

2004].<br />

3.3. Yapay Sinir Ağları<br />

Yapay Sinir Ağları (YSA) geleneksel istatistiksel sınıflandırıcılarla<br />

karşılaştırıldığında karmaşık yapıya sahip ve gürültü miktarı fazla olan ver<strong>ileri</strong>n<br />

tanımlanmasında ve veriler arasındaki doğrusal olmayan ilişk<strong>ileri</strong>n belirlenmesinde<br />

teorik olarak daha gelişmiş ve daha güçlü bir sınıflandırma yöntemidir [Kavzoglu,<br />

2001; Tseng et al., 2008]. YSA, eğitim ver<strong>ileri</strong> aracılıyla problemi öğrenme ve daha<br />

sonra yeni bir verinin tanımlanmasını yapabilme özelliğine sahip olduğundan<br />

sezgisel algoritma grubunda yer alır. YSA’nın esas amacı insan beyninin üstün<br />

karakteristiklerini simule ederek bilgisayarın tanıma işlemindeki performansını<br />

arttırmaktır. İnsan beyninin biyolojik teorisine dayalı olan YSA insan beyninin<br />

fonksiyonelliğini ve karar verme işlemini simule eden modellerdir. YSA coğrafya,<br />

finans, imalat ve ses tanımlama gibi farklı bir çok alanda kullanılan bir yöntemdir<br />

[Hewitson and Crane, 1994; Dicson et al., 1997; Giles et al., 1997; Altun and Curtis,<br />

1998]. Yapay sinir ağlarının önemli avantajları aşağıda maddeler halinde verilmiştir<br />

[Kavzoglu, 2001]:<br />

• Parametrik olmayan bir yapıdadırlar,<br />

• Keyfi karar sınır yeteneklerine sahiptirler,<br />

• Farklı veri türlerini ve girdi yapılarını birleştirilmesi kolaydır,<br />

• Daha iyi genelleştirme yapabilmektedirler,<br />

• Gürültü için toleranslıdırlar.


76<br />

Bu avantajlar arasında beklide en önemli olanı YSA’nın parametrik olmayan<br />

yani verinin dağılımı ile ilgili herhangi bir ön bilgiye ihtiyaç duymamalarıdır. YSA<br />

eğitim verisinin karakteristik özelliklerini iteratif bir şekilde öğrendiklerinden<br />

veriden bağımsız teknikler olarak da ifade edilebilirler. YSA ağlarının geleneksel<br />

istatistiksel sınıflandırıcılarla karşılaştırıldığında az sayıda eğitim seti kullanarak<br />

daha iyi sonuçlar verebilmektedirler [Blamire, 1994; Foody, 1995; Kavzoglu, 2009].<br />

Yapay sinir ağları geleneksel istatistiksel sınıflandırıcılara göre daha güçlü bir<br />

sınıflandırma yöntemi olmasına rağmen bir takım olumsuzluklar vardır. Bunlar;<br />

kısmen daha fazla eğitim zamanı gerektirmesi, en etkili ağ yapısının belirlenmesi ve<br />

sınıflandırma doğruluğunun parametre değişimlerine karşı duyarlı olması olarak<br />

ifade edilebilir [Kavzoglu, 2001]. Bunlar arasında ağ yapısı eğitim zamanını ve<br />

sınıflandırma doğruluğunu direkt olarak etkilemektedir [Dixon and Candade, 2008].<br />

Günümüze kadar birçok yapay sinir ağı modeli ve öğrenme algoritması<br />

geliştirilmiş ve çeşitli derecelerde başarılar elde edilmiştir. Yapay ağ modellerini iki<br />

kritere göre kategorize etmek mümkündür. Bunlardan ilki modelin kontrollü veya<br />

kontrolsüz öğrenme stratej<strong>ileri</strong>nden hangisini uyguladığıdır. Kontrolsüz yapay sinir<br />

ağı modellerine örnek olarak self-organising map (SOM), Hopfield ağları ve<br />

Grossberg ağları gösterilebilir. Perseptron, çok katmanlı perseptron (ÇKP), radyal<br />

tabanlı ağlar (RBF) gibi modeller ise kontrollü öğrenme prensibine göre geliştirilmiş<br />

YSA modellerindendir [Kavzoglu, 2001]. İkinci kriter ise ağ modeli ile ilgili<br />

öğrenme yönteminin yönlülüğü ile ilgilidir. Eğer bilgi akışı girdi katmanından çıktı<br />

katmanına doğru ilerliyorsa bu öğrenme yöntemi <strong>ileri</strong> beslemeli ağ modeli olarak<br />

adlandırılır. Bu durumun tersi olan durumda yani bilgi akışının, çıktı katmanından<br />

girdi katmanına doğru ilerlediği öğrenme yöntemi geri beslemeli ağ modeli olarak<br />

ifade edilir. Literatürde çok katmanlı perseptron (ÇKP) modeli uygulamada en<br />

yaygın olarak kullanılan yapay sinir ağı modellerindendir. Çok katmanlı perseptron<br />

ağ modelleri eğitim sırasında bilgi akışının girdi katmanından çıkış katmanına doğru<br />

ilerlediği <strong>ileri</strong> beslemeli ağ yapılarındandır.


77<br />

3.3.1. Biyolojik ve Yapay Sinir Ağlarının Çalışma Prensibi<br />

Yapay sinir ağları insan beyninin yapısı ve çalışma prensibinden yola çıkılarak<br />

geliştirilmiş sistemlerdir. İnsan beyni ve çalışma şekli karmaşık yapıya sahip<br />

olduğundan tam olarak açıklanması zor bir konudur. Ancak genel yapısı ve temel<br />

çalışma prensibinin açıklanması YSA’nın anlaşılması açısından önemlidir. İnsan<br />

beyni, sinir sisteminin merkezini oluşturan en temel elemandır. İnsan beyni sürekli<br />

olarak vücudun çeşitli organlarından gelen sinyalleri alır, bu sinyalleri işler ve işlem<br />

sonucunda alınan kararları vücudun ilgili noktalarına gönderir. Beyin, sinir<br />

sisteminin merkezidir ve beynin temel yapı taşları sinir hücreleri yani biyolojik<br />

nöronlardır. Beyin, işlevini birbirleri arasında yoğun bağlantılar bulunan nöronlar<br />

yerine getirir. Bir biyolojik nöron, temel olarak, diğer kaynaklardan girdiler alır,<br />

belirli bir şekilde bunları birleştirir, sonuç üzerinde bir işlem (genelde doğrusal<br />

olmayan) uygular ve nihai sonucu üretir. Şekil 3.12’de biyolojik nöronun genel<br />

yapısı ve bu yapıyı oluşturan dört temel bileşen gösterilmiştir. Bu bileşenler dendrit,<br />

çekirdek, akson ve sinaps olarak adlandırılmaktadırlar. Dendritler, çekirdeğin saça<br />

benzeyen uzantılarıdır ve girdi kanalları olarak işlev görürler. Sinapslar, nöronlar<br />

arası etkileşimi sağlarlar. Bu girdi kanalları diğer nöronların sinapsları aracılığıyla<br />

gird<strong>ileri</strong>ni alırlar. Daha sonra çekirdek, gelen bu sinyalleri zaman içinde işler.<br />

Çekirdek, bu işlenmiş değeri bir çıktıya dönüştürdükten sonra bu çıktıyı akson ve<br />

sinapslar aracılığıyla diğer nöronlara gönderir.<br />

Dendrit<br />

Akson<br />

Çekirdek<br />

Sinapslar<br />

Şekil 3.12. Biyolojik nöronun genel yapısı ve bileşenleri.


78<br />

Yapay sinir ağları, insan beyninin yapısı göz önüne alınarak geliştirilen<br />

basitleştirilmiş sistemler olduğundan, bu sistemlerin temel elemanları da nöronlardır.<br />

Bu yapay nöronlar, aralarındaki bağlantılar oluşturularak ve tabakalar halinde<br />

gruplandırılarak yapay sinir ağlarını oluşturulmaktadır. Yapay sinir ağlarının temel<br />

işlem elemanı olan yapay nöronlar, biyolojik nöronların dört temel bileşenine benzer<br />

yapıda dört fonksiyona sahiptir. Şekil 3.13’te yapay nöronun genel yapısı ve bu<br />

yapıda işlevselliği olan dört temel fonksiyon görülmektedir. Bunlardan ilki şekilde<br />

x , i = 0,1,…,n şeklinde ifade edilen gelen sinyaller ya da girdi değerleridir. Bu girdi<br />

i<br />

değerlerin her biri<br />

w i<br />

ile gösterilen bir bağlantı ağırlığıyla çarpılmaktadır. En basit<br />

yapay sinir ağı yapısında, bu çarpımlar toplanır ve belirlenen bir aktivasyon<br />

(uygulama) fonksiyonuna gönderilerek sonuç üretilir. Elde edilen sonuç çıktı<br />

katmanına gönderilir. Bu yapay nöron yapısında değişik toplama ve aktivasyon<br />

fonksiyonları kullanılarak farklı ağ yapıları oluşturulabilir.<br />

x 0<br />

x 1<br />

x 2<br />

x n<br />

w 0<br />

w 1<br />

w 2<br />

w n<br />

Toplam fonksiyonu<br />

Σ<br />

ϕ<br />

Aktivasyon fonksiyonu<br />

Çıktılar<br />

Girdiler<br />

Ağırlıklar<br />

Şekil 3.13. Yapay nöronun genel yapısı ve bileşenleri.<br />

Aktivasyon fonksiyonu, yapay sinir ağlarına doğrusal olamayan bir yapı<br />

kazandırma amacıyla kullanılan matematiksel bir fonksiyondur. Bu fonksiyonun<br />

kullanımıyla YSA doğrusal olmayan ver<strong>ileri</strong>n bulunduğu problemlerin çözümünde<br />

kullanılan güçlü bir yapıya kavuşmaktadır. Kullanılacak aktivasyon fonksiyonu<br />

doğrusal olduğunda, YSA’nın işlemsel yapısı da doğrusal bir özellik gösterecektir<br />

[Kavzoglu, 2001]. Yapay sinir ağı yapılarından çok katmanlı perseptron yapılarında<br />

genellikle logaritmik sigmoidal veya tanjant hiperbolik aktivasyon fonksiyonları ve<br />

radyal tabanlı fonksiyon yapıları ise aktivasyon fonksiyonu olarak Gauss


79<br />

fonksiyonlarını kullanılmaktadır. Bu nedenle kullanılacak aktivasyon fonksiyonu<br />

seçilecek YSA yapısına dolayısıyla çözülecek probleme göre belirlenmelidir.<br />

3.3.2. Yapay Sinir Ağlarının Sınıflandırılması<br />

Yapay sinir ağları, yapay nöronlar ve bu elemanlar arasındaki bağlantılardan<br />

meydana gelen bir yapıdır. YSA’nın genel çalışma prensibi birbirine benzer olmasına<br />

rağmen yapay nöronlar ve bu nöronlar arasındaki bağlantılar YSA’nın özelliğini<br />

belirler. Başka bir ifadeyle, yapay sinir ağı yapısının oluşturulmasında nöronların<br />

dizilimi ve nöronlar arasındaki bağlantılara ait ağırlıkların belirlenmesi ağın<br />

karakteristiği açısından önemlidir. Bu durum göz önüne alındığında, yapay sinir<br />

ağlarını yapılarına ve öğrenme algoritmalarına göre iki ana başlık altında<br />

sınıflandırılmak mümkündür.<br />

3.3.2.1. Yapılarına Göre Yapay Sinir Ağları<br />

Yapay sinir ağları, içerdiği yapay nöronların birbirine bağlanış şekillerine göre<br />

diğer bir ifadeyle yapılarına göre, <strong>ileri</strong> beslemeli ve geri beslemeli ağlar olmak üzere<br />

iki sınıfa ayrılmaktadır.<br />

3.3.2.1.1. İleri Beslemeli Yapay Sinir Ağları<br />

İleri beslemeli bir ağda yapay nöronlar genellikle katmanlara ayrılmıştır.<br />

Veriler, giriş katmanından çıkış katmanına doğru tek yönlü bağlantılarla iletilir.<br />

Genellikle parametrelere bağlı olarak tanımlanan giriş ver<strong>ileri</strong>, çıkış katmanına doğru<br />

tek yönlü bir şekilde iletilir ve dağıtılır. Aynı katmanda bulunan yapay nöronlar<br />

arasında bağlantı tanımlanmazken bir katmanın tüm yapay nöronları bir üst katmanın<br />

yapay nöronları ile bağlantılıdır. Diğer bir ifadeyle, nöronlar bir katmandan diğer bir<br />

katmana bağlanırken, aynı katman içerisinde bağlantıları bulunmamaktadır. Bu tip<br />

ağlarda herhangi bir andaki çıkış o andaki giriş vektörünün bir fonksiyonu olarak<br />

ifade edilir. İleri beslemeli ağlara örnek olarak çok katmanlı perseptron ve LVQ<br />

(Learning Vector Quantization) ağları verilebilir.


80<br />

3.3.2.1.2. Geri Beslemeli Yapay Sinir Ağları<br />

Geri beslemeli yapay sinir ağlarında <strong>ileri</strong> beslemeli olanların aksine bir nöronun<br />

çıktısı kendinden önceki katmana veya kendi katmanında bulunan herhangi bir<br />

nörona girdi olarak bağlanabilir. Geri beslemeli yapay sinir ağları çıkış katmanı dahil<br />

herhangi bir katmanın veya tüm katmanların girişleri bir önceki katmana geri iletilir.<br />

Böylece, girişler hem <strong>ileri</strong> yönde, hem de geri yönde aktarılmış olur. Bu tip sinir<br />

ağlarında herhangi bir andaki çıkış, o andaki girişlerin bir fonksiyonu olduğu kadar<br />

önceki giriş ve çıkış değerlerini de yansıtmaktadır. Bu yapısı ile geri beslemeli yapay<br />

sinir ağları doğrusal olmayan bir yapıdadır. Veri akışının çift yönlü olmasından<br />

dolayı bu tip ağlarda ağırlıklar dinamik bir hafıza yapısı tanımlarlar. Geri besleme<br />

özelliğini kazandıran bağlantıların bağlanış şekline göre geri aynı yapay sinir ağıyla<br />

farklı davranışta ve yapıda geri beslemeli yapay sinir ağları elde edilebilir. Bu<br />

yapılardaki yapay sinir ağlarında herhangi bir andaki çıkış o ana kadar işlenmiş tüm<br />

ver<strong>ileri</strong>n bir sonucudur. Hopfield, Elman ve Jordan yapıları bu tür yapay sinir ağları<br />

yapılarına örnektir.<br />

3.3.2.2. Öğrenme Algoritmalarına Göre Yapay Sinir Ağları<br />

Yapay sinir ağlarının verilen girdilere göre çıktı üretebilmesinin yolu ağın<br />

öğrenebilmesidir. Öğrenme algoritmalarına göre yapay sinir ağları kontrollü,<br />

kontrolsüz ve takviyeli öğrenme olarak üçe ayrılmaktadır.<br />

3.3.2.2.1. Kontrollü Öğrenme<br />

Kontrollü öğrenmede ağa öznitelik bilg<strong>ileri</strong> ve bu öznitelik bilg<strong>ileri</strong>ne ait sınıf<br />

etiketlerini içeren eğitim verisi giriş verisi olarak tanımlanır. Ağ, verilen girdiler için<br />

istenen çıkışları oluşturabilmek için kendi ağırlıklarını günceller. Diğer bir ifadeyle,<br />

kontrollü öğrenme algoritması yapay nöronlar arasındaki bağlantı ağırlıklarını,<br />

eğitim verisindeki gerçek sınıf etiketleri ile ağın çıkış katmanında elde edilen sınıf<br />

etiketleri arasındaki farka göre güncellemektedir. Ağın çıktıları ile beklenen çıktılar<br />

arasındaki hata hesaplanarak ağın yeni ağırlıkları bu hata payına göre düzenlenir.<br />

Hata payı hesaplanırken ağın bütün çıktıları ile beklenen çıktıları arasındaki fark


81<br />

hesaplanır ve bu farka göre her nörona düşen hata payı bulunur. Daha sonra her<br />

nöron kendine gelen ağırlıkları günceller. Bu algoritmaya örnek olarak Delta kuralı<br />

ve LVQ algoritması gösterilebilir.<br />

3.3.2.2.2. Kontrolsüz Öğrenme<br />

Kontrolsüz öğrenme algoritmasında, ağın eğitimi sırasında girdi verisi olarak<br />

sınıf etiketleri belli olmayan öznitelik ver<strong>ileri</strong> kullanılmaktadır. Ağın giriş<br />

katmanında tanımlanan bu verilere göre ağ her bir örneği kendi arasında<br />

sınıflandıracak şekilde kendi kurallarını oluşturur. Ağ bağlantı ağırlıklarını aynı<br />

özellikte olan dokuları ayırabilecek şekilde düzenleyerek öğrenme işlemini<br />

tamamlar. Girişe verilen örnekten elde edilen çıkış bilgisine göre ağ, sınıflandırma<br />

kurallarını kendi kendine geliştirmektedir. Kontrolsüz öğrenme algoritmasını<br />

kullanan yapay sinir ağlarına örnek olarak ART ve SOM gösterilebilir.<br />

3.3.2.2.3. Takviyeli Öğrenme<br />

Kontrolsüz öğrenme algoritmasında olduğu gibi bu algoritmada da giriş<br />

ver<strong>ileri</strong>ne ait sınıf etiketleri kullanılmamaktadır. Takviyeli öğrenme algoritmasında<br />

ağın her iterasyonu sonucunda elde ettiği sonucun iyi veya kötü olup olmadığına dair<br />

bir bilgi verilir. Ağ bu bilgilere göre kendini yeniden düzenler. Bu sayede ağ<br />

herhangi bir girdi dizisiyle hem öğrenerek hem de sonuç çıkararak işlemeye devam<br />

eder. Bu algoritmada yapay sinir ağlarına çıkış ver<strong>ileri</strong> verilmezken, elde edilen<br />

çıkışın verilen girişe karşılık uygunluğunu değerlendiren bir ölçüt kullanılmaktadır.<br />

Takviyeli öğrenme algoritmalarına örnek olarak genetik algoritma gösterilebilir.<br />

3.3.3. Çok Katmanlı Perceptron<br />

Günümüzde en çok bilinen ve yaygın biçimde kullanılan <strong>ileri</strong> beslemeli ağ<br />

yapısı algoritmalarından çok katmanlı perseptron (ÇKP) modelidir. Çok katmanlı<br />

perseptron modelleri esnek ve çoklu tabakalar halinde organize edilmiş işlemci<br />

elemanlardan (nöron) oluşan doğrusal olamayan bir yapıya sahiptirler. ÇKP


82<br />

modelinin yaygın olarak kullanılmasının en önemli nedeni sinir ağının üstünlüğü,<br />

işlemci elemanlarda kullanılan doğrusal olmama özelliğidir.<br />

Çok katmanlı perceptron ağ yapısının esas aldığı <strong>ileri</strong> beslemeli ağ algoritması<br />

üç farklı katmandan meydana gelir. Çok katmanlı perceptronun genel yapısını<br />

gösteren Şekil 3.14’den de görüleceği üzere bu katmanlar, girdi katmanı, bir veya<br />

birden fazla saklı katman ve çıktı katmanıdır. Girdi ver<strong>ileri</strong>ni temsil eden girdi<br />

tabakası her bir sınıfa ait değerlerin ağdaki dağılımını tanımlar. Saklı katmanlar<br />

hesaplamalar için kullanılırlar ve her bir düğüme ilişkin değerler girdi düğümü ile bu<br />

düğüme gelen bağlantılara ait ağırlıklarının çarpımının toplamından elde edilir. Çıktı<br />

katmanı tanımlanacak sınıfları göstermek için bir grup koda sahip son işlem<br />

katmanıdır. Tüm ara düğüm bağlantıları ağırlıklarla birleştirilir. Bir değer ara<br />

bağlantılarından geçerken ara düğüm bağlantılarıyla birleştirilen ağırlıklarla çarpılır<br />

[Kavzoglu and Reis, 2008].<br />

Saklı Katmanlar<br />

Girdi Katmanı<br />

Çıktı Katmanı<br />

Arazi Örtüsü<br />

Şekil 3.14. Dört tabakalı <strong>ileri</strong> beslemeli basit bir çok katmanlı perseptron ağı.<br />

3.3.3.1. Öğrenme Algoritmaları<br />

Öğrenme algoritması yapay sinir ağları uygulamalarının temelini<br />

oluşturmaktadır. Nöron ağlarının oluşturulması ve ağırlıkların belirlenebilmesi<br />

açısından öğrenme algoritmalarına ihtiyaç duyulmaktadır. Farklı yapay sinir ağı<br />

modelleri için birçok öğrenme stratejisi geliştirilmiştir [Kavzoglu, 2001]. Bunlar<br />

arasında <strong>ileri</strong> beslemeli yapay sinir ağlarının eğitiminde geri yayılım öğrenme<br />

algoritması en popüler yöntemlerdendir [Werbos, 1995].


83<br />

Genelleştirilmiş delta kuralı olarak da bilinen geri yayılım öğrenme algoritması,<br />

iteratif gradyan azaltım öğrenme yöntemidir. Geri yayılım öğrenme algoritması<br />

hataları çıkıştan girişe geriye doğru azaltmaya hedeflemektedir. Bu işlem iki adımda<br />

gerçekleşir. İlk adımda, tüm ağa ait başlangıç ağırlıkları gelişi güzel belirlenir, girdi<br />

verisi ağa sunulur ve çıktı değerlerinin belirlenmesi için <strong>ileri</strong> doğru yayılır. İkinci<br />

adımda, bilinen ve tahmin edilen çıktı değerleri arasındaki fark (hata) ağdan geriye<br />

doğru beslenir ve ağırlıklar bu farkı (hatayı) azaltacak şekilde değiştirilir. Her<br />

iterasyonda tüm bu işlemler yeniden hesaplanan ağırlıklar ile hata en aza olana veya<br />

önceden belirlenen bir eşik değerine ulaşılıncaya kadar tekrar edilir.<br />

İşlem düğümü ya da yapay nöron, bağlantılara ait ağılıklar ile çarpılan girdi<br />

değerlerini toplar ve aktivasyon fonksiyonunu kullanarak çıkış düğümünü tahmin<br />

eder. Girdi ver<strong>ileri</strong>nin toplamı ve çıktı düğümüne ilişkin eşitlikler:<br />

net<br />

Pj<br />

= ∑<br />

i<br />

w<br />

ji<br />

i<br />

Pi<br />

(3.42)<br />

oPj = f ( net Pj )<br />

(3.43)<br />

şeklindedir. Bu eşitliklerde; net , girdi değerlerinin toplamını; w , ağırlık<br />

Pj<br />

ji<br />

vektörünü; i , girdi değerlerinden i.<br />

elemanın değerini; o ,<br />

Pi<br />

Pj<br />

p örneği için j çıktı<br />

düğümünü ve<br />

f ( o )<br />

doğrusal olmayan aktivasyon fonksiyonunu göstermektedir.<br />

Doğrusal olmayan aktivasyon fonksiyonlardan en çok kullanılanı sigmoid<br />

fonksiyondur [Kavzoglu, 2001].<br />

Geriye yayılma algoritması gerçek ve hesaplanan çıktı değerleri arasındaki<br />

farkın toplamı olara ifade edilen hatayı minimum hale getirmeyi amaçlar. Bu hata<br />

p örneği için:<br />

( t o ) 2<br />

1<br />

E p = ∑ Pj −<br />

2<br />

j<br />

Pj<br />

(3.44)


84<br />

eşitliği ile hesaplanır. Bu eşitlikte; tPj<br />

,<br />

p örneğinin j . bileşenine ait hesaplanan<br />

çıktı değerini; oPj<br />

, p girdi örneğinin j . bileşenine ait gerçek çıktı değerini<br />

göstermektedir. Bu durumda ağın toplam hatası:<br />

E = ∑ EP<br />

(3.45)<br />

eşitliği ile hesaplanır. Yeni ağırlıklar, bir önceki ağırlıkların Δ şeklinde<br />

güncellenmesi ile:<br />

w ji<br />

w<br />

1<br />

ji<br />

= w + Δw<br />

(3.46)<br />

ji<br />

ji<br />

∂E<br />

Δ w ji = −η<br />

(3.47)<br />

∂w<br />

ji<br />

şeklinde hesaplanır. Eşitlik 3.47’de η öğrenme oranı olarak ifade edilir ve kullanıcı<br />

tarafından belirlenen bir parametredir. Bu parametre her bir iterasyonda hesaplanan<br />

hatalarla ilgili ağırlıklardaki değişimin derecesinin kontrolü için kullanılır [Kavzoglu,<br />

2001].<br />

Bir veri setinin karakteristiklerinin belirlenmesi için öğrenme algoritmaları<br />

kullanılır. Bu öğrenme algoritmaları ağırlıkların eğitim döngüleri veya evreleri<br />

arasında nasıl ayarlanacağını belirler. YSA uygulamalarında, ağ yapısının<br />

tasarlanması ve seçilen algoritmaya ait parametrelerin kullanıcı tarafından<br />

belirlenmesi en önemli iki adımı oluşturmaktadır. Saklı katmanın boyutu ve düğüm<br />

sayısı ile ilgili özellikler eğitim veri setinin özeliklerinin öğrenilmesi ve ağ için yeni<br />

olan piksellerin tanımlanmasında ağın kapasitesi açısından önemlidir. Buna ağın<br />

genelleştirme kabiliyeti denir. Saklı tabakadaki düğümlerin sayısı yapay ağın gücünü<br />

ve karmaşıklığını direkt olarak belirler [Kavzoglu and Mather, 2003]. Ağın eğitim<br />

parametrelerinin ayarlanması (öğrenme oranı, momentum, ağırlıklar için başlangıç<br />

değerleri, vb.) öğrenme algoritmasının çalışmasını ve eğitilen ağın performansını<br />

etkileyen ana unsurdur. Dış ve iç parametreler olarak ele alınabilecek bu<br />

parametrelerden; dış parametreler, giriş verisinin karakteristikleri ve çalışma


85<br />

ölçeğini, iç parametreler ise, uygun ağ yapısının seçimi, ağ parametrelerinin<br />

başlangıç değerlerinin belirlenmesi, iterasyon sayısı, aktivasyon fonksiyon tipi ve<br />

öğrenme oranının belirlenmesi gibi sınırlamaları içermektedir [Özkan, 2001]. İleri<br />

beslemeli bir yapay ağın geri yayılma algoritmasıyla eğitimi ağ yapısı, öğrenme<br />

oranı, momentum katsayısı ve aktivasyon fonksiyonu gibi birkaç parametrenin<br />

başlangıçta belirlenmesini gerektirmektedir. Öğrenme oranı yapay sinir ağlarının<br />

başarısı açısından önemli bir etkiye sahiptir. Bu parametre bağlantıların ağırlık<br />

değerlerindeki değişimin miktarını ifade eder. Eğer öğrenme oranı çok yüksek<br />

seçilirse global minimuma ulaşılamaz ve hatada bir artış gözlenir. Bununla beraber<br />

öğrenme oranı çok küçük seçilirse minimum hatanın aranması için gereken süre<br />

artacağından ağın eğitim süreci artacaktır. Momentum katsayısı, bir önceki<br />

iterasyonda hesaplanan ağırlık değişimlerinin oranı olarak yeni oluşturulan<br />

ağırlıklara eklenir. Bu katsayı öğrenme işleminin hızını arttırmak için kullanılır.<br />

3.3.4. Yapay Sinir Ağları ile Görüntü Sınıflandırma<br />

Yapay sinir ağları, herhangi bir istatistiksel kabul gerektirmediğinden<br />

parametrik olmayan kontrollü bir sınıflandırma algoritmasıdır. Kontrollü öğrenme<br />

işleminde, öğrenmeyi temsil eden bağlantı ağırlık değerleri, iteratif bir şekilde ağın<br />

ürettiği çıkışların hedef çıkışlarla karşılaştırılmalarıyla elde edilen belirli bir hata<br />

değerinin minimize edilmesiyle güncellenirken, kontrolsüz öğrenme işleminde,<br />

ağırlık değerlerinin güncelleştirilmesi (öğrenme, eğitim) giriş örneğine en büyük<br />

benzerlik değerini üreten işlemci elemanın aktifleşmesiyle gerçekleştirilmektedir<br />

[Özkan, 2001]. Yapay sinir ağları ile eğitim öncesinde gerçekleştirilmesi gereken bir<br />

takım işlem adımları mevcuttur. Bunlar; ön işlemler, ağ giriş ve çıkışının<br />

kodlanması, sınıfların çıkarılması, ağ topolojisinin oluşturulması ve ağın eğitilmesi<br />

ve genelleştirme kabiliyetinin test edilmesi olarak ifade edilebilir.<br />

Ön işlemlerde amaç, YSA sınıflandırma performansını arttırmak için özellik<br />

çıkartımıdır. Bu amaçla ana-bileşen dönüşümüyle boyutluluk azaltılabilir veya piksel<br />

ver<strong>ileri</strong>yle birlikte veya sadece doku, moment gibi uzaysal bilgiler kullanılabilir.<br />

Bununla beraber, öncül işlemeyle elde edilen bilgilerle ağın hız ve performans<br />

kapasitesi artabilmesine rağmen işlenmemiş orijinal verinin kullanılması ağı daha<br />

uygulanabilir yapmaktadır. Örneğin bir grup piksel üzerinden hesaplanan tek bir


86<br />

doku bilgisi kullanılabileceği gibi, bunun yerine bu bilginin çıkarıldığı orijinal piksel<br />

grubunun işlenmesi daha esneklik kazandıracaktır.<br />

Birçok istatistiksel sınıflandırma algoritmasında olduğu gibi en temel ve basit<br />

veri giriş kodlaması şekli, piksel örneklerinin tek tek kullanılmasıdır. İlgili örnek için<br />

özellik (spektral kanal) sayısı kadar giriş katmanı işlemci elemanın kullanılması en<br />

yaygın kullanılan veri giriş tekniğidir. Yapay sinir ağlarının eğitimi için kullanılacak<br />

ver<strong>ileri</strong>n ölçeklenmesi önemli bir husustur [Sarle, 2008]. Çok katmalı persptron<br />

yapılarında matematiksel bir zorunluluk olmamasına rağmen özellikle sigmoid veya<br />

tanjant hiperbolik (TANH) aktivasyon fonksiyonu kullanılarak verinin [0 1] veya [-1<br />

1] aralığına çekilmesi işlemsel etkinliği arttırabilmektedir. Yapay sinir ağları ile<br />

yapılan sınıflandırmada, her bir öznitelik verisi (<strong>uzaktan</strong> algılamada her bir bant)<br />

[ 0,1] veya [ − 1, + 1]<br />

aralığında ölçeklenmektedir. Ölçekleme ile çok geniş sayısal<br />

aralıktaki veri daha dar bir sayısal aralıkta ifade edilebilmektedir. Bu şekilde eğitim<br />

sırasındaki işlemler kolay ve hızlı gerçekleştirilebilecektir. Sigmoid ve TANH<br />

fonksiyonlarının sıkıştırma etkisi olduğu için giriş verisinin bu şekilde ölçeklenmesi,<br />

ağ performansını ve yakınsama hızını olumlu yönde etkileyebilmektedir [Kavzoglu,<br />

2001].<br />

Ağ çıkışının kodlanmasında en doğal kodlanma şekli her bir sınıf için bir<br />

işlemci eleman kullanımıdır. Her bir sınıf için ayrı bir işlemci eleman kullanılmasıyla<br />

pikseller en yüksek çıkış değerini aldığı işlemci elemanın temsil ettiği sınıfa atanır.<br />

Yüksek değer, ilgili pikselin o sınıfa yüksek bir doğrulukla ait olduğunu ifade eder.<br />

Genellikle istenen çıkış değerlerine, örneğin ait olduğu sınıfı temsil eden işlemci<br />

eleman için yüksek, diğerleri için düşük değerler atanır [Kansu, 2006]. YSA<br />

yapılarında giriş ve çıkış katmanlarındaki işlemci eleman sayıları, veri boyutu ve<br />

istenen sınıf sayısı gibi dış etkenlere göre belirlenirken, saklı katmanlardaki<br />

elemanlar deneme yanılma yoluyla belirlenmektedir. Yapay sinir ağlarının teorik<br />

kapasitesi teorik olarak ara katman işlemci eleman sayısına bağlıdır [Kavzoglu and<br />

Mather, 2003].<br />

MLP ağlarının eğitilmesi için kullanılan geri yayılım algoritmasında eğitim, ya<br />

örneklerin ağa bireysel girişlerinden elde edilen hataya göre ya da örneklerin ağa<br />

bütünüyle girildiklerinde elde edilen toplam hataya dayanarak gerçekleştirilmektedir.


87<br />

Genel olarak YSA eğitimi, aşağıdaki aşamaları içermektedir:<br />

1. Eğitim ve buna karşılık gelen çıkış ver<strong>ileri</strong>nin belirlenmesi.<br />

2. Ağ topolojisinin belirlenmesi (giriş, ara ve çıkış katman sayıları).<br />

3. Ağırlık başlangıç değerlerinin atanması. Bu değerler rastgele atanır. Aksi<br />

takdirde, ağın dağıtılmış bilgisini içeren farklı ağırlık değerlerine ulaşmak mümkün<br />

olamamaktadır.<br />

4. Öğrenme ve momentum oranı gibi gereken ağ parametrelerinin belirlenmesi.<br />

Bu parametrelerin optimum değerlerinin deneme-yanılma yoluyla belirlenmesinin<br />

yanında adaptif yöntemlerde kullanılabilir.<br />

5. Çıktı kodlamasının belirlenmesi.<br />

3.4. Örnek Tabanlı Öğrenme ve K-Star Sınıflandırıcısı<br />

Örnek tabanlı öğrenme (ÖTÖ) algoritmaları literatürde en yaygın kullanımı<br />

olan öğrenme algoritmalarından birisidir [Okamoto and Yugami, 2003]. Örnek<br />

tabanlı öğreniciler test veri setindeki öznitelik bilgisi bilinmeyen bir örneğin<br />

sınıflandırılması işlemini veri tabanında saklanan ve önceden sınıflandırılmış eğitim<br />

veri setindeki örnekler ile karşılaştırarak gerçekleştirirler [Aha et al., 1991; Aha,<br />

1992; Wilson and Martinez, 2000]. Bu karşılaştırma işleminde temel kabul benzer<br />

örneklerin benzer sınıflandırmalara sahip olacağıdır [Piramuthu and Sikora, 2009].<br />

Burada esas olan benzer örnekler ve benzer sınıflandırmanın nasıl belirleneceğidir.<br />

Örnek tabanlı öğrenicinin karşılıklı bileşenleri, iki örneğin ne kadar benzer olduğunu<br />

belirleyen uzaklık fonksiyonu ve örnekler arasındaki benzerliklerden yeni bir örnek<br />

için sonuç sınıflandırıcının nasıl oluşturulacağını belirleyen sınıflandırma<br />

fonksiyonudur. Bu iki bileşene ek olarak ÖTÖ algoritmaları yeni örneklerin örnek<br />

veri tabanına eklenip eklenmeyeceğini ve veri tabanındaki hangi örneklerin<br />

sınıflandırmada kullanılacağını belirler. Basit bir ÖTÖ algoritmasında bir örnek<br />

sınıflandırıldıktan sonra her zaman örnek veri tabanında doğru sınıflandırılan<br />

örnekler arasına taşınır. Daha karmaşık algoritmalarda örnek veri tabanına eklenen<br />

örnekler, bellek gereksinimini azaltmak ve kirli (gürültülü) veri için toleransı<br />

arttırmak amacıyla filtrelenebilir. Örnek tabanlı öğreniciler iki örnek arasındaki<br />

benzerliğin belirlenmesinde bazı uzaklık veya benzerlik fonksiyonlarından


88<br />

yararlanırlar. Bu uzaklık fonksiyonu hangi örneğin girdi vektörüne en yakın<br />

olduğuna karar verilmesinde kullanılmaktadır [Wilson and Martinez, 2000]. Örnek<br />

tabanlı öğrenmede yeni bir örnek ile çevresindeki örnekler arasındaki uzaklık ölçülür<br />

[Aha et al., 1991]. Literatürde bir çok uzaklık fonksiyonu geliştirilmiştir. Bu<br />

fonksiyonlara örnek olar Öklit, Mahalonobis, Quadratic ve Ki-Kare gibi uzaklık<br />

fonksiyonları gösterilebilir [Nadler and Smith, 1993; Michhalski et al., 1981; Diday,<br />

1974]. Örnek tabanlı öğreniciler küçük bir ön işlemle eğitim verisini kaydettikten<br />

sonra test veri seti sisteme giriş yapıncaya dek beklerler. Bu nedenle bu algoritmalar<br />

eğitim işlemi için daha az zamana gereksinim duyarken test veri seti kullanarak<br />

öznitelik değerlerinin tahmin edilmesi işlemi için daha fazla zamana gereksinim<br />

duymaktadırlar [Aha, 1997; Hullermeier, 2003; Piramuthu and Sikora, 2009].<br />

Literatürde en yakın komşuluk, IB1, IB2, IB3, IB4 ve IB5 algoritmaları gibi<br />

birçok ÖTÖ algoritmaları geliştirilmiş ve çeşitli uygulamalarda kullanılmıştır [Cover<br />

and Hart, 1967; Dasarathy, 1991; Aha et al., 1991; Aha, 1992]. En yakın komşuluk<br />

algoritmaları en basit örnek tabanlı öğrenme algoritmalarıdır [Cover and Hart, 1967].<br />

Bu algoritmalar eğitim verisinden en çok bezeyen tek bir örneği bulmak için bir<br />

takım alan özellikli uzaklık fonksiyonları kullanırlar. Bulunan örnek yeni bir örneğin<br />

sınıflandırılması için kullanılır. En yakın komşuluk algoritması veri tabanında<br />

saklanacak ve sınıflandırmada kullanılacak örnekleri seçimsel yapacak şekilde<br />

düzenlenmiştir [Hart, 1968; Gates, 1972]. K en yakın komşuluk algoritmaları bu<br />

anlamda biraz daha karmaşık bir yapıya sahiptir. Bu algoritmalarda, yeni bir örneğin<br />

k- en yakın komşulukları ve bu örneğin sınıflandırılması için verilen sınıflar arasında<br />

hangi sınıfın daha baskın olduğu belirlenir. K en yakın komşuluk algoritması k=1<br />

olduğunda standart en yakın komşuluk algoritmasında ile aynıdır. Aha et al. (1991)<br />

çok yönlülüğü artıran üç örnek tabanlı algoritma tanımlamışlardır. IB1 algoritması<br />

özel bir uzaklık fonksiyonuna sahip en yakın komşuluk algoritmasının bir<br />

uygulamasıdır. Bu algoritmada, gerçek değerli öznitelikler ortak bir ölçekte<br />

normalleştirilir ve böylece tüm öznitelikler eşit ağırlığa sahip olurlar. Bununla<br />

beraber kayıp değerlerin gerçek değerden maksimum olarak farklı olduğu kabulü söz<br />

konusudur. IB2 algoritması sadece yanlış sınıflandırılmış örneklerin kaydedildiği ve<br />

bellek gereksinimini azaltmak için IB1 algoritmasına çeşitli eklemelerin yapılmasıyla<br />

geliştirilen bir algoritmadır. IB3 ise gürültülü veriler için toleransı arttıran eklentiler<br />

içerir. Bu yöntemde yeterince kötü sınıflandırma geçmişi olan örnekler göz ardı


89<br />

edilirken, iyi bir sınıflandırma geçmişine sahip olan örnekler sınıflandırmada<br />

kullanılırlar.<br />

Cleary and Trig (1995) iki örnek arasındaki uzaklığın belirlenmesinde<br />

kullanılacak uzaklık fonksiyonu olarak bilgi teorisine dayanan entropik uzaklık<br />

ölçüsünü kullanmışlardır. Bilgi teorisinde, entropi rastgele değişkenler ile ilgili<br />

belirsizliğin ölçüsü olarak tanımlanmıştır [Sahnnon, 1948]. İki özellik arasındaki<br />

uzaklığın hesaplanmasında kullanılan bu yöntem bilgi teorisinden yola çıkılarak<br />

ortaya atılmıştır. Örnekler arasındaki uzaklığa ilişkin bu öngörü bir örneğin başka bir<br />

örneğe dönüşümündeki karmaşıklık olarak tanımlanır. Bu karmaşıklığın<br />

hesaplanması iki adımda gerçekleştirilir. İlk olarak, özellikten özelliğe dönüşüm<br />

olarak tanımlanan sonlu sayıda dönüşümler kümesi belirlenir. Bir özelliğin (a) diğer<br />

bir özelliğe (b) dönüşümü, (a) dan başlayıp (b) de sonlanan sınırlı dönüşümler dizisi<br />

olarak tanımlanabilir [Cleary and Trig, 1995].<br />

I’nın sınırlı sayıda örnekler kümesi ve T’nin I üzerinde sınırlı sayıdaki<br />

dönüşümler kümesi olduğu göz önüne alınsın. Her bir t ∈ T , t : I → I şeklinde<br />

örnekten örneğe dönüşüm yaptığı ve T σ gibi ayırt edilebilir bir üye içerdiği<br />

düşünülsün. Bu σ ile gösterilen eleman σ ( a)<br />

= a şeklinde ifade edilir ve örneklerin<br />

kend<strong>ileri</strong>ne dönüşümündeki bütünlüğü göstermektedir. P’nin σ tarafından<br />

sonlandırılan T * nin tüm örnek kodlarını içeren altküme olduğu düşünüldüğünde, T *<br />

nin elemanları I ile ilgili dönüşümü belirler. Bu<br />

−<br />

t =<br />

t<br />

1,...,<br />

t n<br />

olmak üzere;<br />

t − ( a)<br />

= tn ( tn− 1(...<br />

t1(<br />

a)...))<br />

(3.48)<br />

şeklinde ifade edilir. p olasılık fonksiyonu T * dan belirlenir. Bu olasılık fonksiyonu<br />

aşağıdaki özellikleri sağlamaktadır:<br />

0 p( t<br />

− u)<br />

≤ ≤ 1<br />

−<br />

p ( t )<br />

(3.49)


90<br />

∑<br />

u<br />

−<br />

−<br />

p ( t u)<br />

= p(<br />

t)<br />

(3.50)<br />

p(<br />

Λ ) = 1<br />

(3.51)<br />

Sonuç olarak p olasılık fonksiyonu Eşitlik 3.52’yi sağlamaktadır.<br />

∑<br />

_<br />

t∈P<br />

−<br />

p ( t)<br />

(3.52)<br />

Olasılık fonksiyonu P * , a örneğinden b örneğine kadar tüm yolların olasılıkları<br />

olarak belirlenir (Eşitlik 3.53).<br />

( b a) = ∑ p(<br />

t<br />

−<br />

P * )<br />

−<br />

t ∈P:<br />

−<br />

t ( a)<br />

= b<br />

(3.53)<br />

Bunlarla beraber P * fonksiyonun aşağıdaki özellikleri sağlamaktadır.<br />

∑<br />

b<br />

( b a) = 1<br />

*<br />

P (3.54)<br />

( b a) ≤ 1<br />

*<br />

0 ≤ P (3.55)<br />

Bu durumda K * fonksiyonu;<br />

K<br />

*<br />

*<br />

( b a) − log P ( b a)<br />

= (3.56)<br />

2<br />

şeklinde belirlenir. K * fonksiyonu tam anlamıyla bir uzaklık fonksiyonu değildir.<br />

Örneğin, K * ( a a)<br />

genelde sıfırdan farklıdır ve fonksiyon simetrik değildir [Cleary<br />

and Trig, 1995].


91<br />

K * algoritması sayısal veya sembolik öznitelik değerine sahip veri setlerinin<br />

sınıflandırılmasında kullanılabilmektedir. Sayısal değere sahip öznitelik değerlerinin<br />

sınıflandırılmasında yoğunluk fonksiyonu,<br />

−x<br />

*<br />

P 0<br />

2x 0<br />

( x) = 1 x<br />

e dx<br />

(3.57)<br />

şeklinde hesaplanır. Bu eşitlikte kullanıcı tarafından belirlenen<br />

x 0<br />

parametresi; x ’in<br />

tüm<br />

*<br />

P dağılımları için beklenen ortalama değerini ifade eden bir ölçek uzunluğudur.<br />

Sembolik özniteliklerin olması durumunda 1 ≤ i ≤ n olmak üzere p i olasılığında<br />

n örneğe sahip bir veri seti olduğu düşünülür. Bir sembolün olasılığı; s olasılığı ve j<br />

sembolüne ait t dönüşümlerinin olasılığı<br />

( 1 − s )p olduğunda aynı kalır. Özetle tüm<br />

j<br />

olası dönüşlümler,<br />

* ⎧ ( 1 − s) p j ⎫ if i j<br />

( ) = ⎨<br />

⎩ + ( − ) p ⎭ ⎬<br />

≠<br />

P j i<br />

s 1 s i if i = j<br />

(3.58)<br />

şeklinde ifade edilir. Bu eşitliklerde s olasılığı göstermektedir ve kullanılacak veri<br />

setine göre kullanıcı tarafından belirlenmesi gerekir [Cleary and Trig, 1995].<br />

Uzaklık ölçüsü olarak Entropi’yi kullanan örnek tabanlı bir sınıflandırıcının<br />

uygulanabilmesi için gerekli olan x 0 ve s parametre değerlerinin seçiminde uygun bir<br />

yöntem kullanılmalıdır. Her bir boyut için x 0 (sayısal değerli örneklerde) ve s<br />

(sembolik özniteliklerde) parametre değerlerinin belirlenmesi gerekir. Sembolik<br />

öznitelikler için olasılık fonksiyonu olan s parametresindeki değişimler göz önüne<br />

alınsın. s değeri 1’e yakın bir değerde olduğunda aynı sembol özniteliğine sahip<br />

örnekler yüksek dönüşüm olasılığına sahip olurken, söz konusu özniteliklerle farklı


92<br />

bir sembol özniteliğine sahip olan örnek düşük dönüşüm olasılığına sahip olacaktır. s<br />

değeri 0 olduğunda, dönüşüm olasılığı direkt olarak sembollerin olasılık dağılımını<br />

gösterecektir. Gerçek değerli öznitelikler için uzaklık ölçümü aynı özellikleri<br />

sergiler. x 0 değeri küçük olduğunda örneklerin olasılığı çok çabuk düşer. Diğer<br />

taraftan x 0 değeri çok büyük olduğunda tüm örnekler aynı dönüşüme ve dolayısıyla<br />

eşit ağırlığa sahip olacaklardır.<br />

Her iki durumda da olasılık dağılımına dahil olan örnek sayısı, en yakın<br />

komşuluk dağılımı olan 1 değeri ile tüm örneklerin eşit ağırlığa sahip olduğu N<br />

değeri aralığında değişir. Herhangi bir P * fonksiyonu için etkili örnek sayısı,<br />

n<br />

0<br />

⎛<br />

⎜<br />

≤<br />

⎝<br />

∑<br />

b<br />

∑<br />

b<br />

*<br />

P ( b<br />

*<br />

P ( b<br />

⎞<br />

a)<br />

⎟<br />

⎠<br />

2<br />

a)<br />

2<br />

≤ N<br />

(3.59)<br />

şeklinde ifade edilebilir. Burada N eğitim örneklerinin tümünün sayısını, n 0 ise<br />

eğitim örneklerinden a örneğine en kısa mesafedeki örneklerin sayısını gösterir. K *<br />

algoritması x 0 ve s parametreleri için a değerini n 0 ve N arasındaki bir değer<br />

seçilmesiyle belirler. Böylece seçilen n 0 en yakın komşuluk algoritmasını ve seçilen<br />

N eşit ağırlıklı örneklerin sayısını verir. Belirlenen bu sayıların uygunluğu<br />

harmanlama parametresi (b) kullanılarak belirlenir. Harmanlama parametresi b =<br />

(n 0 için) ve b = % 100 (N için) arasında değişmektedir. Ancak her bir öznitelik için<br />

eşit ağılık sağlayan harmanlama parametresi kullanılmasıyla x 0 veya s parametreleri<br />

her bir boyut için bağımsız olarak belirlenir.<br />

%0


93<br />

4. UYGULAMA<br />

4.1. Çalışma Alanı<br />

Gebze, Marmara bölgesinde Kocaeli ilinin kuzeybatısında, İstanbul il sınırında<br />

yer alan Kocaeli iline bağlı bir ilçedir. Türkiye sanayisinin %15'ini, Kocaeli'nin<br />

endüstrisinin büyük bölümün barındıran Gebze, Marmara bölgesinin en büyük ikinci<br />

ilçesidir. Yaklaşık olarak yüz ölçümü 610 km² olan ilçe, coğrafi konumu itibariyle<br />

40 o 45’ 08’’ ile 41 o 02’ 38’’ kuzey enlemleriyle 29 o 19’ 56’’ ile 29 o 45’ 14’’ doğu<br />

boylamları arasında yer almaktadır (Şekil 4.1). Doğusunda İzmit, batısında İstanbul,<br />

kuzeyinde Şile, güneyinde (İzmit Körfezi) ile sınırlanan Gebze, yayla görünümünde<br />

bir düzlüğün üzerinde kurulmuştur [URL–3]. Gebze ilçesinin 2008 yılında yapılan<br />

adrese dayalı nüfus kayıt sitemine göre toplam nüfusu 546.933’tür [URL–4].<br />

Şekil 4.1. Çalışma Alanı Haritası.<br />

Gebze ilçesinin ekonomik yapısını bünyesinde barındırdığı büyük ve küçük<br />

ölçekteki birçok sanayi kuruluşu oluşturmaktadır. İlçenin İstanbul ilinin sınırında<br />

bulunması, çevre yolu ve diğer bağlantı yolları üzerinde olması nedeniyle ulaşım


94<br />

kolaylığı ilçeyi bir sanayi kenti haline getirmiştir. Gebze’de boya, plastik, elektrik,<br />

metal, makine ve kimya sanayisinin önde gelen kuruluşları faaliyet göstermektedir.<br />

Bunun yanında TÜBİTAK Marmara Araştırma Merkezi (MAM), Gebze Yüksek<br />

teknoloji Enstitüsü (GYTE) ve Türk Standartları Enstitüsü (TSE) gibi önemli kurum<br />

ve kuruluşlar ilçede yer almaktadırlar.<br />

4.2. Uygulama Konusu ve Amacı<br />

Arazi kullanım şekillerinin belirlenmesi, çevresel değişiklerin izlenmesi ve<br />

doğal kaynaklara ait envanterlerin çıkarılması gibi geniş ölçekli birçok çalışmada<br />

yeryüzüne ait bilgilere ihtiyaç duyulmaktadır. Uzaktan algılama teknoloj<strong>ileri</strong> farklı<br />

konumsal ve zamansal çözünürlüklerde yeryüzünü görüntüleyebilme kabiliyetine<br />

sahip olduğundan bu önemli bilg<strong>ileri</strong>n elde edilmesinde önemli bir kaynak<br />

durumundadır. Bu nedenle uydu görüntüleri yardımıyla arazi örtüsünün ve arazi<br />

kullanımının sınıflandırılması <strong>uzaktan</strong> algılama uygulamalarının önemli bir parçası<br />

olmuştur. Günümüze kadar <strong>uzaktan</strong> algılanmış görüntülerin sınıflandırılmasında<br />

birçok yöntem geliştirilmiş ve kullanılmıştır.<br />

Bu çalışmada, Gebze ilçesindeki arazi örtüsünün sınıflandırılması için çalışma<br />

alanını kapsayan 1997 yılında kaydedilmiş Landsat ETM+ ile 2002 yılında<br />

kaydedilmiş Terra ASTER uydu görüntüleri kullanılmıştır. Söz konusu uydu<br />

görüntülerinin sınıflandırılmasında <strong>ileri</strong> sınıflandırma algoritmalarından destek<br />

vektör makineleri, karar ağaçları, çeşitli birleştirme algoritmaları, yapay sinir ağları<br />

ve K-star sınıflandırıcıları kullanılmıştır. Çalışmada, söz konusu algoritmaların<br />

sınıflandırma performansları birbir<strong>ileri</strong>yle ve popüler sınıflandırma yöntemlerinden<br />

En Çok Benzerlik sınıflandırıcısıyla karşılaştırılarak elde edilen sınıflandırılma<br />

sonuçlarının detaylı bir şekilde analiz edilmesi amaçlanmıştır. Uygulanan metotların<br />

paremetrelerinin performanslarına olan etkisi de bu çalışmada araştırılmıştır.<br />

4.3. Kullanılan Veri ve Yazılımlar<br />

Uygulamada, Gebze ilçesine ait arazi örtüsünün belirlenmesi amacıyla<br />

18.07.1997 tarihinde görüntülenen Landsat ETM+’in termal bant haricindeki 6 bandı


95<br />

ve 28.10.2002 tarihinde görüntülenen Terra ASTER uydu görüntüsünün ilk 9 bandı<br />

kullanılmıştır. Uydu görüntülerinin geometrik düzeltmesinde bölgeye ait 1/25.000<br />

ölçekli haritalardan yararlanılmıştır. Ayrıca, uydu görüntülerinin sınıflandırılması<br />

amacıyla eğitim alanlarının belirlenmesinde farklı tarihlerde çekilmiş hava<br />

fotoğrafları (1996, 1999 ve 2003) ve Gebze orman bölge şefliğine ait meşcere<br />

haritalarından yararlanılmıştır. Bunların yanı sıra arazide görsel olarak da alanlara ait<br />

konumlar el GPS aletleriyle tespit edilmiştir.<br />

Uydu görüntülerinin geometrik olarak düzeltilmesi ve sınıflandırmaya esas<br />

olacak kontrol alanlarının belirlenmesinde ERDAS IMAGINE 8.7 yazılımı<br />

kullanılmıştır. Söz konusu görüntülerin sınıflandırılmasında YALE Üniversitesi<br />

tarafından geliştirilen Rapid-Miner 4.1, MATLAB 6.5, Stuttgart Üniversitesi<br />

tarafından geliştirilen Stuttgart Neural Network Simulator (SNNS) programı ve<br />

Gebze Yüksek Teknoloji Üniversite’sinde Doç. Dr. Taşkın Kavzoğlu’ nun C++<br />

dilinde yazdığı programlar kullanılmıştır.<br />

4.4. Uygulama Aşamaları<br />

4.4.1. Uydu Görüntülerinin Geometrik Düzeltilmesi ve Yeniden<br />

Örneklenmesi<br />

Landsat ETM+ ve Terra ASTER uydu görüntülerinin geometrik düzeltmesinde<br />

bölgeye ait 1/25.000 ölçekli haritalar sayısallaştırılarak bilgisayar ortamına aktarılmış<br />

ve ERDAS/Imagine yazılımı ile UTM koordinat sisteminde tanımlanarak haritalar<br />

mozaik haline getirilmiştir.<br />

Uydu görüntülerinin farklı veri gruplarıyla beraber değerlendirilebilmesi için<br />

aynı koordinat sisteminde olmaları gerekmektedir [Mather, 1987]. Bu nedenle uydu<br />

görüntülerinin geometrik dönüşümü için, UTM projeksiyon sisteminde sayısal<br />

ortama aktarılmış topoğrafik haritalardan faydalanılmıştır. Koordinat dönüşümünde<br />

yer kontrol noktalarının tüm çalışma alanına homojen olarak dağılmasına dikkat<br />

edilmiştir. Uydu görüntülerine birinci derece Afin dönüşümü kullanılarak UTM<br />

projeksiyon sisteminde yaklaşık 0.5 piksel karesel ortalama hata ile geometrik


96<br />

düzeltme getirilmiştir. Uydu görüntülerinin yeniden örneklenmesinde orijinal<br />

değerleri koruduğundan en yakın komşuluk yöntemi tercih edilmiştir.<br />

4.4.2. Arazi Örtüsü Sınıfları ve Eğitim Alanlarının Belirlenmesi<br />

Görüntü sınıflandırma, görüntüyü oluşturan her bir pikselin tüm bantlardaki<br />

değerlerinin diğer pikseller ile karşılaştırılarak benzer piksellerin kullanıcının<br />

belirlediği bilgi kategor<strong>ileri</strong> dahilinde sınıflara ayrılması işlemidir (Campbell, 1996).<br />

Objelerin, sınıf olarak adlandırılan kategorilerden birine atanmasına örüntü<br />

sınıflandırması denir. Özel bir örüntü sınıflandırma probleminde bir sınıflandırıcı<br />

sınıflandırılmak istenilen nesneleri belirli bir doğrulukla sınıflandıracak şekilde<br />

oluşturulur. Girdi ve çıktı çiftleri kullanılarak yapılan eğitim yardımıyla<br />

sınıflandırıcılar girdi ver<strong>ileri</strong>ni verilen sınıflardan birine atamak için karar<br />

fonksiyonlarını oluşturur. Kontrollü sınıflandırma da, çalışma alanındaki yeryüzü<br />

özelliklerini tanımlayan yeteri sayıdaki kontrol alanı kullanılarak, piksel değerlerinin<br />

özellik dosyaları (eğitim ver<strong>ileri</strong>) oluşturulur. Seçilen sınıflara ait kontrol alanlarını<br />

ifade eden bu eğitim ver<strong>ileri</strong>nin görüntü ver<strong>ileri</strong>ne uygulanması ile her bir görüntü<br />

elemanı (piksel), hesaplanan olasılık değerine göre en çok benzer olduğu sınıfa<br />

atanmaktadır. Eğitim alanlarına ait veriler, mümkün oldukça uydu görüntüsünün<br />

kaydedildiği tarihe yakın bir zaman diliminde araziden toplanmalıdır. Doğru bir<br />

sınıflandırmanın yapılabilmesi, eğitim alanlarının arazide homojen bir şekilde<br />

belirlenmesi ve yeterli büyüklükte tanımlanması ile mümkündür [Lillesand et al.,<br />

2007]. Kontrollü sınıflandırmada, ilk adım arazi örtüsünü temsil edecek sınıfların ve<br />

bu sınıflara ait kontrol alanlarının belirlenmesidir. Belirlenen sınıflara ait kontrol<br />

alanlarından her bir arazi örtüsü çeşidini temsil edecek örnekleme bölgeleri seçilir ve<br />

bu bölgelerin spektral özelliklerini açıklayacak sayısal değerler geliştirir.<br />

Her iki uydu görüntüsü üzerinden yapılan ön çalışmalar neticesinde çalışma<br />

alanında altı temel sınıfın mevcut olduğu belirlenmiştir. Belirlenen bu sınıflar su,<br />

yerleşim, toprak-taş, bozkır, iğne yapraklı orman ve geniş yapraklı orman sınıflarıdır.<br />

Çalışma alanını kapsayan görüntülerin sınıflandırılması işlemi için öncelikle her iki<br />

tarihte arazideki durumu en iyi yansıtacak şekilde belirlenen bu altı sınıfı kapsayan<br />

eğitim alanları tespit edilmiştir. Belirlenen eğitim alanlarını kapsayan görüntü<br />

katmanı yazılan bir MATLAB programı yardımıyla rastgele örnekleme prensibinden


97<br />

hareketle örneklendirilerek eğitim ve test veri setleri oluşturuldu. Eğitim ve test veri<br />

setleri belirlenirken tüm sınıflar için eşit sayıda örnek seçilerek özellikle test verisi<br />

için hesaplanan doğruluk değerlerinde oluşabilecek “önyargı” giderildi. Sonuçta<br />

sınıflandırmada kullanılmak üzere, eğitim için Landsat ETM+ görüntüsü için toplam<br />

3900 piksel (her sınıf için 650 piksel), test verisi olarak 2100 piksel ve Terra Aster<br />

görüntüsü için eğitim verisi olarak toplam 2400 piksel, test verisi olarak toplam 1350<br />

piksel belirlenmiştir.<br />

4.4.3. Uydu Görüntülerinin Sınıflandırılması<br />

Küresel ve çevresel değişimlerin belirlenmesi amacıyla yapılan çalışmalarda<br />

yeryüzüne ait bilg<strong>ileri</strong>n elde edilmesi önemli bir aşamadır. Yersel çalışmaların aksine<br />

uydu görüntüleri ile çalışmak zaman ve maliyet açısından büyük avantajlar<br />

sağlamaktadır [Kavzoğlu ve Çetin, 2005]. Uzaktan algılama sistemlerinin farklı<br />

genişlikteki alanları farklı zamanlarda görüntüleyebilme özelliği, bu sistemleri<br />

yeryüzüne ait bilg<strong>ileri</strong>n elde edilmesinde önemli bir kaynak haline getirmiştir. Bu<br />

nedenle arazi örtüsü veya kullanım şekillerinin belirlenmesi amacıyla yapılan<br />

çalışmalarda uydu görüntülerinin sınıflandırılması önemli bir aşamadır.<br />

Uzaktan algılanmış görüntüler ile arazi örtüsünün haritalanması, her bir<br />

pikselin yansıtma ve parlaklık değerlerini kullanarak bu pikselleri belirli arazi örtüsü<br />

sınıflarından birine atanması işlemini içermektedir [Huang et al., 2002]. Başka bir<br />

ifadeyle, görüntüdeki pikselleri arazide karşılık geldikleri sınıflar veya temalar içine<br />

atamak veya yerleştirmektir. Çeşitli arazi örtülerinin spektral yansıma<br />

karakteristikleri uydu sensörlerinin çeşitli dalga boylarında veri elde etmesi<br />

durumunda arazi örtüsü tipinin belirlenmesinin mümkün olabileceğini göstermiştir<br />

[Richards, 1993]. Görüntü sınıflandırma kullanıcının ilgi duyduğu objeler veya<br />

çeşitli sınıflar ile objelere ait spektral imzalar arasındaki ilişkiyi kurarak görüntüler<br />

üzerinden tematik bilg<strong>ileri</strong>n çıkarıldığı bir görüntü işleme bileşenidir. 1970 yılların<br />

başında ilk Landsat uydu görüntüsünün elde edilmesinden itibaren birçok<br />

sınıflandırma algoritması geliştirilmiş ve sınıflandırmada kullanılmıştır [Townshend,<br />

1992; Hall et al., 1995; Lu and Weng, 2007].


98<br />

Bu çalışmada, kontrollü sınıflandırma algoritmalarından destek vektör<br />

makineleri, karar ağaçları, karar ağaçlarının sınıflandırma performansının<br />

arttırılmasına yönelik olarak kullanılan çeşitli birleştirme algoritmaları, yapay sinir<br />

ağları ve nesne tabanlı sınıflandırma algoritmalarından K-star sınıflandırıcıları<br />

kullanılmıştır.<br />

4.4.3.1. En Çok Benzerlik Yöntemi İle Sınıflandırma<br />

En çok benzerlik yöntemi istatistiksel bir sınıflandırıcı olup literatürde<br />

kullanımı yaygın olan bir sınıflandırma yöntemidir. En çok benzerlik (EÇB)<br />

yöntemiyle sınıflandırma işlemi MATLAB 6.5 yazılımında hazırlanan bir program<br />

ile gerçekleştirilmiştir. Sınıflandırma işleminde Landsat ETM+ ve Terra ASTER<br />

görüntüleri için oluşturulan eğitim setleri ile model oluşturulmuş ve test veri setleri<br />

kullanılarak doğruluk analizi gerçekleştirilmiştir. Sınıflandırma sırasında piksellerin<br />

belirlenen sınıflardan veya bu sınıfların dışında bir sınıftan olduğunun tespiti için<br />

eşik değeri %50 olarak belirlenmiştir. EÇB yöntemiyle yapılan sınıflandırma<br />

sonuçlarının genel doğruluğu Tablo 4.1’den de görüleceği üzere Landsat ETM+<br />

görüntüsü için yaklaşık %87, Terra ASTER uydu görüntüsü için %88 olarak<br />

hesaplanmıştır.<br />

Tablo 4.1. En Çok Benzerlik (EÇB) Yöntemi ile elde edilen sınıflandırma<br />

doğrulukları.<br />

Landsat ETM+<br />

Terra ASTER<br />

Genel Doğruluk (%) Kappa Değeri Genel Doğruluk (%) Kappa Değeri<br />

86.95 0.84 88.00 0.86<br />

Her iki uydu görüntüsünün en çok benzerlik yöntemi ile sınıflandırılması<br />

sonucunda oluşturulan tematik haritalar Şekil 4.2’de gösterilmiştir.


99<br />

(a)<br />

(b)<br />

Şekil 4.2. En çok benzerlik yöntemiyle elde edilen tematik haritalar. (a) Landsat<br />

ETM+ görüntüsü , (b) Terra ASTER görüntüsü.<br />

4.4.3.2. Destek Vektör Makineleri İle Sınıflandırma<br />

Destek vektör makineleri istatistiksel öğrenme prensibine dayalı parametrik<br />

olmayan bir sınıflandırma algoritmasıdır. Uzaktan algılama ver<strong>ileri</strong>nde olduğu gibi<br />

doğrusal olarak ayrılamayan ver<strong>ileri</strong>n sınıflandırılması probleminin çözümünde<br />

destek vektör makineleri kernel fonksiyonları olarak adlandırılan doğrusal olmayan<br />

fonksiyonlar kullanır. Sınıf sayısının ikiden fazla olması durumunda çoklu<br />

sınıflandırma yöntemlerinden yararlanılır. Çoklu sınıflandırma yöntemlerinden en<br />

öneml<strong>ileri</strong> “bire karşı hepsi” ve “bire karşı bir” yöntemleridir [Mathur and Foody,<br />

2008]. Debnath et al., (2004), kullanılan çoklu sınıflandırma yöntemleri arasında bire<br />

karşı bir yönteminin pratik uygulamalarda en uygun yöntem olduğunu ifade<br />

etmişlerdir. DVM’nin eğitimi için kullanılacak kernel fonksiyonun ve kernel<br />

fonksiyonuna ait parametrelerin belirlenmesi son derece önemlidir. DVM ile yapılan<br />

sınıflandırmada karşılaşılan en büyük problem, kullanılacak kernel fonksiyonları için


100<br />

hangi parametre değerlerinin en iyi sonucu vereceğinin bilinmemesidir (Oommen et<br />

al., 2008). Seçilen kernel fonksiyonu ve kernel parametreleri ise sınıflandırılacak veri<br />

setine göre değişiklik göstermektedir (Huang, et al., 2002; Dixon and Candade,<br />

2008).<br />

Bu çalışmada, doğrusal olmayan ve ikiden fazla sınıfı içeren uydu<br />

görüntülerinin sınıflandırılmasında “bire karşı bir” çoklu sınıflandırma yöntemi<br />

kullanılmıştır. DVM ile yapılan sınıflandırılmada polinom, radyal tabanlı ve Pearson<br />

VII kernel fonksiyonları kullanılmıştır. Bu fonksiyonlar için gerekli parametreler<br />

çapraz geçerlilik yöntemi ile eğitim sırasında belirlenmiş ve parametre değerlerindeki<br />

değişimlerin sınıflandırma doğruluğuna etk<strong>ileri</strong> incelenmiştir. Belirlenen optimum<br />

parametrelerle uydu görüntüleri sınıflandırılmış ve elde edilen sınıflandırma<br />

sonuçları analiz edilerek tematik haritalar oluşturulmuştur.<br />

4.4.3.2.1. Polinom Kernel Fonksiyonu ile Sınıflandırma<br />

Polinom kernel kullanımı için önceden belirlenmesi gereken parametreler<br />

polinomun derecesi (d) ve düzenleme parametresidir (C). Çapraz geçerlilik yöntemi<br />

ile bu parametreler Landsat ETM+ ve Terra ASTER görüntüleri için oluşturulan<br />

eğitim ve test ver<strong>ileri</strong> kullanılarak ayrı ayrı belirlenmiştir. Seçilecek düzenleme<br />

parametresine (C) göre sınıflandırma doğruluğunda meydana gelen değişimler<br />

Landsat ETM+ için Şekil 4.3’de ve Terra ASTER için Şekil 4.4’te gösterilmiştir.<br />

Şekil 4.3’den de görüleceği üzere düzenleme parametresinin (C), 850–1000<br />

aralığında alacağı değerler için elde edilen sınıflandırma doğruluğunun yaklaşık<br />

olarak %90 seviyesinde olduğu görülmektedir. Landsat ETM+ görüntüsünün<br />

polinom kernel fonksiyonu kullanılarak sınıflandırılmasında düzenleme parametresi<br />

(C), test verisi için bu aralıkta en yüksek sınıflandırma doğruluğunun elde edildiği<br />

değer olan 890 olarak belirlenmiştir. Terra ASTER uydu görüntüsünün<br />

sınıflandırılmasında Şekil 4.4’den de görüleceği üzere test veri seti için en yüksek<br />

sınıflandırma doğruluğunun elde edildiği 1000 değeri düzenleme parametresi (C)<br />

olarak belirlenmiştir.


101<br />

Sınıflandırma Doğruluğu (%)<br />

91<br />

90<br />

89<br />

88<br />

87<br />

86<br />

85<br />

90,05<br />

10 50 100 250 500 750 850 890 1000 5000<br />

Düzenleme Parametresi (C)<br />

Şekil 4.3. Landsat ETM+ uydu görüntüsü için düzenleme parametresi C’deki<br />

değişimlerin sınıflandırma doğruluğuna etkisi.<br />

92<br />

Sınıflandırma Doğruluğu (%)<br />

91<br />

90<br />

89<br />

88<br />

91,04<br />

10 50 100 250 500 750 1000 5000<br />

Düzenleme Parametresi (C)<br />

Şekil 4.4. Terra ASTER uydu görüntüsü için düzenleme parametresindeki (C)<br />

değişimlerin sınıflandırma doğruluğuna etkisi.<br />

Polinom kernel fonksiyonu ile yapılacak sınıflandırma öncesinde kullanıcı<br />

tarafından belirlenen diğer parametre ise polinomun derecesidir. Literatürde yapılan<br />

çalışmalarda polinom kernelin derecesi arttıkça hesaplama zorluğunun ve hesaplama<br />

zamanının arttığı ifade edilmektedir (Cortes and Vapnik, 1995; Huang et al., 2002).<br />

Her iki uydu görüntüsü için polinom derecesindeki değişimler ve buna karşılık test<br />

verisi için hesaplanan genel sınıflandırma doğrulukları Şekil 4.5 ve 4.6’da ayrı ayrı


102<br />

gösterilmiştir. Şekil 4.5’den polinom derecesinin 1–5 aralığında alacağı değerler ile<br />

test verisi için yaklaşık %90 sınıflandırma doğruluğuna ulaşıldığı görülmektedir. Bu<br />

aralıkta 3. dereceden bir fonksiyon ile en yüksek sınıflandırma doğruluğuna<br />

ulaşılmış, dolayısıyla Landsat ETM+ görüntüsünün sınıflandırılmasında optimum<br />

polinom derecesi 3 olarak belirlenmiştir.<br />

Sınıflandırma Doğruluğu (%)<br />

91<br />

88<br />

85<br />

82<br />

79<br />

76<br />

90,05<br />

1 2 3 4 5 7 9<br />

Polinom Derecesi (d)<br />

Şekil 4.5. Landsat ETM+ uydu görüntüsü için polinom derecesindeki (d)<br />

değişimlerin sınıflandırma doğruluğuna etkisi.<br />

Terra ASTER görüntüsü için bu parametredeki değişimlerin gösterildiği Şekil<br />

4.6 incelendiğinde, 2. ve 3. dereceden bir polinom ile test verisi için yaklaşık %91<br />

sınıflandırma doğruluğuna ulaşılmıştır. Özellikle 2. dereceden bir polinom ile en<br />

yüksek sınıflandırma doğruluğuna ulaşıldığından Terra ASTER uydu görüntüsünün<br />

sınıflandırılması için bu değer tercih edilmiştir.<br />

Sınıflandırma Doğruluğu (%)<br />

92<br />

91<br />

90<br />

89<br />

88<br />

87<br />

91,04<br />

1 2 3 4 5 7 9<br />

Polinom Derecesi<br />

Şekil 4.6. Terra ASTER uydu görüntüsü için polinom derecesindeki (d) değişimlerin<br />

sınıflandırma doğruluğuna etkisi.


103<br />

Her iki uydu görüntüsünün polinom kernel ile sınıflandırılması için gerekli<br />

parametrelerin belirlenmesinin ardından model oluşturulmuş ve sınıflandırma işlemi<br />

gerçekleştirilerek Şekil 4.7’de gösterilen tematik haritalar elde edilmiştir. Genel<br />

sınıflandırma sonuçları Tablo 4.2’den de görüleceği üzere Landsat ETM+ görüntüsü<br />

için %90.05 ve Terra ASTER uydu görüntüsü için %91.04 olarak hesaplanmıştır.<br />

Tablo 4.2. Polinom kernel fonksiyonu için belirlenen en uygun parametre değerleri<br />

ve elde edilen genel sınıflandırma doğrulukları<br />

Landsat ETM+<br />

Terra ASTER<br />

C= 890; d= 3 C= 1000; d= 2<br />

Genel Doğruluk (%) Kappa Değeri Genel Doğruluk (%) Kappa Değeri<br />

90.05 0.88 91.04 0.89<br />

(a)<br />

(b)<br />

Şekil 4.7. Polinom kernel fonksiyonu kullanılarak elde edilen tematik haritalar. (a)<br />

Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.


104<br />

4.4.3.2.2. Radyal Tabanlı Kernel Fonksiyonu ile Sınıflandırma<br />

Radyal tabanlı fonksiyon kerneli kullanımında kullanıcı tarafından belirlenmesi<br />

gereken iki parametre söz konusudur. Bunlardan ilki düzenleme parametresi olarak<br />

ifade edilen C, diğeri ise gama γ parametresidir. Herhangi bir sınıflandırma<br />

probleminde hangi C ve γ değerinin en iyi sonuç vereceği bilinmemektedir. Bu<br />

nedenle en uygun parametrelerin belirlenmesi gerekmektedir. En uygun<br />

parametrelerin belirlenmesiyle amaç en iyi sınıflandırma sonucunu verecek<br />

parametre çiftini (C, γ ) belirlemektir. Radyal tabanlı fonksiyon için gerekli olan bu<br />

parametreler eğitim ve test ver<strong>ileri</strong> kullanılarak çapraz geçerlilik yöntemi ile<br />

belirlenmiştir.<br />

Landsat ETM+ uydu görüntüsünün RTF kernel ile sınıflandırılması için<br />

belirlenmesi gereken düzenleme parametresi C’deki değişimlerin sınıflandırma<br />

doğruluğuna etkisi Şekil 4.8’de gösterilmiştir. Şekilde C değerindeki artışlara karşılık<br />

sınıflandırmaya esas olacak test veri seti için elde edilen genel sınıflandırma<br />

doğruluğunun belirli bir parametreden sonra düşmeye başladığı görülmektedir. Bu<br />

parametre değerlerinden test veri seti için en yüksek genel sınıflandırma doğruluğuna<br />

ulaşılan 75 değeri düzenleme parametresi olarak belirlenmiştir.<br />

92<br />

Sınıflandırma Doğruluğu (%)<br />

91<br />

90<br />

89<br />

88<br />

90,81<br />

1 50 75 100 200 450 1000 5000<br />

Düzenleme Parametresi (C)<br />

Şekil 4.8. Landsat ETM+ uydu görüntüsü için düzenleme parametresi C’deki<br />

değişimlerin sınıflandırma doğruluğuna etkisi.


105<br />

Terra ASTER uydu görüntüsü için düzenleme parametresindeki değişimler ve<br />

bu parametrelere karşılık gelen genel sınıflandırma doğrulukları Şekil 4.9’da<br />

gösterilmiştir. Şekilde düzenleme parametrelerinden 245 değerinde test verisi için en<br />

yüksek genel sınıflandırma doğruluğuna ulaşıldığı görülmektedir.<br />

94<br />

Sınıflandırma Doğruluğu (%)<br />

93<br />

92<br />

91<br />

90<br />

92,81<br />

10 50 100 150 200 245 250 270 350 500 1000 5000<br />

Düzenleme Parametresi (C)<br />

Şekil 4.9. Terra ASTER uydu görüntüsü için düzenleme parametresi C’deki<br />

değişimlerin sınıflandırma doğruluğuna etkisi.<br />

RTF kernel kullanımında düzenleme parametresinin yanında kernel genişliği<br />

olarak ifade edilen gama (γ ) parametresinin de belirlenmesi gereklidir. Her iki uydu<br />

görüntüsü için oluşturulan eğitim ve test veri setleri kullanılarak çapraz geçerlilik<br />

yöntemi ile bu parametreler ve parametre değişimlerinin genel sınıflandırma<br />

doğruluğuna etk<strong>ileri</strong> incelenmiştir.<br />

Landsat ETM+ görüntüsünün RTF kernel ile sınıflandırılmasında seçilecek<br />

gama (γ ) parametreleri ve bu parametrelerin seçilmesi durumunda test veri seti için<br />

elde edilecek genel sınıflandırma doğrulukları Şekil 4.10’da gösterilmiştir. Şekilde<br />

gama parametresindeki artışın test seti için elde edilen sınıflandırma doğruluğunu<br />

%90 seviyelerinde değiştirdiği görülmektedir. Gama parametresi 3 değerini aldığında<br />

en yüksek genel sınıflandırma doğruluğuna ulaşıldığından, RTF kernel ile Landsat<br />

ETM+ görüntüsünün sınıflandırılmasında değer kullanılmıştır.


106<br />

Sınıflandırma Doğruluğu (%)<br />

91,5<br />

91,0<br />

90,5<br />

90,0<br />

89,5<br />

90,81<br />

1 2 3 4 5 7 9<br />

Gamma Parametresi<br />

Şekil 4.10. Landsat ETM+ uydu görüntüsü için gama parametresindeki (γ )<br />

değişimlerin sınıflandırma doğruluğuna etkisi.<br />

RTF kernel ile sınıflandırılacak diğer uydu görüntüsü içinde bu parametrenin<br />

belirlenmesi gerekmektedir. Bu amaçla Terra ASTER görüntüsü için hazırlanan<br />

eğitim ve test ver<strong>ileri</strong> kullanılarak, RTF kernel için en uygun gama (γ ) parametresi<br />

belirlenmiştir. Şekil 4.11’den görüleceği üzere özellikle gama parametresi 1<br />

olduğunda test veri seti için en yüksek sınıflandırma doğruluğunun elde edildiği<br />

görülmektedir. Şekilde, gama parametresinin aldığı yüksek değerlerin genel<br />

sınıflandırma doğruluğunda düşüşlere neden olduğu görülmektedir.<br />

94<br />

Sınıflandırma Doğruluğu (%)<br />

93<br />

92<br />

91<br />

90<br />

89<br />

92,81<br />

0,5 1,0 1,5 2,0 3,0 5,0 7,0 9,0<br />

Gamma Parametresi<br />

Şekil 4.11. Terra ASTER uydu görüntüsü için gama parametresindeki (γ )<br />

değişimlerin sınıflandırma doğruluğuna etkisi.


107<br />

RTF kernel ile sınıflandırma işlemi için en uygun parametrelerin<br />

belirlenmesinin ardından her iki veri seti için modeller oluşturulmuş ve görüntülerin<br />

sınıflandırılması işlemi tamamlanmıştır. Her iki görüntü için belirlenen optimum<br />

RTF kernel parametreleri ve elde edilen genel sınıflandırma doğrulukları Tablo<br />

4.3’de gösterilmiştir. Sınıflandırma sonucu oluşturulan her iki görüntüye ait tematik<br />

haritalar ise Şekil 4.12’de gösterilmiştir.<br />

Tablo 4.3. Radyal Tabanlı Fonksiyon Kerneli için belirlenen en uygun parametre<br />

değerleri ve elde edilen genel sınıflandırma doğrulukları.<br />

Landsat ETM+<br />

Terra ASTER<br />

C= 75; γ = 3 C= 245; γ = 1<br />

Genel Doğruluk (%) Kappa Değeri Genel Doğruluk (%) Kappa Değeri<br />

90.81 0.89 92.81 0.91<br />

(a)<br />

(b)<br />

Şekil 4.12. Radyal Tabanlı kernel fonksiyonu kullanılarak elde edilen tematik<br />

haritalar. (a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.


108<br />

4.4.3.2.3. Pearson VII Fonksiyonu ile Sınıflandırma<br />

Karl Pearson (1985) tarafından geliştirilmiş olan Pearson VII fonksiyonu<br />

(PUK) ilk olarak X-ray ışınlarındaki dağılmaları belirlemek için kullanılmıştır. Üstün<br />

et al., (2006) bu fonksiyonu genelleştirerek kernel fonksiyonu olarak kullanımını<br />

ortaya koymuşlardır. Bu fonksyon ile yapılacak sınıflandırma öncesinde kullanıcı<br />

tarafından belirlenmesi gereken üç parametre vardır. Bu parametreler; düzenleme<br />

parametresi (C), Pearson genişliği olarak ifade edilen omega (ω ) ve sigma (σ )<br />

parametreleridir. Bu parametrelerden omega (ω ) parametresinin 0.25–0.75 değer<br />

aralığında doğrusal fonksiyon; 0.5 değeri için RTF kernel veya yüksek dereceli<br />

polinom kerneli gibi davranış sergilediğini, bunu yanında 1 değerini için Gauss ve<br />

Lorentzian tepe noktasına ulaştığı ifade edilmektedir. Üstün et al. (2006) yapılan<br />

çalışmada, sigma (σ ) parametresindeki artışların omega parametresinde azalmaya<br />

neden olacağını dolayısıyla doğrusal fonksiyondan radyal tabanlı fonksiyona doğru<br />

bir geçiş söz konusu olacağını ifade etmişlerdir. Yine aynı çalışmada omega (ω )<br />

parametresinin sonuç model üzerindeki etkisinin daha az olduğu ifade edilmiştir.<br />

Çalışmada Pearson VII fonksiyonu (PUK) ile her iki görüntünün<br />

sınıflandırılmasından önce kullanıcı tarafından belirlenmesi gereken bu üç parametre<br />

( C ,ω, σ ) eğitim ve test ver<strong>ileri</strong> kullanılarak çapraz geçerlilik yöntemiyle<br />

belirlenmiştir. Landsat ETM+ görüntüsü için eğitim ve test ver<strong>ileri</strong> ile yapılan çapraz<br />

geçerlilik sonucundan omega (ω ) ve sigma (σ ) parametreleri için 1 değerinin en<br />

uygun sonuçları verdiği görülmüştür. Düzenleme parametreleri (C) ve bunlara<br />

karşılık genel sınıflandırma doğrulukları Şekil 4.13’da gösterilmiştir. Şekilde farklı<br />

parametre değerleri ile test verisi için %89–91 aralığında genel sınıflandırma<br />

doğruluğuna ulaşıldığı görülmektedir. Düzenleme parametrelerinden 245 değeri ile<br />

en yüksek genel sınıflandırma doğruluğuna ulaşıldığından model oluşumunda bu<br />

değer kullanılmıştır.


109<br />

92,0<br />

)<br />

Sınıflandırma Doğruluğu (%<br />

91,0<br />

90,0<br />

89,0<br />

90,90<br />

10 100 200 245 400 600 1000 5000<br />

Düzenleme Parametresi (C)<br />

Şekil 4.13. Landsat ETM+ uydu görüntüsü için düzenleme parametresindeki<br />

(C) değişimlerin sınıflandırma doğruluğuna etkisi.<br />

Terra ASTER görüntüsünün PUK fonksiyonu ile sınıflandırılması için gerekli<br />

parametrelerden sigma (σ ) için 0.6 ve omega için (ω ) 1 değerinin en uygun<br />

parametreler olduğu eğitim ve test ver<strong>ileri</strong>yle belirlenmiştir. Düzenleme<br />

parametresinin (C) alacağı farklı değerler için değişik genel sınıflandırma<br />

doğrulukları elde edilmiştir. Bu değişimlerin gösterildiği Şekil 4.14’de düzenleme<br />

parametresinin 35 değeri için en yüksek genel sınıflandırma doğruluğunun elde<br />

edildiği görülmektedir.<br />

93<br />

Sınıflandırma Doğruluğu (%<br />

)<br />

92<br />

91<br />

90<br />

92,15<br />

10 35 70 150 300 750 5000<br />

Düzenleme Parametresi (C)<br />

Şekil 4.14. Terra ASTER uydu görüntüsü için düzenleme parametresindeki (C)<br />

değişimlerin sınıflandırma doğruluğuna etkisi.


110<br />

Pearson VII fonksiyonu için en uygun parametreler ayrı ayrı belirlendikten<br />

sonra her iki uydu görüntüsü için modeller oluşturulmuş ve sınıflandırma işlemi<br />

gerçekleştirilmiştir. En uygun parametreler ve bu parametrelerin kullanımı ile elde<br />

edilen genel sınıflandırma doğrulukları Tablo 4.4’te gösterilmiştir.<br />

Tablo 4.4. Pearson VII fonksiyonu için belirlenen en uygun parametre değerleri ve<br />

elde edilen genel sınıflandırma doğrulukları.<br />

Landsat ETM+<br />

Terra ASTER<br />

C= 245;ω = 1; σ = 1 C= 35;ω = 1; σ = 0.6<br />

Genel Doğruluk (%) Kappa Değeri Genel Doğruluk (%) Kappa Değeri<br />

90.90 0.89 92.15 0.90<br />

Her iki görüntünün PUK fonksiyonu kullanılarak sınıflandırılmasında en uygun<br />

parametre değerleri ile oluşturulan modellerin tüm görüntüye uygulanması<br />

sonucunda elde edilen tematik haritalar Şekil 4.15’te gösterilmiştir.<br />

(a)<br />

(b)<br />

Şekil 4.15. PUK fonksiyonu kullanılarak elde edilen tematik haritalar. (a) Landsat<br />

ETM+ görüntüsü, (b) Terra ASTER görüntüsü.


111<br />

4.4.3.3. Karar Ağaçları İle Sınıflandırma<br />

Ağaç yapılarının oluşturulmasında kullanılan kuralların anlaşılabilir ve sade<br />

olması, karar ağacı sınıflandırma yönteminin yaygın olarak kullanılmasını<br />

sağlamıştır. Yöntem çok karışık bir sınıflandırma problemini çok aşamalı bir hale<br />

getirerek basit bir karar verme işlemi gerçekleştirir [Safavian and Landgrebe, 1991].<br />

4.4.3.3.1. C4.5 Karar Ağacı Algoritması ile Sınıflandırma<br />

Ağaç oluşumunun her bir aşamasında kullanılan değişkenlerin sayısına bağlı<br />

olarak tek değişkenli veya çok değişkenli karar ağacı yapıları mevcuttur [Friedl and<br />

Brodley, 1997]. Tek değişkenli karar ağaçları genellikle arazi örtüsü<br />

sınıflandırmalarında kullanılan ağaç yapılarıdır [DeFries et al. 1998, Hansen et al.<br />

2000]. Tek değişkenli karar ağaçlarından bölünme bilgisi kavramı ile bilgi<br />

kazancından yararlanarak hesaplanan kazanç oranı yaklaşımını kullanan C4.5<br />

gelişmiş bir karar ağacı oluşturma algoritmasıdır [Quinlan, 1993]. C4.5 algoritması<br />

ile karar ağaçlarının oluşturulmasındaki en önemli adım ağaçtaki dallanmanın hangi<br />

kritere veya kıstasa göre yapılacağı ya da hangi öznitelik değerlerine göre ağaç<br />

yapısının oluşturulacağıdır.<br />

Karar ağacı oluşturulmasında diğer önemli bir husus oluşturulan ağacın<br />

budanması işlemidir [Özkan, 2008; Pal, 2002]. Budama ile karar ağacının<br />

sınıflandırma doğruluğunu etkilemeyen veya katkısı olmayan kısımlarının<br />

çıkarılması işlemi gerçekleştirilir. Böylece daha az karmaşık ve daha anlaşılabilir bir<br />

ağaç elde edilir. Daha basit bir ağaç oluşturulması için karar ağacı sınıflandırıcısının<br />

düzenlenmesinde kullanılan iki yöntem vardır [Breiman et al., 1984; Mingers, 1989].<br />

Bunlardan ilki eğitim setinin daha <strong>ileri</strong>ye bölünüp bölünmemesine karar verilen ön<br />

budama, diğeri ağaç yapısının budama yapılmaksızın oluşturulduğu daha sonra<br />

budamaların yapıldığı son budama yöntemleridir. C4.5 algoritmasının kullandığı ön<br />

budama yöntemi daha az hesaplama içermesi, veri setinin ayrılması için en iyi yolu<br />

araştırması gibi önemli avantajlara sahiptir [Breiman et al., 1984].


112<br />

Çalışmada, Landsat ETM+ ve Terra ASTER uydu görüntülerinin karar ağacı<br />

sınıflandırma yöntemi ile sınıflandırılması işlemi tek değişkenli karar ağacı<br />

algoritmalarından C4.5 ile gerçekleştirilmiştir. Karar ağacının oluşumunda<br />

dallanmaya esas olacak özniteliklerin seçiminde kazanç oranı kriteri hesaplamalarda<br />

kullanılmıştır. Karar ağaçları ilk önce budama işlemine tabi tutulmadan oluşturulmuş<br />

ve elde edilen modellerin genelleştirme kabiliyeti her iki görüntü için test edilmiştir.<br />

Her iki veri seti için oluşan ağaç yapılarına ait bilgiler ve elde edilen genel<br />

sınıflandırma doğrulukları Tablo 4.5’te gösterilmiştir. Tablodan da görüldüğü üzere<br />

budama yapılmadan oluşturulan 324 yaprak ve 627 daldan oluşan KA modeli ile<br />

birlikte Landsat ETM+ görüntüsü için genel sınıflandırma doğruluğu yaklaşık %87<br />

olarak hesaplanmıştır. Aynı şekilde budama yapılmaksızın 289 yaprak ve 577 daldan<br />

oluşan KA modeli ile birlikte Terra ASTER görüntüsü için genel sınıflandırma<br />

doğruluğu yaklaşık %88 olarak hesaplanmıştır.<br />

Tablo 4.5. Landsat ETM+ ve Terra ASTER görüntülerin budama yapılmaksızın<br />

oluşturulan karar ağaçları ile sınıflandırılması ile elde edilen sonuçlar.<br />

Landsat ETM+ Terra ASTER<br />

Ağaçtaki Yaprak Sayısı 324 289<br />

Ağaçtaki Dal Sayısı 627 577<br />

Genel Sınıflandırma Doğruluğu (%) 87.14 87.55<br />

Kappa 0.84 0.85<br />

Budama yapılmaksızın oluşturulan karar ağacı modellerinin sadeleştirilmesi ve<br />

elde edilen genel sınıflandırma doğruluğunun arttırılması amacıyla ön budama<br />

yöntemi ve budama sırasındaki hataların tahmini için karamsar budama tekniğinden<br />

yararlanılmıştır. Ön budama yöntemi ile gerçekleştirilecek sınıflandırma öncesinde<br />

eşik değeri parametresinin belirlenmesi gerekmektedir. Eşik değeri, budama<br />

sırasında ulaşılan bir noktadan daha <strong>ileri</strong>ye ayrım yapılıp yapılmayacağının<br />

değerlendirilmesi için kullanılır. Bu değerlendirmede ulaşılan noktada elde edilen<br />

hata bu eşik değerinin altına düştüğünde bölünme kabul edilmez ve ulaşılan bu<br />

noktanın veri için en uygun yaprak olduğuna karar verilir (Breiman et al., 1984).<br />

Landsat ETM+ görüntüsü için oluşturulan KA modelinde eşik değeri 0.10, Terra<br />

ASTER görüntüsü için oluşturulan KA modelinde eşik değeri 0.45 olarak


113<br />

belirlenmiştir. Her iki veri seti için oluşturulan KA modellerine ait bilgiler ve elde<br />

edilen genel sınıflandırma doğrulukları Tablo 4.6’da gösterilmiştir. Budama<br />

sonucunda oluşan modeller ile yapılan sınıflandırma sonucunda Landsat ETM+<br />

görüntüsü için genel sınıflandırma doğruluğu %87.62 ve Terra ASTER görüntüsü<br />

için %87.95 olarak hesaplanmıştır.<br />

Tablo 4.6. Landsat ETM+ ve Terra ASTER görüntülerin ön budama yöntemiyle<br />

oluşturulan karar ağaçları ile sınıflandırılması ile elde edilen sonuçlar.<br />

Landsat ETM+ Terra ASTER<br />

Ağaçtaki Yaprak Sayısı 138 257<br />

Ağaçtaki Dal Sayısı 275 513<br />

Genel Sınıflandırma Doğruluğu (%) 87.62 87.95<br />

Kapa 0.84 0.85<br />

Landsat ETM+ görüntüsü için budama öncesi ve sonrası oluşan ağaç modelleri<br />

Şekil 4.16’de görülmektedir. Bu iki ağaç modeli karşılaştırıldığında Tablo 4.5 ve<br />

4.6’da görüldüğü üzere özellikle Landsat ETM+ görüntüsü için budama sonrasında<br />

oluşan KA modelindeki yaprak sayısında yaklaşık %58, dal sayısında ise %56’lık bir<br />

azalma görülmektedir. Buna karşılık genel sınıflandırma doğruluğunda yaklaşık<br />

%0.6’lık bir artış görülmektedir. Her iki tablo incelendiğinde Terra ASTER<br />

görüntüsü için budama yapılarak oluşturulan KA modelindeki yaprak ve dal<br />

sayısında yaklaşık olarak %11’lik bir azalma görülürken, genel sınıflandırma<br />

doğruluğunda %0.5’lik bir iyileşme olduğu görülmektedir. Şekil 4.16 (a)’da<br />

görüleceği üzere C4.5 algoritması ile oluşturulan ağaç yapısı, budama işlemi<br />

sonrasında Şekil 4.16(b)’de gösterilen daha basit ve sadeleşmiş bir ağaç yapısı halini<br />

almıştır. Budama sonucu elde edilen modelle yapılacak eğitim için gereken zaman<br />

azalırken, oluşturulan ağaç yapısının testi sonucunda elde edilen sınıflandırma<br />

doğruluğunda yaklaşık %1’lik bir iyileşme gözlemlenmiştir. Budanmış C4.5<br />

algoritması ile elde edilen modeller kullanılarak Landsat ETM+ ve Terra ASTER<br />

uydu görüntüleri sınıflandırılarak Şekil 4.17’de gösterilen tematik haritalar<br />

oluşturulmuştur.


114<br />

(a)<br />

(b)<br />

Şekil 4.16. Landsat ETM+ görüntüsünün sınıflandırılması için (a) budama öncesi, (b)<br />

budama sonrası oluşturulan modeller.<br />

(a)<br />

(b)<br />

Şekil 4.17. C4.5 algoritması ve ön budama yöntemiyle oluşturulan tematik haritalar.<br />

(a) Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.


115<br />

4.4.3.3.2. Karar Ağacı İyileştirme Algoritmaları ile<br />

Sınıflandırma<br />

Karar ağacı oluşturulmasında kullanılan C4.5 algoritmasının performansını<br />

arttırmaya yönelik olarak hızlandırma, torbalama, çoklu hızlandırma, rastgele orman<br />

ve DECORATE iyileştirme algoritmaları kullanılmıştır. Her bir iyileştirme<br />

yönteminde C4.5 algoritması temel sınıflandırıcı olarak kullanılmış ve Landsat<br />

ETM+ ve Terra ASTER uydu görüntüleri için oluşturulan eğitim ve test ver<strong>ileri</strong><br />

kullanılarak her bir algoritma için modeller oluşturulmuştur.<br />

4.4.3.3.2.1. Hızlandırma Algoritması İle Sınıflandırma<br />

Literatürde hızlandırma algoritmalarından en çok kullanılanı Adaboost<br />

algoritmasıdır [Freund and Schapire, 1996]. Bu algoritma birleşmeye esas olan<br />

sınıflandırıcıların ağırlıklı örnekleri kullanabileceğini kabul etmektedir. Adaboost<br />

algoritması kullanımında önceden belirlenmesi gereken en önemli parametre<br />

gerçekleştirilecek iterasyon sayısıdır. Şekil 4.18 ve 4.19’te Landsat ETM+ ve Terra<br />

ASTER görüntüleri için oluşturulacak modellerde seçilecek farklı iterasyon sayıları<br />

ve test verisi için elde edilen genel sınıflandırma doğrulukları gösterilmiştir. Landsat<br />

ETM+ görüntüsü için eğitim ve test ver<strong>ileri</strong> kullanılarak en uygun iterasyon sayısı 60<br />

olarak belirlenmiş ve oluşturulan modelin test verisine uygulanması ile yaklaşık %90<br />

sınıflandırma doğruluğuna ulaşılmıştır.<br />

Sınıflandırma Doğruluğu (%)<br />

90,0<br />

89,5<br />

89,0<br />

88,5<br />

88,0<br />

89,6<br />

10 20 30 40 50 60 65 70 80 90 100<br />

İterasyon Sayısı<br />

Şekil 4.18. Landsat ETM+ için oluşturulacak modelde seçilecek iterasyon sayısı ve<br />

elde edilen sınıflandırma doğrulukları.


116<br />

Şekil 4.19 incelendiğinde Terra ASTER uydu görüntüsü için iterasyon sayısının<br />

70 seçilmesi ile elde edilen genel sınıflandırma doğruluğunun %92 olduğu<br />

görülmektedir. Optimum parametrelerle oluşturulan modeller kullanılarak uydu<br />

görüntüleri sınıflandırılmış ve tematik haritalar oluşturulmuştur (Şekil 4.20).<br />

Sınıflandırma Doğruluğu (%)<br />

93<br />

92<br />

91<br />

90<br />

89<br />

10 20 30 40 50 60 70 80 90 100<br />

İterasyon Sayısı<br />

92<br />

Şekil 4.19. Terra ASTER için oluşturulacak modelde seçilecek iterasyon sayısı ve<br />

elde edilen sınıflandırma doğrulukları.<br />

(a)<br />

(b)<br />

Şekil 4.20. Hızlandırma Algoritması ile elde edilen tematik haritalar. (a) Landsat<br />

ETM+ görüntüsü, (b) Terra ASTER görüntüsü.


117<br />

4.4.3.3.2.2. Torbalama Algoritması İle Sınıflandırma<br />

İyileştirme algoritmalarından sınıflandırıcıların birleştirilmesi amacıyla<br />

geliştirilen diğer bir yöntem torbalama yöntemidir. Bu yöntem eğitim setinin rastgele<br />

bir şekilde yeniden oluşturulması ile ayrı ayrı her bir sınıflandırıcının eğitiminin<br />

gerçekleştirilmesi esasına dayanmaktadır. Torbalama algoritması ile oluşturulacak<br />

modelde kullanıcı tarafından belirlenen iki parametre vardır. Bunlar torba boyutu ve<br />

gerçekleştirilecek iterasyon sayısıdır. Bu parametrelerden torba boyutu her iki veri<br />

seti içinde 100 olarak belirlenmiştir. Kullanıcı tarafından belirlenen iterasyon sayısı<br />

her iki veri seti için farklı değerler almıştır. Landsat ETM+ görüntüsü için<br />

oluşturulacak modelde seçilecek iterasyon sayıları ve bu değerlere karşılık gelen<br />

sınıflandırma doğrulukları Şekil 4.21’te gösterilmiştir. Şekilde iterasyon sayısının<br />

50–70 aralığında seçilmesi durumunda yaklaşık %89 genel sınıflandırma<br />

doğruluğuna ulaşıldığı görülmektedir. Landsat ETM+ görüntüsünün sınıflandırılması<br />

için oluşturulacak model için iterasyon sayısı olarak bu aralıkta en yüksek<br />

sınıflandırma doğruluğuna (%89.10) ulaşılan 65 değeri kullanılmıştır.<br />

Sınıflandırma Doğruluğu (%)<br />

90,0<br />

89,5<br />

89,0<br />

88,5<br />

88,0<br />

89,10<br />

10 20 30 40 50 60 65 70 80 90 100<br />

İterasyon Sayısı<br />

Şekil 4.21. Landsat ETM+ için oluşturulacak modelde seçilecek iterasyon sayısı ve<br />

elde edilen sınıflandırma doğrulukları.<br />

Aynı şekilde, Terra ASTER görüntüsü için iterasyon sayısı eğitim ve test<br />

ver<strong>ileri</strong> ile kullanılarak belirlenmiş ve iterasyon sayısındaki değişimlere karşılık elde<br />

edilen genel sınıflandırma doğrulukları Şekil 4.22’de gösterilmiştir. Şekil


118<br />

incelendiğinde iterasyon sayısının 70 olarak seçilmesiyle en yüksek genel<br />

sınıflandırma doğruluğuna (%89.70) ulaşıldığı görülmektedir. Belirlenen optimum<br />

parametrelerle modeller oluşturularak her iki görüntü sınıflandırılmış ve Şekil<br />

4.23’de gösterilen tematik haritalar elde edilmiştir.<br />

Sınıflandırma Doğruluğu (%)<br />

90,0<br />

89,5<br />

89,0<br />

88,5<br />

88,0<br />

89,7<br />

10 20 30 40 50 60 70 80 90 100<br />

İterasyon Sayısı<br />

Şekil 4.22. Terra ASTER için oluşturulacak modelde seçilecek iterasyon sayısı ve<br />

elde edilen sınıflandırma doğrulukları.<br />

(a)<br />

(b)<br />

Şekil 4.23. Torbalama yöntemiyle elde edilen tematik haritalar. (a) Landsat ETM+<br />

görüntüsü, (b) Terra ASTER görüntüsü.


119<br />

4.4.3.3.2.3. Çoklu Hızlandırma Algoritması İle Sınıflandırma<br />

Çoklu hızlandırma algoritması hızlandırma ve torbalama algoritmalarının<br />

belirli özelliklerinin bir algoritmada toplanarak daha güçlü bir iyileştirme yöntemi<br />

oluşturulması esasına dayanmaktadır. Bu nedenle çoklu hızlandırma algoritması<br />

hızlandırma ve torbalama algoritmalarının birleşimi gibi düşünülebilir. Bu algoritma<br />

ile oluşturulacak modelde kullanıcı tarafından belirlenen üç parametre mevcuttur. Bu<br />

parametreler ağırlıklı eşik değeri, alt komitelerin sayısı ve gerçekleştirilecek<br />

iterasyon sayısıdır. Bu parametrelerden ağırlıklı eşik değeri her iki veri seti içinde<br />

100 olarak belirlenmiştir. Kullanıcı tarafından belirlenen iterasyon sayısı ve alt<br />

komite sayısı her iki veri seti için farklı değerler almıştır. Landsat ETM+<br />

görüntüsünün çoklu hızlandırma algoritması ile sınıflandırılmasında kullanılacak<br />

model için alt komite sayısındaki değişimler ve bu parametre değerlerine karşılık<br />

gelen sınıflandırma doğrulukları Şekil 4.24’te gösterilmektedir. Bu parametre<br />

değerlerinden en yüksek sınıflandırma doğruluğuna ulaşılan 3 alt komite sayısı<br />

model oluşumunda kullanılmıştır.<br />

Sınıflandırma Doğruluğu (%)<br />

91,0<br />

90,5<br />

90,0<br />

89,5<br />

89,0<br />

88,5<br />

88,0<br />

89,9<br />

1 2 3 4 5 6 7 8 9 10 20 50<br />

Alt Komite Sayısı<br />

Şekil 4.24. Landsat ETM+ için alt komitelerin sayısı ve sınıflandırma doğrulukları.<br />

Çoklu hızlandırma algoritması ile oluşturulacak model için kullanıcı tarafından<br />

belirlenmesi gereken iterasyon sayısı Landsat ETM+ için oluşturulan eğitim ve test<br />

ver<strong>ileri</strong> kullanılarak belirlenmiştir. Şekil 4.25’de iterasyon sayısındaki değişimler ve<br />

bu değişimlere karşılık hesaplanan genel sınıflandırma doğrulukları görülmektedir.


120<br />

Bu parametre değerleri arasında Landsat ETM+ görüntüsünün sınıflandırılması için<br />

çoklu hızlandırma yöntemi ile oluşturulacak modelde kullanılmak üzere en yüksek<br />

sınıflandırma doğruluğunun elde edildiği 36 değeri kullanılmıştır.<br />

Sınıflandırma Doğruluğu (%)<br />

90,50<br />

90,00<br />

89,50<br />

89,00<br />

88,50<br />

89,90<br />

10 20 30 35 36 37 40 50 60 70 80 100<br />

İterasyon Sayısı<br />

Şekil 4.25. Landsat ETM+ için iterasyon sayısı ve sınıflandırma doğrulukları.<br />

93<br />

Sınıflandırma Doğruluğu (%)<br />

92<br />

91<br />

90<br />

89<br />

92,07<br />

1 2 3 4 5 6 7 8 9 10 20 50<br />

Alt Komitelerin Sayısı<br />

Şekil 4.26. Terra ASTER için oluşturulacak modelde seçilecek alt komitelerin sayısı<br />

ve elde edilen sınıflandırma doğrulukları.<br />

Şekil 4.26’da Terra ASTER görüntüsü için oluşturulacak modelde kullanılmak<br />

üzere seçilecek alt komite sayısı ve bu değerlere karşılık gelen sınıflandırma<br />

doğrulukları gösterilmektedir. Şekilde 1–10 aralığında seçilecek parametre


121<br />

değerleriyle yaklaşık %91’in üzerinde genel sınıflandırma doğruluğuna ulaşılacağı<br />

görülmektedir. Bu değerler arasında alt komite sayısı 9 değerini aldığında en yüksek<br />

sınıflandırma doğruluğuna (%92.07) ulaşılmıştır.<br />

Bunun yanında iterasyon sayısındaki ve bu değerlere karşılık elde edilen genel<br />

sınıflandırma doğruluğundaki değişimler Şekil 4.27’de gösterilmiştir. Şekilden de<br />

görüleceği üzere Terra ASTER görüntüsünün sınıflandırılması için oluşturulacak<br />

modelde iterasyon sayısı en yüksek sınıflandırma doğruluğuna ulaşılan değer olan 87<br />

olarak belirlenmiştir.<br />

93<br />

Sınıflandırma Doğruluğu (%)<br />

92<br />

91<br />

90<br />

89<br />

88<br />

92,07<br />

10 20 30 40 50 60 70 80 87 90 100<br />

İterasyon Sayısı<br />

Şekil 4.27. Terra ASTER için oluşturulacak modelde seçilecek iterasyon sayısı ve<br />

elde edilen sınıflandırma doğrulukları.<br />

Belirlenen en uygun parametrelerle kullanılarak modeller oluşturulmuş ve her<br />

iki görüntünün sınıflandırılması yapılarak Şekil 4.28’de gösterilen tematik haritalar<br />

elde edilmiştir.


122<br />

(a)<br />

(b)<br />

Şekil 4.28. Çoklu hızlandırma algoritması ile elde edilen tematik haritalar. (a)<br />

Landsat ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />

4.4.3.3.2.4. Rastgele Orman Algoritması İle Sınıflandırma<br />

Rastgele orman algoritması birçok karar ağacından meydana gelen ve<br />

torbalama yöntemiyle rastgele özellik seçiminin birleşimi olarak ifade edilen bir<br />

sınıflandırma algoritmasıdır. Rastgele orman algoritmasında ağaç oluşumu için her<br />

bir düğümde kullanılan özelliklerin sayısı ve ağaç sayısı kullanıcı tarafından<br />

belirlenmesi gereken parametrelerdir. Her bir düğümde en iyi bölünme için yalnızca<br />

seçilen özellikler araştırılır. Bu nedenle rastgele orman sınıflandırıcısı kullanıcı<br />

tarafından belirlenen N sayıda ağaçtan oluşmaktadır. Rastgele orman sınıflandırıcısı<br />

için kullanıcı tarafından belirlenmesi gereken parametreler için eğitim ve test ver<strong>ileri</strong><br />

kullanılarak denemeler gerçekleştirilmiştir. Landsat ETM+ görüntüsü için<br />

özelliklerin sayısına göre ve ağaç sayısına göre elde edilen genel sınıflandırma<br />

doğrulukları Şekil 4.29 ve 4.30’de gösterilmiştir. Her iki şekilden de görüleceği<br />

üzere Landsat ETM+ için rastgele orman algoritması ile oluşturulacak modelde her<br />

bir düğümdeki özellik sayısı 3 ve ağaç sayısı 58 olarak belirlenmiştir. Bu parametre


123<br />

değerleri ile oluşturulan modelin test edilmesi sonucunda elde edilen genel<br />

sınıflandırma doğruluğu %89.10 olarak hesaplanmıştır.<br />

Sınıflandırma Doğruluğu (%)<br />

89,50<br />

89,00<br />

88,50<br />

88,00<br />

89,29<br />

88,95 89,04 89,00<br />

88,80 88,85 88,89 88,82<br />

88,76 88,70<br />

1 2 3 4 5 6 7 8 9 10<br />

Özellik Sayısı<br />

Şekil 4.29. Landsat ETM+ görüntüsü için çeşitli sayıdaki özellikler ile genel<br />

sınıflandırma doğruluğundaki değişimler.<br />

90<br />

Sınıflandırma Doğruluğu (%)<br />

88<br />

86<br />

84<br />

82<br />

89,3<br />

1 5 20 40 55 60 80 100 500<br />

Ağaç Sayısı<br />

Şekil 4.30. Landsat ETM+ görüntüsü için üç özellik kullanılarak oluşturulacak ağaç<br />

sayıları ile genel sınıflandırma doğruluğundaki değişimler.<br />

Rastgele orman algoritması kullanılarak Terra ASTER görüntüsünün<br />

sınıflandırılması için oluşturulacak model için de eğitim ve test ver<strong>ileri</strong> kullanılarak<br />

en uygun ağaç sayısı ve her bir düğümdeki özellik sayısı parametreleri belirlenmiştir.<br />

Şekil 4.31 Terra ASTER için oluşturulacak model için seçilecek özellik sayılarını ve


124<br />

bunlara karşılık elde edilecek genel sınıflandırma doğruluklarını göstermektedir.<br />

Şekilden bu veri seti için her bir düğümde 2 özellik seçilmesi durumunda<br />

oluşturulacak modelin test verisine uygulanması ile en yüksek sınıflandırma<br />

doğruluğuna (%91.19) ulaşıldığı görülmektedir.<br />

Sınıflandırma Doğruluğu (%)<br />

92<br />

91<br />

91<br />

90<br />

90<br />

89<br />

89<br />

91,19 91,11<br />

90,81<br />

90,67<br />

90,52<br />

89,93<br />

89,78<br />

89,41 89,48 89,48<br />

1 2 3 4 5 6 7 8 9 10<br />

Özellik Sayıları<br />

Şekil 4.31. Terra ASTER görüntüsü için çeşitli sayıdaki özellikler ile genel<br />

sınıflandırma doğruluğundaki değişimler.<br />

Aynı şekilde her bir düğümde iki özellik olması durumunda ağaç sayısındaki<br />

değişimler ve buna karşılık elde edilen genel sınıflandırma doğrulukları Şekil 4.32’de<br />

gösterilmiştir. Şekilden Terra ASTER görüntüsü için oluşturulacak rastgele orman<br />

modelde ağaç sayısını ifade eden parametrenin 82 seçilmesi durumunda en yüksek<br />

sınıflandırma doğruluğu olan %91.2 değerine ulaşıldığı görülmektedir.<br />

94<br />

Sınıflandırma Doğruluğu (%)<br />

92<br />

90<br />

88<br />

86<br />

84<br />

82<br />

91,2<br />

1 5 20 40 60 80 85 100 500<br />

Ağaç Sayısı<br />

Şekil 4.32. Terra ASTER görüntüsü için her bir düğümde iki özellik ile oluşturulacak<br />

ağaç sayıları ve genel sınıflandırma doğruluğundaki değişimler.


125<br />

Rastgele orman algoritması ile yapılacak sınıflandırma öncesinde her iki veri<br />

seti için en uygun parametre değerleri belirlenmesinin ardından modeller<br />

oluşturulmuş ve her iki görüntü bu modellerle sınıflandırılarak Şekil 4.33’te<br />

gösterilen tematik haritalar elde edilmiştir.<br />

(a)<br />

(b)<br />

Şekil 4.33. Rastgele orman algoritması ile elde edilen tematik haritalar. (a) Landsat<br />

ETM+ görüntüsü, (b) Terra ASTER görüntüsü.<br />

4.4.3.3.2.5. DECORATE Algoritması İle Sınıflandırma<br />

DECORATE algoritmasında ilk önce sınıflandırıcının eğitim işlemi<br />

tamamlandığı ve sonra eğitim işlemi tamamlanan sınıflandırıcının birleştirmeye dahil<br />

edildiği iteratif bir yöntemdir. Her bir iterasyonda sınıflandırıcılar bir takım yapay<br />

verilerle birleştirilmiş orijinal eğitim verisi ile eğitilirler. Yapay olarak elde edilen<br />

eğitim örneklerine ait öznitelik bilg<strong>ileri</strong> ya da etiketler birleştirilme tahminlerinden<br />

oluşturulur. Bu algoritma ile oluşturulacak model için kullanıcı tarafından<br />

belirlenmesi gereken üç parametre mevcuttur. Bunlardan ilki algoritma tarafından


126<br />

gerçekleştirilecek iterasyon sayısıdır. Her bir iterasyonda bir sınıflandırıcı<br />

oluşturulur; ancak bu sınıflandırıcının birleşime dahil edilip edilmeyeceğine<br />

sonradan karar verilir. DECORATE algoritması gerekli birleşme boyutuna<br />

ulaştığında durur. Bu parametre aday sınıflandırıcıların sayısından büyük olmalıdır.<br />

İkinci parametre eğitim sırasında kullanılan yapay örneklerin sayısını gösteren yapay<br />

boyuttur. Bu parametre eğitim ver<strong>ileri</strong>nin bir oranı olarak belirlenir. Üçüncü<br />

parametre ise DECORATE birleştirme algoritmasına dahil edilecek aday<br />

sınıflandırıcıların sayısı olarak ifade edilen beklenen boyuttur. Algoritma önceden<br />

belirlenen bu aday sayısına ulaşmadan da iterasyon sayısına bağlı olarak eğitim<br />

işlemini tamamlayabilir. Melville and Money (2004), yaptıkları çalışmada aday<br />

sayısının artmasıyla doğruluğun artacağını bununla birlikte daha karmaşık bir model<br />

ortaya çıkacağından çözüm süresinin uzayacağını ifade etmişlerdir. Aynı çalışmada<br />

yapay boyut parametresinin 0.5–1 arasında ve beklenen boyut parametresin de 10–25<br />

aralığında alacağı değerler ile anlamlı sonuçlara ulaşılacağı ifade edilmiştir. Bu<br />

bağlamda her iki veri seti için en uygun yapay boyut ve beklenen boyut parametre<br />

değerleri eğitim ve test veri setleri kullanılarak belirlenmiştir. Yapılan değerlendirme<br />

sonucunda her iki veri setinin sınıflandırılmasında kullanılacak DECORATE<br />

modelleri için en uygun yapay boyut parametresi Landsat ETM+ görüntüsü için 1,<br />

Terra ASTER için 0.5 olarak belirlenmiştir. Aynı şekilde eğitim ve test ver<strong>ileri</strong><br />

kullanılarak en uygun beklenen boyut parametresi değeri her iki görüntü içinde 10<br />

olarak belirlenmiştir. Gerekli modellerin oluşturulmasında kullanıcı tarafından<br />

belirlenmesi gereken son parametre olan iterasyon sayısı her iki görüntü için<br />

belirlenen en uygun yapay boyut ve beklenen boyut parametreleri kullanılarak<br />

belirlenmiştir. Yapılan değerlendirme sonucunda Landsat ETM+ görüntüsü için<br />

iterasyon sayısı 15 ve Terra ASTER görüntüsü için 30 olarak belirlenmiştir.<br />

Her iki görüntü için DECORATE algoritması ile oluşturulacak modelde<br />

kullanılmak üzere belirlenen en uygun parametre değerleri ve elde edilen genel<br />

sınıflandırma doğrulukları Tablo 4.7’de gösterilmiştir. Tablodan da görüleceği üzere<br />

en uygun parametre değerleri ile yapılan eğitim sonucu oluşturulan modeller ile her<br />

iki görüntü için yaklaşık %89 genel sınıflandırma doğruluğu elde edilmiştir.


127<br />

Tablo 4.7. DECORATE algoritması için belirlenen en uygun parametre değerleri ve<br />

elde edilen genel sınıflandırma doğrulukları.<br />

Landsat ETM+<br />

* Y.Boyut= 1; B. Boyut=10; İ.Sayısı= 15<br />

Terra ASTER<br />

* Y.Boyut= 0.5; B.Boyut=10; İ.Sayısı= 30<br />

Genel Doğruluk (%) Kappa Değeri Genel Doğruluk (%) Kappa Değeri<br />

89.10 0.87 89.11 0.88<br />

* Y.Boyut=Yapay Boyut; B.Boyut=Beklenen Boyut; İ.Sayısı=İterasyon sayısını<br />

göstermektedir.<br />

Oluşturulan ve geçerliliği test edilen modeller ile Landsat ETM+ ve Terra<br />

ASTER görüntüleri sınıflandırılarak Şekil 4.34’te gösterilen tematik haritalar<br />

oluşturulmuştur.<br />

(a)<br />

(b)<br />

Şekil 4.34. DECORATE algoritması kullanılarak elde edilen tematik haritalar (a)<br />

Landsat ETM+ görüntüsü (b) Terra ASTER görüntüsü


128<br />

4.4.3.4. Yapay Sinir Ağları İle Sınıflandırma<br />

Yapay sinir ağları (YSA) ile uydu görüntülerinin sınıflandırılmasında çok<br />

katmanlı perseptron ağ yapılarından geriye yayılma öğrenme algoritması<br />

kullanılmıştır. Kullanılan YSA geri yayılım algoritmasında giriş katmanı, kullanılan<br />

her bir banda karşılık bir yapay nöron gelecek şekilde tasarlanmıştır. Bu yaklaşıma<br />

göre 6 banttan oluşan Landsat ETM+ görüntüsü için 6 nöron, 9 bant içeren Terra<br />

ASTER görüntüsü için 9 nöron tesis edilmiştir. Çıktı katmanı her iki görüntü içinde<br />

arazi örtüsü sınıflarını temsil eden 6 sınıfın (su, yerleşim, toprak-taş, bozkır, iğne<br />

yapraklı orman ve geniş yapraklı orman) her birine bir nöron gelecek şekilde tesis<br />

edilmiştir. Çok katmanlı persptron ağ yapısında oluşturulacak ağdaki saklı katmanlar<br />

ve bu katmanlardaki işlemci düğüm sayısı ağın genelleştirme kabiliyeti açısından<br />

önemlidir ve girdi çıktı katmanları arasındaki saklı katman sayısı optimum olmalıdır<br />

[Kavzoglu and Mather, 2001]. En uygun saklı katman sayısının belirlenmesinde<br />

kesin bir yöntem olmamasına karşın, literatürde kullanılan bir takım yaklaşımlar<br />

mevcuttur. Bu tez kapsamında Kanellopoulos and Wilkinson (1997) tarafından<br />

önerilen, saklı katmanlardaki düğüm sayısının, sınıflandırılacak verideki bant<br />

sayısının iki katı olarak belirlendiği yaklaşım kullanılmıştır. Bu yaklaşımla 6 bantlı<br />

Landsat ETM+ görüntüsü için saklı katmanda 12 düğüm, 9 bantlı Terra ASTER<br />

görüntüsü için 18 düğüm olarak belirlenmiştir. Sonuç olarak YSA ile eğitimde<br />

Landsat ETM+ görüntüsü için 6–12–6; Terra ASTER görüntüsü için 9–18–6<br />

katmanlı yapay sinir ağ yapısı kullanılmıştır. Kullanılacak ağ yapıları belirlenmesinin<br />

ardından ağın eğitiminde kullanılacak en uygun ilk ağırlık parametreleri, öğrenme<br />

parametreleri ve momentum oranları deneme yanılma yöntemiyle belirlenmeye<br />

çalışılmıştır. Oluşturulan ağların eğitiminde ilk ağırlıklar –0.25 ile 0.25 arasında<br />

aralığında seçilirken, eğitimin başlangıcında öğrenme oranı 0.3 ve momentum 0.5<br />

olarak belirlenmiştir.<br />

Farklı sayıda iterasyonlar sonucunda en uygun parametre değerleri belirlenmiş<br />

ve bu parametre değerleriyle oluşturulan yapay sinir ağ modelleri kullanılarak<br />

Landsat ETM+ ve Terra ASTER uydu görüntüleri sınıflandırılmıştır. Sınıflandırma<br />

sonucu elde edilen tematik haritalar Şekil 4.35’de gösterilmiştir.


129<br />

(a)<br />

(b)<br />

Şekil 4.35. Yapay sinir ağları kullanılarak elde edilen tematik haritalar. (a) Landsat<br />

ETM+ görüntüsü, (b) Terra ASTER görüntüsü<br />

4.4.3.5. K-Star Algoritması İle Sınıflandırma<br />

Örnek tabanlı öğrenme algoritmalarından K-star algoritması pikseller<br />

arasındaki benzerliğin belirlenmesi için entropik uzaklık fonksiyonu kullanılır. Bu<br />

algoritma ile oluşturulacak model için kullanıcı tarafından belirlenmesi gereken tek<br />

bir parametre vardır. Bu parametre harmanlama parametresi (b) olarak ifade edilir ve<br />

0 ile 100 arasında değerler almaktadır. Cleary and Trig (1995), bu harmanlama<br />

parametresinin 0 değeri alması durumunda en yakın komşuluk algoritması, 100<br />

değerini aldığında ise örneklerin eşit ağırlıklı olduğu bir özellik gösterdiğini ifade<br />

etmişlerdir. Landsat ETM+ ve Terra ASTER uydu görüntülerinin K-star algoritması<br />

ile sınıflandırılması için oluşturulacak modelde en uygun harmanlama parametresinin<br />

belirlenmesi amacıyla her iki veri seti için oluşturulan eğitim ve test veri setleri<br />

kullanılmıştır.


130<br />

Şekil 4.36’da Landsat ETM+ görüntüsü için oluşturulacak modelde<br />

harmanlama parametresindeki değişimler ve bu parametre değerlerine karşılık gelen<br />

genel sınıflandırma doğrulukları gösterilmektedir. Şekilden de görüleceği üzere<br />

harmanlama parametresi için 1–30 aralığındaki değerler ile %88’ın üzerinde genel<br />

sınıflandırma doğruluğu elde edilirken, bu aralıkta parametre değerinin 10 olduğunda<br />

oluşturulan model ile en yüksek sınıflandırma doğruluğuna (%89) ulaşılmıştır.<br />

Sınıflandırma Doğruluğu (%)<br />

94<br />

90<br />

86<br />

82<br />

78<br />

74<br />

89,00<br />

1 5 10 40 70 100<br />

Harmanlama Parametresi (b)<br />

Şekil 4.36. Landsat ETM+ görüntüsü için harmanlama parametresi ve genel<br />

sınıflandırma doğruluğundaki değişimler.<br />

Terra ASTER görüntüsü için harmanlama parametresindeki değişimler ve bu<br />

değerlere karşılık gelen genel sınıflandırma doğrulukları Şekil 4.37’de gösterilmiştir.<br />

Bu veri setinin sınıflandırılması için oluşturulacak K-star modelinde en yüksek<br />

sınıflandırma doğruluğunun (%91.41) elde edildiği parametre değeri 9 kullanılmıştır.<br />

Sınıflandırma Doğruluğu (%)<br />

96<br />

92<br />

88<br />

84<br />

80<br />

76<br />

91,41<br />

1 5 9 20 40 60 80 100<br />

Harmanlama Parametresi (b)<br />

Şekil 4.37. Terra ASTER görüntüsü için harmanlama parametresi ve genel<br />

sınıflandırma doğruluğundaki değişimler.


131<br />

K-star algoritması ile yapılacak sınıflandırma öncesi gerekli olan en uygun<br />

parametrelerin belirlenmesinin ardından her iki görüntü için modeller oluşturulmuş<br />

ve görüntüler sınıflandırılmıştır. Sınıflandırma sonucu çalışma alanını kapsayan 6<br />

arazi örtüsünü gösteren Landsat ETM+ ve Terra ASTER uydu görüntülerine ait<br />

tematik haritalar Şekil 4.38’de gösterilmiştir.<br />

(a)<br />

(b)<br />

Şekil 4.38. K-star algoritması kullanılarak elde edilen tematik haritalar. (a) Landsat<br />

ETM+ görüntüsü, (b) Terra ASTER görüntüsü.


132<br />

5. SONUÇLAR<br />

Uzaktan algılama teknoloj<strong>ileri</strong> geniş alanları görüntüleyebilme kabiliyetine<br />

sahip olduğundan yeryüzü üzerindeki bilg<strong>ileri</strong>n elde edilmesi amacıyla yapılan<br />

uygulamalar için önemli bir veri kaynağıdır. Sınıflandırma sonucu elde edilen<br />

tematik haritaların ve sınıflara ait bilg<strong>ileri</strong>n güvenirliği sınıflandırmada kullanılacak<br />

yöntem ve elde edilecek sınıflandırma doğruluğu ile ilişkilidir.<br />

Bu çalışmada Landsat ETM+ ve Terra ASTER uydu görüntüleri tez<br />

kapsamında ayrıntılı olarak incelenen <strong>ileri</strong> sınıflandırma teknikleri ile sınıflandırılmış<br />

ve çalışma alanını temsil eden 6 arazi örtüsü sınıfını gösteren tematik haritalar elde<br />

edilmiştir. Bu sınıflandırma yöntemlerinin yanında uygulamada yaygın kullanıma<br />

sahip en çok benzerlik yöntemi ile görüntüler sınıflandırılmıştır. Şekil 5.1’de her iki<br />

uydu görüntüsünün sınıflandırılmasında kullanılan yöntemler ve elde edilen genel<br />

sınıflandırma doğrulukları gösterilmiştir.<br />

94<br />

)<br />

Sınıflandırma Doğruluğu (%<br />

93<br />

92<br />

91<br />

90<br />

89<br />

88<br />

87<br />

86<br />

1 2 3 4 5 6 7 8 9 10 11 12 13<br />

Landsat ETM+ 86,95 90,05 90,81 90,90 87,14 87,62 89,60 89,10 89,90 89,29 89,10 90,14 89,00<br />

Terra ASTER 88,00 91,04 92,81 92,15 87,55 87,95 92,00 89,70 92,07 91,19 89,11 90,82 91,41<br />

Sınıflandırma Yöntemleri<br />

Şekil 5.1. Landsat ETM+ ve Terra ASTER görüntüsünün sınıflandırılmasında<br />

kullanılan yöntemler ve elde edilen genel sınıflandırma doğrulukları. 1: En Çok<br />

Benzerlik, 2: Polinom Kernel, 3: Radyal Tabanlı Kernel, 4: PUK, 5: C4.5, 6: C4.5<br />

(Budanmış), 7: Hızlandırma, 8: Torbalama, 9: Çoklu Hızlandırma, 10. Rastgele<br />

Orman, 11: DECORATE, 12: Yapay Sinir Ağları, 13: K-star.


133<br />

En çok benzerlik sınıflandırıcısı literatürde geçerliliği kabul gören ve<br />

günümüzde <strong>uzaktan</strong> algılama yazılımlarının içerisinde temel sınıflandırıcı olarak yer<br />

alan bir kontrollü sınıflandırma yöntemidir. Matematiksel ifadesinin basit oluşu ve<br />

sınıflandırma işlemini gerçekleştirmedeki hızı yöntemin <strong>uzaktan</strong> algılama alanındaki<br />

araştırmacılar tarafından yaygın kullanımını ortaya çıkarmıştır. Ancak yöntemin bir<br />

takım istatistiki kabuller gerektirmesi ve işlem sonucunda sınıflandırılamayan<br />

piksellerin ortaya çıkması yöntemin sınıflandırma performansını etkilemektedir.<br />

Şekil 5.1’den görüleceği üzere her iki uydu görüntüsünün sınıflandırılması<br />

sonucunda ile elde edile en düşük genel sınıflandırma doğrulukları en çok benzerlik<br />

yöntemiyle elde edilmiştir.<br />

Kullanılan metotların veri setleri için aynı trendi göstermeleri yapılan<br />

uygulamadaki sistematiğin doğruluğunun bir göstergesi olarak düşünülebilir.<br />

Metotların birbirinden farklı veri setleri için yaklaşık olarak aynı performansı<br />

gösterdiğinden, söz konusu yöntemlerin veriden bağımsız oldukları söylenebilir. Her<br />

iki uydu görüntüsü için elde edilen genel sınıflandırma sonuçlarının gösterildiği şekil<br />

incelendiğinde kullanılan yöntemler arasında destek vektör makinelerinin<br />

sınıflandırma performansının diğerlerine göre daha yüksek olduğu görülmektedir.<br />

Destek vektör makineleri sınıflar arasında en uygun hiper düzlemin belirlenmesi<br />

prensibine dayalı bir öğrenme algoritmasıdır. Uzaktan algılanmış görüntülerde<br />

olduğu gibi doğrusal olmayan ve ikiden fazla sınıfa ait ver<strong>ileri</strong>n sınıflandırılması<br />

probleminin çözümünde kernel fonksiyonlarından yararlanmaktadır. Bu nedenle<br />

kernel fonksiyonun seçimi ve seçilen kernel fonksiyonuna ait en uygun parametre<br />

değerlerinin belirlenmesi yöntemin sınıflandırma performansı açısından önemlidir.<br />

Tez kapsamında kullanılan kernel fonksiyonları (polinom, radyal tabanlı kernel ve<br />

Pearson VII) Bölüm 4’te ayrı ayrı değerlendirilmiş ve sınıflandırma performansları<br />

analiz edilmiştir. Kullanılan üç fonksiyon bir arada değerlendirildiğinde birkaç<br />

önemli husus göze çarpmaktadır. Bunlardan ilki radyal tabanlı kernel ve Pearson VII<br />

(PUK) fonksiyonları ile polinomal fonksiyona göre Landsat ETM+ görüntüsü için<br />

yaklaşık %0.5 ve Terra ASTER görüntüsü için yaklaşık %2 daha iyi sınıflandırma<br />

doğruluğuna ulaşılmıştır. İkinci olarak söz konusu kernel fonksiyonları için<br />

sınıflandırma öncesinde kullanıcı tarafından belirlenmesi gereken parametrelerle<br />

ilgili analizlerdir. Pearson VII fonksiyonu, radyal tabanlı kernel fonksiyonu ile yakın<br />

sınıflandırma sonuçları üretmesine karşın sınıflandırma öncesinde üç farklı


134<br />

parametrenin belirlenmesini gerektirmektedir. Bu parametrelerin sınıflandırma<br />

doğruluğuna direkt etk<strong>ileri</strong> olduğu düşünülürse en uygun parametre değerlerinin<br />

belirlenmesi için gerekli süre artacaktır.<br />

Radyal tabanlı kernel ve polinom kernel fonksiyonları kullanıcı tarafından<br />

belirlenmesi gereken iki parametre değerine sahiptirler. Radyal tabanlı kernelin<br />

gamma ve polinom kernel kullanılacak polinomun derecesi iki önemli parametredir.<br />

Gama parametresinin sınıflandırma doğruluğu üzerindeki etkisinin polinomun<br />

derecesine göre daha az olduğu gözlemlenmiştir. Polinom derecesi arttıkça<br />

matematiksel olarak daha karmaşık bir fonksiyon elde edileceğinden hesaplama<br />

zorluğu dolayısıyla çözüm için gerekli süre artmaktadır. Kernel fonksiyonları ile<br />

ilgili elde edilen bu sonuçlar kernel fonksiyonu ve fonksiyona ait parametre<br />

seçimlerinin DVM ile yapılacak sınıflandırma öncesinde dikkate alınması gereken<br />

bir durum olduğunu göstermektedir.<br />

Kernel parametre değerleri sınıflandırmaya esas olan veri setine göre değişiklik<br />

gösterdiğinden en yüksek performansın hangi parametre çiftleri ile elde edileceği<br />

önceden bilinmemektedir. Bu nedenle kernel fonksiyonu seçiminde, seçilecek<br />

fonksiyona ait parametrelerin sınıflandırma performansına etkisi dikkate alınmalıdır.<br />

Buna ek olarak en uygun parametrelerin belirlenmesi için kullanılacak yöntem diğer<br />

önemli bir husustur. Tez kapsamında incelenen kernel fonksiyonları ile ilgili yapılan<br />

analizler ışığında destek vektör makineleri ile yapılacak sınıflandırmada öncesinde<br />

kernel fonksiyonu seçiminde öncelikli olarak radyal tabanlı kernelin tercih<br />

edilebileceği sonucuna ulaşılmaktadır.<br />

Karar ağaçları iş akışı şemalarına benzer yapılarıyla ifade edilmesi ve<br />

anlaşılması kolay bir sınıflandırma yöntemidir. Karar ağacı oluşumunda en önemli<br />

hususlardan biriside ağacın budanması işlemidir. Tez kapsamında kullanılan uydu<br />

görüntüleri için C4.5 algoritması ile oluşturulan karar ağacının ön budama<br />

yöntemiyle budanması ile ağaç yapısındaki yaparak ve dal sayısında Landsat ETM+<br />

görüntüsü için yaklaşık %57 ve Terra ASTER görüntüsü için %11’lik bir sadeleşme<br />

olmuştur. Budama ile elde edilen sadeleşmiş ve basitleşmiş bu modeller ile<br />

sınıflandırma için gerekli süre azalmıştır. Bunun yanında budama ile elde edilen


135<br />

modeller ile yapılan sınıflandırma sonuçlarında yaklaşık %1’lik bir iyileşme olduğu<br />

görülmüştür.<br />

Son yıllarda literatürde karar ağaçlarının sınıflandırma performansını<br />

arttırmaya yönelik geliştirilen çeşitli iyileştirme algoritmaları mevcuttur. Tez<br />

çalışmasında söz konusu iyileştirme algoritmalarından hızlandırma, torbalama, çoklu<br />

hızlandırma, rastgele orman ve DECORATE algoritmaları kullanılarak C4.5 karar<br />

ağacı algoritması ile elde edilen sınıflandırma performansındaki değişimler naliz<br />

edilmiştir. Şekil 5.1’den de görüleceği üzere karar ağaçlarının tekil kullanımından<br />

ziyade bir iyileştirme algoritması ile kullanımı sonucunda sınıflandırma<br />

performansında Landsat ETM+ görüntüsü için ortalama %2 ve Terra ASTER<br />

görüntüsü için ortalama %3’lük iyileşmeler olmuştur. Kullanılan iyileştirme<br />

algoritmaları da sınıflandırma öncesinde birtakım parametrelerin belirlenmesini<br />

gerektirmektedir. Kullanılan algoritmalar arasında üç farklı parametreye sahip<br />

DECORATE algoritması ile karar ağacı sınıflandırma performansında en düşük<br />

iyileşme (yaklaşık %1) elde edilmiştir. Diğer algoritmalar kullanıcı tarafından<br />

belirlenecek iki parametreye sahip olmakla beraber özellikle hızlandırma ve çoklu<br />

hızlandırma algoritmaları ile sınıflandırma doğruluğunda yaklaşık %3’lük iyileşme<br />

elde edilmiştir. Elde edilen sonuçlar budama yöntemleri kullanılarak sadeleştirilmiş<br />

karar ağaçlarının bir sınıflandırma probleminin çözümünde tekil olarak<br />

kullanılmalarından ziyade bir iyileştirme algoritması kullanılmasının beklenen<br />

sınıflandırma doğruluğunu olumlu yönde etkileyeceği söylenebilir.<br />

Yapay sinir ağları (çok katmanlı perseptron) literatürde <strong>uzaktan</strong> algılanmış<br />

görüntülerin sınıflandırılmasında kullanılan parametrik olmayan bir yapıya sahip,<br />

güçlü ve etkili bir sınıflandırıcıdır. YSA yapıları itibariyle karmaşık ve matematiksel<br />

olarak ifadesi zor olan bir algoritma kullanmakta, bu özellikleriyle kara-kutu<br />

algoritmalar olarak da adlandırılmaktadırlar. Uygun ağ yapısının belirlenmesi, ağın<br />

başlangıç ağırlık değerleri, öğrenme oranı, iterasyon sayısı, momentum gibi<br />

sınıflandırma doğruluğunu direkt olarak etkileyen parametrelere sahiptir. Ağın<br />

eğitimi ve sınıflandırmada kullanılacak YSA modelinin oluşturulmasında en uygun<br />

parametre değerlerinin belirlenmesinde kullanılan bir yöntem olmaması yaşanan en<br />

büyük problemdir. Bu parametreler eğitim ve test ver<strong>ileri</strong> kullanılarak deneme<br />

yoluyla belirlenebildiğinden, bu konuda deneyim sahibi olmak önemlidir.


136<br />

Öğrenme tabanlı sınıflandırıcılardan K-Star algoritması örnekler arasındaki<br />

benzerliğin belirlenmesinde bilgi teorisine dayanan entropik uzaklık fonksiyonunu<br />

kullanmaktadır. Literatürde bu konu üzerine yapılan çalışmalar incelendiğinde söz<br />

konusu K-star algoritmasının farklı sınıflandırma problemlerinde kullanılmakta iken<br />

tez kapsamında <strong>uzaktan</strong> algılanmış görüntülerin sınıflandırılması probleminde<br />

kullanımı incelenmiştir. Bu açıdan algoritmanın <strong>uzaktan</strong> algılamada kullanımı<br />

açısından elde edilen sonuçlar önemlidir. K-star algoritmasının kullanımında<br />

kullanıcı tarafından belirlenmesi gereken tek parametre harmanlama parametresidir.<br />

Harmanlama parametresi 1 ile 100 aralığında değerler almaktadır. 1 değeri için en<br />

yakın komşuluk algoritması 100 değeri içinse örneklerin eşit ağırlığa sahip olduğu<br />

durumlar elde edilmektedir. Tek bir parametre değerine sahip oluşu ve söz konusu<br />

parametrenin dar bir aralıkta değerler alması K-star algoritmasının kullanımındaki en<br />

önemli avantajlardır. Bununla birlikte en uygun harmanlama parametresi kullanılarak<br />

modelin eğitimi için gerekli süre, modelin test edilmesi için gerekli süreden çok daha<br />

uzun olduğu gözlemlenmiştir. Bu durum tüm uydu görüntüsünün sınıflandırılması<br />

sırasında da yaşanmıştır. Sınıflandırma için gerekli olan sürenin diğer yöntemlere<br />

göre uzun olması K-star algoritmasının olumsuz yönüdür. K-star ile elde edilen<br />

sınıflandırma sonuçları incelendiğinde başta en çok benzerlik sınıflandırıcısı olmak<br />

üzere tez kapsamında kullanılan bir çok sınıflandırıcıdan daha yüksek sınıflandırma<br />

doğruluğu elde edilmiştir.<br />

Bu çalışmada kullanılan uydu görüntüleri farklı tarihlerde (1997 ve 2002)<br />

algılanmış olduğundan zamansal bir çözünürlüğe sahiptir. Çalışma alanı olarak<br />

belirlenen Gebze ilçesinin yoğun sanayi alanlarını içerisinde barındırması, İstanbul<br />

iline yakınlığı ve taşımacılık açısından önemli yollar üzerinde bulunması bölgenin<br />

yoğun bir nüfus ve yapılaşma baskısı altında olmasına neden olmuştur. Bu açıdan<br />

1997 ve 2002 yılları arasındaki 5 yıllık bir süre içerisinde çalışma alanındaki arazi<br />

kullanımında meydana gelen değişimler belirlenmiş ve analiz edilmiştir. Arazi<br />

kullanımındaki değişimlerin belirlenmesi amacıyla en yüksek sınıflandırma<br />

doğruluğunun elde edildiği radyal tabanlı kernel fonksiyonu ile elde edilen<br />

sınıflandırma sonuçları kullanılmıştır. Tablo 5.1’de Landsat ETM+ ve Terra ASTER<br />

görüntüleri üzerinden belirlenen altı arazi örtüsü sınıfının çalışma alanında<br />

kapladıkları alanlar ve 1997–2002 yılları arasında çalışma alanındaki arazi<br />

kullanımında meydana gelen değişimler gösterilmektedir. Tablodan görüleceği üzere


137<br />

beş yıllık süreç içerisinde çalışma alanında yaklaşık %30’luk bir şehirleşme artışı<br />

yaşanmıştır. Yerleşim sınıfındaki pikseller 1997 yılında 71.72 km 2 iken 2002 yılında<br />

bu piksellerin kapladığı alan 92.34 km 2 olmuştur. Şehirleşmenin özellikle iğne<br />

yapraklı ağaçların ve bozkırların kapsadığı alanlar üzerinde yaşandığı görülmüştür.<br />

Tablo 5.1 incelendiğinde çalışma bölgesindeki geniş yapraklı ağaçların kapsadığı<br />

alanların beş yıl gibi kısa bir süreç içerisinde yaklaşık %15 azaldığı görülmektedir.<br />

Bu durum bölgenin sürdürülebilir çevresel yapısı açısından önemli olan arazi<br />

bozulmalarını ve çevresel problemlerin seviyesini göstermektedir. Tabloda 1997 ve<br />

2002 yılları arasında su alanlarında %2’lik bir artış yaşandığı görülmektedir.<br />

Uygulama öncesinde sınıflandırmaya esas olacak arazi örtüsü sınıfları belirlenirken<br />

su olarak genelleştirilen sınıf içerisinde denizler, göller, akarsular ve barajlar gibi<br />

yaklaşık olarak aynı spektral özelliklere sahip alanlar tek bir sınıf altında<br />

toplanmıştır. Su alanlarındaki söz konusu değişimin çalışma alanında 5 yıllık süreç<br />

içerisinde tamamlanan baraj alanlarının içerdiği su kütleleri ve akarsu yataklarındaki<br />

su miktarlarındaki değişimden kaynaklanabileceği düşünülmektedir.<br />

Tablo 5.1. 1997 ve 2002 yıllarında arazi kullanımında meydana gelen değişimlerin<br />

analizi.<br />

1997 2002 1997–2002<br />

Arazi Kullanım<br />

Kapladığı Alan Kapladığı Alan Değişim<br />

Sınıfları km 2 % km 2 % km 2 %<br />

Su 44.85 9.97 45.95 10.21 1.10 2.46<br />

Geniş Yapraklı 22.27 4.95 18.97 4.22 -3.30 -14.82<br />

İğne Yapraklı 65.29 14.51 54.48 12.10 -10.82 -16.56<br />

Bozkır 227.72 50.60 219.62 48.80 -8.10 -3.56<br />

Toprak-Taş 18.18 4.04 18.68 4.15 0.50 2.72<br />

Yerleşim 71.72 15.94 92.34 20.52 20.62 28.75<br />

Uzaktan algılama görüntülerinin sınıflandırılması ile elde edilen tematik<br />

haritaların güncel ve doğru bir şekilde üretilmesi yapılacak yorum ve<br />

değerlendirmelerle alınacak kararlar açısından çok büyük önem taşımaktadır. Tez


138<br />

kapsamında incelenen <strong>ileri</strong> sınıflandırma teknikleri bu amaç için geliştirilen ve<br />

literatürde bir çok araştırmacının üzerinde yoğunlaştığı alanlardan birisidir. Elde<br />

edilen sonuçlar <strong>ileri</strong> sınıflandırma teknikleri kullanılarak hesaplanan genel<br />

sınıflandırma doğruluklarının standart sınıflandırıcı olarak kabul gören en çok<br />

benzerlik sınıflandırıcısına göre yaklaşık %4 daha iyi olduğunu göstermektedir. Tez<br />

kapsamında kullanılan uydu görüntülerinin piksel bazında 500039, alansal olarak<br />

yaklaşık 450 km 2 ’lik bir alanı kapsadığı düşünüldüğünde sınıflandırma<br />

doğruluğundaki %4’lük artışın yaklaşık 20.000 pikselin, dolayısıyla yaklaşık 18<br />

km 2 ’lik alanın doğru sınıflandırılan alanlara ilave olacağı söylenebilir. Genel<br />

sınıflandırma doğruluğundaki %4’lük iyileşmenin piksel bazında ve alansal olarak<br />

karşılığı kullanılan <strong>ileri</strong> sınıflandırma <strong>tekniklerinin</strong> sınıflandırmadaki önemini ve<br />

etkinliğini ortaya koymaktadır. Bununla birlikte tüm bu teknikler kullanıcı tarafından<br />

belirlenmesi gereken ve sınıflandırma doğruluğuna çeşitli derecede etki eden<br />

parametrelerin belirlenmesini gerektirmektedir. Bu durum söz konusu <strong>ileri</strong><br />

sınıflandırma teknikleri kullanımında bir deneyim gerektirdiğini göstermektedir. Her<br />

iki uydu görüntüsünün sınıflandırılması sonucu elde edilen sınıflandırma sonuçları,<br />

özellikle yüksek genelleştirme kabiliyetine sahip destek vektör makinelerinin<br />

<strong>uzaktan</strong> algılanmış görüntülerinin sınıflandırmasında kullanılabilecek etkili ve<br />

alternatif bir yöntem olduğunu göstermektedir.


139<br />

KAYNAKLAR<br />

1. Aha, D.W., 1992. Tolerating noisy, irrelevant and novel attributes in<br />

instance-based learning algorithms. International Journal of Man-Machine<br />

Studies, 36, 267–287.<br />

2. Aha, D.W., 1997. Lazy learning. Artificial Intelligence Review, 11, 7–10.<br />

3. Aha, D.W., Kibler, D. and Albert, M.K., 1991. Instance-based learning<br />

algorithms. Machine Learning, 6, 37–66.<br />

4. Altuntaş, C. ve Çorumluoğlu, Ö., 2002. Uzaktan algılama görüntülerinde<br />

digital görüntü işleme ve RSImage yazılımı, Selçuk Üniversitesi Jeodezi ve<br />

Fotogrametri Mühendisliği Öğretiminde 30. Yıl Sempozyumu, Konya,<br />

Bildiriler Kitabı, 434-442<br />

5. Altun, H. and Curtis, K.M., 1998. Exploiting the statistical characteristic of<br />

the speech signals for an improved neural learning in a MLP neural<br />

network. Neural Networks for Signal Processing, 598, 547-556.<br />

6. Atkinson, P. M. and Tatnall, A. R. L., 1997. Neural networks in remote<br />

sensing. International Journal of Remote Sensing, 18, 699–709.<br />

7. Ayhan, E., 2003. KTÜ Uzaktan Algılama Ders Notları (yayınlanmamış),<br />

KTÜ, Lisans Programı, Trabzon.<br />

8. Ayhan, E., Karslı, F. ve Tunç E., 2003. Uzaktan algılanmış görüntülerde<br />

sınıflandırma ve analiz, Harita Dergisi, 130, 32–46.<br />

9. Bauer, E. and Kohavi, R., 1999. An empirical comparison of voting<br />

classification algorithms: bagging, boosting and variants. Machine<br />

Learning, 36, 105–139.<br />

10. Blamire, P.A., 1994. An investigation into the identification and<br />

classification of urban areas from remotely sensed satellite data using<br />

neural Networks. MSc Thesis, Edinburgh University, UK.


140<br />

11. Boser, B. E., Guyon, I. M. and Vapnik, V., 1992. A training algorithm for<br />

optimum margin classifiers. In Fifth Annual Workshop on Computational<br />

Learning Theory, Pittsburgh, ACM.<br />

12. Breiman, L., 1996. Bagging predictors. Machine Learning, 24, 123–140.<br />

13. Breiman, L., 2001. Random forests. Machine Learning, 45, 5-32.<br />

14. Breiman, L., Friedman, J.H., Olshen, R.A. and Stone, C.J., 1984.<br />

Classification and regression trees, Monterey, CA: Wadsworth.<br />

15. Brodley, C.E. and Utgoff, P.E., 1995. Multivariate decision trees. Machine<br />

Learning, 19, 45-77.<br />

16. Burges, C.J.C., 1998. A tutorial on support vector machines for pattern<br />

recognition. Data Mining and Knowledge Discovery, Kluwer Academic<br />

Publishers, 2, 121-167.<br />

17. Campbell, J.B., 1996. Introduction to remote sensing, Second Edition, The<br />

Guilford Press, New York, USA.<br />

18. Cleary, J. G. and Trigg, L. E., 1995. K*: An instance-based learner using an<br />

entropic distance measure. Proceedings of the 12th International<br />

Conference on Machine Learning, 108–114.<br />

19. Cortes, C. and Vapnik, V., 1995. Support-vector network. Machine<br />

Learning, 20, 273–297.<br />

20. Cover, T. M. and Hart, P. E.,1967. Nearest neighbor pattern classification.<br />

IEEE Transactions on Information Theory, 21–27.<br />

21. Crammer, K. and Singer, Y., 2001. On the algorithmic implementation of<br />

multiclass kernel-based vector machines. Journal of Machine Learning<br />

Research, 2, 265-292.<br />

22. Dasarathy, B. V., 1991. Nearest neighbor (NN) norms: NN pattern<br />

classification techniques. Los Alamitos, CA: IEEE Computer Society Press.


141<br />

23. Debnath, R., Takahide, N. and Takahashi, H., 2004. A decision based oneagainst-one<br />

method for multi-class support vector machine. Pattern<br />

Analysis & Applications, 7, 164–175.<br />

24. DeFries, R. S., Hansen, M., Townshend, J. R. G. and Sohlberg, R., 1998.<br />

Global land cover classifications at 8km spatial resolution: the use of<br />

training data derived from Landsat imagery in decision tree classifiers.<br />

International Journal of Remote Sensing, 19, 3141–3168.<br />

25. Demirci, D.A., 2007. Destek vektör makineleri ile karakter tanıma. Yüksek<br />

Lisans Tezi, Yıldız Teknik Üniversitesi Fen Bilimleri Enstitüsü, İstanbul.<br />

26. Dickson, S., Thomas, B.T. and Goddard, P., 1997. Using neural networks to<br />

automatically detect brain tumours in MR images. International Journal of<br />

Neural Systems, 8, 91-99.<br />

27. Diday, E., 1974. Recent progress in distance and similarity measures in<br />

pattern recognition. Second International Joint Conference on Pattern<br />

Recognition, 534–539.<br />

28. Dietterich, T. G., 2000. An experimental comparison of three methods for<br />

constructing ensembles of decision trees: bagging, boosting, and<br />

randomization. Machine Learning, 40, 139 - 157.<br />

29. Dietterich, T., 2002. The handbook of brain theory and neural networks.<br />

The MIT Press, Ch. Ensemble Learning, 405-408.<br />

30. Dixon, B. and Candade, N., 2008. Multispectral landuse classification using<br />

neural networks and support vector machines: one or the other, or both<br />

International Journal of Remote Sensing, 29,1185-1206.<br />

31. Efron, B. and Tibshirani, R.J., 1993. An introduction to the bootstrap.<br />

London: Chapman and Hall.<br />

32. Erdas, 2008. Erdas Imagine 9.2 Field Guide.<br />

33. Fletcher, R., 2000. Practical methods of optimization. 2nd Edition, John<br />

Wiley & Sons, Chichester.


142<br />

34. Foody, G.M., 1995. Using prior knowledge in artificial neural-network<br />

classification with a minimal training set. International Journal of Remote<br />

Sensing, 16, 301-312.<br />

35. Foody, G.M. and Mathur A., 2004. A relative evaluation of multiclass<br />

image classification by support vector machines. IEEE Transactions on<br />

Geoscience and Remote Sensing, 42, 1335–1343.<br />

36. Freund, Y. and Schapire, R. E., 1996. Experiments with a new boosting<br />

algorithm. In: Saitta, L. (Ed.), Proceedings of the Thirteenth International<br />

Conference on Machine Learning (ICML-96). Morgan Kaufmann, 148-156.<br />

37. Friedl, M.A. and Brodley, C.E., 1997. Decision tree classification of land<br />

cover from remotely sensed data. Remote Sensing of Environment, 61,<br />

399–409.<br />

38. Gelfand, S.B., Ravishankar, C.S. and Delp, E.J., 1991. An iterative growing<br />

and pruning algorithm for classification tree design. IEEE Transactions on<br />

Pattern Analysis and Machine Intelligence, 13, 163-174.<br />

39. Giacinto, G. and Roli, F., 1997. Ensembles of neural networks for soft<br />

classification of remote sensing images, Proceedings of the European<br />

Symposium on Intelligent Techniques, European Network for Fuzzy Logic<br />

and Uncertainty Modelling in Information Technology, Bari, Italy, 166-<br />

170.<br />

40. Gibson, P.J., 2000. Introductory remote sensing: Principles and concepts.<br />

Routledge publishers, London.<br />

41. Giles, C.L., Lawrence, S. and Tsoi, A.C., 1997. Rule inference for financial<br />

prediction using recurrent neural networks. Proceedings of the IEEE/IAFE<br />

1997 Computational Intelligence for Financial Engineering (CIFER), 307,<br />

253-259.<br />

42. Göksel, Ç., 1996. Elmalı ve Alibey su havzalarının uydu görüntü ver<strong>ileri</strong>yle<br />

izlenmesi ve bilgi sistemi oluşturma olanakları, Doktora Tezi, İstanbul.


143<br />

43. Hall, F. G., Townshend, J. R. and Engman, E. T., 1995. Status of remote<br />

sensing algorithms for estimation of land surface state parameters. Remote<br />

Sensing of Environment, 51, 138–156.<br />

44. Hansen, L. and Salamon, P., 1990. Neural network ensembles. IEEE<br />

Transactions on Pattern Analysis and Machine Intelligence, 12, 993–1001.<br />

45. Hansen, M., Dubayah, R. and DeFries, R., 1996. Classification trees: an<br />

alternative to traditional land cover classifiers. International Journal of<br />

Remote Sensing, 17, 1075–1081.<br />

46. Hansen, M., DeFries, R. S., Townshend, J. R. G. and Sohlberg, R., 2000.<br />

Global land cover classification at 1km spatial resulution using a<br />

classification tree approach. International Journal of Remote Sensing, 21,<br />

1331–1364.<br />

47. Hashem, S., 1997. Optimal linear combinations of neural networks. Neural<br />

Networks, 10, 599–614.<br />

48. Hastie, T. J. and Tibshirani, R. J., 1998. Classification by pairwise<br />

coupling. Advances in Neural Information Processing Systems. (Jordan, M.<br />

I., Kearns, M. J., and Solla, S. A., eds.), 10, The MIT Press.<br />

49. Heisele, B., Serre, T., Prentice, S. and Poggio, T., 2003. Hierarchical<br />

classification and feature reduction for fast face detection with support<br />

vector machines. Pattern Recognition, 36, 2007-2017.<br />

50. Hewitson, B.C. and R.G. Crane, 1994. Neural computing: applications in<br />

geography. Kluwar Academic Publishers, Dordrecht.<br />

51. Hong, J., Min, J., Cho, U. and Cho, S., 2008. Fingerprint classification<br />

using one-vs-all support vector machines dynamically ordered with naïve<br />

Bayes classifiers. Pattern Recognition, 41, 662-671.<br />

52. Huang, C., Davis, L. S. and Townshed, JRG., 2002. An assessment of<br />

support vector machines for land cover classification. International Journal<br />

of Remote Sensing, 23, 725–749.


144<br />

53. Hullermeier, E., 2003. Possibilistic instance-based learning. Artificial<br />

Intelligence, 335-383.<br />

54. Hsu, C.W., Chang, C.C. and Lin, C.J., 2008. A practical guide to support<br />

vector classification.<br />

http://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf.<br />

55. Jehnsen, J.R., 1996. Introductory digital image processing: A remote<br />

sensing perspective, Prentice Hall, New Jersey.<br />

56. Jensen, J.R., 2000. Remote sensing of the environment: An Earth resource<br />

perspective, Prentice Hall, New Jersey.<br />

57. Joachims, T., 1998. Text categorization with support vector machines—<br />

learning with many relevant features. In Proceedings of European<br />

Conference on Machine Learning, 137-142.<br />

58. Kanellopoulos, I. and Wilkinson, G.G., 1997. Strategies and best practice<br />

for neural network image classification. International Journal of Remote<br />

Sensing, 18, 711-725<br />

59. Kansu, O., 2006. Uzaktan algılamada görüntü sınıflandırma yöntemleri<br />

analizi. Yüksek Lisans Tezi, KTÜ Fen Bilimleri Enstitüsü, Trabzon.<br />

60. Kavzoglu, T. and Mather, P.M., 2003. The use of backpropagating artificial<br />

neural networks in land cover classification. International Journal of<br />

Remote Sensing, 24, 4907-4938.<br />

61. Kavzoglu, T. and Reis, S., 2008. Performance analysis of maximum<br />

likelihood and artificial neural network classifiers for training sets with<br />

mixed pixels. GIScience & Remote Sensing, 45, 330-342.<br />

62. Kavzoğlu, T. ve Çetin, M., 2005. Gebze bölgesindeki sanayileşmenin<br />

zamansal gelişiminin ve çevresel etk<strong>ileri</strong>nin uydu görüntüleri ile<br />

incelenmesi. TMMOB Harita ve Kadastro Mühendisleri Odası, 10. Türkiye<br />

Harita Bilimsel ve Teknik Kurultayı, Ankara.


145<br />

63. Kavzoglu, T., 2001. An investigation of the design and use of feed-forwad<br />

artificial neural Networks in the classification of remotely sensed images.<br />

PhD Thesis, Nottingham University, UK.<br />

64. Kavzoğlu, T., 2008. Uzaktan algılama ve uygulamaları ders notları<br />

(yayınlanmamış), G.Y.T.E , Yüksek Lisans Programı, Gebze.<br />

65. Kavzoglu, T., 2009, Increasing the accuracy of neural network<br />

classification using refined training data. Environmental Modelling &<br />

Software, 24, 850-858<br />

66. Kechman, V., 2001. Learning and soft computing. MIT.<br />

67. Keerthi, S. and Lin, C. J., 2003. Asymptotic behaviors of support vector<br />

machines with gaussian kernel. Neural Computation, 15, 1667–1689.<br />

68. Kim, B. and Landgrebe, D. A., 1991. Hierarchical classifier design in<br />

highdimensional, numerous class cases. IEEE Transactions on Geoscience<br />

and Remote Sensing. 29, 518-528.<br />

69. Knerr, S., Personnaz, L. and Dreyfus, G., 1990. Single-layer learning<br />

revisited: A stepwise procedure for building and training neural network.<br />

Neurocomputing: Algorithms, Architectures and Applications, NATO ASI,<br />

Berlin: Springer-Verlag.<br />

70. Kononenko, I. and Hong, S.J., 1997. Attribute selection for modelling.<br />

Future Generation Computer Systems, 13, 181-195.<br />

71. Krogh, A. and Vedelsby, J., 1995. Neural network ensembles, cross<br />

validation, and active learning. In Tesauro, G., Touretzky, D., & Leen, T.<br />

(Eds.), Advances in Neural Information Processing Systems, 7, 231–238<br />

Cambridge, MA. MIT Press.<br />

72. Landeweerd, G.H., Timmers, T., Gelsema, E.S., Bins, M. and Halie, M.R.,<br />

1983. Binary-Tree Versus Single Level Tree Classification of White Blood-<br />

Cells. Pattern Recognition, 16, 571-577.


146<br />

73. Lee, Y., Lin, Y. and Wahba, G., 2001. Multicategory support vector<br />

machines. Tech.Rep. 1043, Department of Statistics, University of<br />

Wisconsin, Madison, WI.<br />

74. Lillesand, T.M. and R.W. Kiefer. 1994. Remote sensing and photo<br />

interpretation. 3rd. Edition, John Wiley & Sons: New York.<br />

75. Lillesand, T.M., Kiefer, R.W. and Chipman, J.W., 2007. Remote sensing<br />

and image interpretation. 6th Edition, John Wiley & Sons: New York.<br />

76. Lin, K.M and Lin C.J., 2003. A study on reduced support vector machines.<br />

IEEE Transactions on Neural Networks, 6, 1449-1459.<br />

77. Lippman, R. P., 1987. An introduction to computing with neural nets. IEEE<br />

ASSP Magazine, 4, 2–22.<br />

78. Liu, C., Nakashima, K., Sako, H. and Fujisawa, H., 2003. Handwritten digit<br />

recognition: bench-marking of state-of-the-art techniques. Pattern<br />

Recognition, 36, 2271–2285.<br />

79. Lu, D. and Weng, Q., 2007. A survey of image classification methods and<br />

techniques for improving classification performance. International Journal<br />

of Remote Sensing, 28, 823–870.<br />

80. Maclin, R. and Opitz, D., 1997. An empirical evaluation of bagging and<br />

boosting. In: Proceedings of the Fourteenth National Conference on<br />

Artificial Intelligence. AAAI Press, Providence, RI, 546-551.<br />

81. Maktav, D. ve Sunar, F., 1991. Uzaktan algılama: Kantitatif yaklaşım.<br />

Hürriyet Ofset A.Ş., İstanbul.<br />

82. Mather, P.M., 1987. Computer processing of remote-sensed images. John<br />

Wiley and Sons Ltd.<br />

83. Mathur, A. and Foody, G.M., 2008a. Multiclass and binary SVM<br />

classification: Implications for training and classification users. IEEE<br />

Geoscience and Remote Sensing Letters 5, 241-245.


147<br />

84. Mathur A. and Foody, G.M.., 2008b. Crop classification by support vector<br />

machine with intelligently selected training data for an operational<br />

application. International Journal of Remote Sensing, 29, 2227–2240.<br />

85. Melgani, F. and Bruzzone, L., 2004. Classification of hyperspectral remote<br />

sensing images with support vector machines. IEEE Transactıons on<br />

Geoscience and Remote Sensing, 42, 1778–1790.<br />

86. Melville, P. and Mooney, R.J. 2004a. Creating diversity in ensembles using<br />

artificial, In: Information Fusion: Special Issue on Diversity in<br />

Multiclassifier Systems, 6, 99–111.<br />

87. Melville, P., Shah, N., Mihalkova, L. and Mooney, R. J., 2004b.<br />

Experiments on ensembles with missing and noisy data. In: Proceedings of<br />

the Workshop on Multi Classifier Systems, 293-302, Italy.<br />

88. Michalski, R. S., Stepp, R. E. and Diday, E., 1981. In L. N. Kanal and<br />

Azriel Rosenfeld (Eds.). A recent advance in data analysis: clustering<br />

objects into classes characterized by conjunctive concepts. Progress in<br />

Pattern Recognition, New York: North-Holland, 1, 33–56.<br />

89. Milgram J, Cheriet M. and Sabourin, R., 2006. One against one or one<br />

against all: which one is better for handwriting recognition with SVMs<br />

10th International Workshop on Frontiers in Handwriting Recognition<br />

(IWFHR 2006).<br />

http://www.livia.etsmtl.ca/publications/<br />

90. Mingers, J., 1989. An empirical comparison of pruning methods for<br />

decision tree induction. Machine Learning, 4, 227–243.<br />

91. Murthy, S. K., Kasif, S. and Salzberg, S., 1994. A system for induction of<br />

oblique decision trees. Journal of Artificial Intelligence Research, 2, 1-32.<br />

92. Nadler, M. and Smith, E. P. 1993. Pattern recognition engineering. Wiley:<br />

New York.


148<br />

93. Okamoto, S. and Yugami, N., 2003. Effects of domain characteristics on<br />

instance-based learning algorithms. Theoretical Computer Science, 207-<br />

233.<br />

94. Opitz, D. and Maclin R., 1999. Popular ensemble methods: An empirical<br />

study. Journal of Artificial Intelligence Research, 11, 169–198.<br />

95. Opitz, D. and Shavlik, J., 1996. Actively searching for an effective neuralnetwork<br />

ensemble. Connection Science, 8, 337–353.<br />

96. Oommen, T., Misra, D., Twarakavi, N.K.C., Prakash, A., Sahoo, B. and<br />

Bandopadhyay, S., 2008. An objective analysis of support vector machine<br />

based classification for remote sensing. Mathematical Geosiences 40, 409–<br />

424.<br />

97. Örmeci, C., 1987. Uzaktan algılama (Temel esaslar ve algılama sistemleri),<br />

İTÜ yayınları, cilt 1, no: 1345, İTÜ Matbaası, İstanbul.<br />

98. Osuna, E. E., Freund, R. and Girosi, F., 1997. Support vector machines:<br />

training and applications, http://cbcl.mit.edu/cbcl/publications/aipublications/1500-1999/AIM-1602.ps<br />

(10.05.2008).<br />

99. Özkan, C., 1998. Uzaktan algılama ver<strong>ileri</strong>yle orman yangını analizi,<br />

Yüksek Lisans Tezi, İTÜ Fen Bilimleri Enstitüsü, İstanbul.<br />

100. Özkan, C., 2001. Uydu görüntü verisinin yapay sinir ağları ile<br />

sınıflandırılması, Doktora tezi, İTÜ Fen Bilimleri Enstitüsü, İstanbul.<br />

101. Özkan, Y., 2008. Veri madenciliği yöntemleri. Papatya yayıncılık eğitim,<br />

İstanbul, 216 s.<br />

102. Pal, M., 2005a. Multiclass approaches for support vector machine based<br />

land cover classification. In Proceedings of Map India, 8th Annual<br />

International Conference and Exhibition in the Field of GIS, GPS, Arial<br />

Photography, and Remote Sensing, New Delhi. Available online at:<br />

www.mapindia.org/2005/papers/pdf/54.pdf (22.10.2008).<br />

103. Pal, M., 2005b. Random forest classifier for remote sensing classification.<br />

International Journal of Remote Sensing, 26, 217-222.


149<br />

104. Pal, M. and Mather, P.M., 2003. An assessment of the effectiveness of<br />

decision tree methods for land cover classification. Remote Sensing of<br />

Environment, 86, 554-565.<br />

105. Pal, M. and Mather, P.M., 2005. Support vector machines for classification<br />

in remote sensing. International Journal of Remote Sensing, 26, 1007–1011.<br />

106. Pal, M., 2002. Factors influencing the accuracy of remote sensing<br />

classifications: a comparative study. PhD thesis, University of Nottingham.<br />

107. Paola, J. D., and Schowengerdt, R. A., 1995. A review and analysis of<br />

backpropagation neural networks for classification of remotely sensed<br />

multi-spectral imagery. International Journal of Remote Sensing, 16, 3033–<br />

3058.<br />

108. Pearson, K., 1895. Contributions to the mathematical theory of evolution,<br />

II: skew variation in homogeneous material, Philosophical Transactions of<br />

the Royal Society of London, 186, 343-414.<br />

109. Piramuthu, S. and Sikora, R.T., 2009. Iterative feature construction for<br />

improving inductive learning algorithms. Expert Systems with<br />

Applications, 3401-3406.<br />

110. Platt, J. C., Cristianini, N., and Shawe-Taylor, J., 2000. Large margin<br />

DAGs for multiclass classification. In S. A. Solla, T. K. Leen, and K. –R.<br />

Müller, eds., Advance in Neural Information Processing Systems, The MIT<br />

Press, 12, 547-553.<br />

111. Quinlan, J. R., 1987. Simplifying decision trees. International Journal of<br />

Man-Machine Studies, 27, 221-234.<br />

112. Quinlan, J. R., 1990. Decision tree and decision making. IEEE Transactions<br />

on Systems, Man, and Cybernetics, 20, 339-346.<br />

113. Quinlan, J. R., 1993. C4.5: Programs for Machine Learning. Morgan<br />

Kaufmann Publishers, San Mateo, CA.


150<br />

114. Quinlan, J. R., 1996. Bagging, boosting, and C4.5. In: Proceedings of the<br />

Thirteenth National Conference on Artificial Intelligence (AAAI-96).<br />

Portland, OR, 725-730.<br />

115. Richards, J.A., 1993. Remote sensing digital image analysis: An<br />

introduction, Second Edition, Springer-Verlag, Berlin.<br />

116. Roli, F., Giacinto, G. and Vernazza, G., 1997. Comparison and combination<br />

of statistical and neural networks algorithms for remote-sensing image<br />

classification. Neurocomputation in Remote Sensing Data Analysis, Austin,<br />

J., Kanellopoulos, I., Roli, F. and Wilkinson G. (Eds.), Berlin: Springer-<br />

Verlag, 117-124.<br />

117. Sabins, F.F., 1987. Remote sensing: Principles and interpretation. Freeman,<br />

New York.<br />

118. Safavian, S. R. and Landgrebe, D., 1991. A survey of decision tree<br />

classifier methodology. IEEE T ransactions on Systems, Man, and<br />

Cybernetics, 21, 660–674.<br />

119. Sarle, W.S., 2008. Neural Network FAQ, (ftp://ftp.sas.com/pub/neural/<br />

FAQ.html).<br />

120. Schapire, R. E., 1999. Theoretical views of boosting and applications. In:<br />

Proceedings of the Tenth International Conference on Algorithmic Learning<br />

Theory, 13 – 25.<br />

121. Schölkopf, B. and Smola, A. J., 2002. Learning with Kernels – Support<br />

Vector Machines, Regularization, Optimization and Beyond. Cambridge,<br />

MA: The MIT Press.<br />

122. Sesören, A., 1999. Uzaktan algılamada temel kavramlar. Mart Matbaacılık<br />

Sanatları Ltd. Şti., İstanbul.<br />

123. Shannon, C.E., 1948. A mathematical theory of communication. Bell<br />

System Technical Journal, 27, 379-423.


151<br />

124. Sherrod, P. H., 2003. Classification and regression trees and support vector<br />

machines for predictive modeling and forecasting. http://www.dtreg.com/<br />

(12.06.2008).<br />

125. Su, L., Chopping M.J., Rango, A., Martonchik, J.V. and Peters, D.P.C.,<br />

2007. Support vector machines for recognition of semi-arid vegetation<br />

types using MISR multi-angle imagery. Remote Sensing of Environment,<br />

107, 299–311.<br />

126. Süslü, A., 2007. Şereflikoçhisar ilçesindeki tarım araz<strong>ileri</strong>nde <strong>uzaktan</strong><br />

algılama yöntemiyle ekili alanların tespiti ve rekolte tahmini. GYTE Fen<br />

Bilimleri Enstitüsü, Yüksek Lisans Tezi, Gebze.<br />

127. Swain, P.H. and Hauska, H., 1977. Decision tree classifier - design and<br />

potential. IEEE Transactions on Geoscience and Remote Sensing, 15, 142-<br />

147.<br />

128. Tatar, Y. ve Tatar, O., 2006. Jeolojide <strong>uzaktan</strong> algılama, Cumhuriyet<br />

Üniversitesi Yayınları, No: 102, Esform Ofset Ltd. Şti., Sivas. 248 s.<br />

129. Tseng, M.H., Chen, S.J., Hwang, G.H. and Shen, M.Y., 2008. A genetic<br />

algorithm rule-based approach for land-cover classification. ISPRS Journal<br />

of Photogrammetry and Remote Sensing, 63, 202-212.<br />

130. Townshend, J. R. G., 1992. Land cover. International Journal of Remote<br />

Sensing, 1319–1328.<br />

131. Ustun, B., Melssen, W.J. and Buydens, L.M.C. 2006. Facilitating the<br />

application of Support Vector Regression by using a universal Pearson VII<br />

function based kernel. Chemometrics and Intelligent Laboratory Systems,<br />

81, 29-40.<br />

132. Vapnik, V. N., 1995. The nature of statistical learning theory. Springer-<br />

Verlag, New York.<br />

133. Vapnik, V.N. and Chervonenkis, A.Ja., 1968. In Russian: on the uniform<br />

convergence of relative frequencies of events to their probabilities. Doklady<br />

Akademii Nauk USR, 181(4). English translation: Uniform convergence of


152<br />

frequencies of occurrence of events to their probabilities. Soviet<br />

Mathematics Doklady, 9, 915–918.<br />

134. Vapnik, V.N. and Chervonenkis, A.Ja., 1971. On the uniform convergence<br />

of relative frequencies of events to their probabilities. Theory of Probability<br />

and its Applications, 16, 264–280.<br />

135. Vapnik, V.N., 2000. The nature of statistical learning theory, Second<br />

Edition. Springer-Verlag, New York.<br />

136. Wang, F., 1990, Fuzzy supervised classification of remote sensing images.<br />

IEEE Transactions on Geoscience and Remote Sensing, 28, 194–201.<br />

137. Webb, G.I., 2000. MultiBoosting: A technique for combining boosting and<br />

wagging. Machine Learning, 40, 159-196.<br />

138. Werbos, P. J., 1995. Backpropagation: Basic and new developments, in The<br />

handbook of brain behaviour and neural networks, ed. Michael A. Arbib,<br />

The MIT Press, Cambridge MA.<br />

139. Weston, J. and Watkins, C., 1998. Multi-class Support Vector Machines.<br />

Royal Holloway, University of London, U. K., Technical Report CSD-TR-<br />

98-04.<br />

140. Wilson, D.R. and Martinez, T.R., 2000. Reduction techniques for instancebased<br />

learning algorithms. Machine Learning, 38:257-286.<br />

141. Yang, J., Ling, X., Zhu, Y. and Zheng, Z., 2008. A face detection and<br />

recognition system in color image series. Mathematics and Computers in<br />

Simulation, 77, 531–539.<br />

142. Yao, X., Tham, L.G. and Dai, F.C., 2008. Landslide susceptibility mapping<br />

based on support vector machine: a case study on natural slopes of Hong<br />

Kong, China. Geomorphology, 101, 572-582.<br />

143. URL-1 : http://www.yildiz.edu.tr/~bayram/sgi/saygi.htm (06.04.2008)<br />

144. URL- 2 : http://nik.com.tr/ (18.07.2008)<br />

145. URL- 3 : http://www.gebze.bel.tr (22.03.2008)<br />

146. URL-4 : http://www.tuik.gov.tr/ (19.03.2008)


153<br />

ÖZGEÇMİŞ<br />

İsmail Çölkesen, 22 Ocak 1981 tarihinde Ankara’da doğdu. Lise eğitimini<br />

Yabancı Dil Ağırlıklı Seyranbağları Lisesinde tamamladıktan sonra, 1999 yılında<br />

Hacettepe Üniversitesi Ankara Meslek Yüksek Okulu Harita ve Kadastro bölümünü<br />

kazandı. 2001 yılında dikey geçiş sınavı ile Karadeniz Teknik Üniversitesi Jeodezi<br />

ve Fotogrametri Mühendisliği’nde lisans eğitimine başladı ve 2004 yılında mezun<br />

oldu. 2005 yılında KTÜ Fen Bilimleri Enstitüsü Jeodezi ve Fotogrametri<br />

Mühendisliği bölümünde yüksek lisans eğitimine başladı. 2006–2007 yılları arasında<br />

aynı bölümde araştırma görevlisi olarak görev yaptı. 2007 yılında Gebze Yüksek<br />

Teknoloji Enstitüsü’nde yüksek lisans eğitimine başladı. 2007 yılının Eylül ayı<br />

içerisinde GYTE Mühendislik Fakültesi Jeodezi ve Fotogrametri Mühendisliği<br />

Bölümü’nde araştırma görevlisi unvanı ile çalışmaya başladı. Halen bu görevi<br />

sürdürmektedir.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!