12.07.2015 Views

Harita Dergisi - Harita Genel Komutanlığı

Harita Dergisi - Harita Genel Komutanlığı

Harita Dergisi - Harita Genel Komutanlığı

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Harita</strong> <strong>Dergisi</strong> Temmuz 2010 Sayı 144Destek Vektör Makineleri İle Uydu GörüntülerininSınıflandırılmasında Kernel Fonksiyonlarının Etkilerinin İncelenmesisınıflandırmasındaki etkinliği birçok çalışmadaortaya konmuştur (Pal vd., 2003; Erbek vd.,2003; Pal vd., 2005; Kavzoglu vd., 2009). Bumetotların kısıtlı eğitim verisi olduğu durumlardaiyi sonuçlar üretilebildiği de araştırmalarla ortayakonmuştur (Paola, 1994; Foody, 1995).a. En Çok Benzerlik Sınıflandırma YöntemiEn çok benzerlik (EÇB) yöntemi literatürdeyaygın olarak kullanılan istatistiksel tabanlı birsınıflandırma yöntemidir. Bu yöntemde ortalamadeğer, varyans ve kovaryans değerlerinin tümüdikkate alınır. Eğitim alanlarını oluşturan sınıflariçin olasılık fonksiyonları hesaplanır ve buna göreher bir pikselin hangi sınıfa daha yakın olduğubelirlenir. Bir pikselin hangi sınıfa ait olduğu herbir sınıfa ait olma olasılıklarının hesabındansonra en yüksek olasılıklı gruba atama şeklindeyapılır. Bu noktada kullanıcı tarafından tespitedilecek bir eşik değer sınıflandırılacak pikselinbelirlenen sınıflardan veya bu sınıfların dışındabir sınıftan olduğunun tespitinde kullanılır.Piksellerin sınıflandırılmasında tüm sınıflar içinhesaplanan olasılık değerinin önceden belirleneneşik değerinin altında kalması durumunda ilgilipikseller “belirsiz” olarak değerlendirilir.EÇB yönteminde, sınıf kontrol verilerinioluşturan noktalar kümesindeki dağılımın normal(Gauss) dağılımında olduğu kabulü yapılır.Sınıfların ilk olasılıkları hakkında bilgi mevcutdeğilse, hepsi eşit olasılıklı olarak kabul edilir.Yöntem, sadece piksel değerlerine göre değil,her sınıf için oluşturacak varyans-kovaryansmatris değerini de dikkate alarak sınıf tayiniyapar. Böylece metot, örnek piksellerin özellikuzayındaki dağılımlarını da dikkate almış olur(Mather, 1999). Pikselin p sayıdaki bantdeğerlerini içeren x vektörünün bir k sınıfındaolma olasılığı aşağıdaki şekilde hesaplanır.( i )-0.5P(x) = 2π-0.5 pS⎡ ı -1 ⎤ie xp⎢-0.5 y S y⎣⎥⎦(1)Bu eşitlikte; P( x) olasılık değerini, S ii. sınıf içinvaryans-kovaryans matrisini, matrisindeterminantını, y = ( x −x i ) ve x i ise i. sınıf içinortalama değeri ifade eder.b. DVM İle SınıflandırmaDestek Vektör Makineleri (DVM) istatistikselöğrenme teorisine dayalı bir kontrollüsınıflandırma algoritmasıdır. DVM’nin sahipolduğu matematiksel algoritmalar başlangıçta ikisınıflı doğrusal verilerin sınıflandırılması problemiiçin tasarlanmış, daha sonra çok sınıflı vedoğrusal olmayan verilerin sınıflandırılması içingenelleştirilmiştir. DVM’nin çalışma prensibi ikisınıfı birbirinden ayırabilen en uygun kararfonksiyonun tahmin edilmesi, başka bir ifadeyleiki sınıfı birbirinden en uygun şekilde ayırabilenhiper-düzlemin tanımlanması esasınadayanmaktadır (Vapnik, 1995; Vapnik, 2000). Birçok alanda başarıyla kullanılan DVM’lerinuzaktan algılama alanında kullanımı konusundason yıllarda yoğun çalışmalar yürütülmektedir(Foody vd., 2004; Melgani vd., 2004; Pal vd.,2005; Kavzoglu vd., 2009).(1) Doğrusal Ayrılabilen Veriler için DVMDestek vektör makineleri ile sınıflandırmadagenellikle {-1,+1} şeklinde sınıf etiketleri ilegösterilen iki sınıfa ait örneklerin, eğitim verisi ileelde edilen bir karar fonksiyonu yardımıylabirbirinden ayrılması amaçlanır. Söz konusukarar fonksiyonu kullanılarak eğitim verisini enuygun şekilde ayırabilecek hiper-düzlem bulunur.Şekil 1(a)’da gösterildiği üzere iki sınıflı verileribirbirinden ayırabilen birçok hiper-düzlemçizilebilir. Ancak DVM’nin amacı kendisine enyakın noktalar arasındaki uzaklığı maksimumaçıkaran hiper-düzlemi bulabilmektir. Şekil 1(b)’degörüldüğü üzere sınırı maksimuma çıkararak enuygun ayrımı yapan hiper-düzleme optimumhiper-düzlem ve sınır genişliğini sınırlandırannoktalar ise destek vektörleri olarak adlandırılır.Doğrusal olarak ayrılabilen iki sınıflı birsınıflandırma probleminde DVM’nin eğitimi için ksayıda örnekten oluşan eğitim verisinin { xi,y i},i = 1,.....,k olduğu kabul edilirse, optimum hiperdüzlemeait eşitsizlikler aşağıdaki şekilde olur:w ⋅ xi+ b ≥ + 1 her y =+ 1 için (2)w ⋅ xi+ b ≤ + 1 her y =−1 için (3)Burada x ∈ R N olup N-boyutlu bir uzayı,y ∈ {-1, +1} ise sınıf etiketlerini, w ağırlıkvektörünü (hiper-düzlemin normali) ve b eğilimdeğerini göstermektedir (Osuna vd.,1997).Optimum hiper-düzlemin belirlenebilmesiiçin bu düzleme paralel ve sınırlarını oluşturacakiki hiper-düzlemin belirlenmesi gerekir (Şekil 2).Bu hiper-düzlemleri oluşturan noktalar destekvektörleri olarak adlandırılır ve bu düzlemlerw ⋅ xi+ b = ± 1 şeklinde ifade edilirler.75

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!