24.07.2013 Views

Vektör Makinaları Temelli Hiperspektral Sınıflandırma için Seyreklik ...

Vektör Makinaları Temelli Hiperspektral Sınıflandırma için Seyreklik ...

Vektör Makinaları Temelli Hiperspektral Sınıflandırma için Seyreklik ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

T<br />

( φ( x) = ( φ1( x) , φ2( x) , K , φM(<br />

x)<br />

) ) doğrusal<br />

ağırlıklandırılmış toplamı olarak ifade edilen fonksiyonlar<br />

( y ( x ) ) ile tanımlanmaktadır.<br />

M<br />

∑<br />

i=<br />

1<br />

T<br />

( ) ( )<br />

y( xw ; ) = wφx<br />

= wφ x (1)<br />

i i<br />

Eğitim aşamasında amaç, daha önceden görülmemiş giriş<br />

vektörlerinin hangi sınıfta olduğunu doğru tahmin edebilmek<br />

amacı ile eğitim verisindeki her i x ile ilişkili i w<br />

parametrelerini bulmaktır. Eğitim işlemi sırasında i w<br />

parametrelerin çoğunluğu otomatik olarak sıfırlanmaktadır ve<br />

sıfırlanmayan w i değerleri ile ilişkili giriş vektörleri ilgililik<br />

vektörleri olmakta ve test aşamasında kullanılmaktadır.<br />

Destek vektör makineleri [3] denetimli (supervised)<br />

sınıflandırma ve regresyon <strong>için</strong> gelişmiş teknoloji<br />

sunmaktadır. DVM’ler, öğrenme boyunca, ayırma düzlemi<br />

(aşırı düzlem) ile bunun her iki tarafında bulunan veri<br />

örnekleri arasındaki mesafenin maksimum olması <strong>için</strong><br />

düzlemin pozisyonunu optimize etmektedir. DVM iki sınıfa<br />

ait örnekler arasındaki karar yüzeyini oluştururken yüzeyin iki<br />

sınıfa olan uzaklığını en yüksek dereceye çıkarmaya<br />

çalışmaktadır. DVM karar fonksiyonu olarak denklem (2)’yi<br />

kullanmaktadır.<br />

N<br />

y( xw ; ) = wK xx , + w<br />

(2)<br />

∑<br />

i=<br />

1<br />

( ) 0<br />

i i<br />

Burada i w her x i ile ilişkili ağırlık parametresini, ( ) , K ⋅ ⋅<br />

kernel fonksiyonunu göstermektedir. DVM [3] son<br />

zamanlarda multispektral [4] ve hiperspektral [5]<br />

görüntülerde regresyon ve sınıflandırma problemlerini<br />

çözmek <strong>için</strong> uygulanmıştır. DVM hakkında daha ayrıntılı<br />

bilgi <strong>için</strong> [3-5]’e bakılabilir.<br />

Destek vektör makineleri denetimli (supervised)<br />

sınıflandırma <strong>için</strong> gelişmiş teknoloji olmasına rağmen<br />

olasılıksal çıkış verememe, ödünleşim parametre hesabı<br />

gereksinimi (örneğin C değeri) ve Mercer kernel<br />

fonksiyonlarına bağımlılık gibi dezavantajları vardır. DVM<br />

<strong>için</strong> bahsedilen dezavantajlar, DVM’nin Bayes davranış<br />

gösteren biçimi olan İVM sınıflandırma yöntemi kullanılarak<br />

çözülmektedir. Ayrıca İVM az sayıda kernel fonksiyonu<br />

gerektirmektedir. Destek vektör makineleri ile<br />

karşılaştırıldığında sınıflandırma (test) süresi İVM<br />

kullanılarak, daha az kernel fonksiyonu kullanılması nedeni ile<br />

azalmaktadır.<br />

t ∈ 0,1 olarak<br />

İki sınıflı sınıflandırma <strong>için</strong> hedef bilgisi { }<br />

alınabilmektedir. Burada sadece iki değer (0 ve 1) olduğundan<br />

dolayı ptw ( ) <strong>için</strong> Bernoulli dağılımı kullanılmaktadır.<br />

− y<br />

Lojistik sigmoid bağlantı fonksiyonu σ ( y) = 1/(1 + e )<br />

doğrusal model üretmek amacı ile y( x ) ’e uygulanmaktadır.<br />

Bernoulli dağılımı kullanılarak benzerlik ifadesi<br />

tn ∈{ 0,1}<br />

<strong>için</strong> denklem (3)’de gösterildiği gibi ifade<br />

edilmektedir.<br />

n<br />

N<br />

∏<br />

{ } { } 1<br />

tn<br />

⎡ ⎤<br />

p( tw) = σ y( xn; w) ⎣1 −σ<br />

y( xn;<br />

w ) ⎦<br />

n<br />

(3)<br />

n=<br />

1<br />

Ağırlık parametrelerinin önsel olasılığı denklem 4 ile<br />

gösterilmektedir.<br />

N<br />

p(<br />

w α ) = ∏<br />

i=<br />

1<br />

2<br />

αi αiwi<br />

exp( − )<br />

2π<br />

2<br />

(4)<br />

Burada = ( α , α , , α )<br />

T<br />

α 1 2 K N hiperparametreleri ifade<br />

etmektedir. Bayes teoremi kullanılarak ağırlık<br />

parametrelerinin sonsal olasılıkları hesaplanmaktadır.<br />

p( tw) p(<br />

wα)<br />

p(<br />

wtα , ) =<br />

p(<br />

t α)<br />

Burada p( tw ) benzerliği, p( w α ) önsel olasılığı, p( t α )<br />

ise kanıtı (evidence) göstermektedir. w değerleri analitik<br />

olarak elde edilemez. Bu nedenle [10]’de kullanılan Laplace<br />

yaklaşım prosedürü w değerlerini elde etmek <strong>için</strong><br />

kullanılmaktadır. Geçerli α değerleri ile ilişkili w ağırlık<br />

değerleri sonsal (posterior) dağılım kullanılarak<br />

bulunmaktadır. pw ( / , tα) doğrusal olarak pt (/ wpw ) ( / a )<br />

ile orantılıdır. Bu nedenle maksimum w’yi bulmak <strong>için</strong><br />

denklem (6) kullanılabilmektedir.<br />

log { p( tw) p(<br />

wα)<br />

} =<br />

N<br />

1 T<br />

∑[<br />

tnlog yn + (1 −tn)log(1 − yn)<br />

] − wAw<br />

2<br />

(6)<br />

n=<br />

1<br />

{ ( ; ) }<br />

yn = σ yxn w ’dir. Sonsal olasılık ifadesi geçerli α<br />

değerlerini kullanarak en olası w değerlerini bulmak <strong>için</strong><br />

aşamalı çözüm kullanılmaktadır. Denklem (6) düzenlenmiş<br />

logistik logaritmik benzerlik fonksiyonudur ve aşamalı en<br />

büyüklemeyi gerektirmektedir. En olası w değerlerini bulmak<br />

<strong>için</strong> aşamalı yeniden ağırlıklandırılmış en yakın kareler<br />

yöntemi (‘iteratively-reweighed least-squares’) [11]<br />

kullanılmaktadır. Denklem (6) ile gösterilen ifadenin iki kere<br />

w’ye bağlı türevi alınarak Hessian matrisi elde edilmektedir ve<br />

elde edilen ifade denklem (7) ile gösterilmektedir.<br />

T<br />

∇∇ log p(<br />

wtα , ) =− ( Φ ΒΦ+ A )<br />

(7)<br />

w w wMP<br />

Β ( 1 2<br />

−t<br />

(5)<br />

Β = diag( β , β ,..., β ) ) köşegen matrisidir ve<br />

{ yx ( ) } 1 { yx ( ) }<br />

N<br />

βn = σ n ⎡⎣ −σ<br />

n ⎤⎦<br />

ile ifade edilmektedir.<br />

Hessian denkleminin değili alınırak ve terslenerek kovaryans<br />

matrisi ∑ elde edilmektedir.<br />

Σ = ( Φ ΒΦ+ A )<br />

T −1<br />

T<br />

w ΣΦ Βt ˆ<br />

MP =<br />

ˆ −1<br />

t = Φw MP + Β ( t−y )<br />

Yukarıdaki denklemler genelleştirilmiş yakın kareler<br />

probleminin çözülmesi sonucu oluşmaktadır. w MP değerlerini<br />

(8)

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!