24.07.2013 Views

Vektör Makinaları Temelli Hiperspektral Sınıflandırma için Seyreklik ...

Vektör Makinaları Temelli Hiperspektral Sınıflandırma için Seyreklik ...

Vektör Makinaları Temelli Hiperspektral Sınıflandırma için Seyreklik ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>Vektör</strong> <strong>Makinaları</strong> <strong>Temelli</strong> <strong>Hiperspektral</strong> <strong>Sınıflandırma</strong> <strong>için</strong><br />

<strong>Seyreklik</strong>/ <strong>Sınıflandırma</strong> Başarımı Değiş Tokuşu<br />

Sparsity/accuracy trade-off for vector machine based<br />

hyperspectral classification<br />

Begüm Demir, Sarp Ertürk<br />

Elektronik ve Haberleşme Mühendisliği Bölümü<br />

Veziroğlu Yerleşkesi, Kocaeli Üniversitesi, 41040, İzmit/Kocaeli<br />

{begum.demir, sertur}@kou.edu.tr<br />

Özetçe<br />

Bu çalışmada standart denetimli sınıflandırma algoritmalarına<br />

göre daha iyi sonuç veren destek vektör makinaları (DVM) ve<br />

ilgililik vektör makinaları (İVM) temelli hiperspektral görüntü<br />

sınıflandırılması <strong>için</strong> seyreklik/ sınıflandırma başarımı değiş<br />

tokuşu önerilmiştir. Bu doğrultuda k-ortalama ve faz<br />

korelasyonu temelli bölütleme yöntemleri kullanılarak eğitim<br />

aşamasında benzer hiperspektral veri örneklerinin<br />

birleştirilmesi veya RANSAC ile bağımsız geçerlilik sınaması<br />

(cross-validation) temelli en iyi alt-küme seçilmesi<br />

önerilmiştir. Sonuç olarak hiperspektral eğitim verisi<br />

azaltılarak, DVM ile sınıflandırma <strong>için</strong> destek vektör sayısı,<br />

İVM sınıflandırma <strong>için</strong> ilgililik vektör sayısı azaltılmıştır.<br />

Önerilen yöntem hem sınıflandırma hem de eğitim aşamasını<br />

hızlandırmakta; model seyrekliğini sınıflandırma<br />

başarımındaki düşük bir azalış karşılığında iyileştirmektedir.<br />

Abstract<br />

Sparsity/accuracy trade-off for hyperspectral image<br />

classification based on support vector machines (SVMs) and<br />

relevance vector machines (RVMs) is proposed in this paper.<br />

In the proposed approach K-means or phase correlation based<br />

unsupervised segmentation and RANSAC (RANdom SAmple<br />

Consencus) with cross-validation is used to provide a<br />

compressed hyperspectral data set before RVM and SVM<br />

training. These approaches are used to compress the training<br />

data by combining similar hyperspectral data samples, as a<br />

result of which the number of training samples is reduced,<br />

resulting in an overall smaller support vector amount for<br />

SVM classification or a smaller relevance vector amount for<br />

RVM classification after training. It is possible to trade of<br />

accuracy against sparsity with the proposed approach and also<br />

provide faster training as well as classification times.<br />

1. Giriş<br />

<strong>Hiperspektral</strong> görüntüleme birçok dar dalga boyu bandına ait<br />

imge verilerini elde etmekte ve dalga boyuna göre bir ayrışım<br />

sağlamaktadır. <strong>Hiperspektral</strong> görüntülerde her piksel <strong>için</strong><br />

dalga boyuna bağlı bir spektrum bilgisi elde edilmesi ile<br />

piksellerin değişimi, benzerliklerin ve farklılıkların<br />

algılanabilmesi sonucu bölgelerin sınıflandırılması standart<br />

görüntü algılayıcılarına oranla çok daha yüksek bir başarımla<br />

sağlanabilmektedir.<br />

İmge bölütleme yöntemleri benzer pikselleri aynı kümeye<br />

ayırarak kümeleme sağlamaktadır. K-ortalama denetimsiz<br />

imge bölütleme yöntemi [1]’da önerilmiştir. Geliştirilmiş faz<br />

korelasyonu temelli bölütleme yöntemi ise hiperspektral<br />

görüntülere [2]’de uygulanmıştır.<br />

Destek vektör makinaları (DVM) [3] son zamanlarda<br />

multispektral [4] ve hiperspektral [5] görüntülerde regresyon<br />

ve sınıflandırma problemlerini çözmek <strong>için</strong> uygulanmıştır.<br />

AVIRIS verilerine DVM sınıflandırmanın uygulanması<br />

üzerine [5]’da çalışılmıştır. DVM sınıflandırma <strong>için</strong> yüksek<br />

başarımlar yüksek boyutlu özellik uzayında kerneller<br />

kullanılarak elde edilebilmektedir, bu nedenle kernel temelli<br />

öğrenme yöntemleri doğrusal ayırma yüzeyi bulmak amacı ile<br />

veriyi yüksek boyutlu özellik uzayına yansıtabilmektedir [6].<br />

İlgililik vektör makinaları (İVM) [7]’da önerilmiştir. İVM,<br />

DVM ile karşılaştırıldığında çeşitli avantajlar sunmaktadır.<br />

<strong>Hiperspektral</strong> görüntülerin İVM ile sınıflandırılması [8]’de<br />

önerilmiştir. İVM’nin sunduğu avantajlar olasılıksal tahmin,<br />

otomatik parametre kestirimi ve isteğe bağlı kernel fonksiyonu<br />

seçimi (DVM <strong>için</strong> sadece Mercer kernelleri kullanılmaktadır)<br />

olarak sıralanmaktadır. İVM eğitim aşamasında, DVM ile<br />

eğitim aşamasında elde edilen destek vektörü sayısına göre<br />

daha az ilgililik vektörü elde edilmesi sonucu seyreklik<br />

sağlamaktadır. Bu çalışmada [9]’dan esinlenilmiştir ve ön<br />

işlem kullanılarak hiperspektral görüntülerin DVM ve İVM ile<br />

sınıflandırılması önerilmiştir. Ön-işlem olarak k-ortalama ve<br />

faz korelasyonu bölütleme yöntemleri ve RANSAC bağımsız<br />

geçerlilik sınaması kullanılmaktadır. Önerilen yaklaşımlar<br />

model seyrekliğini, sınıflandırma başarımındaki düşük bir<br />

azalış karşılığında iyileştirebilmektedir.<br />

2. Destek <strong>Vektör</strong> Makineleri ve İlgililik <strong>Vektör</strong><br />

Makineleri<br />

Eğitimli sınıflandırma, eğitim ve test (sınıflandırma)<br />

işlemleriyle gerçekleştirilmektedir. Eğitimli sınıflandırma<br />

yöntemleri eğitim aşamasında { n} n= 1<br />

N<br />

N<br />

x giriş verisini ve bu<br />

verilerin sınıf bilgisini { tn}<br />

n=<br />

1<br />

kullanarak sınıflandırma<br />

işlemi <strong>için</strong> bir model oluşturmaktadır. Test aşamasında yeni<br />

giriş verileri, eğitim işlemi sonucunda elde edilen model<br />

parametreleri kullanılarak sınıflandırılmaktadır. Bu tahminler<br />

M adet temel fonksiyonun


T<br />

( φ( x) = ( φ1( x) , φ2( x) , K , φM(<br />

x)<br />

) ) doğrusal<br />

ağırlıklandırılmış toplamı olarak ifade edilen fonksiyonlar<br />

( y ( x ) ) ile tanımlanmaktadır.<br />

M<br />

∑<br />

i=<br />

1<br />

T<br />

( ) ( )<br />

y( xw ; ) = wφx<br />

= wφ x (1)<br />

i i<br />

Eğitim aşamasında amaç, daha önceden görülmemiş giriş<br />

vektörlerinin hangi sınıfta olduğunu doğru tahmin edebilmek<br />

amacı ile eğitim verisindeki her i x ile ilişkili i w<br />

parametrelerini bulmaktır. Eğitim işlemi sırasında i w<br />

parametrelerin çoğunluğu otomatik olarak sıfırlanmaktadır ve<br />

sıfırlanmayan w i değerleri ile ilişkili giriş vektörleri ilgililik<br />

vektörleri olmakta ve test aşamasında kullanılmaktadır.<br />

Destek vektör makineleri [3] denetimli (supervised)<br />

sınıflandırma ve regresyon <strong>için</strong> gelişmiş teknoloji<br />

sunmaktadır. DVM’ler, öğrenme boyunca, ayırma düzlemi<br />

(aşırı düzlem) ile bunun her iki tarafında bulunan veri<br />

örnekleri arasındaki mesafenin maksimum olması <strong>için</strong><br />

düzlemin pozisyonunu optimize etmektedir. DVM iki sınıfa<br />

ait örnekler arasındaki karar yüzeyini oluştururken yüzeyin iki<br />

sınıfa olan uzaklığını en yüksek dereceye çıkarmaya<br />

çalışmaktadır. DVM karar fonksiyonu olarak denklem (2)’yi<br />

kullanmaktadır.<br />

N<br />

y( xw ; ) = wK xx , + w<br />

(2)<br />

∑<br />

i=<br />

1<br />

( ) 0<br />

i i<br />

Burada i w her x i ile ilişkili ağırlık parametresini, ( ) , K ⋅ ⋅<br />

kernel fonksiyonunu göstermektedir. DVM [3] son<br />

zamanlarda multispektral [4] ve hiperspektral [5]<br />

görüntülerde regresyon ve sınıflandırma problemlerini<br />

çözmek <strong>için</strong> uygulanmıştır. DVM hakkında daha ayrıntılı<br />

bilgi <strong>için</strong> [3-5]’e bakılabilir.<br />

Destek vektör makineleri denetimli (supervised)<br />

sınıflandırma <strong>için</strong> gelişmiş teknoloji olmasına rağmen<br />

olasılıksal çıkış verememe, ödünleşim parametre hesabı<br />

gereksinimi (örneğin C değeri) ve Mercer kernel<br />

fonksiyonlarına bağımlılık gibi dezavantajları vardır. DVM<br />

<strong>için</strong> bahsedilen dezavantajlar, DVM’nin Bayes davranış<br />

gösteren biçimi olan İVM sınıflandırma yöntemi kullanılarak<br />

çözülmektedir. Ayrıca İVM az sayıda kernel fonksiyonu<br />

gerektirmektedir. Destek vektör makineleri ile<br />

karşılaştırıldığında sınıflandırma (test) süresi İVM<br />

kullanılarak, daha az kernel fonksiyonu kullanılması nedeni ile<br />

azalmaktadır.<br />

t ∈ 0,1 olarak<br />

İki sınıflı sınıflandırma <strong>için</strong> hedef bilgisi { }<br />

alınabilmektedir. Burada sadece iki değer (0 ve 1) olduğundan<br />

dolayı ptw ( ) <strong>için</strong> Bernoulli dağılımı kullanılmaktadır.<br />

− y<br />

Lojistik sigmoid bağlantı fonksiyonu σ ( y) = 1/(1 + e )<br />

doğrusal model üretmek amacı ile y( x ) ’e uygulanmaktadır.<br />

Bernoulli dağılımı kullanılarak benzerlik ifadesi<br />

tn ∈{ 0,1}<br />

<strong>için</strong> denklem (3)’de gösterildiği gibi ifade<br />

edilmektedir.<br />

n<br />

N<br />

∏<br />

{ } { } 1<br />

tn<br />

⎡ ⎤<br />

p( tw) = σ y( xn; w) ⎣1 −σ<br />

y( xn;<br />

w ) ⎦<br />

n<br />

(3)<br />

n=<br />

1<br />

Ağırlık parametrelerinin önsel olasılığı denklem 4 ile<br />

gösterilmektedir.<br />

N<br />

p(<br />

w α ) = ∏<br />

i=<br />

1<br />

2<br />

αi αiwi<br />

exp( − )<br />

2π<br />

2<br />

(4)<br />

Burada = ( α , α , , α )<br />

T<br />

α 1 2 K N hiperparametreleri ifade<br />

etmektedir. Bayes teoremi kullanılarak ağırlık<br />

parametrelerinin sonsal olasılıkları hesaplanmaktadır.<br />

p( tw) p(<br />

wα)<br />

p(<br />

wtα , ) =<br />

p(<br />

t α)<br />

Burada p( tw ) benzerliği, p( w α ) önsel olasılığı, p( t α )<br />

ise kanıtı (evidence) göstermektedir. w değerleri analitik<br />

olarak elde edilemez. Bu nedenle [10]’de kullanılan Laplace<br />

yaklaşım prosedürü w değerlerini elde etmek <strong>için</strong><br />

kullanılmaktadır. Geçerli α değerleri ile ilişkili w ağırlık<br />

değerleri sonsal (posterior) dağılım kullanılarak<br />

bulunmaktadır. pw ( / , tα) doğrusal olarak pt (/ wpw ) ( / a )<br />

ile orantılıdır. Bu nedenle maksimum w’yi bulmak <strong>için</strong><br />

denklem (6) kullanılabilmektedir.<br />

log { p( tw) p(<br />

wα)<br />

} =<br />

N<br />

1 T<br />

∑[<br />

tnlog yn + (1 −tn)log(1 − yn)<br />

] − wAw<br />

2<br />

(6)<br />

n=<br />

1<br />

{ ( ; ) }<br />

yn = σ yxn w ’dir. Sonsal olasılık ifadesi geçerli α<br />

değerlerini kullanarak en olası w değerlerini bulmak <strong>için</strong><br />

aşamalı çözüm kullanılmaktadır. Denklem (6) düzenlenmiş<br />

logistik logaritmik benzerlik fonksiyonudur ve aşamalı en<br />

büyüklemeyi gerektirmektedir. En olası w değerlerini bulmak<br />

<strong>için</strong> aşamalı yeniden ağırlıklandırılmış en yakın kareler<br />

yöntemi (‘iteratively-reweighed least-squares’) [11]<br />

kullanılmaktadır. Denklem (6) ile gösterilen ifadenin iki kere<br />

w’ye bağlı türevi alınarak Hessian matrisi elde edilmektedir ve<br />

elde edilen ifade denklem (7) ile gösterilmektedir.<br />

T<br />

∇∇ log p(<br />

wtα , ) =− ( Φ ΒΦ+ A )<br />

(7)<br />

w w wMP<br />

Β ( 1 2<br />

−t<br />

(5)<br />

Β = diag( β , β ,..., β ) ) köşegen matrisidir ve<br />

{ yx ( ) } 1 { yx ( ) }<br />

N<br />

βn = σ n ⎡⎣ −σ<br />

n ⎤⎦<br />

ile ifade edilmektedir.<br />

Hessian denkleminin değili alınırak ve terslenerek kovaryans<br />

matrisi ∑ elde edilmektedir.<br />

Σ = ( Φ ΒΦ+ A )<br />

T −1<br />

T<br />

w ΣΦ Βt ˆ<br />

MP =<br />

ˆ −1<br />

t = Φw MP + Β ( t−y )<br />

Yukarıdaki denklemler genelleştirilmiş yakın kareler<br />

probleminin çözülmesi sonucu oluşmaktadır. w MP değerlerini<br />

(8)


elde ettikten sonra i<br />

γ<br />

α = denklemini<br />

α değerleri 2 ,<br />

yeni i<br />

i<br />

wi<br />

kullanarak güncellenmektedir. Burada w i , i. ortalama sonsal<br />

ağırlık ve i 1 i ii,<br />

N γ α = − ’dir. N ii kovaryans matrisinin i.<br />

köşegen elemanıdır. Optimizasyon işlemleri sırasında birçok<br />

α i yüksek değerler almakta ve bu nedenle ilişkili ağırlık<br />

parametreleri atılmaktadır ve seyreklik sağlanmaktadır.<br />

3. DVM ve İVM Öncesi Ön-Bölütleme<br />

DVM ve İVM eğitim aşamasından önce eğitim verisini<br />

azaltarak hiperspektral verinin sıkıştırılması amacı ile kortalama<br />

[1] ve geliştirilmiş faz korelasyonu [2] olmak üzere<br />

iki farklı bölütleme yöntemi kullanılmaktadır.<br />

Ön bölütlenmiş DVM ve İVM algoritmasında başlangıç<br />

olarak eğitim verisi, yöntemlerden biri kullanılarak boyut<br />

azaltmak amacı ile bölütlenmektedir. Her bir sınıf <strong>için</strong><br />

oluşturulan küme sayısı her bir sınıftaki eğitim verisi sayısı<br />

ile ilişkilidir. Düşük eğitim verisine sahip olan bir sınıf düşük<br />

küme sayısına sahip olmaktadır. Bölütleme işleminden sonra<br />

her kümenin ortalama vektörü bu kümenin özellik vektörü<br />

olarak alınmaktadır ve elde edilen bu özellik vektörleri DVM<br />

ve İVM eğitim aşamasında kullanılmaktadır.<br />

4. RANSAC DVM ve İVM<br />

RANSAC yaklaşımı [12]’da önerilmiştir. Bu çalışma<br />

kapsamında önerilen RANSAC DVM ve İVM yönteminde<br />

eğitim verisinden rasgele alt kümeler seçilmektedir. İVM<br />

sınıflandırma <strong>için</strong> ilgililik vektörleri, DVM sınıflandırma <strong>için</strong><br />

destek vektörleri bu alt kümelerin eğitim aşamasında<br />

kullanılmasıyla elde edilmektedir. Eğitim verisinden seçilen<br />

alt küme dışında kalan diğer eğitim verileri bağımsız<br />

geçerlilik sınaması aşamasında kullanılarak sınıflandırma<br />

başarımı hesaplanmaktadır ve eğer sınıflandırma başarımı<br />

yüksek ise, eğitim kümesinden rasgele seçilen o veri seti <strong>için</strong><br />

elde edilen vektörler test verisinde de kullanılarak<br />

sınıflandırma işlemi gerçekleştirilmektedir. <strong>Sınıflandırma</strong><br />

başarımı istenen değerde değilse aynı işlem yeni alt küme<br />

seçilerek tekrar gerçekleştirilmektedir. <strong>Sınıflandırma</strong><br />

başarımının istenen kadar yüksek olmaması durumunda<br />

sürekli rasgele veriler seçilerek işlem süresinin uzamasını<br />

engellemek amacı ile maksimum sınıflandırma başarımına<br />

sahip veri kümesinin eğitilmesi sonucu oluşan ilgililik<br />

vektörleri ve destek vektörleri sınıflandırma (test) aşamasında<br />

kullanılmaktadır.<br />

5. Deneysel Sonuçlar<br />

DVM ve İVM sınıflandırma yöntemleri 220 bant içeren<br />

1992 yılında kuzeybatı Indiana’nın Indian Pine test alanında<br />

alınan hiperspektral görüntüsüne uygulanmıştır. Atmosferik<br />

gürültü içeren bantlar atılarak 200 bant kullanılmıştır. Özgün<br />

sınıf bilgisi verisinde 16 sınıf bulunmaktadır. Fakat, bazı<br />

sınıfların eleman sayısı çok düşük olduğundan veri miktarı<br />

büyük olan 9 sınıf seçilerek, bu sınıflar 4757 eğitim verisi ve<br />

4588 test verisi elde etmek <strong>için</strong> kullanılmıştır. Her sınıf <strong>için</strong><br />

seçilen eğitim ve test verilerinin miktarları Tablo 1’de<br />

gösterilmektedir.<br />

DVM ve İVM sınıflandırma <strong>için</strong> en sık kullanılan<br />

kerneller doğrusal, çok terimli ve radyal taban kernel<br />

fonksiyonlarıdır. Bu çalışmada İVM ve DVM sınıflandırma<br />

<strong>için</strong> RTF kerneli kullanılmıştır.<br />

Radyal tabanlı kernel fonksiyonu:<br />

2<br />

K( x , x ) = exp( −γx −x<br />

)<br />

(9)<br />

i j i j<br />

Hızlı eğitim süresi sağladığı <strong>için</strong> çoklu DVM ve İVM<br />

sınıflandırma <strong>için</strong> bire-bir çoklu sınıflandırma [3]<br />

kullanılmıştır. İVM yöntemi ikili sınıflandırma ile<br />

sınırlandırılmadığı halde pratikte çoklu sınıflandırma<br />

kullanımı azdır ve Hessian matrisinin boyutu sınıf sayısı<br />

artıkça arttığı <strong>için</strong> işlem yükünü arttırmaktadır. Tablo 2 ve<br />

Tablo 3 farklı sıkıştırma oranlarında DVM ve İVM<br />

sınıflandırma sonuçlarını göstermektedir. Elde edilen<br />

sonuçlarda DVM sınıflandırma <strong>için</strong> C parametresi 40 ve DVM<br />

ve İVM sınıflandırmada kullanılan RTF kerneli <strong>için</strong> gama<br />

değeri (γ ) 2 seçilmiştir.<br />

<strong>Hiperspektral</strong> görüntünün ön bölütlenmiş İVM ve DVM<br />

ile sınıflandırılması sonucu elde edilen sınıflandırma<br />

başarımları ve İVM sınıflandırma <strong>için</strong> kullanılan İV sayısı<br />

DVM sınıflandırma <strong>için</strong> kullanılan DV sayısı farklı kernel<br />

parametreleri <strong>için</strong> Tablo 4’de gösterilmektedir. SB<br />

sınıflandırma başarımını göstermektedir. Ön bölütleme işlemi<br />

uygulanmadan direk İVM ve DVM sınıflandırma sonuçları<br />

Tablo 6’da verilmektedir.<br />

Deneysel sonuçlar İVM sınıflandırma yönteminin DVM<br />

ile karşılaştırıldığında benzer sınıflandırma başarımının daha<br />

az kernel fonksiyonu ile elde edildiğini göstermektedir.<br />

<strong>Seyreklik</strong> elde etmek amacıyla İVM tercih edilebilmektedir.<br />

Ön bölütleme ve RANSAC yaklaşımının sınıflandırma<br />

başarımındaki azalma karşılığında DVM sınıflandırma <strong>için</strong><br />

destek vektör sayısını İVM sınıflandırma <strong>için</strong> ilgililik vektör<br />

sayısını azalttığı gözlemlenmektedir. K-ortalama İVM faz<br />

korelasyonu İVM (FK-İVM) ile karşılaştırıldığında yaklaşık<br />

aynı ilgililik vektör sayısında daha iyi sınıflandırma başarımı<br />

sağlamaktadır. RANSAC İVM (R-İVM) ise daha çok ilgilik<br />

vektörleri kullanarak K-ortalama İVM’den (K-İVM) daha iyi<br />

sınıflandırma başarımı sağlamaktadır. Ön bölütlenmiş ve<br />

RANSAC İVM eğitim aşamasındaki zaman performansı<br />

nedeni ile ön bölütlenmiş ve RANSAC DVM’ye göre tercih<br />

edilmektedir. İVM eğitim aşaması DVM ‘den 7–8 kat fazla<br />

[10] olmasına rağmen sınıflandırma (test) aşaması DVM’den<br />

7–8 kat daha azdır.<br />

6. Sonuçlar<br />

Bu çalışmada hiperspektral görüntülere ön-işlem<br />

uygulandıktan sonra DVM ve İVM sınıflandırma<br />

yöntemlerinin uygulanması gerçekleştirilmiştir. Önerilen<br />

yöntem İVM sınıflandırma <strong>için</strong> İV sayısını DVM<br />

sınıflandırma <strong>için</strong> DV sayısını azaltmaktadır ve düşük<br />

karmaşıklık gerektiren hedef tanıma uygulamaları gibi gerçek<br />

zamanlı uygulamalar <strong>için</strong> uygundur. Önerilen yaklaşımlar ile<br />

sınıflandırma başarımında kabul edilebilir bir düşüş<br />

karşılığında seyreklik sağlanmıştır. <strong>Seyreklik</strong> model


karmaşıklığını etkilemektedir ve önerilen yöntem ile model<br />

karmaşıklığı ve hesapsal yük azaltılmıştır.<br />

Tablo 1: 9 sınıf <strong>için</strong> eğitim ve test verisi miktarları<br />

Sınıf Eğitim Test<br />

S1-Corn-no till 742 692<br />

S2-Corn-min till 442 392<br />

S3-Grass/Pasture 260 237<br />

S4-Grass/Trees 389<br />

358<br />

S5-Hay-windrowed 236 253<br />

S6-Soybean-no till 487 481<br />

S7-Soybean-min till 1245 1223<br />

S8-Soybean-clean till 305 309<br />

S9-Woods 651 643<br />

Toplam 4757 4588<br />

Tablo 2: % 88 sıkıştırma oranı <strong>için</strong> sonuçlar<br />

Yöntem<br />

DVM<br />

SB DV<br />

İVM<br />

SB İV<br />

k-ortalama 87.68 942 82.78 192<br />

RANSAC 87.57 1203 82.74 209<br />

FK 83.39 873 79.01 193<br />

Tablo 3: % 50 sıkıştırma oranı <strong>için</strong> sonuçlar<br />

Yöntem<br />

DVM<br />

SB DV<br />

İVM<br />

SB İV<br />

k-ortalama 91.06 2198 87.29 347<br />

RANSAC 88.86 2030 84.63 388<br />

FK 89.34 2134 86.79 349<br />

Tablo 4 :farklı kernel parametreleri <strong>için</strong> ön-bölütleme ve<br />

RANSAC İVM sonuçları<br />

Yöntem<br />

Kernel<br />

parametreleri<br />

γ<br />

SB İV<br />

K-İVM 1 80.38 176<br />

K-İVM 2 82.78 192<br />

R-İVM 1 82.58 216<br />

R-İVM 2 82.74 209<br />

FK-İVM 1 78.33 181<br />

FK-İVM 2 79.01 193<br />

Tablo 5 : farklı kernel parametreleri <strong>için</strong><br />

ön-bölütleme ve RANSAC DVM sonuçları<br />

Yöntem<br />

Kernel<br />

parametreleri<br />

γ<br />

C SB İV/DV<br />

K-DVM 1 65 86.83 885<br />

K-DVM 2 40 87.68 942<br />

R-DVM 1 65 87.01 1021<br />

R-DVM 2 40 87.57 1203<br />

FK-DVM 1 65 82.95 884<br />

FK-DVM 2 40 83.39 873<br />

Tablo 6: Farklı kernel parametreleri <strong>için</strong><br />

DVM ve İVM sonuçları<br />

Yöntem<br />

Kernel<br />

parametreleri<br />

γ<br />

C SB İV/DV<br />

DVM 1 65 91.95 3259<br />

İVM 1 - 90.14 514<br />

DVM 2 40 92.67 3393<br />

İVM 2 - 90.32 592<br />

7. Teşekkür<br />

Bu çalışma, Türkiye Bilimsel ve Teknik Araştırma Kurumu,<br />

TÜBİTAK tarafından <strong>Hiperspektral</strong> <strong>Sınıflandırma</strong>, Bölütleme<br />

ve Tanıma” (HİSSET) isimli araştırma projesi kapsamında<br />

desteklenmiştir.<br />

8. Kaynakça<br />

[1] Meyer, A., Paglieroni, D., and Astaneh, C.: ‘K-Means Re-<br />

Clustering: Algorithmic Options with Quantifiable Performance<br />

Comparisons’, SPIE Photonics West, Optical Engineering at<br />

LLNL, Vol. 5001, pp. 84-92, 2003.<br />

[2] Ertürk, A., Ertürk, S.: ‘Unsupervised Segmentation of<br />

Hyperspectral Images Using Modified Phase Correlation,’ IEEE<br />

Geoscience and Remote Sensing Letters, 3, (4): 527-531, 2006.<br />

[3] Burges, C.: ‘A Tutorial on Support Vector Machines for Pattern<br />

Recognition’, in Proc. Data Mining and Knowledge<br />

Discovery, U. Fayyad, Ed. Kluwer Academic, pp.1-43, 1998.<br />

[4] Huang, C., Davis, L. S., and Townshend, J. R. G: ‘An<br />

Assessment of Support Vector Machines for Land Cover<br />

Classification’, Int. J. Remote Sensing, 23, (4): 725-749, 2002.<br />

[5] Gualtieri, J. A., Chettri, S. R., Cromp, R. F., and Johnson, L. F.:<br />

‘Support vector machine classifiers as applied to AVIRIS data’,<br />

in Summaries 8th JPL Airborne Earth Science Workshop, JPL<br />

Pub. 99-17, pp.217–227, 1999.<br />

[6] Müller, K.R., Mika, S., Ratsch, G., Tsuda, K., and Schölkopf,<br />

B:. ‘An Introduction to Kernel-Based Learning Algorithms’,<br />

IEEE Transactions on Neural Networks, 12, (2): 181–201, 2001.<br />

[7] Tipping, M. E.: ‘The relevance vector machine’, in Advances in<br />

Neural Information Processing Systems 12, S. A. Solla, T. K.<br />

Leen, and K.-R. Müller, Eds. Cambridge, MA: MIT Press, 2000.<br />

[8] Demir, B. Ertürk, S.: ‘Hyperspectral image classification using<br />

relevance vector machines’, IEEE Geoscience and Remote<br />

Sensing Letters, submitted.<br />

[9] Wang, J., Wu, X., Zhang, C.: ‘Support Vector Machines Based<br />

on K-means Clustering for Real-time Business Intelligence<br />

systems’, Int. J. Business Intelligence and Data Mining, 1, (1):<br />

54-64, 2005.<br />

[10] MacKay, D. J. C.: ‘The evidence framework applied to<br />

classification networks’, Neural Comput., Vol. 4, pp. 720–736,<br />

1992.<br />

[11] Nabney, I. T.: ‘Efficient training of RBF networks for<br />

classification’, in Proc. 9th ICANN, pp. 210–215, 1999.<br />

[12] Fischler, M. A Bolles, R. C.: ‘Random Sample Consensus: A<br />

Paradigm for Model Fitting with Applications to Image Analysis<br />

and Automated Cartography’, Comm. of the ACM, Vol 24,<br />

1981, pp. 381-395.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!