01.02.2015 Views

Penggenerasian Ciri I : Transformasi Linier - Teknik Elektro UGM

Penggenerasian Ciri I : Transformasi Linier - Teknik Elektro UGM

Penggenerasian Ciri I : Transformasi Linier - Teknik Elektro UGM

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>Penggenerasian</strong> <strong>Ciri</strong> I : <strong>Transformasi</strong> <strong>Linier</strong><br />

Octa Heriana, 05906-TE<br />

Sumarna, 06248-TE<br />

Jurusan <strong>Teknik</strong> <strong>Elektro</strong> FT <strong>UGM</strong>,<br />

Yogyakarta<br />

6.1 PENDAHULUAN<br />

Tujuan dari bab ini adalah penggenerasian ciri-ciri melalui transformasi linier pada cuplikan-cuplikan<br />

masukan (pengukuran). Konsep dasarnya adalah mentransformasikan (mengalih-ragamkan) sekumpulan<br />

hasil pengkuran menjadi kumpulan ciri baru. Jika transformasi tersebut dipilih yang sesuai, maka ciri-ciri<br />

domain transformasi dapat menunjukkan sifat-sifat ‘kemasan informasi’ yang tinggi dibandingkn dengan<br />

cuplikan masukan aslinya. Ini berarti bahwa sebagian besar informasi kaitan klasifikasi terperas menjadi<br />

ciri-ciri dalamjumlah yang relative kecil, sehingga mengurangi dimensi ruang ciri yang diperlukan.<br />

Alasan yang mendasari ciri-ciri berbasis transformasi tersebut adalah bahwa kesesuaian transformasi<br />

yang dipilih dapat menggali dan menghilangkan kelebihan informasi yang biasanya ada dalam sejumlah<br />

cuplikan yang diperoleh dengan piranti pengukuran. Sebagai contoh suatu citra yang dihasilkan dari suatu<br />

piranti pengukuran, misalnya piranti sinar-X atau kamera. Piksel-piksel (cuplikan masukan) pada berbagai<br />

posisi di dalam citra mempunyai korelasi berderajad besar, terkait dengan konsistensi morpologik internal<br />

citra nyata yang membedakannya dari derau (noise). Kemudian jika digunakan piksel-piksel tersebut<br />

sebagai ciri-ciri, maka akan terdapat informasi berlebihan yang berderajad besar. Secara alternatif, misalnya<br />

jika diperoleh transformasi Fourier dari suatu citra nyata, maka hal tersebut menjelaskan bahwa sebagian<br />

besar energy yang terletak pada komponen frekuensi rendah berhubungan dengan adanya korelasi tinggi<br />

antar aras keabuan (gray level) piksel-piksel tersebut. Sehingga penggunaan koefisien Fourier sebagai ciri<br />

menunjukkan suatu pilhan yang rasional, sebab energy rendah memungkinkan kehilangan informasi kecil,<br />

koefisien-koefisien frekuensi tinggi dapat diabaikan.<br />

6.2 VEKTOR-VEKTOR BASIS DAN CITRA<br />

Misalkan x(0), x(1), x(2), …, x(N-1) merupakan sejumlah cuplikan masukan dan x adalah suatu vector<br />

Nx1 yang sesuai,<br />

x T = [x(0), x(1), x(2), …, x(N-1)].<br />

Diberikan suatu matrik unitary NxN yaitu A 1 , mendefinisikan suatu vector tertransformasi y dari x sebagai :<br />

y = A H x ≡<br />

H<br />

⎡ a ⎤<br />

0<br />

⎢ H ⎥<br />

⎢ a1<br />

⎥<br />

⎢ . ⎥ x (6.1)<br />

⎢ ⎥<br />

⎢ . ⎥<br />

⎢ H ⎥<br />

⎣a<br />

N −1<br />


di mana “H” menyatakan suatu opersi Hermitian, yaitu konjugasi komplek dan transposisi. Dari (6.1) dan<br />

definisi matrik unitary diperoleh :<br />

N<br />

x = Ay = ∑ −<br />

1<br />

i=<br />

0<br />

y(<br />

i)<br />

a i (6.2)<br />

Kolom-kolom pada A, a i , i = 0, 1, 2, …, (N-1), disebut vector-vektor basis dari suatu transformasi. Elemenelemen<br />

y(i) dari y bukan sesuatu tetapi yang penting adalah proyeksi-proyeksi x pada vector-vektor basis<br />

tersebut. Pengambilan inner-product dari x dengan a j diperoleh :<br />

〈 a j , x 〉 ≡ a H N<br />

j x = ∑ −<br />

1<br />

i=<br />

0<br />

N<br />

y ( i)<br />

〈 a j , a i 〉 = ∑ −<br />

1<br />

i=<br />

0<br />

y(<br />

i)<br />

δ<br />

ij<br />

= y(j) (6.3)<br />

Hal ini terkait dengan sifat unitary dari A, yaitu A H A = I atau 〈 a j , a i 〉 = a H i a j = δ<br />

ij<br />

.<br />

Dalam banyak persoalan, seperti pada analisis citra, sekumpulan cuplikan masukan merupakan runtun<br />

(sequence) dua dimensi X (i,j); i, j = 0, 1, 2, ..., (N-1), pendefinisian NxN matrik X alih-alih sebuah vektor.<br />

Pada kasus tersebut dapat ditentukan suatu ekivalensi N 2 vektor x, sebagai contoh dengan urutan baris<br />

matrik satu sesudah yang lain (urutan lexicographic)<br />

x T = [X(0,0), ..., X(0, N-1), ..., X(N-1, 0), ..., X(N-1, N-1)]<br />

dan kemudian mentransformasikan vektor ekivalen ini. Tetapi hal ini bukan cara kerja yang paling efisien.<br />

Jumlah operasi yang diperlukan untuk N 2 x N 2 kwadrat matrik (A) dengan N 2 x1 vector x adalah dalam orde<br />

O(N 4 ) yang menjadi penghalang pada banyak aplikasi. Kemungkinan alternatif adalah mentransformasikan<br />

matrik X melalui sekelompok matrik basis atau citra basis. Misalkan U dan V adalah matrik unitary NxN.<br />

Menentukan matrik tertransformasi Y dari X sebagai<br />

Y = U H X V (6.4)<br />

atau X = U Y V H (6.5)<br />

Jumlah operasinya sekarang berkurang menjadi O(N 3 ). Persamaan (6.5) secara alternatif dapat dituliskan<br />

sebagai :<br />

N<br />

X = ∑ −<br />

1<br />

i=<br />

0<br />

N<br />

∑ − 1<br />

j=<br />

0<br />

H<br />

Y(<br />

i,<br />

j)<br />

u i v j<br />

(6.6)<br />

di mana u i merupaka vector kolom dari U dan v j adalah vektor kolom dari V. Setiap outer product u i v j<br />

H<br />

merupakan sebuah matrik NxN


⎡ ui0v<br />

⎢<br />

u i v H j = ⎢ .<br />

⎢ .<br />

⎢<br />

⎢⎣<br />

u v<br />

*<br />

j0<br />

*<br />

iN −1<br />

j0<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

u<br />

u<br />

i0<br />

v<br />

iN −1<br />

*<br />

jN −1<br />

.<br />

.<br />

v<br />

*<br />

jN −1<br />

⎤<br />

⎥<br />

⎥ ≡ А<br />

⎥ ij<br />

⎥<br />

⎥⎦<br />

dan (6.6) merupakan ekspansi dari matrik X dalam suku-suku N 2 citra basis (matrik basisi). Tanda *<br />

menyatakan konjugasi komplek. Jika Y menghasilkan diagonal, maka (6.6) menjadi :<br />

N<br />

X = ∑ − 1<br />

H<br />

Y ( i,<br />

i)<br />

u i v i<br />

i=<br />

0<br />

dan jumlah citra basis direduksi menjadi N. Interpretasi yang sama terhadap (6.3) juga mungkin. Terhadap<br />

yang terakhir tersebut, selanjutnya mendefinisikan inner product antara dua matrik sebagai :<br />

Dapat ditunjukkan bahwa<br />

N 1<br />

〈 A, B 〉 ≡ ∑ −<br />

m=<br />

0<br />

N<br />

∑ − 1<br />

n=<br />

0<br />

A * (m,n) B(m,n) . (6.7)<br />

Y(i,j) = 〈 А ij , X 〉. (6.8)<br />

Sebenarnya elemen (i,j) dari matrik tertransformasi dihasilkan dari perkalian setiap elemen X dengan<br />

konjugasi dari elemen A ij yang bersesuaian dan menjumlahkannya untuk semua produk.<br />

<strong>Transformasi</strong>-transformasi jenis (6.4) juga dikenal sebagai separable. Alasannya adalah bahwa itu dapat<br />

dicari dari mereka sebagai rangkaian transformasi satu dimensi, pertama dioperasikan pada vektor kolom<br />

dan kemudian pada vektor-vektor baris. Sebagai contoh hasil perantara pada (6.4), Z = U H X, adalah<br />

ekivalen dengan N transformasi yang dikenakan pada vektor-vektor kolom dari X, dan (U H X)V = (V H Z H ) H<br />

adalah ekivalen dengan urutan ke dua dari N transformasi yang bekerja pada baris-baris Z.<br />

Contoh 6.1.<br />

Diberikan citra X dan matrik tansformasi ortogonal U sebagai<br />

X =<br />

⎡1<br />

⎢<br />

⎣2<br />

2⎤<br />

3<br />

⎥ , U =<br />

⎦<br />

1<br />

2<br />

⎡1<br />

⎢<br />

⎣1<br />

1 ⎤<br />

−1<br />

⎥<br />

⎦<br />

citra tertransformasi Y = U T XU adalah<br />

Y = 2<br />

1<br />

⎡1<br />

⎢<br />

⎣1<br />

1 ⎤<br />

−1<br />

⎥<br />

⎦<br />

⎡1<br />

⎢<br />

⎣2<br />

2⎤<br />

⎡1<br />

3<br />

⎥ ⎢<br />

⎦ ⎣1<br />

1 ⎤<br />

−1<br />

⎥<br />

⎦<br />

⎡ 4 −1⎤<br />

= ⎢ ⎥ .<br />

⎣−1<br />

0 ⎦<br />

Citra basis yang bersesuaian adalah :<br />

A 00 =<br />

1<br />

2<br />

1 [ 1]<br />

⎡ ⎤ 1<br />

⎢ ⎥ 1 =<br />

⎣1⎦<br />

2<br />

⎡1<br />

⎢<br />

⎣1<br />

1⎤<br />

1<br />

⎥ .<br />


A 11 =<br />

1<br />

2<br />

⎡ 1 ⎤<br />

⎢ ⎥<br />

⎣−1⎦<br />

[ 1 − 1]<br />

=<br />

1<br />

2<br />

⎡ 1<br />

⎢<br />

⎣−1<br />

−1⎤<br />

1<br />

⎥ .<br />

⎦<br />

Dengan cara yang sama dapat diperoleh :<br />

A 01 =<br />

T 1<br />

A 10<br />

= 2<br />

⎡1<br />

⎢<br />

⎣1<br />

−1⎤<br />

−1<br />

⎥ .<br />

⎦<br />

6.3 TRANSFORMASI KARHUNEN-LOEVE<br />

Misalkan x adalah vektor dari cuplikan masukan. Pada kasus larik (array) citra, x dapat dibentuk dengan<br />

urutan lexicographic terhadap elemen-elemen larik. Sifat-sifat yang diinginkan dari ciri-ciri yang digenerasi<br />

adalah tak terkorelasi timbal-balik dengan maksud untuk menghindari berlebihnya informasi. Tujuan dari<br />

bagian ini adalah menggenerasi ciri-ciri yang secara optimal tak terkorelasi, yaitu E[y(i)y(j)] = 0, i ≠ j.<br />

Misalkan data nyata :<br />

y = A T x. (6.9)<br />

Dari definisi matrik korelasi diperoleh :<br />

R y ≡ E[yy T ] = E[A T xx T A] = A T R x A. (6.10)<br />

Tetapi R x adalah matrik simetris, dan karenanya vektor-vektor eigen yang saling ortogonal. Kemudian, jika<br />

matrik A dipilih sedemikian hingga kolom-kolomnya merupakan vektor eigen ortogonal a i , i = 0, 1, 2, ...,<br />

N-1, dari R x , maka R y adalah diagonal<br />

R y = A T R x A = Λ (6.11)<br />

di mana Λ adalah matrik diagonal dengan elemen-elemen pada diagonalnya masing-masing nilai eigen λ i ,<br />

dengan i = 0, 1, 2, ..., N-1, dari R x . Selanjutnya, pengambilan R x positif memastikan nilai eigen-nya positif.<br />

<strong>Transformasi</strong> yang dihasilkan tersebut dikenal sebagai transformasi Karhunen-Loeve (KL). <strong>Transformasi</strong> KL<br />

sangat fundamental di dalam pengenalan pola serta dalam aplikasi pemrosesan sinyal dan citra. Sifat-sifat<br />

pentingnya meliputi :<br />

Mean square error approximation. Dari persamaan (6.2) dan (6.3) diperoleh :<br />

N<br />

x = ∑ −<br />

1<br />

i=<br />

0<br />

T<br />

y(<br />

i)<br />

a i dan y(i) = a i x (6.12)<br />

Sekarang mendefinisikan vektor baru dalam subspace berdimensi m sebagai :<br />

m<br />

xˆ = ∑ − 1<br />

y(<br />

i)<br />

a i (6.13)<br />

i=<br />

0


di mana hanya m vektor-vektor basis yang dicakup. Dengan jelas, ini bukanlah sesuatu tetapi proyeksi x<br />

pada subspace dijangkau oleh m vector-vektor eigen (ortonormal) yang tercakup dalam somasi. Jika<br />

diusahakan untuk mendekati x dengan proyeksinya xˆ , hasil mean square error (MSE) diberikan oleh :<br />

2<br />

E [ ˆx ]<br />

x − = E<br />

⎡ N −<br />

⎢ ∑<br />

⎢ i=<br />

⎣<br />

1<br />

m<br />

2<br />

⎤<br />

y ( i)<br />

a i ⎥<br />

(6.14)<br />

⎥⎦<br />

Selanjutnya memilih vektor-vektor eigen yang menghasilkan MSE minimum. Dari (6.14) dan mengingat<br />

akan sifat ortonormalitas dari vektor-vektor eigen tersebut diperoleh :<br />

E<br />

⎡ N −<br />

⎢ ∑<br />

⎢ i=<br />

⎣<br />

1<br />

m<br />

2<br />

⎤ ⎡<br />

⎤<br />

T<br />

y ( i)<br />

a i ⎥ = E ⎢∑ ∑ ( y ( i)<br />

ai<br />

)( y(<br />

j)<br />

a<br />

j<br />

) ⎥<br />

⎥⎦<br />

⎣ i j<br />

⎦<br />

(6.15)<br />

N<br />

= ∑ − 1<br />

N<br />

2<br />

E [ y ( i)]<br />

= ∑ − 1<br />

T T<br />

a E[<br />

xx ] a<br />

(6.16)<br />

i=<br />

m<br />

i=<br />

m<br />

i<br />

i<br />

Kombinasi ini dengan persamaan (6.14) dan pendefinisian vektor eigen, akhirnya diperoleh :<br />

N<br />

x − = ∑ −<br />

N<br />

T<br />

a λ a = ∑ −<br />

λ (6.17)<br />

2<br />

E [ ˆx ]<br />

1<br />

i=<br />

m<br />

i<br />

i<br />

i<br />

1<br />

i=<br />

m<br />

Jika dipilih dalam (6.13) vektor-vektor eigen yang bersesuaian dengan nilai eigen m terbesar dari matrik<br />

korelasi, maka error pada (6.17) diminimisasi, merupakan jumlah dari N-m nilai-nilai eigen terkecil.<br />

Selanjutnya dapat ditunjukkan bahwa ini juga merupakan MSE minimum, dibandingkan dengan pendekatan<br />

lain untuk x oleh vektor berdimensi m. Hal ini menjadi alasan bahwa transformasi KL juga dikenal sebagai<br />

Analisis Komponen Utama (PCA : Principal Component Analysis).<br />

Bentuk lain dari transformasi KL diperoleh jika penghitungan A dalam suku-suku vektor-vektor eigen<br />

pada matrik kovarian. <strong>Transformasi</strong> ini mendiagonaisasi matrik kovarian Σ y ,<br />

i<br />

Σ y = A T Σ x A = Λ. (6.18)<br />

Pada umumnya keduanya berbeda dan serupa untuk vektor-vektor acak rerata nol. Dalam praktek ini<br />

biasanya kasus, sebab jika ia salah dapat mengganti setiap vektor dengan x – E[x]. Hal itu dapat<br />

ditunjukkan bahwa dalam kasus ini basis ortonormal yang dihasilkan (Σ x vektor-vektor eigen â<br />

i<br />

) menjamin<br />

bahwa MSE antara x dan pendekatannya diberikan oleh :<br />

1<br />

m<br />

xˆ = ∑ −<br />

i=<br />

0<br />

N<br />

y(<br />

i)<br />

â + ∑ −<br />

E [ y(<br />

i)]ˆ<br />

, y(i) ≡<br />

i<br />

1<br />

i=<br />

m<br />

a i<br />

T<br />

âi<br />

x adalah minimum. (6.19)<br />

Komponen terakhir N-m tidak acak tetapi dibekukan masing-masing nilai reratanya.<br />

Optimalitas transformasi KL, terhadap pendekatan MSE, membawa ke sifat-sifat utama dari kemasan<br />

informasi dan memberikan alat untuk memilih ciri-ciri dominan m keluar dari N cuplikan pengukuran.<br />

Tetapi meskipun ini mungkin merupakan kriteria yang baik, dalam banyak kasus ia tidak perlu dibawa ke


separabilitas kelas maksimum dalam subspace berdimensi lebih rendah. Hal ini beralasan karena reduksi<br />

dimensionalitas bukan dioptimisasi terhadap separabilitas kelas. Pada Gambar 6.1, vektor-vektor ciri pada<br />

kedua kelas mengikuti distribusi Gauss dengan matrik kovarian sama. Ellip-ellip tersebut menunjukkan<br />

kurva dengan nilai pdf konstan. Vektor eigen a 1 adalah yang bersesuaian dengan nilai eigen terbesar.<br />

Proyeksi pada a 1 membuat kedua kelas hampir serupa. Tetapi proyeksi pada a 2 menjadikan kedua kelas<br />

terpisah.<br />

x 2<br />

a 2<br />

a 1<br />

x 1<br />

Gambar 6.1. <strong>Transformasi</strong> KL tidak selalu terbaik untuk pengenalan pola.<br />

Dalam contoh ini, proyeksi pada vektor eigen dengan nilai eigen yang lebih<br />

besar membuat kedua kelas serupa. Dengan kata lain, proyeksi pada vektor<br />

eigen yang lain menjadikan kelas-kelas tersebut terpisah.<br />

Varian Total. Misalkan E[x] adalah nol. Jika ini bukan kasus, reratanya selalu dapat dikurangi. Misalkan y<br />

2<br />

adalah KL tertransformasi vektor x. Dari masing-masing definisi diperoleh bahwa σ<br />

y(i)<br />

≡ E[y 2 (i)] = λ i<br />

.<br />

Yaitu bahwa nilai-nilai eigen dari matrik korelasi masukan sama dengan variansi ciri-ciri tertransformasi.<br />

T<br />

Kemudian pemilihan ciri-ciri itu, y(i) ≡ a i x, bersesuaian dengan nilai-nilai eigen terbesar m yang membuat<br />

jumlah variansinya Σ i λ<br />

i<br />

maksimum. Dengan kata lain, ciri-ciri m yang terpilih menahan sebagian besar<br />

varian total yang terkait dengan variable acak aslinya x(i). Tentu saja, yang terakhir itu sama dengan trace<br />

dari R x , yang diketahui dari aljabar linier sama dengan jumlah dari nilai-nilai eigen, yakni :<br />

N<br />

∑ − 1<br />

i=<br />

0<br />

λ .<br />

i<br />

Dapat ditunjukkan bahwa hal tersebut merupakan sifat yang lebih umum, yaitu bahwa dari semua<br />

kemungkinan kumpulan ciri-ciri m, diperoleh melalui transformasi linier ortogonal pada x, salah satunya<br />

dihasilkan dari transformasi KL yang memiliki jumlah varian terbesar.


Entropy. Diketahui bahwa entropy suatu proses didefinisikan sebagai H y = -E[ln p y (y)] dan merupakan<br />

ukuran keacakan suatu proses. Untuk Gaussian dengan rerata nol dari proses berdimensi m multivariabel,<br />

entropy tersebut menjadi :<br />

H y =<br />

1 E[y<br />

T −1<br />

1<br />

Ry<br />

y] + ln R<br />

y +<br />

2<br />

2<br />

1 m ln (2π). (6.20)<br />

2<br />

Tetapi E[y T R −1<br />

y<br />

y] = E[trace {y T −1<br />

−1<br />

Ry<br />

y}] = E[trace { Ry<br />

y y T }] = trace (I) = m dengan menggunakan sifat<br />

yang telah diketahui dari aljabar linier, maka determinannya adalah<br />

ln<br />

R<br />

y = ln (λ 0 λ 1 λ 2 ... λ m-1 ).<br />

Pemilihan terhadap ciri-ciri m yang bersesuaian nilai eigen terbesar m akan memaksimumkan entropy<br />

proses. Hal ini diharapkan karena varian dan keacakan berhubungan langsung.<br />

Catatan. Konsep subspace vektor eigen utama juga diekspliotasi sebagai pengklasifikasi. Pertama, rerata<br />

cuplikan dari seluruh pelatihan dikurangkan dari vektor-vektor ciri. Untuk setiap kelas, ω i , matrik korelasi<br />

R i diestimasi dan menghitung vektor-vektor eigen utama m (bersesuaian dengan nilai-nilai eigen terbesar<br />

m). Suatu matrik A i dibentuk menggunakan masing-masing vektor eigen sebagai kolom. Vektor ciri x yang<br />

tidak diketahui kemudian diklasifikasi ke dalam kelas ω j dengan :<br />

A T j<br />

x > A T i<br />

x , ∀ i ≠ j<br />

(6.21)<br />

yaitu bahwa kelas tersebut sesuai dengan norm maksimum proyeksi subspace dari x. Dari teorema<br />

Pythagoras, ini ekivalen dengan pengklasifikasian sebuah vektor dalam subspace kelas terdekat. Decision<br />

surface-nya merupakan hyperplanes jika semua subspace memiliki dimensi yang sama atau surface kuadrik<br />

dalam kasus yang lebih umum. Pengklasifikasian subspace mengintegrasi tahapan-tahapan penggenerasian<br />

atau pemilihan ciri dan rancangan klasifikasi.<br />

Contoh 6.2. Matrik korelasi dari sebuah vektor x diberikan sebagai :<br />

R x =<br />

⎡0,3<br />

⎢<br />

⎢<br />

0,1<br />

⎢⎣<br />

0,1<br />

0,1<br />

0,3<br />

− 0,1<br />

0,1 ⎤<br />

− 0,1<br />

⎥<br />

⎥<br />

0,3 ⎥⎦<br />

Menghitung transformasi KL dari vektor masukan tersebut.<br />

Nilai-nilai eigen dari R x adalah λ 0 = 0,1; λ 1 = λ 2 = 0,4. Karena matrik R x simetrik, maka selalu dapat disusun<br />

vektor-vektor eigen ortonormal. Untuk kasus ini dapat diperoleh :<br />

a 0 =<br />

1<br />

3<br />

⎡ 1 ⎤<br />

⎢ ⎥<br />

⎢<br />

−1<br />

, a<br />

⎥ 1 =<br />

⎢⎣<br />

−1⎥⎦<br />

1<br />

6<br />

⎡2⎤<br />

⎢ ⎥<br />

⎢<br />

1 , a<br />

⎥ 2 =<br />

⎢⎣<br />

1⎥⎦<br />

1<br />

2<br />

⎡ 0 ⎤<br />

⎢ ⎥<br />

⎢<br />

1 .<br />

⎥<br />

⎢⎣<br />

−1⎥⎦


<strong>Transformasi</strong> KL kemudian ditentukan dengan :<br />

⎡ y(0)<br />

⎤<br />

⎢ ⎥<br />

⎢<br />

y(1)<br />

⎥<br />

⎢⎣<br />

y(2)<br />

⎥⎦<br />

=<br />

⎡2 / 6<br />

⎢<br />

⎢ 0<br />

⎢<br />

⎣<br />

1/ 3<br />

1/<br />

1/<br />

−1/<br />

6<br />

2<br />

3<br />

1/<br />

−1/<br />

−1/<br />

6 ⎤<br />

⎥<br />

2⎥<br />

3⎥<br />

⎦<br />

⎡x(0)<br />

⎤<br />

⎢ ⎥<br />

⎢<br />

x(1)<br />

⎥<br />

⎢⎣<br />

x(2)<br />

⎥⎦<br />

di mana y(0), y(1) besesuaian dengan dua nilai eigen terbesar.<br />

6.4 DEKOMPOSISI NILAI SINGULAR<br />

Diberikan sebuah matrik X dengan rank r, akan ditunjukkan bahwa ada NxN matrik-matrik unitary U<br />

dan V sedemikian hingga :<br />

X = U<br />

1/<br />

⎡Λ<br />

⎢<br />

⎣ O<br />

2<br />

O⎤<br />

⎥ V<br />

H<br />

0 ⎦<br />

atau Y ≡<br />

1/<br />

⎡Λ<br />

⎢<br />

⎣ O<br />

2<br />

O ⎤<br />

⎥ = U H XV (6.22)<br />

0 ⎦<br />

1/ 2<br />

di mana Λ matrik diagonal r x r dengan elemen-elemen λ<br />

i<br />

dan λ<br />

i<br />

adalah nilai-nilai eigen bukan nol r<br />

dari matrik X H X yang terkait. O menyatakan matrik elemen nol. Dengan kata lain, ada matrik unitary U dan<br />

V sedemikian hingga matrik tertransformasi Y adalah diagonal. Dari (6.22) dapat ditunjukkan bahwa :<br />

r 1<br />

X = ∑ −<br />

=<br />

i 0<br />

H<br />

λi<br />

u i v i<br />

(6.23)<br />

di mana u i , v i berturut-turut merupakan kolom pertama r dari U dan V. Lebih tepatnya, u i , v i berturutturut<br />

adalah vektor-vektor eigen dari XX H dan X H X. Nilai-nilai eigen λ<br />

i<br />

dikenal sebagai nilai-nilai singular<br />

dari X dan pengekspansian menurut (6.23) sebagai dekomposisi nilai singular (SVD : singular value<br />

decomposition) dari X atau representasi spektral dari X.<br />

Contoh 6.3. Diberikan suatu matrik X sebagai berikut. Tujuannya adalah menghitung dekomposisi nilai<br />

singularnya.<br />

X =<br />

⎡6<br />

⎢<br />

⎢<br />

0<br />

⎢4<br />

⎢<br />

⎣0<br />

Langkah 1 : Mencari nilai-nilai eigen dan vektor-vektor eigen dari X T ⎡52<br />

36⎤<br />

X = ⎢ ⎥<br />

⎣36<br />

73 ⎦<br />

Ini adalah λ 0 = 100, λ 1 = 25 dan vektor eigen yang bersesuaian adalah v 0 = [0,6 ; 0,8] T ; v 1 = [0,8 ; -0,6] T .<br />

6⎤<br />

1<br />

⎥<br />

⎥<br />

0⎥<br />

⎥<br />

6⎦


Langkah 2 : Menghitung vektor-vektor eigen dari XX T . Yakni matrik 4x4 dengan rank-2. Vektor-vektor<br />

eigen yang bersesuaian dengan nilai-nilai eigen bukan nol λ 0 , λ 1 dihitung melalui (6.26), yaitu u 0 = 0,1X v 0 ,<br />

u 1 = 0,2X v 1 atau masing-masing [0,84; 0,08; 0,24; 0,48] T dan [0,24; -0,12; 0,64; -0,72] T .<br />

Langkah 3 : Menghitung SVD dari X, yaitu :<br />

X = 10 [0,84; 0,08; 0,24; 0,48] T [0,6 ; 0,8] + 5 [0,24; -0,12; 0,64; -0,72] T [0,8 ; -0,6].<br />

Jika dipertahankan suku-suku ke dua yang pertama, maka hasil pendekatannya adalah yang terbaik, dalam<br />

rasa (sense) Frobenius, pendekatan rank-1 dari X.<br />

6.5 ANALISIS KOMPONEN INDEPENDEN<br />

Analisis komponen utama (PCA) dilakukan dengan transformasi KL yang menghasilkan ciri-ciri y(i), i<br />

= 0, 1, 2, ..., N-1, yang tak terkorelasi timbal-balik. Solusi yang diperoleh dengan transformasi KL akan<br />

optimal ketika pereduksian dimensionalitasnya menjadi tujuan dan menginginkan minimisasi pendekatan<br />

MSE. Tetapi untuk aplikasi khusus seperti ilustrasi pada Gambar 6.1 solusi yang diperoleh jauh dari yang<br />

diharapkan. Analisis komponen independen (ICA : Independent Component Analysis) berusaha untuk<br />

mencapai lebih banyak dari pada dekorelasi sederhana terhadap data.<br />

Diberikan sejumlah cuplikan masukan x, ditentukan matrik invertibel W berukuran NxN sedemikian<br />

masukan-masukan y(i), i = 0, 1, 2, ..., N-1, dari vektor yang tertransformasi :<br />

y = W x (6.34)<br />

adalah independen timbal-balik. Tujuan dari independensi secara statistik adalah kondisi yang lebih kuat<br />

dari pada ke-tidak korelasi-an yang diperlukan oleh PCA. Kedua keadaan hanya ekivalen untuk variabel<br />

acak Gaussian.<br />

Pencarian ciri-ciri independent dari pada tak terkorelasi memberikan arti penggalian informasi yang<br />

sedikit lebih, tersembunyi di dalam statistik orde tinggi pada data. Seperti contoh Gambar 6.1 menyarankan<br />

bahwa pemaksaan pencarian dengan menggali informasi dalam statistic orde ke dua hanya menghasilkan<br />

sedikit yang menarik, untuk persoalan tersebut, arah proyeksi seperti pada a 1 . Tetapi a 2 sudah pasti arah<br />

yang lebih menarik dari pandangan titik pemisahan kelas. Penggunaan ICA dapat membuka selubung dari<br />

statistik data orde tinggi suatu kelumit informasi yang menunjuk a 2 sebagai sesuatu yang paling menarik.<br />

Selanjutnya, pencarian ciri-ciri independent secara statistik yang sejalan dengan sifat pembangun peta<br />

kognitif dunia luar di dalam otak, dengan pemrosesan data masukan dari indera. Hipotesis Barlow<br />

mengatakan bahwa hasil pemrosesan awal yang terbentuk dari detector ciri-ciri visual dapat menghasilkan<br />

proses reduksi kelebihan. Dengan kata lain, keluaran syaraf dimungkinkan secara statistik independen<br />

timbal-balik, terkondisi, tentu saja pada penerimaan pesan sensor.<br />

Dipastikan dahulu bahwa persoalan yang demikian terdefinisi dengan baik, memiliki solusi, dan dalam<br />

kondisi apa. Diasumsikan bahwa vektor data acak masukan x adalah sungguh-sungguh tergenerasi oleh<br />

kombinasi linier komponen-komponen (sumber) yang secara statistik independen dan stasioner dalam rasa<br />

(sense) yang seksama, yaitu :<br />

x = A y (6.35)<br />

Tugas berikutnya adalah di bawah kondisi yang bagaimana matrik W dapat dihitung sehingga mencakup<br />

komponen-komponen y dari persamaan (6.34) dengan penggalian informasi yang tersembunyi di dalam x.<br />

Biasanya A diketahui sebagai matrik pencampur (mixing) dan W sebagai matrik pengurai (de-mixing).


ICA Berdasarkan Cumulant Orde-Empat dan -Dua.<br />

Pendekatan ini dalam menjalankan ICA merupakan generalisasi langsung dari teknik PCA. Tansformasi<br />

KL berfokus pada statistik orde dua dan bergantung pada korelasi silang E[y(i)y(j)] menjadi nol. Ketika pada<br />

ICA bergantung pada komponen y menjadi independen secara statistik, hal ini setara dengan<br />

kebergantungan semua cross-cumulant orde tinggi menjadi nol. Disarankan untuk membatasi hingga<br />

cumulant orde empat sudah cukup untuk banyak aplikasi. Tiga yang pertama dari cumulant adalah sama<br />

dengan tiga yang pertama dari moment, yaitu<br />

κ 1 (y(i)) = E[y(i)] = 0<br />

κ 2 (y(i)y(j)) = E[y(i)y(j)]<br />

κ 3 (y(i)y(j) y(k)) = E[y(i)y(j) y(k)]<br />

dan cumulant orde empat diberikan oleh :<br />

κ 4 (y(i)y(j) y(k) y(r)) = E[y(i)y(j) y(k) y(r)] - E[y(i)y(j)] E[y(k)y(r)]<br />

- E[y(i)y(k)] E[y(j)y(r)] - E[y(i)y(r)] E[y(j)y(k)]<br />

di mana telah diasumsikan pemrosesan rerata nol. Asumsi lain yang biasanya digunakan dalam praktek<br />

adalah terkait dengan kesimetrian pdf-pdf. Hal ini membuat semua cumulant orde ganjil nol. Persoalannya<br />

sekarang direduksi untuk mendapatkan matrik W sehingga orde dua korelasi silang dan orde empat cross<br />

cumulant dari variabel transformasi adalah nol. Hal ini dicapai dengan langkah-langkah berikut :<br />

Langkah 1. Mengenakan PCA pada data masukan, yakni :<br />

ŷ = A T x (6.36)<br />

A adalah matrik transformasi unitary pada transformasi KL. Komponen dari vektor acak tertransformasi ŷ<br />

adalah tak terkorelasi.<br />

Langkah 2. Menghitung matrik unitary lain  sehingga cross cumulant orde empat dari komponen vektor<br />

acak tertransformasi memenuhi<br />

y =<br />

T<br />

 ŷ = 0. (6.37)<br />

Ini adalah sama dengan pencarian sebuah matrik  yang membuat jumlah kwadrat auto-cumulant orde<br />

empat maksimum, yaitu :<br />

max Ψ( Â ) ≡ ∑ −<br />

Aˆ<br />

A ˆT<br />

= I<br />

N 1<br />

i=<br />

0<br />

κ 4 (y(i)) 2 (6.38)


Jumlah kwadrat cumulant orde empat adalah invarian terhadap transformasi linier oleh matrik unitary.<br />

Sehingga jumlah kwadrat cumulant orde empat tersebut tetap untuk ŷ , pemaksimuman jumlah kwadrat<br />

auto-cumulant y akan memaksa cross-cumulant yang bersesuaian nol. Ruas kanan (6.38) merupakan fungsi<br />

dari (a) elemen-elemen matrik  yang tidak diketahui, (b) elemen-elemen matrik A yang diketahui, dan (c)<br />

cumulant komponen acak dari vektor data masukan x, yang mana diestimasi mendahului penerapan metode<br />

tersebut. Dalam praktek, peng-nol-an cross-cumulant adalah dicapai dengan pendekatan. Hal ini disebabkan<br />

(a) data masukan tidak patuh pada model linier (6.35), (b) data masukan dikorupsi oleh derau, yang tidak<br />

akan diingat, dan (c) cumulant masukan hanya diketahui dengan pendekatan, sehingga mereka diestimasi<br />

dengan sejumlah data masukan yang tersedia.<br />

Ketika kedua langkah tersebut lengkap, vektor ciri final merupakan komponen independen (secara<br />

pendekatan) yang diberikan dengan kombinasi transformasi :<br />

y = (A Â ) T x ≡ W x (6.39)<br />

Ketika  merupakan unitary ketakterkorelasian yang telah dicapai pada langkah pertama diwarisi oleh<br />

elemen-elemen y, yang sekarang memiliki cross-cumulant orde-empat dan –dua adalah nol.<br />

ICA Berdasarkan Informasi Timbal-Balik (Mutual).<br />

Pendekatan berdasarkan pada peng-nol-an cross-cumulant orde-empat dan –dua, walaupun sangat luas<br />

digunakan dalam praktek, bagaimanapun juga kekurangan dalam generalitas dan juga secara eksternal<br />

memaksakan struktur dalam matrik transformasi. Alternatifnya, pendekatan yang lebih nyaman secara teori<br />

adalah estimasi W dengan minimisasi informasi timbal-balik antar variabel-variabel acak yang<br />

ditransformasi. Informasi timbal-balik I(y) antar komponen y didefinisikan sebagai :<br />

N 1<br />

I(y) = -H(y) + ∑ −<br />

i=<br />

0<br />

H(y(i)) (6.40)<br />

di mana H(y(i)) merupakan entropy dari y(i) yang bersesuaian, didefinisikan sebagai :<br />

H(y(i)) == - ∫ p i(y(i)) ln p i (y(i)) dy(i) (6.41)<br />

di mana p i (y(i)) adalah pdf kecil dari y(i). Ternyata I(y) sama dengan jarak probabilitas Kullbach-Leibler<br />

N<br />

antar joint-pdf p(y) dan hasil kali dari masing-masing densitas probabilitas kecil ∏ − 1<br />

p ( y(<br />

i))<br />

.<br />

Jarak ini (informasi timbal-balik terkait I(y)) alah nol jika komponen-komponen y(i) secara statistik<br />

independen. Kombinasi (6.34), (6.40), (6.41) dan memperhatikan rumus hubungan kedua pdf yang terkait<br />

dengan x dan y (y fungsi dari x), maka :<br />

i=<br />

0<br />

i<br />

I(y) = -H(x) – ln )<br />

N −1<br />

det(W - ∑∫<br />

i=<br />

0<br />

p i (y(i)) ln p i (y(i)) dy(i) (6.42)<br />

di mana det(W) menyatakan determinan dari W. Elemen-elemen matrik tak diketahui W tersembunyi<br />

dalam pdf-pdf kecil dari variabel-variabel yang ditransformasi y(i). Tetapi tidak mudah untuk menyatakan<br />

dependensi ini secara eksplisit. Pendekatan yang dipakai adalah mengekspansi setiap probabilitas kecil di


sekitar pdf Gaussian g(y), mengikuti ekaspansi Edgeworth, dan memotong deret pada pendekatan yang<br />

masuk akal. Misalnya mengambil hingga suku ke dua yang pertama dari ekspansi Edgeworth, diperoleh :<br />

p(y) = g(y) (1 +<br />

1<br />

κ3 (y)H 3 (y) +<br />

3!<br />

1<br />

κ4 (y)H 4 (y) (6.43)<br />

4!<br />

di mana H k (y) adalah polynomial Hermit pada orde k. Untuk mendapatkan pernyataan pendekatan I(y)<br />

dalam suku-suku cumulant dari y(i) dan W, kita dapat (a) menyisipkan ke dalam (6.42) pendekatan pdf di<br />

dalam (6.43), (b) mengadopsi pendekatan ln(1+ y) ≈ y – y 2 , dan (c) menjalankan integrasi. Untuk kasus<br />

persamaan (6.43) dan batasan W harus unitary, maka :<br />

N 1<br />

I(y) ≈ C – ∑ −<br />

i=<br />

0<br />

1 2 1 2 7 4 1 2<br />

( κ<br />

3<br />

( y(<br />

i))<br />

+ κ<br />

4<br />

( y(<br />

i))<br />

+ κ<br />

4<br />

( y(<br />

i))<br />

- κ<br />

3<br />

( y(<br />

i))<br />

κ<br />

4<br />

( y(<br />

i))<br />

) (6.44)<br />

12 48 48 8<br />

di mana C dalam sesbuah independen variabel dari W. Di bawah asumsi bahwa pdf-pdf simetris (cumulant<br />

orde tiga nol) dapat ditunjukkan maka minimisasi pernyataan pendekatan informasi timbal-balik (6.44)<br />

adalah ekivalen dengan minimisasi jumlah kwadrat cumulant orde empat. Minimisasi I(y) pada (6.44)<br />

dapat ditempuh dengan teknik menurunkan gradien, di mana ekspektasi yang tercakup (terkait dengan<br />

cumulant) digantikan dengan masing-masing nilai sesaatnya.<br />

Kembali ke persamaan (6.42) sebelum menerapkan pendekatan. Karena H(x) tidak tergantung pada W,<br />

minimisasi I(y) adalah ekivalen dengan memaksimumkan :<br />

⎤<br />

J(W) = ln det(W ) + E ⎢<br />

⎡ N<br />

∑ − 1<br />

ln p<br />

i<br />

( y(<br />

i))<br />

⎥ (6.45)<br />

⎣ i=<br />

0 ⎦<br />

Pengambilan gradien fungsi cost terhadap W menghasilkan :<br />

di mana<br />

∂ J(<br />

W)<br />

∂W<br />

= W -T – E[φ(y) x T ] (6.46)<br />

dan<br />

⎡<br />

φ(y) ≡ ⎢−<br />

⎣<br />

'<br />

p i<br />

( y(<br />

i))<br />

≡<br />

T<br />

'<br />

"<br />

p y p<br />

N<br />

y N ⎤<br />

0<br />

( (0))<br />

−1<br />

( ( −1))<br />

,..., −<br />

⎥<br />

(6.47)<br />

p0<br />

( y(0))<br />

p<br />

N −1<br />

( y(<br />

N −1))<br />

⎦<br />

dp i<br />

( y(<br />

i))<br />

. (6.48)<br />

dy(<br />

i)<br />

Jelas bahwa turunan dari densitas probabilitas kecil tergantung pada jenis pendekatan yang diadopsi dalam<br />

setiap kasus. Skema kenaikan gradien umum pada langkah iterasi ke t dapat dituliskan :<br />

W(t) = W(t – 1) + μ(t) (W -T (t – 1) - E[φ(y) x T ])<br />

W(t) = W(t – 1) + μ(t) (I – E[φ(y) y T ] ) W -T (t – 1). (6.49)


Catatan<br />

Dari gradient pada (6.46) terlihat bahwa pada titik stasioner berlaku :<br />

∂ J(<br />

W)<br />

W T = E[I – φ(y) y T ] = 0. (6.50)<br />

∂W<br />

Dengan kata lain, apa yang telah dicapai dengan ICA merupakan generalisasi non linier dari PCA. Kondisi<br />

ke-tak terkorelasi-an dapat dituliskan :<br />

E[I - y y T ] = 0. (6.51)<br />

Pembaruan persamaan (6.49) yang mencakup inversi dari transpose estimasi W yang sedang berjalan. Di<br />

samping isu kerumitan komputasi, juga tidak ada jaminan invertibilitas proses adaptasi. Penggunaan<br />

gradient alami (natural) sebagai penggan gradient pada (6.46) dihasilkan :<br />

W(t) = W(t – 1) + μ(t) (I – E[φ(y) y T ] ) W T (t – 1). (6.52)<br />

yang tidak memuat inversi matrik dan pada saat yang sama meningkatkan konvergensi.<br />

6.6 TRANSFORMASI FOURIER DISKRET (DFT)<br />

Vektor basis / citra basis untuk ekspansi KL dan SVD adalah tidak tetap tetapi merupakan persoalan<br />

kebebasan dan merupakan hasil dari proses optimisasi. Hal ini menjadi alasan untuk optimalitasnya terhadap<br />

sifat-sifat dekorelasi dan kemasan informasi, tetapi dalam waktu yang bersamaan tercatat kelemahan<br />

utamanya memiliki kerumitan komputasional yang tinggi. Selanjutnya akan dibahas transformasi yang<br />

menggunakan vector/citra basis yang tetap. Suboptimalitasnya terhadap sifat dekorelasi dan kemasan<br />

informasi terkompensasi dengan tuntutan komputasionalnya yang rendah.<br />

DFT Satu-Dimensi<br />

Diberikan cuplikan masukan N yakni x(0), x(1), x(2), ..., x(N-1), maka DFT-nya didefinisikan sebagai :<br />

y(k) =<br />

1<br />

N<br />

N 1<br />

∑ −<br />

n=<br />

0<br />

2π<br />

x(<br />

n)exp(<br />

− j kn)<br />

, k = 0, 1, 2, …, N-1 (6.53)<br />

N<br />

dan DFT balik (inverse) sebagai :<br />

x(n) =<br />

1<br />

N<br />

N 1<br />

∑ −<br />

k = 0<br />

2π<br />

y(<br />

k)exp(<br />

j kn)<br />

, k = 0, 1, 2, …, N-1 (6.54)<br />

N<br />

di mana j ≡ − 1 . Pengumpulan semua x(n) dan y(k) bersama-sama ke dalam dua vektor Nx1 dan<br />

mendefinisikan :<br />

2 π<br />

W N = exp(-j ) (6.55)<br />

N<br />

maka (6.53), (6.54) dapat ditulisakan dalam bentuk matrik sebagai :


y = W H x, x = W y (6.56)<br />

di mana :<br />

W H =<br />

1<br />

N<br />

⎡1<br />

⎢<br />

⎢<br />

1<br />

⎢.<br />

⎢<br />

⎣1<br />

W<br />

1<br />

W<br />

.<br />

N<br />

N −1<br />

N<br />

W<br />

1<br />

W<br />

2<br />

N<br />

.<br />

2( N −1)<br />

N<br />

.<br />

.<br />

.<br />

.<br />

W<br />

W<br />

1<br />

N −1<br />

N<br />

.<br />

( N −1)(<br />

N −1)<br />

N<br />

⎤<br />

⎥<br />

⎥<br />

⎥<br />

⎥<br />

⎦<br />

(6.57)<br />

Hal itu tidak sulit untuk melihat bahwa W adalah matrik unitary dan simetrik W -1 = W H = W * .<br />

Vektor-vektor basis adalah kolom-kolom dari W. Sebagai contoh untuk N = 4<br />

W = 2<br />

1<br />

⎡1<br />

⎢<br />

⎢<br />

1<br />

⎢1<br />

⎢<br />

⎣1<br />

1<br />

j<br />

−1<br />

− j<br />

1<br />

−1<br />

1<br />

−1<br />

1 ⎤<br />

− j<br />

⎥<br />

⎥<br />

−1⎥<br />

⎥<br />

j ⎦<br />

dan vektor-vektor basis tersebut adalah<br />

1<br />

w 0 = [1, 1, 1, 1]<br />

T<br />

2<br />

1<br />

w 1 = [1, j, -1, -j]<br />

T<br />

2<br />

1<br />

w 2 = [1, -1, 1, -1]<br />

T<br />

2<br />

1<br />

w 3 = [1, -j, -1, j]<br />

T<br />

2<br />

dan<br />

3<br />

x = ∑ y(<br />

i)<br />

w i .<br />

i=<br />

0<br />

Komputasi langsung dari (6.56) memerlukan O(N 2 ) penghitungan. Tetapi dengan mengambil keuntungan<br />

dari struktur spesifik matrik W, penghematan mendasar dalam penghitungan dimungkinkan melalui<br />

algoritma FFT yang cerdas, di mana penghitungan setiap persamaan (6.56) dalam O(Nlog 2 N) operasi.<br />

DFT telah diperkenalkan sebagai jenis khusus dari transformasi unitary linier dari satu vektor ke yang lain.<br />

DFT sebagai alat ekspansi runtun x(n) ke dalam sejumlah N basis runtun h k (n) sebagi :<br />

di mana<br />

N 1<br />

x(n) = ∑ −<br />

=<br />

h k (n) =<br />

k<br />

0<br />

y ( k)<br />

h k (n)<br />

1<br />

N<br />

2π<br />

exp(j kn), untuk n = 0, 1, 2, ..., N-1<br />

N


h k (n) = 0, untuk yang lainnya,<br />

dan y(k) merupakan koefisien-koefisien ekspansi. Runtun basis DFT termasuk kelompok yang lebih umum<br />

dari runtun yang diketahui ortonormal, yaitu :<br />

〈h l (n), h k (n)〉 ≡ ∑<br />

n<br />

h ( n)<br />

h ( n)<br />

k<br />

*<br />

l<br />

= δ<br />

kl<br />

(6.58)<br />

di mana 〈., .〉 dikenal sebagai inner product dari runtun h k (n), h l (n). Untuk ekspansi DFT tersebut diperoleh<br />

〈h k (n), h l (n)〉 = N 1 ∑ −<br />

=<br />

N<br />

n<br />

N<br />

= N 1 ∑ −<br />

=<br />

n<br />

1<br />

0<br />

1<br />

0<br />

exp<br />

exp<br />

2π<br />

2π<br />

(j kn) exp(-j kn)<br />

N N<br />

Tetapi hal itu dapat ditunjukkan dengan mudah bahwa :<br />

2 π<br />

(j (k - l) n), k, l = 0, 1, 2, ..., N-1.<br />

N<br />

Sehingga :<br />

1 N<br />

∑ − 1<br />

2 π<br />

exp (j (k - l) n) = 1, untuk l = k + rN, r = 0, ±1, ±2, ...<br />

N n=<br />

0 N<br />

= 0, untuk yang lainnya. (6.59)<br />

〈h k (n), h l (n)〉 = δ<br />

kl<br />

.<br />

DFT Dua-Dimensi<br />

Diberikan suatu matrik/citra NxN, maka DFT dua-dimensinya didefinisikan sebagai :<br />

Y(k, l) =<br />

1 N<br />

∑ −<br />

N =<br />

1<br />

m 0<br />

N<br />

∑ − 1<br />

m=<br />

0<br />

X(m, n)<br />

km<br />

W N<br />

ln<br />

W<br />

N<br />

(6.60)<br />

dan DFT balik (inverse) adalah<br />

X(m,n) =<br />

1 N<br />

∑ −<br />

N =<br />

k<br />

1<br />

0<br />

N<br />

∑ − 1<br />

l=<br />

0<br />

Y(k, l)<br />

km<br />

W −<br />

N<br />

W −ln<br />

N<br />

. (6.61)<br />

Jelas terbaca bahwa hal itu dapat dituliskan dalam bentuk yang lebih kompak sebagai :<br />

Y = W H X W H , X = W Y W. (6.62)<br />

DFT 2-D merupakan transformasi yang dapat dipisahkan dengan citra basis w i w j T ; i, j = 0, 1, 2, ..., N-1.<br />

Jelas kelihatan dari (6.62) bahwa jumlah operasi yang diperlukan untuk masing-masing komputasi adalah<br />

O(N 2 log 2 N), yaitu banyaknya penjumlahan dan perkalian yang diperlukan untuk komputasi DFT satudimensi<br />

2N melalui algiritma FFT.


6.7 TRANSFORMASI KOSINUS DAN SINUS DISKRET<br />

Diberikan cuplikan masukan N yakni x(0), x(1), x(2), ..., x(N-1), maka transformasi kosinus diskret<br />

(DCT : Discrete cosine transform) di definisikan sebagai :<br />

N 1<br />

y(k) = α(k) ∑ −<br />

=<br />

n 0<br />

⎛ π (2n<br />

+ 1) k ⎞<br />

x(<br />

n)<br />

cos ⎜ ⎟ , k = 0, 1, 2, …, N-1 (6.63)<br />

⎝ 2N<br />

⎠<br />

dan invers dari DCT tersebut diberikan oleh :<br />

di mana :<br />

N<br />

x(n) = ∑ − 1<br />

⎛ π (2n<br />

+ 1) k ⎞<br />

α(<br />

k)<br />

y(<br />

k)<br />

cos ⎜ ⎟ , n = 0, 1, 2, …, N-1 (6.64)<br />

k=<br />

0<br />

⎝ 2N<br />

⎠<br />

α(k) =<br />

=<br />

1 , untuk k = 0, dan<br />

N<br />

2 , untuk k ≠ 0.<br />

N<br />

Dalam bentuk vector transformasi tersebut diberikan oleh<br />

di mana elemen-elemen matrik C diberikan oleh :<br />

y = C T x<br />

C(n,k) =<br />

=<br />

1 , k = 0, 0 ≤ n ≤ N-1<br />

N<br />

2 ⎛ π (2n<br />

+ 1) k ⎞<br />

cos ⎜ ⎟⎠ , 1 ≤ k ≤ N-1, 0 ≤ n ≤ N-1.<br />

N ⎝ 2N<br />

Matrik C memiliki elemen-elemen riil, dan mudah dilihat bahwa ia ortogonal, C -1 = C T .<br />

DCT 2-D merupakan transformasi yang dapat dipisah dan didefinisikan sebagai :<br />

Y = C T X C, X = C Y C T (6.65)<br />

<strong>Transformasi</strong> sinus diskret (DST : Discrete Sine Transform) didefinisikan melalui matrik transformasi<br />

S(k,n) =<br />

2 ⎛ π ( k + 1)( n + 1) ⎞<br />

sin ⎜<br />

⎟ ; k, n = 0, 1, 2, …, N-1<br />

N + 1 ⎝ N + 1 ⎠<br />

dan ia juga merupakan transformasi orthogonal.


6.8 TRANSFORMASI HADAMARD<br />

<strong>Transformasi</strong> Hadamard dan transformasi Haar memberikan keuntungan komputasi yang serius dari<br />

transformasi DFT, DCT, dan DST. Matrik unitary-nya terdiri dari ±1 dan transformasi tersebut dihitung<br />

melalui penjumlahan dan pengurangan saja, tanpa memuat perkalian. Sehingga diperoleh penghematan yang<br />

mendasar terhadap operasi yang menghabiskan waktu ketika prosesor melakukan perkalian.<br />

Matrik unitary Hadamard orde n adalah matrik NxN, N = 2 n , dihasilkan dari aturan iterasi berikut :<br />

di mana:<br />

H n = H 1 ⊗ H n-1 (6.66)<br />

1 ⎡1<br />

1 ⎤<br />

H 1 = ⎢ ⎥<br />

(6.67)<br />

2 ⎣1<br />

−1⎦<br />

dan ⊗ menyatakan hasil kali Kronecker dari dua matrik :<br />

A ⊗ B =<br />

⎡ A(1,1)<br />

B<br />

⎢<br />

⎢<br />

.<br />

⎢⎣<br />

A(<br />

N,1)<br />

B<br />

A(1,2)<br />

B<br />

.<br />

A(<br />

N,2)<br />

B<br />

.<br />

.<br />

.<br />

A(1,<br />

N ) B ⎤<br />

.<br />

⎥<br />

⎥<br />

A(<br />

N,<br />

N ) B⎥⎦<br />

di mana A(i,j) adalah elemen-elemen (i,j) dari A; i,j = 0, 1, 2, …, N. Kemudian sesuai dengan (6.66) dan<br />

(6.67) diperoleh :<br />

dan untuk n = 3<br />

H 2 = H 1 ⊗ H 1 =<br />

H 3 = H 1 ⊗ H 2 =<br />

1<br />

2<br />

⎡1<br />

⎢<br />

⎢<br />

1<br />

⎢1<br />

⎢<br />

⎣1<br />

1<br />

2<br />

1<br />

−1<br />

1<br />

−1<br />

⎡H<br />

⎢<br />

⎣H<br />

1<br />

1<br />

−1<br />

−1<br />

H<br />

2 2<br />

2<br />

− H 2<br />

1 ⎤<br />

−1<br />

⎥<br />

⎥<br />

−1⎥<br />

⎥<br />

1 ⎦<br />

⎤<br />

⎥ .<br />

⎦<br />

−1<br />

Tidak sulit untuk menunjukkan ortogonalitas dari H n , n = 1, 2, 3, ... yaitu bahwa H<br />

n<br />

=<br />

Untuk sebuah vektor x dari N cuplikan dan N = 2 n pasangan transformasinya adalah<br />

T<br />

H<br />

n<br />

= H n .<br />

y = H n x, x = H n y (6.68)<br />

<strong>Transformasi</strong> Hadamard 2-D ditentukan dengan :<br />

Y = H n X H n , X = H n Y H n . (6.69)<br />

<strong>Transformasi</strong> Hadamard memiliki keuntungan terhadap sifat pengemasan energinya sangat baik.


6.9 TRANSFORMASI HAAR<br />

Titik awal pendefinisian untuk transformasi Haar adalah h k (z), yang ditentukan dalam interval tertutup<br />

[0,1]. Orde k dari fungsi diuraikan secara unik ke dalam dua bilangan integer p, q<br />

di mana :<br />

k = 2 p + q – 1, k = 0, 1, 2, ..., L-1, dan L = 2 n .<br />

0 ≤ p ≤ n-1, 0 ≤ q ≤ 2 p untuk p ≠ 0 dan q = 0 atau 1 untuk p = 0.<br />

Tabel 6.1 merangkum masing-masing nilai pada L = 8. Fungsi Haar tersebut adalah<br />

h 0 (z) ≡ h 00 (z) =<br />

1 , z ∈ [0,1] (6.70)<br />

L<br />

1<br />

h k (z) ≡ h pq (z) = 2 p/2 −1<br />

−1/ 2<br />

q q<br />

, ≤ z <<br />

p<br />

p<br />

L 2 2<br />

1<br />

= -2 p/2 −1/ 2<br />

q q<br />

, ≤ z <<br />

p<br />

p<br />

L 2 2<br />

= 0 untuk yang lain di dalam [0,1].<br />

(6.71)<br />

Tabel 6.1. Parameter-parameter untuk Fungsi Haar<br />

k 0 1 2 3 4 5 6 7<br />

p 0 0 1 1 2 2 2 2<br />

q 0 1 1 2 1 2 3 4<br />

Matrik transformasi Haar orde L terdiri dari baris-baris yang dihasilkan fungsi sebelumnya yang terhitung<br />

pada titik-titik z = m/L, m = 0, 1, 2, ..., L-1. Sebagai contoh matrik transformasi 8 x 8 adalah<br />

H =<br />

⎡ 1<br />

⎢<br />

⎢<br />

1<br />

⎢ 2<br />

⎢<br />

1 ⎢ 0<br />

8 ⎢ 2<br />

⎢<br />

⎢ 0<br />

⎢ 0<br />

⎢<br />

⎢⎣<br />

0<br />

1<br />

1<br />

2<br />

0<br />

− 2<br />

0<br />

0<br />

0<br />

1<br />

1<br />

− 2<br />

0<br />

0<br />

2<br />

0<br />

0<br />

1<br />

1<br />

− 2<br />

0<br />

0<br />

− 2<br />

0<br />

0<br />

1<br />

−1<br />

0<br />

2<br />

0<br />

0<br />

2<br />

0<br />

1<br />

−1<br />

0<br />

2<br />

0<br />

0<br />

− 2<br />

0<br />

1<br />

−1<br />

0<br />

− 2<br />

0<br />

0<br />

0<br />

2<br />

1 ⎤<br />

−1<br />

⎥<br />

⎥<br />

0 ⎥<br />

⎥<br />

− 2⎥<br />

0 ⎥<br />

⎥<br />

0 ⎥<br />

0 ⎥<br />

⎥<br />

− 2 ⎥⎦<br />

(6.72)<br />

Tidak sulit untuk melihat bahwa H -1 = H T , yakni H adalah ortogonal. Sifat kemasan energi dari transformasi<br />

Haar tidak sangat baik. <strong>Transformasi</strong> Haar tersebut digunakan sebagai kendaraan untuk mendapatkan dari<br />

dunia transformasi unitary hingga analisis multi-resolusi.


6.10 REVISIT PENGEMBANGAN HAAR<br />

Split (bagi) set asal dari sampel-sampel input N (N genap) x(0), x(1),...,x(N-1) menjadi dua bagian<br />

suksesif yaitu, (x(2k), x(2k+1)), k= 0, 1,..., -1, dan gunakan transformasi Haar pada L=2. Pasangan sampelsampel<br />

yang ditransformasi adalah sebagai berikut.<br />

Yaitu,<br />

, k=0, 1,..., (6.73)<br />

(6.74)<br />

, k=0, 1,..., (6.75)<br />

Dapat diinterpretasikan dengan N sampel input pada dua filter nonkausal dengan respon impuls<br />

(h 1 (0)= ,h 1 (-1)= ) dan h 0 (0)= ,h 0 (-1)=- secara respektif. Fungsi transfernya adalah sebagai berikut.<br />

(6.76)<br />

(6.77)<br />

Dengan kata lain, pada L=2, transformasi Haar menghitung sampel-sampel output pada kedua filter<br />

ketika diumpankan dengan input sequence x(n), n=0,1,2,...,N-1.<br />

(a)<br />

(b)<br />

Gambar 6.4. (a) Operasi subsampling dan (b) Interpretasi pemfilteran transformasi Haar.


(6.78)<br />

Dengan operasi subsampling pada cabang yang lebih rendah setelah filter H 0 dan H 1 , identitas Nobel<br />

diarahkan menjadi:<br />

(6.79)<br />

Gambar 6.5. Pemfilteran dua tingkat yang diikuti dengan operasi subsampling<br />

(6.80)<br />

Dari fungsi transfer diatas dan mengambil operasi subsampling 4 (2x2), dua sampel pertama dari y 1 (k)<br />

diberikan dengan.<br />

(6.81)<br />

Kemudian di-split satu langkah berikutnya sebagai:


(a)<br />

(b)<br />

Gambar 6.6. (a) Identitas Nobel I dan (b) equivalent bank filter dari Gambar 6.5.<br />

Gambar 6.7. Bank filter tiga-struktur<br />

Berdasarkan Gambar 6.7, menunjukkan bahwa<br />

(6.82)<br />

Dan<br />

(6.83)<br />

Persamaan ini merupakan hasil pada baris kedua dan pertama dari transformasi Haar pada vektor input.<br />

Gambar 6.7 menunjukkan (tiga-tingkat) struktur pohon bank filter yang dibangkitkan dari H 0 (z) dan H 1 (z).<br />

Gambar 6.8 menunjukkan respon-respon frekuensi dari kedua filter tersebut.


Gambar 6.8. Magnitude dari respon frekuensi untuk dua filter Haar. H 1 adalah lowpass dan H 0 adalah<br />

highpass.<br />

6.11 DISKRETE TIME WAVELET TRANSFORM (DTWT)<br />

(a)<br />

(b)<br />

Gambar 6.9. Respon frekuensi ideal untuk (a) low-pass dan (b) high-pass filter.<br />

Kasus Dua Band<br />

Melihat dari kasus sederhana dua-band pada Gambar 6.4b, dimana sekarang dapat diasumsikan bahwa<br />

filter-filter bukan hanya Haar saja. Jika h 0 (k), h 1 (k) adalah respon impulse respektif, maka kemudian dapat<br />

ditulis:


Dimana y 1 (k) adalah output dari cabang yang lebih rendah pada Gambar 6.4b. Dengan mengumpulkan<br />

y 0 (k), y 1 (k), k=0, 1, 2,..., dalam bentuk vektor didapat:<br />

(a)<br />

Gambar 6.10. Tiga-struktur bank filter sintesis


Y=T i x (6.84)<br />

Dapat diasumsikan bahwa filter-filter itu dapat berupa nonkausal, dan merupakan juga Finite Impulse<br />

Response (FIR). T i pada dasarnya terdiri dari dua baris, satu dengan respon impuls dari H 0 dan yang lainnya<br />

dengan H 1 . Gambar 6.10b menunjukkan struktur kombinasi dari y0(k), y1(k), melalui filter G0, G1 untuk<br />

membentuk sequence . Simbol input dari filter-flter menunjukkan upsampling dengan M operasi, yang<br />

didefinisikan pada Gambar 6.10a. pada kasus ini M=2. Dengan kata lain ekuivalen dengan M-1 bernilai nol<br />

diantara dua sampel. Input sequence dari filter G0, G1 akan menjadi:<br />

Dan<br />

...0 y 0 (0) 0 y 0 (1) 0 y 0 (2) 0...<br />

...0 y 1 (0) 0 y 1 (1) 0 y 1 (2) 0...<br />

Filter Gi diketahui sebagai filter sintesis dan koresponding Hi, dari Gambar 6.4b, sebagai filter analisis.<br />

Dengan mengumpulkan (n) bersama-sama, dapat dilihat bahwa:<br />

Atau<br />

=T 0 y (6.85)<br />

Dengan =x dapat diberikan [Vett 92]<br />

T 0 T i = I = T i T 0 (6.86)<br />

Dengan mengalikan T i dengan kolom T 0 , persamaan ekuivalen dengan:<br />

, i,j = 0, 1 (6.87)


Atau berdasarkan pada definisi dari inner product dalam (6.58),<br />

(hi(2k-n),gj(n-2l))=δ kl δ ij<br />

Bisa dikatakan bahwa bank filter dua-band adalah rekunstruksi sempurna dan (n)=x(n), maka<br />

(6.88)<br />

Persamaan diatas dapat dilihat dari perspektif yang berbeda. Sebuah perluasan dari x(n) ke sekuen basis<br />

{g0(n-2k),g1(n-2k)}, k Є Z<br />

Dimana Z adalah himpunan dari bilangan bulat. Dari berbagai sudut pandang y 0 (k), y 1 (k) adalah masingmasing<br />

koefisien perluasan. Hal ini dikenal sebagai waktu diskrit transformasi wavelet (DTWT) dan<br />

koefisien y 0 (k), y 1 (k) sebagai waktu diskrit koefisien wavelet. Jadi, diberi rekonstruksi yang sempurna duaband<br />

Filter bank (sebagai contoh pada kondisi (6,87)) pasangan transformasi berikut didefinisikan<br />

(6.89)<br />

Keterangan<br />

Dua set fungsi dasar yang terlibat, yaitu<br />

h i (2k - n) ≡ Ø ik (n), g j (n – 2l) ≡ ψ jl (n) i, j = 0, 1 dan k, l Є Z<br />

Persamaan (6.87) adalah kondisi ortogonal antara Ø ik (n) dan ψ jl (n), yaitu,<br />

(Ø ik (n), ψ jl (n) = δ kl δ ij<br />

dan dikenal sebagai kondisi biorthogonality. Wavelet waktu diskrit mengubah pasangan pada (6.89) adalah<br />

ekspansi biorthogonal.<br />

Urutan dasar Ø ik (n) dan ψ jl (n) dari ekspansi tersebut adalah menyusun jumlah sampel genap<br />

sebanyak empat urutan dasar sekuen g 0 (n), g 1 (n), h 0 (-n), h l (- n), yang merupakan respon impuls sintesis<br />

dan filter analisis time-reversed. Untuk pemulihan x (n) dari koefisien wavelet waktu diskritnya, setiap<br />

koefisien y i (k) membobot dan menambahkan salinan sekuen g i (n) digeser oleh 2k.<br />

Ketika urutan Ø ik (n) = h i (2k - n) itu sendiri ortogonal, yaitu.


, i, j = 0, 1 dan k, l Є Z<br />

Kemudian<br />

g i (n) = h i (n)<br />

h l (0) 0.4829629 0.33267 0.2303778 0.1601024<br />

h l (1) 0.8365163 0.806891 0.7148466 0.6038293<br />

h l (2) 0.2241439 0.459877 0.6308808 0.7243085<br />

h l (3) -0.1294095 -0.135011 -0.0279838 0.1384281<br />

h l (4) -0.08544 -0.1870348 -0.2422949<br />

h l (5) 0.03522 0.0308414 -0.0322449<br />

h l (6) 0.0328830 0.0775715<br />

h l (7) -0.0105974 -0.006241 5<br />

h l (8) -0.0125807<br />

h l (9) 0.0033357<br />

Artinya, filter sintesis adalah membalikkan waktu dari filter analisis yang lainnya. Seperti halnya bank<br />

filter dikenal sebagai ortogonal atau paraunitary, dan memiliki set yang sama untuk sekuen (h i saja) yang<br />

terlibat dalam kedua persamaan transformasi wavelet waktu diskrit (6.89).<br />

Sejumlah orthogonal dan rekonstruksi yang sempurna biorthogonal pasang filter telah diusulkan dalam<br />

literatur, [Daub 90, Vett 95]. Tabel 6.2 memberikan koefisien untuk empat pertama filter Daubechies<br />

ortogonal maksimal datar. Versi low-pass h 1 (n) ditampilkan.<br />

Versi tinggi-pass diperoleh sebagai h 0 (n) = (-l) n h l (-n +2L - l), dimana L adalah panjang dari filter.<br />

Selain kasus urutan dasar wavelet dengan nilai-nilai yang telah ditetapkan, besar upaya penelitian telah<br />

dikhususkan untuk membangun urutan seperti yang dioptimalkan untuk masalah tertentu yang menarik. Ini<br />

juga telah digunakan dalam aplikasi pengenalan pola. Misalnya, dalam [Mall 97] diusulkan untuk<br />

merancang filter bank untuk mengoptimalkan kelas kriteria diskriminan. Pendekatan yang lain diikuti pada<br />

[Szu 92] mana kombinasi linear optimal basis standar dicari untuk klasifikasi sinyal suara.<br />

Ketika menerapkan filter bank dalam praktek, filter noncausal harus menunda tepat untuk membuatnya<br />

terealisasi (Lampiran D). Hal inimenjadikan penting diperlukan untuk melibatkan unsur-unsur penundaan<br />

tertentu pada titik-titik yang berbeda, dalam rangka menjaga properti rekonstruksi sempurna dari bank<br />

analisis-sintesis (Soal 6.19).<br />

Dalam prakteknya, jumlah sampel input x (n) terbatas, yaitu, n = 0, 1,. . . ,N - 1. Jadi, untuk perhitungan<br />

(6.89), beberapa kondisi awal adalah diperlukan. Zero, periodik, atau ekstensi simetris dari data yang<br />

populer alternatif. Seperti masalah pelaksanaan serta algoritma untuk efisiensi perhitungan koefisien DTWT<br />

yang dibahas dalam [Vett 95, Bab 6].


Gambar 6.11. Tiga-struktur bank filter sintesis<br />

Kasus Banyak Band<br />

Gambar 6.11 menunjukkan bagian sintesis sesuai dengan analisis bank pada Gambar 6.7, dan merupakan<br />

generalisasi dari konsep sintesis dua-band. Menggunakan identitas Noble yang ditunjukkan pada Gambar<br />

6.12 (Soal 6.17), akhirnya dengan struktur yang setara dengan bagian sintesis, ditunjukkan pada Gambar<br />

6.13. Biarkan f i (n) menjadi tanggapan impuls dari filter F i . Sangat mudah untuk melihat kontribusi masingmasing<br />

urutan y i (k) ke output (n) adalah<br />

i=0, 1,...,J-2<br />

Gambar 6.12. Bank filter sintesis struktur-pohon<br />

Gambar 6.11 menunjukkan sintesis sesuai analisis bank. Gambar 6,7, dan merupakan generalisasi dari<br />

konsep sintesis dua-band. Menggunakan Identitas Noble yang ditunjukkan pada Gambar 6.12 (Soal 6.17),<br />

Diakhiri dengan struktur ekuivalen dari bagian sintesis yang ditunjukkan pada Gambar 6.13. Biarkan f i (n)<br />

menjadi tanggapan impuls dari filter F i . Sangat Mudah untuk Melihat bahwa masing-masing kontribusi y i<br />

(k) ke output (n) adalah.<br />

Identitas Nobel II


Gambar 6.13. Ekuivalen dari tiga-struktur bank filter dari Gambar 6.11<br />

Rekonstruksi sempurna dari bank filter, yaitu,<br />

(6.90)<br />

Dimana<br />

(6.91)<br />

(6.92)<br />

Kemudian dari (6.90), (6.91), dan (6.92) kita mendapatkan Tabel 6.3.


Keterangan<br />

Karakteristik terkemuka DTWT adalah bahwa dasar urutan untuk masing-masingi tingkat adalah daya<br />

dari 2 shift sekuen yang sesuai urutan<br />

Dari transformasi wavelet kontinyu, semua analisa (sintesis) fungsi dasar yang dihasilkan dari analisis<br />

tunggal (sintesis) fungsi sekuen dengan dilasi (skala waktu) dan pergeseran [Meye 93, Daub 90, Vett 95].<br />

Jumlah ajaib 2, yang menentukan pergeseran kekuasaan di dasar urutan sekuen, hasil dari split berturut-turut<br />

oleh dua pada struktur pohon bank filter, yang telah didopsi untuk memperkenalkan DTWT tersebut. Bank<br />

filter tipe ini dikenal sebagai band oktaf-filter. Karakteristiknya adalah bahwa bandwidth dari masingmasing<br />

filter di bank adalah sama dalam skala logaritmik. Kadang-kadang mereka juga disebut konstan-Q<br />

bank filter untuk menekankan fakta bahwa rasio bandwidth filter dengan frekuensi masing-masing pusat<br />

konstan. Generalisasi dari DTWT dengan M integer yang lain di tempat 2 juga dapat didefinisikan dan<br />

digunakan [Stef 93].<br />

Contoh 6.4. <strong>Transformasi</strong> Haar-Epilog<br />

Kita telah melihat bahwa transformasi Haar setara dengan analisis struktur pohon filter bank. Mari kita<br />

melihat masalah sintesis. Untuk 8 x 8 Haar mentransformasi dan setelah reshuffle baris dari matriks yang<br />

sesuai Haar, didapatkan<br />

Atau


Y= x<br />

Dengan demikian transformasi Haar 8 x 8 memberikan empat koefisien pada resolusi terbaik tingkat 0,<br />

dua dan tingkat 1, dan satu untuk masing-masing resolusi tingkat 2 dan 3. Kemudian akan desain bank<br />

sintesis yang sesuai untuk mendapatkan x (n) dari koefisien ini. Respon impuls dari analisis filter Haar<br />

adalah<br />

Dapat dilihat bahwa<br />

Maka filter sintesis dapat didefinisikan sebagai<br />

Maka<br />

Dari ekuivalen struktur bank sintesis dari Gambar 6.13 didapat<br />

Dan respektif respon impuls adalah


Dengan argumen yang sama<br />

Didapat<br />

Atau<br />

6.12 INTERPRETASI MULTIRESOLUSI<br />

Tujuan dari bagian ini adalah untuk menyorot, tanpa menggunakan rincian matematika, aspek penting<br />

dari transformasi wavelet yang bertanggung jawab atas keberhasilannya sebagai alat dalam pengenalan pola<br />

serta berbagai aplikasi lain. Mari kita asumsikan untuk kesederhanaan bahwa dua filter di bank analisissintesis<br />

dari filter bank paraunitary yang ideal. Gambar 6.14 menunjukkan besarnya respon dari filter<br />

masing-masing dalam ekuivalen dari band oktaf filter bank struktur-pohon dari Gambar 6.13. Lebar respon<br />

frekuensi (bandwidth) yang dibelah dua untuk setiap tingkat pohon (Gambar 6.14d). Artinya, "detail"<br />

resolusi (high-pass) filter memiliki bandwidth yang lebar dan "kasar" resolusi (low-pass) filter adalah dari<br />

bandwidth sempit. Filter F 3 dan F 2 , dua resolusi kasar, dari bandwidth yang sama. Pengamatan ini adalah<br />

benar untuk setiap band oktaf bank filter sejumlah tingkat J. Artinya, lebar F i (z) adalah setengah dari lebar<br />

F i - 1 (z) dan lebar dari F J-2 dan F J - 1 adalah sama.


Gambar 6.14. Bandwidth filter dalam filter band oktaf<br />

<strong>Transformasi</strong> wavelet menyediakan sarana menganalisa sinyal input menjadi beberapa tingkat resolusi<br />

yang berbeda secara hirarkis. Ini juga dikenal sebagai analisis multiresolusi. Dengan demikian, komponen<br />

sinyal yang berbeda sesuai dengan kegiatan fisik dapat diwakili menjadi yang terbaik pada tingkat resolusi<br />

yang berbeda: kegiatan frekuensi tinggi pendek pada resolusi yang lebih baik dan panjang frekuensi rendah<br />

yang berada di tingkat resolusi tersebut.<br />

Pada bagian sintesis, sinyal dapat direkonstruksi dari komponen multiresolusinya. Lihat, sebagai contoh,<br />

Gambar 6.13. Urutan x (n) disintesis pertama oleh komponen kasar nya x 3 (n) dan kemudian frekuensi lebih<br />

tinggi (rinci) komponen ditambahkan, sehingga pendekatan yang berturut-turut lebih halus. Ketika<br />

komponen dari detail terbaik, x 0 (n), ditambahkan, sinyal asli diperoleh. Filosofi ini adalah inti dari sejumlah<br />

skema kompresi sinyal.<br />

Keterangan<br />

Analisis sinyal di sejumlah komponen melalui bank filter adalah tidak baru dan kembali ke pekerjaan Gabor<br />

di tahun 1940-an. Hal tersebut terkait langsung ke <strong>Transformasi</strong> Fourier waktu pendek didefinisikan sebagai<br />

[Gabo 46 Vett 95]<br />

(6.93)


dimana θ (n) adalah urutan jendela, yang pusatnya adalah berturut-turut pindah ke m poin yang berbeda.<br />

Jadi, setiap kali, bagian dari urutan x (n) sekitar m (tergantung lebar efektif jendela) dipilih dan<br />

ditransformasi Fourier. Hal ini dapat menunjukkan bahwa ini setara dengan menyaring sinyal x (n) dengan<br />

bank filter, masing-masing berpusat pada frekuensi yang berbeda tetapi semua dari mereka memiliki<br />

bandwidth yang sama (Soal 6.20). Ini adalah kelemahan, karena komponen sinyal frekuensi rendah dan<br />

tinggi adalah "tampak" melalui jendela dalam waktu yang sama. Apa yang sebenarnya dibutuhkan adalah<br />

jendela panjang untuk menganalisis perlahan waktu bervariasi komponen frekuensi rendah dan jendela<br />

sempit untuk mendeteksi frekuensi tinggi kegiatan waktu-pendek. Seperti kita lihat, dari sebuah band oktaf<br />

bank filter struktur-pohon, terkait dengan DTWT tersebut.<br />

Dapat dikatakan tentang transformasi wavelet dan analisis multiresolusi adalah hanya sekilas cerita dari<br />

keseluruhan, cerita yang benar-benar layak dilihat lebih lanjut, pada [Daub 90].<br />

6.13 PAKET-PAKET WAVELET<br />

DTWT ini telah diperkenalkan melalui band filter bank-oktaf, dan koefisien wavelet hasil pada output<br />

bank, ketika masukannya diumpankan dengan sinyal yang menarik. Band oktaf filter bank dibangun<br />

berturut-turut oleh dua pita frekuensi terendah dari bank struktur-pohon (Gambar 6.7). Namun, ada banyak<br />

kasus di mana sebagian besar kegiatan tersebut tidak ada di band frekuensi rendah tapi di bagian tengah<br />

frekuensi tinggi atau spektrum. Dalam kasus, mungkin berguna untuk dapat menempatkan frekuensi<br />

bandwidth yang lebih halus dalam band dimana kegiatan tersebut terjadi. Sebagaimana akan kita lihat nanti<br />

dalam bab ini, hal ini dapat meningkatkan kekuatan diskriminatif sistem dari sudut pandang klasifikasi.<br />

Gambar 6.15a menunjukkan contoh bank filter struktur-pohon dengan membelah frekuensi halus yang<br />

terjadi pada band frekuensi tengah. Gambar 6.15b menunjukkan bandwidth yang dihasilkan untuk masingmasing<br />

filter (ideal) di bank (f-axis) dan panjang jendela masing-masing tanggapan impuls dalam domain<br />

waktu (n-sumbu). Dengan kata lain, filter 2 dan 3 memiliki setengah bandwidth dan dua kali respon impuls<br />

4. Selain itu, mereka memiliki satu keempat bandwidth dan impuls respon empat kali lebih lama daripada 1.<br />

Sebagai perbandingan, Gambar 6.16 menunjukkan frekuensi-waktu resolusi plot untuk band-oktaf filter<br />

bank (a) dan untuk sebuah bank dengan bandwidth yang sama (b), terkait dengan DTWT dan transformasi<br />

Fourier waktu singkat, masing-masing. Setelah membebaskan diri dari band-oktafstruktur-pohon, bank filter<br />

dapat dibangun oleh berbagai strategi pertumbuhan pohon, dengan Gambar 6.15 yang hanya satu<br />

kemungkinan. Seperti halnya dengan filosofi-band oktaf, struktur-struktur pohon juga mengakibatkan satu<br />

set urutan dasar untuk perluasan sinyal diskrit [Coif 92] disebut paket wavelet.<br />

6.14 PANDANGAN GENERALISASI DUA-DIMENSI<br />

Semua konsep yang dibahas sejauh ini dapat dipindahkan ke dalam kasus dua dimensi. Bagaimana<br />

seseorang bisa mendefinisikan subsampling di sini Cara langsung adalah melalui filosofi "terpisah".<br />

Artinya, pertama-tama kita mengubah (filter) kolom di urutan dua dimensi dan kemudian dihasilkan baris.<br />

Ini mengarah pada subsampling yang ditunjukkan pada Gambar 6.17. Dengan kata lain, kita meninggalkan<br />

setiap baris yang lain dan setiap kolom lainnya (untuk subsampling oleh 2). Gambar 6.18 menunjukkan<br />

struktur Filter bank yang sesuai. Urutan gambar (m, n) muncul dalam filter kolom tahap 1 setelah kolom dan<br />

output masing-masing di subsampel oleh 2. gambar yang dihasilkan subsampel pada gilirannya disaring<br />

pada tahap dua, yang sebelumnya dimasukkan ke dalam filter baris demi baris.


Gambar 6.15. Struktur-pohon paket wavelet<br />

Dengan asumsi H0 menjadi filter high-pass dan H1 low-pass, empat frekuensi band yang dibentuk oleh<br />

prosedur sebelumnya diilustrasikan dalam Gambar 6.19a. Kawasan H1 H1 sesuai dengan kolom low-pass<br />

dan baris, H1 Ho untuk kolom low-pass dan baris high-pass, dan sebagainya. Gambar 6.19b menunjukkan<br />

hasil segmentasi dari domain frekuensi ketika daerah low-pass H1 H1 adalah berturut split dengan<br />

mengulangi prosedur.<br />

Gambar 6.16. Frekuensi versus resolusi waktu untuk (a) band-oktaf dan (b) bandwidth bank filter yang sama<br />

Gambar 6.17. Jarak subsampling 2 untuk gambar


Contoh 6.5. Gambar 6.20 menunjukkan gambar 64 x 64 dari segitiga. Tiga "baris" gambar adalah 32 x<br />

32 gambar yang dihasilkan ketika melewati gambar segitiga melalui struktur Gambar 6.18. Dalam<br />

penyaringan kolom tahap pertama garis vertikal berjalan melalui low-pass filter H 1 (tidak ada variasi di<br />

atasnya) dan garis horizontal dan diagonal melalui high-pass H 0 . Hal ini karena dalam penyaringan kolom<br />

ini muncul sebagai impuls di masing-masing kolom, sehingga kaya pada frekuensi tinggi. Dalam baris<br />

scanning tahap kedua garis horizontal yang akan melalui low-pass filter. penalaran serupa menjelaskan<br />

posisi berbagai bagian segitiga dalam band yang berbeda. Meskipun ini jelas merupakan contoh yang sangat<br />

sederhana, sangat instruktif. Ini menunjukkan bagaimana gambar asli dapat diperoleh dari komponen<br />

multiresolusi dan juga bagaimana karakteristik yang berbeda (arah dalam kasus ini) dari keseluruhan dapat<br />

diisolasi<br />

di<br />

band berbeda.<br />

Gambar 6.18. Elemen dasar untuk bank filter dua dimensi<br />

Gambar 6.19. (a) divisi domain frekuensi (b) hasil divisi suksesif low-pass


Gambar 6.20. Gambar segitiga dan versi yang terfilter<br />

6.15 APLIKASI<br />

Pengenalan Karakter tulisan tangan<br />

Gambar 6.21 menunjukkan karakter "3" serta kontur batasnya setelah penerapan algoritma kontur<br />

melacak [Pita 92], sekarang menjadi tugas salah satu bentuk pengalan. Seperti dijelaskan secara lebih rinci<br />

dalam Bab 7, batas dapat direpresentasikan sebagai kurva parametrik tertutup dalam bidang kompleks<br />

(6.94)<br />

dengan N adalah jumlah sampel (piksel) menelusuri kontur dan x (n), y (n) yang sesuai koordinat. Titik<br />

pertama (x (0), y (0)) dari urutan dianggap sebagai asal.<br />

Gambar 6.21. Koefisien wavelet untuk kurva batas karakter 3


Klasifikasi Tekstur<br />

Gambar 6.22. (a) contoh gambar tekstur (b) transformasi paket wavelet<br />

REFERENCES<br />

[Akan 93] Akansu A.N., Hadda R.A. Multiresolution Signal Decomposition, Academic Press, 1992.<br />

[Arbt 90] Arbter K., Snyder W. E., Burkhardt H., Hirzinger G “Application of affineinvariant Fourier<br />

descriptors to recognition of 3-D objects,” IEEE Transactions on Pattern Analysis and Machine<br />

Intelligence, Vol. 12(7), pp. 640-647, 1990.<br />

[Atti 92] Attick J.J. “Entropy minimization: A design principle for sensory perception,” International<br />

Journal of Neural Systems, Vol. 3, pp. 81-90, 1992.<br />

[Barl 89] Barlow H.B. “Unsupervised learning,” Neural Computation, Vol. 1, pp. 295-3 11, 1989.<br />

[Bell 00] Bell A.J. “Information theory, independent component analysis, and applications,” in<br />

Unsupervised Adaptive Filtering, Part I: Blind Source Separation (Haykin S., ed.), pp. 237-264, John<br />

Wiley & Sons, 2000.<br />

[Bovi 90] Bovic A.C., Clark M., Geisler W.S. “Multichannel texture analysis using localized spatial filters,”<br />

IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 12fl), pp. 55-73, 1990.<br />

[Bovi 91] Bovic A.C. “Analysis of multichannel narrow-band filters for image texture segmentation,” IEEE<br />

Transactions on Signal Processing, Vol. 39(9), pp. 2025-2044, 199 I.<br />

[Brod 66] Brodatz P. Textures: A Photographic Album for Artists and Designers, Dover, New York, 1966.<br />

[Burt 83] Burt P.J., Adelson E.H. “The Laplacian pyramid as a compact image code,” IEEE Transactions on<br />

Communications, Vol. 31(4), pp. 532-540, 1983.<br />

[Camp 66] Campell E, Kulikowski J. “Orientation selectivity of the human visual system,” Journal of<br />

Physiology, Vol. 197, pp. 4 3 7 4 1 , 1966.<br />

[Camp 68] Campell E, Robson J. “Application of Fourier analysis to the visibility of gratings,” Journal of<br />

PhysiuZugy, Vol. 197, pp. 55 1-566, 1968.<br />

[Chan 93] Chang T., Kuo C.C.J. “Texture analysis and classification with tree structured wavelet<br />

transform,” IEEE Transactions on Image Processing, Vol. 2(4), pp. 429-442, 1993.<br />

[Chua 96] Chuang GC.H., Kuo C.C.J. “Wavelet descriptor of planar curves: Theory and applications,” IEEE<br />

Transactions on Image Processing, Vol. 5( l), pp. 56-71, 1996.<br />

[Coif 92] Coifman R.R., Meyer Y., Wickerhauser M.V. “Wavelet analysis and signal processing,” in<br />

Wavelets and Their Applications (Ruskai M.B. et al. eds.), pp. 153-178, Jones and Barlett, 1992.


[Como 94] Comon P. “Independent component analysis-A new concept’ Signal Processing, Vol. 36, pp.<br />

287-314, 1994.<br />

[Crim 82] Crimmins T.R. “A complete set of Fourier descriptors for two dimensional shapes,” IEEE<br />

Transactions on Systems, Man Cybernetics, Vol. 12(6), pp. 848-855, 1982.<br />

[Daub 90] Daubechies I. Ten Lectures on Wavelets, SIAM, Philadelphia, 1991.<br />

[Daug 85] Daugman J.G “Uncertainty relation for resolution in space, spatial frequency. and orientation<br />

optimized by two dimensional visual cortical filters,” Journal of Optical Society ofAmerica, Vol. 2, pp.<br />

1160-1.169, 1985.<br />

[Deco 95] Deco G, Obradovic D. “Linear redundancy reduction learning,” Neural Networks, Vol. 8(5), pp.<br />

751-755, 1995.<br />

[Diam 96] Didmantaras K.I.. Kung S.Y. Principal Componenr Neural Nefworks, John Wiley, 1996.<br />

[Doug 00] Douglas S.C., Amari S. “Natural gradient adaptation,” in Unsupervised Adaptive Filtering, Part<br />

I: Blind Source Separation (Haykin S. ed.), pp. 13-61, John Wiley & Sons, 2000.<br />

[Este 77] Esteban D., Galand C. “Application of quadrature mirror filters to split band voice coding<br />

schemes,” Proceedings of the IEEE Conference on Acoustics Speech and Signal Pmcesing, pp. 191-<br />

195, May 1977.<br />

[Fie194] Field D.J. “What is the goal of sensory coding’ Neural Computation, Vol. 6, pp. 559-601,1994.<br />

[Flan 72] Flanagan J.L. Speech Analysis, Synthesis and Perception, Springer Verlag, New York, 1972.<br />

[Gabo 46] Gabor D. “Theory of communications,” Journal of the Institute of Elec. Eng., Vol. 93, pp.<br />

429457,1946.<br />

[Geze 00] Gezerlis V., Theodoridis, S. “An optical music recognition system for the notation of Orthodox<br />

Hellenic Byzantine music,” Proceedings of the International Conference on Pattern Recognition<br />

(ICPR), Barcelona, 2000.<br />

[Geze 02] Gezerlis V., Theodoridis S. “Optical character recognition of the Orthodox Hellenic Byzantine<br />

music,” Pattern Recognition, Vol. 35(4), pp. 895-914,2002.<br />

[Hale 95] Haley G., Manjunath B.S. “Rotation-invariant texture classification using modified Gabor filters,”<br />

IEEE International Conference on Image Processing, pp. 262-265, 1995.<br />

[Hale 99] Haley G., Manjunath B.S. “Rotation-invariant texture classification using complete space<br />

frequency model,” IEEE Transactions on Imuge Prucessing, Vol. 8(2), pp. 255-269, 1999.<br />

[Hayk 99] Haykin S. Neural Networks-A Comprehensive Foundation, 2nd edition, Prentice Hall, 1999.<br />

[Hayk 00] Haykin S. (ed.) Unsupervised Adaptive Filtering, Part I: Blind Source Separtion, John Wiley &<br />

Sons, 2000.<br />

[Hube 85] Huber P.J. “Projection pursuit,” The Annals of Statistics, Vol. 13(2), pp. 435- 47S, 1985.<br />

[Hui 96] Hui Y., Kok C.W., Nguyen T.Q. “Theory and design of shift invariant filter banks,” Proceeding of<br />

IEEE TFTS’96, June 1996.<br />

[Hyva 01] Hyvarien A., Karhunen J., Oja E. Independent Component Analysis, Wiley Interscience, 2001.<br />

[Jain 89] Jain A.K. Fundamentals of Digital Image Processing, Prentice Hall, 1989.<br />

[Jain 91] Jain A.K., Farrokhnia E “Unsupervised texture segmentation using Gabor filters,” Pattern<br />

Recognition, Vol. 24(12), pp. 1167-1 186, 1991.<br />

[Jone 87] Jones M.C., Sibson R. “What is projection pursuit’ Journal of the Royal Statistical Society, Ser.<br />

A, Vol. 150, pp. 1-36, 1987.<br />

[Jutt 91] Jutten C., Herault J. “Blind separation of sources, Part I: An adaptive algorithm based on<br />

neuromimetic architecture,” Signal Processing, Vol. 24, pp. 1-10, 1991.<br />

[Kapo 96] Kapogiannopoulos G, Papadakis M. “Character recognition using biorthogonal discrete wavelet<br />

transform,” Proceedings of the 41st annual SPIE meeting, Vol. 2825, August 1996.<br />

[Koho 89] Kohonen T. Self-organization and Associative Memory, 3rd ed., Springer Verlag, 1989.<br />

[Lain 93] Laine A,, Fan J. “Texture classification by wavelet packet signatures,” IEEE Transactions on<br />

Pattern Analysis and Machine Intelligence, Vol. 15( 1 I), pp. 11 86-1191, 1993.


[Lain 96] Laine A,, Fan J. “Frame representations for texture segmentation,” IEEE Transcaction on Image<br />

Processing, Vol. 5(5), pp. 771-780, 1996.<br />

[Lee 98] Lee T.-W. Independent ComponentAnalysis, Kluwer Academic Publishers, 1998.<br />

[Levi 85] Levine M.D. Vision in Man and Machine, McGraw-Hill, New York, 1985.<br />

[Lim 90] Lim J.S. Two-Dimensional Signal Processing, Prentice Hall, 1990.<br />

[Mall 89] Mallat S. “Multifrequency channel decompositions of images and wavelet models,” IEEE<br />

Transactions on Acoustics, Speech, and Signal Processing, Vol.<br />

[Mall 97] Mallet Y., Coomans D., Kautsky J., De Vel 0. “Classification using adaptive wavelets for feature<br />

extraction,” IEEE Transactionsfor Pattern Analysis and Machine Intelligence, Vol. 19(10), pp. 1058-<br />

1067, 1997.<br />

[Marco 95] Marco S.D., Heller P.N., Weiss J. “An M-band two dimensional translationinvariant wavelet<br />

transform and its applivations,” Proceedings of the IEEE Conference on Acoustics Speech and Signal<br />

Processing, pp. 1077-1080, 1995. 37(12), pp. 2091-2110,1989.<br />

[Meye 93] Meyer Y. Wavelets, Algorithms and Applications, SIAM, Philadelphia, 1993.<br />

[Mojs 00] Mojsilovic A,, Popovic M.V., Rackov D.M. “On the selection of an optimal wavelet basis for<br />

texture characterization,” IEEE Transactions Image Processing, Vol. 9( 12), 2000.<br />

[Nach 75] Nachmais J., Weber A. “Discrimination of simple and complex gratings,’’ Vision Research, Vol.<br />

15, pp. 217-223, 1975.<br />

[Oja 83] Oja E. Subspace Methods for Pattern Recognition, Letchworth, U.K.: Res. Studies Press, 1983.<br />

[Papo 91] Papoulis A. Probability, Rundom Variables, and Stochastic Processes, 3rd ed., McGraw-Hill,<br />

1991.<br />

[Pich 96] Pichler O., Teuner A., Hosticka, B. “A comparison of texture feature extraction using adaptive<br />

Gabor filtering, pyramidal and tree structured wavelet transforms.’‘ Partern Recognition, Vol. 29(5),<br />

pp. 733-742, 1996.<br />

[Pita 92] Pitas I. Digital Image Processing Algorithms, Prentice Hall, 1992.<br />

[Prak 97] Prakash M., Murty M.N. “Growing subspace pattern recognition methods and their neural network<br />

models,” IEEE Transactions on Neural Networks, Vol. 8( 1). pp. 161-168, 1997.<br />

[Proa 92] Proakis J., Manolakis D. Digital Signal Processing, 2nd ed., Macmillan, 1992.<br />

[Stef 93] Steffen P., Heller P.N., Gopinath R.A., Burms C.S. “Theory of regular M-band wavelet bases,”<br />

IEEE Tansactions on Signal Processing, Vol. 41 (1 2), pp. 3497-35 1 1, 1993.<br />

[Stra 80] Strang G Linear Algebra and its Applications, 2nd ed., Harcourt Brace Jovanovich, 1980.<br />

[Szu 92] Szu H.H., Telfer B.A., Katambe S. “Neural network adaptive wavelets for signal representation<br />

and classification,” Optical Eng., Vol. 31, pp. 1907-1916, 1992.<br />

[Turn 86] Turner M.R. “Texture discrimination by Gabor functions,” Biol. Cybern., Vol. 55, pp. 71-82,<br />

1986.<br />

[Unse 86] Unser M. “Local linear transforms for texture measurements,” Signal Processing, Vol. 11( I), pp.<br />

61-79, 1986.<br />

[Unse 89] Unser M., Eden M. “Multiresolution feature extraction and selection for texture segmentation,”<br />

IEEE Transations on Pattern Analysis and Machine intelligence, Vol. 11(7), pp. 717-728, 1989.<br />

[Unse 95] Unser M. ‘Texture classification and segmentation using wavelet frames,” IEEE Transactions on<br />

Image Processing, Vol. 4(11), pp. 1549-1560, 1995.<br />

[Vaid 93] Vaidyanathan P.P. Multirate Systems and Filter Banks, Prentice Hall, 1993.<br />

[Vett92] Vetterli M., Herley C. “Wavelets and filter banks: Theory and design,” IEEE Transactions on<br />

Signal Processing, Vol. 0(9), pp. 2207-2232, 1992.<br />

[Vett 95] Vetterli M., Kovacevic J. Wavelets and Subband Coding, Prentice Hall, 1995. Pata731 Watanabe<br />

S., Pakvasa N. “Subspace method in pattern recognition,” Proceedings of the International Joint<br />

Conference on Pattern Recognition, pp. 25-32, 1973.<br />

[Weld96] Weldon T., Higgins W., Dunn D. “Efficient Gabor filter design for texture segmentation,” Pattern<br />

Recognition, Vol. 29(2), pp. 2005-2025, 1996.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!