12.07.2015 Views

Tamtam Proceedings - lamsin

Tamtam Proceedings - lamsin

Tamtam Proceedings - lamsin

SHOW MORE
SHOW LESS
  • No tags were found...

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

132 Chitroubl’approximation de la méthode proprement dite. La précision sur les valeurs propres etles vecteurs propres successifs diminue à partir d’un certain rang de la matrice.3. ACP Neuronale d’Images MultispectralesLa topologie du modèle neuronal pour l’ACP d’image multispectrale est présentéedans la figure 1. Les images spectrales (vecteur X) sont connectées aux images CP àextraire (vecteur Y) par les coefficients synaptiques (vecteur W). Les poids latéraux(vecteur C) servent à décorréler la m ième CP au cours de l’extraction avec les (m-1) CPdéjà extraites. L’apprentissage est basé sur le calcul récursif au sens des moindres carrés“recursive least squares (RLS)” pour extraire la m ième CP sachant que les (m-1) CP ontété déjà extraites. Il se fait selon les deux règles suivantes :WC2k1Wjkk.yjk.X yjkW.jk2k 1C kk.y kY. y k.Ckjj (1)jjj1jj (2)La première règle, dite adaptative, est la règle Hebbienne d’apprentissage. Ladeuxième règle, dite d’orthogonalité, est la règle anti-Hebbienne d’apprentissage. Ellen’est pas utilisée dans la construction de la première CP. Le paramètre k joue un rôlecapital dans la convergence du réseau [5], [6] et [7]. Le choix optimal de k . est expriméen fonction de la taille de l’image, L, et de la variance de la CP en cours deconstruction, E(y 2 j ), telle que : k = [L.E(y 2 j )] -1 . Le réseau se stabilise lorsque les W iconvergent vers les vecteurs propres de X , et les C i convergent vers zéro. La structuredu réseau qui extrait la première image CP est la même que celle donnée dans la figure1, mais avec seulement un neurone à la couche de sortie. Pour extraire le reste desimages CP, la taille de la structure de réseau augmente par un ou plusieurs neuronesselon le nombre de CP à extraire et les poids latéraux sont utilisés pour connecter lesneurones des CP déjà extraites à la structure du réseau. L’algorithme d’apprentissagepeut être alors énoncé comme suit:1. Initialisation des coefficients W j (0) et C j (0) à de petites valeursaléatoires.2. Calcul de la sortie du neurone y j (0).3. Mise à jour des vecteurs W j (k) et C j (k), et du paramètre (k).4. Si le critère d’arrêt est atteint, arrêt de l’apprentissage. Autrementretour à l’étape 3.TAMTAM –Tunis– 2005

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!