29.07.2013 Views

ETUDE DES MACHINES ELECTRIQUES PAR CAO

ETUDE DES MACHINES ELECTRIQUES PAR CAO

ETUDE DES MACHINES ELECTRIQUES PAR CAO

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Chapitre IV <strong>CAO</strong> optimisée d’un moteur asynchrone sous Matlab/Flux 2D<br />

façon minime. L’approche mathématique, basée sur ce concept, sert à minimiser une fonction de<br />

coûts formulée autour de l’erreur de sortie. Alors l’adaptation commence, par les neurones de la<br />

couche de sortie, forcés de la bonne valeur, puis on fait varier légèrement les poids des neurones des<br />

couches précédentes. Il y a autant d’algorithmes d’apprentissage que de types de réseau, mais la<br />

question qui se pose, est-on absolument sur de la stabilité du réseau !, question classique qui revient<br />

à s’assurer de la convergence des algorithmes d’apprentissage utilisés. Les procédures<br />

d’apprentissage peuvent se subdiviser, elle aussi, en deux grandes catégories.<br />

• Apprentissage supervisé: dans ce cas, la connaissance a priori de la sortie désirée est<br />

nécessaire. On présente au réseau le vecteur d’entrée puis on calcule sa sortie, cette dernière<br />

sera comparée avec la sortie désirée, ensuite les poids sont ajustés de façon à réduire l’écart<br />

entre elles, cette procédure est répétée jusqu’à ce qu’un critère de performance soit satisfait.<br />

• Apprentissage non supervisé: ne nécessite pas d’enseignement externe et se base<br />

uniquement sur les valeurs d’entrées sans fournir de réponse désirée, le réseau s’auto<br />

organise de façon à optimiser une fonction de coût.<br />

L’un des problèmes de l’utilisation des réseaux de neurones consiste dans le choix de sa topologie.<br />

Par exemple, il n’existe pas de règle générale qui donne le nombre de neurones à retenir pour la<br />

couche intermédiaire. Ce choix est spécifique à chaque application, et à ce jour, ce ne sont que des<br />

choix arbitraires, dont on vérifie par la suite la validité. Une fois la structure est fixée, il faut passer<br />

par le processus d’apprentissage, par lequel les poids vont être ajustés de manière à satisfaire un<br />

critère d’optimisation. Prenons le cas d’identification d’un processus qui comporte deux entrées, et<br />

une sortie, l’apprentissage va se faire sur un ensemble de triplet ( x 0,<br />

x , ys)<br />

. Pour chaque triplet,<br />

l’erreur entre les deux sorties, est calculée, elle est utilisée pour corriger les poids de la couche de<br />

sortie puis par rétro-propagation de l’erreur (error backpropagation), des erreurs intermédiaires,<br />

correspondant à la couche cachée sont ainsi calculées et permettent l’ajustement des poids ω ij de la<br />

couche cachée [74, 108-112].<br />

• L’activité du neurone j de la couche m est donnée par:<br />

x<br />

m j<br />

138<br />

1<br />

= m m−<br />

∑ω<br />

y 1<br />

(IV. 45)<br />

i<br />

ij<br />

i<br />

0 2

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!