ETUDE DES MACHINES ELECTRIQUES PAR CAO
ETUDE DES MACHINES ELECTRIQUES PAR CAO
ETUDE DES MACHINES ELECTRIQUES PAR CAO
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Chapitre IV <strong>CAO</strong> optimisée d’un moteur asynchrone sous Matlab/Flux 2D<br />
façon minime. L’approche mathématique, basée sur ce concept, sert à minimiser une fonction de<br />
coûts formulée autour de l’erreur de sortie. Alors l’adaptation commence, par les neurones de la<br />
couche de sortie, forcés de la bonne valeur, puis on fait varier légèrement les poids des neurones des<br />
couches précédentes. Il y a autant d’algorithmes d’apprentissage que de types de réseau, mais la<br />
question qui se pose, est-on absolument sur de la stabilité du réseau !, question classique qui revient<br />
à s’assurer de la convergence des algorithmes d’apprentissage utilisés. Les procédures<br />
d’apprentissage peuvent se subdiviser, elle aussi, en deux grandes catégories.<br />
• Apprentissage supervisé: dans ce cas, la connaissance a priori de la sortie désirée est<br />
nécessaire. On présente au réseau le vecteur d’entrée puis on calcule sa sortie, cette dernière<br />
sera comparée avec la sortie désirée, ensuite les poids sont ajustés de façon à réduire l’écart<br />
entre elles, cette procédure est répétée jusqu’à ce qu’un critère de performance soit satisfait.<br />
• Apprentissage non supervisé: ne nécessite pas d’enseignement externe et se base<br />
uniquement sur les valeurs d’entrées sans fournir de réponse désirée, le réseau s’auto<br />
organise de façon à optimiser une fonction de coût.<br />
L’un des problèmes de l’utilisation des réseaux de neurones consiste dans le choix de sa topologie.<br />
Par exemple, il n’existe pas de règle générale qui donne le nombre de neurones à retenir pour la<br />
couche intermédiaire. Ce choix est spécifique à chaque application, et à ce jour, ce ne sont que des<br />
choix arbitraires, dont on vérifie par la suite la validité. Une fois la structure est fixée, il faut passer<br />
par le processus d’apprentissage, par lequel les poids vont être ajustés de manière à satisfaire un<br />
critère d’optimisation. Prenons le cas d’identification d’un processus qui comporte deux entrées, et<br />
une sortie, l’apprentissage va se faire sur un ensemble de triplet ( x 0,<br />
x , ys)<br />
. Pour chaque triplet,<br />
l’erreur entre les deux sorties, est calculée, elle est utilisée pour corriger les poids de la couche de<br />
sortie puis par rétro-propagation de l’erreur (error backpropagation), des erreurs intermédiaires,<br />
correspondant à la couche cachée sont ainsi calculées et permettent l’ajustement des poids ω ij de la<br />
couche cachée [74, 108-112].<br />
• L’activité du neurone j de la couche m est donnée par:<br />
x<br />
m j<br />
138<br />
1<br />
= m m−<br />
∑ω<br />
y 1<br />
(IV. 45)<br />
i<br />
ij<br />
i<br />
0 2