Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Thèse Sciences Cognitives - Olivier Nerot
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
102<br />
Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />
Ainsi, les réseaux développés ici ne possèdent ni entrées, ni sorties, dont le rôle ait<br />
été prédéfini à la construction du réseau, comme cela est le cas dans les architectures à<br />
couches (entrées, couches cachées, sorties). Chaque neurone peut être un candidat<br />
pour la perception (forçage par l’environnement) ou pour l’action (contrôle moteur). Ainsi,<br />
il n’y a pas de hiérarchie dans les neurones, prédéterminée lors de la conception du<br />
réseau : que ce soit un neurone en contact avec l’extérieur, un neurone isolé, un groupe<br />
de neurones, tous ont pour fonction d’anticiper leur environnement ; le neurone forcé<br />
par l’environnement cherche à anticiper les modifications de celui-ci, un neurone caché<br />
cherche à minimiser les perturbations transmises par ses voisins, une population<br />
neuronale cherche à se stabiliser par rapport aux autres populations. La notion de<br />
minimisation des perturbations induites permet donc d’envisager une règle similaire à<br />
tous les niveaux de description du système 35 .<br />
Nous n’entendons pas que le principe énoncé précédemment est le seul à l’oeuvre<br />
dans le système cérébral : nous tentons simplement de mettre en évidence un des<br />
principes envisageables. En effet, si un système cherche simplement à minimiser les<br />
perturbations externes, une solution simple pour lui est de s’enfermer dans une bulle<br />
isolée. Or ce n’est pas ce que nous réalisons. Peut être faut-il donc imaginer d’autre<br />
principes qui contrebalancent les effets de cette recherche de ‘tranquillité maximale’ du<br />
système.<br />
5. Information externe et information interne<br />
Cette organisation, identique à tous les niveaux de description du réseau, est un des<br />
avantages des architectures forcées : le forçage peut s’interpréter à tous les niveaux de<br />
description du système. A l’échelle du neurone, il n’y a pas de différence fondamentale<br />
entre une information provenant de l’extérieur, et une information provenant d’un autre<br />
neurone. Cette information ne porte pas la marque de son origine. Dans les deux cas,<br />
cette information est perçue comme une perturbation.<br />
Cette interprétation est en tout point similaire à celle de Varela [[205]], qui voit la<br />
même indifférenciation de l’origine de l’information neuronale :<br />
En tant que réseau neuronal clos, le système nerveux n’a ni entrées ni<br />
sorties ; et aucune caractéristique intrinsèque de son organisation ne lui<br />
permet de distinguer, par la dynamique de ses changements d’états,<br />
l’origine interne ou externe de ses changements.<br />
Cette approche peut permettre de rendre naturelle la description à différents niveaux<br />
du système percevant, et peut nous orienter vers des architectures modulaires ou<br />
‘modularisables’.<br />
6. Nombre d’itérations d’apprentissage<br />
L’une des grandes limites théoriques des modèles connexionnistes est le nombre<br />
d’itérations nécessaires à l’apprentissage : il n’est pas rare de devoir réaliser plusieurs<br />
centaines de milliers d’itérations d’apprentissage, voire parfois plusieurs millions.<br />
35 N’est ce pas ce que chacun cherche à réaliser lorsqu’il essaye de convaincre autrui de la validité de ses<br />
idées, ceci afin de ne plus être perturbé par des idées contraires aux siennes ? D’ailleurs, les méthodes<br />
utilisées sont souvent d’autant plus perturbantes pour l’environnement, que les idées sont difficilement<br />
justifiées ‘en interne’.<br />
DEUXIEME PARTIE : DEVELOPPEMENT