23.06.2013 Views

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

Thèse Sciences Cognitives - Olivier Nerot

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

102<br />

Mémorisation par forçage des dynamiques chaotiques dans les modèles connexionnistes récurrents<br />

Ainsi, les réseaux développés ici ne possèdent ni entrées, ni sorties, dont le rôle ait<br />

été prédéfini à la construction du réseau, comme cela est le cas dans les architectures à<br />

couches (entrées, couches cachées, sorties). Chaque neurone peut être un candidat<br />

pour la perception (forçage par l’environnement) ou pour l’action (contrôle moteur). Ainsi,<br />

il n’y a pas de hiérarchie dans les neurones, prédéterminée lors de la conception du<br />

réseau : que ce soit un neurone en contact avec l’extérieur, un neurone isolé, un groupe<br />

de neurones, tous ont pour fonction d’anticiper leur environnement ; le neurone forcé<br />

par l’environnement cherche à anticiper les modifications de celui-ci, un neurone caché<br />

cherche à minimiser les perturbations transmises par ses voisins, une population<br />

neuronale cherche à se stabiliser par rapport aux autres populations. La notion de<br />

minimisation des perturbations induites permet donc d’envisager une règle similaire à<br />

tous les niveaux de description du système 35 .<br />

Nous n’entendons pas que le principe énoncé précédemment est le seul à l’oeuvre<br />

dans le système cérébral : nous tentons simplement de mettre en évidence un des<br />

principes envisageables. En effet, si un système cherche simplement à minimiser les<br />

perturbations externes, une solution simple pour lui est de s’enfermer dans une bulle<br />

isolée. Or ce n’est pas ce que nous réalisons. Peut être faut-il donc imaginer d’autre<br />

principes qui contrebalancent les effets de cette recherche de ‘tranquillité maximale’ du<br />

système.<br />

5. Information externe et information interne<br />

Cette organisation, identique à tous les niveaux de description du réseau, est un des<br />

avantages des architectures forcées : le forçage peut s’interpréter à tous les niveaux de<br />

description du système. A l’échelle du neurone, il n’y a pas de différence fondamentale<br />

entre une information provenant de l’extérieur, et une information provenant d’un autre<br />

neurone. Cette information ne porte pas la marque de son origine. Dans les deux cas,<br />

cette information est perçue comme une perturbation.<br />

Cette interprétation est en tout point similaire à celle de Varela [[205]], qui voit la<br />

même indifférenciation de l’origine de l’information neuronale :<br />

En tant que réseau neuronal clos, le système nerveux n’a ni entrées ni<br />

sorties ; et aucune caractéristique intrinsèque de son organisation ne lui<br />

permet de distinguer, par la dynamique de ses changements d’états,<br />

l’origine interne ou externe de ses changements.<br />

Cette approche peut permettre de rendre naturelle la description à différents niveaux<br />

du système percevant, et peut nous orienter vers des architectures modulaires ou<br />

‘modularisables’.<br />

6. Nombre d’itérations d’apprentissage<br />

L’une des grandes limites théoriques des modèles connexionnistes est le nombre<br />

d’itérations nécessaires à l’apprentissage : il n’est pas rare de devoir réaliser plusieurs<br />

centaines de milliers d’itérations d’apprentissage, voire parfois plusieurs millions.<br />

35 N’est ce pas ce que chacun cherche à réaliser lorsqu’il essaye de convaincre autrui de la validité de ses<br />

idées, ceci afin de ne plus être perturbé par des idées contraires aux siennes ? D’ailleurs, les méthodes<br />

utilisées sont souvent d’autant plus perturbantes pour l’environnement, que les idées sont difficilement<br />

justifiées ‘en interne’.<br />

DEUXIEME PARTIE : DEVELOPPEMENT

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!