Etude de la conception et du contrôle comportemental ... - Admiroutes

admiroutes.asso.fr

Etude de la conception et du contrôle comportemental ... - Admiroutes

36

Entropie

Le second principe de la thermodynamique précise qu'un système clos se dirige toujours vers des états

d'ordre de moins en moins élevé, c'est-à-dire vers le désordre de plus grande probabilité. L'entropie est la

mesure de cette évolution thermodynamique. L'entropie d'un système clos est donc toujours croissante ou

nulle. La célèbre équation de Clausius, définissant l'entropie S et traduisant ce principe, est :

dS ≥ 0

Un système ouvert, par contre, ne peut pas satisfaire à un tel principe. Son évolution lui permet en effet

d'atteindre des états d'ordre plus élevé et de moindre probabilité. I. Prigogine [Prigogine 1982] a défini

une nouvelle notion d'entropie pour ces systèmes, avec deux sortes d'entropies :

dS = d e S + d i S

d e S ≤ 0 ou d e S ≥ 0

d i S ≥ 0

où d e S est la variation d'entropie venant de l'extérieur, par apport d'énergie et d'information dans le

système, et d i S est la variation d'entropie interne, par l'activation des processus internes irréversibles.

L'entropie externe peut être négative, lorsque l'apport externe revient à créer de l'ordre dans le système.

L’entropie interne est elle, classiquement, toujours positive ou nulle.

Il est bien évident qu'un système multi-agent massif, composé de processus concurrents multiples, prend

aussi des informations dans son environnement, pour les transformer en connaissances dans les agents,

pour transformer ceux-ci et améliorer le fonctionnement général. L'entropie externe sera la mesure de

ces apports informationnels transformés en connaissances, c’est-à-dire en code. L'entropie interne par

contre mesurera la dégradation du fonctionnement des agents, le fait des traitements des processus

entraînant de l'indéterminisme, le fait de la reproduction et du clonage plus ou moins bons des agents.

Ainsi, le système pourra-t-il s'organiser vers un ordre croissant, au sens des connaissances qu’il

manipule, en utilisant au mieux l'apport d’informations externes. Il satisfait donc à la notion d'entropie

la Prigogine".

Equation de trajectoire : une réduction par rapport à l'analyse morphologique

La notion d'équation décrivant la trajectoire générale d’un système multi-agent massif sera une

interprétation de l'équation de von Bertalanffy pour les systèmes ouverts [von Bertalanffy op. cité].

Il s'agit de mettre en relation dans une équation d'évolution temporelle ce que le système produit avec ce

qui permet ou inhibe cette production. Il s'agit d'un système multi-agent, et ce qu'il produit peut être

considéré comme de la connaissance plus ou moins activée. Cette connaissance sera distribuée sous

diverses formes dans les agents et servira de fondement à leurs activations. Elle sera produite comme une

émergence, donc apparaîtra sous la forme de caractères distingués et construits par les organisations

d’agent, et ceci par rapport à d'autres connaissances mises temporairement en sommeil.

Nommons K i le i eme type de connaissance que le système peut produire. Rappelons que l'agentification a

été réalisée à partir d'ontologies, que les connaissances sont dans le système en nombre fini et que toute

connaissance admet des qualifications, des renvois vers d'autres connaissances.

Dans le fonctionnement du système multi-agent massif, on s'intéresse donc à l'émergence d'une

connaissance notée K i , soit :

More magazines by this user
Similar magazines