la brochure « L'explosion des mathématiques - lmpt

lmpt.univ.tours.fr

la brochure « L'explosion des mathématiques - lmpt

Sommaire5 ......................... Avant-propos Mireille Martin-Deschamps et Patrick Le Tallec7 ......................... Le temps qu’il fera Claude BasdevantLa prévision météorologique ou climatique n’est pas une mince affaire. Elle implique la modélisationde nombreux phénomènes de natures différentes, et l’intervention de plusieurs sciences, des mathématiquesà la biologie, en passant par l’informatique, la physique ou la chimie.11 ......................... Les dessous du téléphone portable Daniel KrobLe téléphone mobile est maintenant un objet relativement banal. Qui n’a jamais vu un portable ou téléphonéavec ? Mais rares sont ceux qui ont une pensée pour la science et la technologie mises en jeu.15 ........................... Cryptage et décryptage : communiquer en toute sécurité Jean-Louis NicolasDans le monde actuel, où les télécommunications occupent une place cruciale, la cryptographie est unenjeu majeur. Elle est aussi devenue une science complexe, qui ne peut se passer de mathématiciens dehaut niveau.19 ......................... Contrôler un monde complexe Pierre PerrierQu’il s’agisse de la manœuvrabilité d’un avion, de la tenue mécanique d’une structure compliquée ou dela gestion du trafic automobile, le progrès dans ces domaines ne vient pas uniquement des inventionspurement techniques. Il naît aussi de recherches abstraites, comme la théorie mathématique du contrôle.23 ......................... Le théorème du soufflet Étienne GhysUne règle, un crayon, du carton, des ciseaux et de la colle : il n’en faut guère plus pour procurer auxmathématiciens du plaisir et de jolis problèmes — dont l’étude se révèle souvent, après coup et demanière inattendue, utile dans d’autres métiers.28 ........................ Trouver un gène responsable de cancer Bernard PrumLes développements de la biologie moderne, et notamment ceux de la génétique moléculaire, exigentde nouveaux outils mathématiques. Exemple avec la statistique et son rôle dans la recherche d’un gènelié au cancer du sein.32 ......................... Des ondelettes pour comprimer une image Stéphane MallatQu’elles soient stockées numériquement dans des mémoires informatiques ou qu’elles voyagent à traversInternet, les images occupent beaucoup de place. Heureusement, il est possible de les « condenser» sans altérer leur qualité !36 ........................ Empêcher les ondes de faire du bruit Daniel BoucheComment échapper à la détection par un radar ? Quelle est la forme optimale d’un mur anti-bruit ? Peutonaméliorer les images échographiques ? Pour recevoir une réponse satisfaisante, ces questions demandentdes analyses théoriques poussées.41 ......................... Quand art rime avec maths Francine DelmerLes mathématiques n’inspirent pas que les scientifiques. De nombreux artistes y ont puisé la matière decertaines de leurs œuvres. La réciproque est parfois vraie aussi, comme dans le cas de la perspective, oùl’art a montré le chemin à des théories géométriques.47 ......................... De l’ADN à la théorie des nœuds Nguyen Cam Chi et Hoang Ngoc MinhL’activité biologique de la molécule d’ADN dépend notamment de son agencement dans l’espace et de la façondont elle est entortillée — choses qui sont du ressort de la théorie mathématique des nœuds.


6 L’explosion des mathématiquesCependant, un travail très important de communication et de sensibilisation resteà faire, pour modifier une image qui, elle, n’a pas suffisamment évolué, et faire découvrirtous les attraits et les atouts du monde des mathématiques et de ses applications.Le but du présent document est de faire connaître les mathématiques sous leurs aspectsles plus divers — scientifiques, techniques, culturels, sociologiques ; de souligner la diversitéet l’universalité d’une discipline qui entretient des liens aussi bien avec la physique,la chimie, l’économie et la biologie qu’avec l’histoire, la musique et la peinture. Lesmathématiques sont partout. Sans elles, pas d’ordinateurs, pas de systèmes d'information,pas de téléphonie mobile ; pas d’ateliers de conception pour les constructeursautomobiles et aéronautiques ; pas de systèmes de localisation par satellite, de traitementdu signal, de décryptage du génome, de prévisions météo, de cryptographie, decartes à puce, de robots.Au-delà de leur rôle de science académique et de formation de base à l'école, lesmathématiques sont omniprésentes dans la société d'aujourd'hui. Elles suivent, accompagnentet quelquefois précèdent les développements scientifiques et technologiquesactuels, qui font aussi bien appel aux résultats de la recherche fondamentale contemporainela plus récente qu'ils tirent profit des découvertes accumulées dans le passé.Enfin, les besoins en mathématiques croissent avec l'accélération des mutations et créationstechnologiques. On ne peut s'en passer, alors qu'on est confronté à la nécessitéd'élaborer, de maîtriser, ou d'analyser des systèmes de complexité croissante.Les États-Unis l'ont bien compris, puisque la NSF (National Science Foundation, l’organismefédéral chargé de distribuer les crédits pour la recherche universitaire) a décidédepuis l’an 2000 d'augmenter considérablement son soutien financier aux mathématiques.Notre chance est que l'école mathématique française reste une des meilleuresau monde, et que la culture mathématique de ses scientifiques et ingénieurs reste detrès bon niveau à l'échelle internationale. Le nombre de médailles Fields, équivalentdu prix Nobel qui n’existe pas en mathématiques, en témoigne. Récemment, lors dutroisième Congrès européen de mathématiques qui s'est tenu à Barcelone en juillet 2000,cinq des dix lauréats primés étaient issus de cette école. Donnons-nous les moyens degarder ce niveau d’excellence.Mireille Martin-DeschampsPrésidente de la SMF de 1998 à 2001Patrick Le TallecPrésident de la SMAI de 1999 à 2001


Le temps qu’il feraClaude BasdevantLa prévision météorologique ou climatique n’est pas une mince affaire.Elle implique la modélisation de nombreux phénomènes de naturedifférente et l’intervention de plusieurs sciences, des mathématiquesà la biologie, en passant par l’informatique, la physique ou la chimie.derrière la charmante présentatrice quitous les soirs à la télévision nous décrit les prévisionsmétéo pour les jours à venir, il n’y aplus de grenouille et de thermomètre depuislongtemps. Il y a des ordinateurs super-puissantsauxquels on a fait absorber un grandnombre de mesures, obtenues principalementpar satellites, beaucoup de lois de la mécaniqueet de la physique, mais aussi beaucoupde mathématiques, parfois très récentes.Pour que les ordinateurs fournissent desprévisions, il faut élaborer au préalable cequ’on appelle un modèle numérique de prévisiondu temps. Schématiquement, un telmodèle de prévision à l’échéance de huit à dixjours représente l’état de l’atmosphère par lesvaleurs des paramètres météorologiques(vitesse du vent, température, humidité, pression,nuages, etc.) aux centres de « boîtes »d’environ cinquante kilomètres de côté et dequelques dizaines à quelques centaines demètres de hauteur. Ce découpage imaginairede toute l’atmosphère en boîtes est inévitable,Vue d’artiste des boîtes de calcul d’un modèle de prévision du tempsou du climat. (Illustration L. Fairhead LMD/CNRS).car il est impossible de spécifier les paramètresmétéorologiques en tous les points de l’atmosphère(ces points sont en nombre infini !).En principe, plus les boîtes sont petites — etdonc nombreuses —, plus la description del’état atmosphérique est précise, et plus lesprévisions le seront aussi. Mais en pratique,les boîtes ne font pas moins d’une cinquantainede kilomètres ; en deçà, la puissance desplus gros ordinateurs ne suffirait pas : il fautbien que le calcul s’achève en temps utile, c’està-direen nettement moins de 24 heures !


8 L’explosion des mathématiquesPartant de l’état de l’atmosphère supposéconnu au début de la période à prévoir, lemodèle fait calculer par l’ordinateur son évolutionfuture en utilisant les lois de la dynamiqueet de la physique. L’évolution dans letemps est calculée pas à pas, par intervallesde quelques minutes. Tel est le principe de laprévision numérique du temps, un principeconnu depuis le début du XX e siècle mais quia attendu les années 1940-1950 et les premiersordinateurs avant d’être mis en œuvre.Les mesures météorologiques ne sontpas directement exploitablesPremier problème dans le schéma idéal deprévision qui vient d’être décrit : savoirconstruire l’« état initial de l’atmosphère ».Les observations sont loin d’être bien adaptéesà cet exercice. Les stations météo au solsont fort mal réparties sur le globe et fournissenttrès peu de mesures en altitude. Quantaux satellites, ils sont pour la plupart à défilement,c’est-à-dire qu’ils balayent continûmentla Terre. Leurs mesures ne sont donc pasobtenues au même instant en tous points. Deplus, les satellites mesurent des quantités intégréessur toute l’épaisseur de l’atmosphère (ils’agit en général des flux d’énergie reçus dansune certaine gamme de longueurs d’onde) etnon pas les grandeurs météorologiques (vent,température, humidité, etc.) qui entrent enjeu dans les équations des modèles.On dispose donc d’une masse de donnéesdisparates, mal distribuées à la surface duglobe, étalées sur 24 heures, avec lesquelles ilfaut « initialiser » une prévision, c’est-à-direconstruire un état météorologique initial dontle modèle simulera l’évolution. Or grâce auxtravaux sur l’optimisation dynamique, domaineauquel ont beaucoup contribué le chercheurrusse Lev Pontriaguine (1908-1988) et l’écolemathématique française, on a pu mettre aupoint, dans les années 1980, des méthodesdites d’« assimilation variationnelle » qui permettentde reconstruire de façon optimalel’état initial. L’idée sous-jacente à ces méthodes,opérationnelles depuis l’année 2000 à Météo-France, est d’obliger en quelque sorte la trajectoiredu modèle numérique à passer « près »des données observées pendant les 24 heuresprécédentes. L’assimilation variationnelle n’estd’ailleurs pas la seule technique mathématiquemoderne qui a bouleversé le traitementdes observations: l’utilisation des réseaux neuromimétiquesou des ondelettes, inventésdepuis moins de vingt ans, a donné lieu à desgains spectaculaires en efficacité, précision etrapidité dans le traitement des données fourniespar les satellites.Quand l’analyse numérique entreen action…Une fois connu l’état atmosphérique initialdont a besoin le modèle numérique deprévision, reste à écrire le programme informatiquecapable de calculer le temps futur àpartir de cet état initial et des lois de la physique.Celles-ci reposent sur une descriptioncontinue de l’espace et du temps ; mais notremodèle numérique, lui, ne connaît qu’unnombre, certes grand, mais fini, de boîtes ; demême, les intervalles de temps entre deuxétats calculés sont de plusieurs minutes — ondit que le problème a été « discrétisé ». Passerdes équations continues à des schémas numériquespour le modèle discrétisé, tout en gardantla meilleure précision possible, tel est ledomaine de l’analyse numérique, une branchedes mathématiques qui a explosé depuis l’ar-


Le temps qu’il fera 9Panache d'ozone sur la région parisienne le 7 août 1998 à 16 heures et 300 m d'altitude.Codées en couleurs, les concentrations simulées par le modèle numérique CHIMERE duLMD/IPSL; en incrustation, les mesures par avion (Illustration MERLIN de Météo-France).rivée des ordinateurs. L’analyse numérique apour but de savoir résoudre des équations etmener les calculs jusqu’au bout, c’est-à-direjusqu’à l’obtention de valeurs numériques précises,en investissant le moins de temps et d’effortspossible. Elle est indispensable pour quesimulation ne soit pas synonyme de simulacreet pour évaluer l’incertitude des prévisions.Par exemple, des progrès très importants ontété obtenus récemment concernant lesméthodes permettant de simuler le déplacementdes espèces chimiques ou des particulesdans la turbulence atmosphérique. Ces avancéesont significativement amélioré l’étude etla prévision de la pollution de l’air.Peut-on prédire le temps longtemps àl’avance ? Non, indique la théorie dessystèmes dynamiquesOn a évoqué jusqu’ici la prévision dutemps à courte échéance, de huit à dix jours.Mais pourquoi ne fait-on pas des prévisionsà plus longue échéance ? Le météorologueaméricain Edward N. Lorenz,dans un célèbre article de1963, a montré que c’étaitprobablement sans espoir.L’atmosphère est un systèmechaotique, c’est-à-dire quetoute erreur sur l’état météorologiqueinitial, aussi petitesoit-elle, s’amplifie rapidementau cours du temps ; sirapidement qu’une prévisionà l’échéance d’une dizaine dejours perd toute sa pertinence.Néanmoins, cela neveut pas dire que l’on ne peutpas prévoir le climat — c’està-direfaire une prévision detype statistique plutôt que déterministe, s’intéresserà la moyenne des températures oudes précipitations sur une période, plutôtqu’au temps précis qu’il fera sur la Bretagnetel jour du mois de juillet. L’enjeu est d’importance: notre climat futur est menacé parles rejets de gaz dus aux activités humaineset il faut prévoir l’effet à long terme de cesperturbations. C’est la théorie des systèmesdynamiques qui donne des outils pour justifiercette modélisation du climat. Ce domaine,pour lequel le mathématicien Henri Poincaré,au début du XX e siècle, fut un grand précurseur,a connu des progrès très importantsdans les vingt dernières années. La théoriedes systèmes dynamiques permet parexemple de dégager ce que les mathématiciensappellent des attracteurs, ou desrégimes de temps pour les météorologues.Elle permet aussi de savoir quels sont lesrégimes de temps les plus prévisibles et ceuxqui sont les plus instables. Dans les situationsd’instabilité, un bon outil serait la modélisationprobabiliste du climat, c’est-à-dire laconception de modèles prenant explicite-


Cryptage et décryptage :communiqueren toute sécuritéJean-Louis NicolasDans le monde actuel, où les télécommunications occupent une placecruciale, la cryptographie est un enjeu majeur.Elle est aussi devenue une science complexe, qui ne peut se passerde mathématiciens de haut niveau.en mars 2000, un grostitre avait fait la une desjournaux : « Alerte à lasécurité des cartes bancaires». Que s’était-ilpassé? En France, le secretdes cartes à puce était protégédepuis 1985 grâce àune méthode de cryptagefaisant intervenir un grandnombre N, constitué de 97chiffres. Ce nombre N doitêtre le produit de deuxgrands nombres premiers,c’est-à-dire de nombresqui, comme 7 ou 19, nesont divisibles que par 1 etpar eux-mêmes. Le secretd’une carte bancaire estconstitué précisément par ce couple denombres premiers ; les calculer à partir de Nétait pratiquement impossible dans la décennie1980. Mais avec l’augmentation de la puissancedes ordinateurs et l’amélioration desPayer avec sa carte de crédit, faire des achats sur Internet : les méthodes cryptographiques, qui mettenten jeu de belles mathématiques, sont indispensables à la sécurité de ces opérations.(Photo : Getty Images.)méthodes mathématiques, la taille desnombres N dont on peut calculer les facteurspremiers en un temps raisonnable a dépasséla centaine de chiffres dans les dernièresannées du siècle (le record actuel, 158 chiffres,


16 L’explosion des mathématiquesdate de janvier 2002). Un informaticien astucieux,Serge Humpich, avait ainsi pu trouverles deux nombres premiers ultra-secrets dontle produit vaut N et les avait utilisés pour fabriquerde fausses cartes. Alors, pour garantir lasécurité de nos petits rectangles de plastique,l’organisme de gestion des cartes bancaires aaussitôt construit de nouveaux nombres N,nettement plus grands.La cryptographie moderne,au croisement des mathématiqueset de l’informatiqueCette péripétie illustre l’importance considérableque revêt aujourd’hui la science ducryptage, c’est-à-dire du codage de messagesen vue de les rendre illisibles par des personnesindiscrètes. Crypter et décrypter des messagessecrets est une activité vieille de plusieurssiècles, voire millénaires. Et cette activité a largementdébordé du cadre strictement diplomatiqueou militaire pour investir des pansentiers de l’univers des communications civiles:procédures d’authentification, transactionsbancaires, commerce électronique, protectionde sites et fichiers informatiques, etc.La cryptographie a connu beaucoupd’avancées au cours des dernières décennies.Ce faisant, elle est devenue une science complexe,où les progrès sont généralement le faitde spécialistes ayant reçu une formation pousséeen mathématiques et en informatique.Cette spécialisation s’est manifestée dès laDeuxième guerre mondiale. On le sait aujourd’hui,le déchiffrage par les Alliés des messagescodés par les fameuses machines allemandesEnigma a joué un rôle déterminantdans ce conflit. Or c’est un éminent mathématicienbritannique, Alan Turing, par ailleursl’un des pères de l’informatique théorique,qui a apporté une contribution essentielle àce décryptage.Dans les années 1970, la cryptographie aconnu une petite révolution : l’invention de lacryptographie à « clé publique », avec laméthode RSA. De quoi s’agit-il ? Jusque-là, lescorrespondants voulant échanger des messagessecrets devaient partager une clé secrète,et le risque d’interception de cette clé par l’ennemiétait grand. Le protocole RSA, nomméainsi d’après ses trois inventeurs (Ronald Rivest,Adi Shamir et Leonard Adleman), résout ceproblème. Cette méthode utilise deux clés :une clé de cryptage publique — elle peut êtreconnue de tous — et une clé de décryptage,qui reste secrète. Elle est fondée sur le principe(utilisé par la suite pour protéger les cartesbancaires, comme on l’a vu plus haut) qu’il estpossible de construire de grands nombres premiers(de cent, mille chiffres, voire plus), maisqu’il est extrêmement difficile de retrouverles facteurs premiers p et q d’un grand nombreN = p x q lorsque l’on connaît seulementN. Schématiquement, la connaissance de Nrevient à celle de la clé publique de cryptage,tandis que la connaissance de p et q revient àcelle de la clé secrète de décryptage.Évidemment, si quelqu’un trouvait uneméthode pour décomposer rapidement enleurs facteurs premiers de grands nombres, leprotocole RSA deviendrait caduc. Mais il sepourrait aussi que les mathématiciens prouventqu’une telle méthode n’existe pas, ce quirenforcerait la sécurité du protocole RSA. Cesont là des sujets de recherche décisifs.Les méthodes qui, comme le protocoleRSA, font intervenir de la théorie des nombresélaborée, apportent une grande leçon : des


Cryptage et décryptage … 17recherches mathématiques (sur les nombrespremiers notamment) tout à fait désintéresséespeuvent se révéler, des années ou desdécennies plus tard, cruciales pour telle outelle application ; et ce de manière imprévisible.Dans son livre L’apologie d’un mathématicien,le grand théoricien des nombres britanniqueG. H. Hardy (1877-1947), qui étaitun fervent pacifiste, se targuait de travaillerdans un domaine parfaitement pur, l’arithmétique,et de n’avoir rien fait qui puisse êtreconsidéré comme « utile ». Ses travaux étaientpeut-être « inutiles » à son époque. C’est fauxaujourd’hui.Courbes elliptiques : la géométriealgébrique au service des agentssecretsLe graphe de la courbe elliptique d’équation y 2 =x 3 + 1.Les courbes elliptiques ont une propriété remarquable: on peut « additionner» leurs points selon le procédé représenté sur le dessin.L’« addition » ainsi définie respecte les lois arithmétiques attendues,telles que (P 1 +P 2 ) + P 3 =P 1 +(P 2 +P 3 ). Certaines méthodes modernesde cryptographie font appel aux courbes elliptiques et à leurs propriétésalgébriques.Et cela ne concerne pas uniquement lathéorie des nombres. D’autres domaines desmathématiques, auparavant considéréscomme dépourvus d’applications, contribuentà la science du cryptage. Des méthodes cryptographiquesprometteuses et fondées sur desprincipes voisins de ceux du protocole RSAsont apparues au cours des dernières années.Il en est ainsi de la méthode dite du logarithmediscret. Celle-ci a servi à son tour à concevoirdes méthodes qui s’appuient sur les propriétésdes courbes elliptiques. Il ne s’agit pas decourbes ayant la forme d’une ellipse, mais decourbes dont l’étude a débuté au XIX e sièclepour résoudre le problème difficile du calculdu périmètre d’une ellipse. Ces courbes, dontles coordonnées (x, y) de leurs points vérifientune équation de la forme y 2 = x 3 + ax + b, ontd’intéressantes propriétés — dont l’étude faitpartie de la géométrie algébrique, très vastedomaine des mathématiques actuelles. Parexemple, à l’aide d’une construction géométriqueappropriée, il est possible de définirune addition entre les points d’une courbeelliptique. Plus généralement, les objets géométriquesque sont les courbes elliptiques possèdentdes propriétés arithmétiques — quel’on continue d’explorer — susceptibles derendre service à la cryptographie. C’est ainsiqu’a été développée une méthode cryptographiqueintitulée logarithme discret sur lescourbes elliptiques.Une autre direction s’est révélée récemment.Au congrès international des mathématiciensà Berlin en 1998, Peter Shor, deslaboratoires AT & T, obtenait le prix Nevanlinna


18 L’explosion des mathématiquespour ses travaux sur la cryptographie quantique.Que signifie ce terme ? Il y a quelquesannées, des physiciens et des mathématiciensont imaginé qu’il serait un jour possible deréaliser un ordinateur quantique, c’est-à-diredont le fonctionnement exploiterait les loisbizarres de la physique quantique, celles quirègnent dans le monde de l’infiniment petit.Or on s’est rendu compte qu’un tel ordinateur,s’il était réalisable, serait capable de factorisertrès vite de grands nombres et rendraitainsi inefficace la méthode RSA. Des recherchesvisant la réalisation concrète d’un ordinateurquantique ont d’ailleurs été publiées trèsrécemment, dans la revue britannique Nature(cf. dernière référence ci-dessous). D’un autrecôté, des chercheurs ont élaboré des protocolesde cryptographie quantique, c’est-à-diredes méthodes de cryptage utilisant des objets(photons, atomes,...) obéissant aux lois quantiques.Ces protocoles quantiques pourraientgarantir une sécurité infaillible. Tout cela està l’étude et risque de devenir opérationneldans quelques années…Jean-Louis NicolasInstitut Girard Desargues, Mathématiques,Université Claude-Bernard (Lyon 1)Quelques références :• D. Kahn, La guerre des codes secrets(Interéditions, 1980).• J. Stern, La science du secret (Odile Jacob, 1998).• S. Singh, Histoire des codes secrets (J.-C.Lattès, 1999).• J.-P. Delahaye, Merveilleux nombres premiers(Belin/Pour la Science, 2000).• D. Stinson, Cryptographie, théorie et pratique(Vuibert, 2001).•L. M. K. Vandersypen et al., « Experimental realizationof Shor’s quantum factoring algorithm usingnuclear magnetic resonance », Nature, vol. 414, pp.883-887 (20 décembre 2001).


Contrôlerun monde complexePierre PerrierQu’il s’agisse de la manœuvrabilité d’un avion, de la tenue mécaniqued’une structure compliquée ou de la gestion du trafic automobile,le progrès dans ces domaines ne vient pas uniquement des inventionspurement techniques. Il naît aussi de recherches abstraites, commela théorie mathématique du contrôle.on comprend aisément l’intérêt de savoircontrôler la réaction d’un avion ou d’une fuséeaux turbulences de l’écoulement de l’air, dedéterminer la démarche à suivre en cas d’incidentdans une centralenucléaire, degérer le réseau dedistribution de l’électricitéen cas depannes, etc. Dans dessituations normales,le contrôle vise àoptimiser quelquechose, à améliorerdes performances, àfaire des économiesde matériaux ou d’argent: c’est le cas lorsqu’onveut maintenirun satellite sur sabonne orbite en utilisantle minimum decarburant.Penchons-nous sur l’exemple de la gestiondes pannes dans un réseau de distributiond’électricité. Un incident tel qu’un court-circuitou une rupture de contact (due parLe pont Vasco de Gama sur le Tage, à Lisbonne. La résistance d’une structure complexe telle qu’un pontpeut être contrôlée de façon active en plaçant, en des endroits bien choisis, des dispositifs qui vont, selon lesmouvements de la structure, modifier ses caractéristiques mécaniques afin de contrecarrer les effets de résonance.La théorie mathématique du contrôle traite de telles situations. (Cliché Gamma/Gilles Bassignac)


20 L’explosion des mathématiquesexemple à la chute d’un pylône), un surcroîtde consommation d’énergie en un lieu donné,peut avoir sur le réseau une cascade de conséquences.Or il n’est généralement pas possiblede réaliser une étude exhaustive de tous lesincidents possibles, ni de calculer exactementchaque étape de la propagation de l’effet d’untel incident. Le nombre de possibilités à explorerest gigantesque, en tout cas beaucoup tropélevé, même pour les ordinateurs les plus puissants.On est alors conduit à concevoir unmodèle mathématique qui décrit de façon simplifiéele réseau et son fonctionnement.Moyennant des essais et des calculs d’ampleurraisonnable, une telle modélisation permet decerner le comportement du système, au moinsapproximativement. En retour, cela peut aiderà améliorer la conception des réseaux. Mais onvoudrait aussi pouvoir contrôler une situationcritique, provoquée par exemple par une surchargelocalisée ou répartie sur une régionentière. Autrement dit, on voudrait savoir quelest l’enchaînement des actions que le poste decommande doit effectuer afin de minimiser lesconséquences de la panne. Une telle connaissanceest-elle possible, en théorie ? Existe-t-ildes stratégies de contrôle optimales ? Si oui,quelles sont-elles? Et ensuite, quels algorithmesfaut-il employer pour les vérifier par une simulationnumérique, sur ordinateur, avant de tenterl’essai en grandeur réelle ?Il est important de fournir un cadre d’étuderigoureux à ce problème de gestion des ressources,si l’on ne veut pas gaspiller l’énergie,ni être victime de coupures de courant généralisées.On a avec cet exemple un premiertype de problèmes de contrôle complexe oùles mathématiciens — à renfort de logiquemathématique, de théorie des nombres, dethéorie des probabilités, d’analyse et de théoriedu contrôle — apportent leur contribution.À tout le moins, ils peuvent fournir quelquescertitudes a priori quant à l’existence d’unesolution acceptable et aux moyens de l’obtenir— solution que des expériences devrontpar la suite valider.Empêcher les ponts de s’écroulerLa complexité n’est pas nécessairement rattachéeà un réseau. Elle peut résider dans lamanière dont réagit un objet, comme un pont.La tenue d’une telle structure dépend d’ungrand nombre de paramètres, de son comportementvibratoire entre autres. Comme chacunsait, les vibrations d’un pont peuvent êtreprovoquées par le passage de camions en fileou par le vent d’une tempête. Parfois, ce phénomènes’amplifie jusqu’à provoquer la rupturede l’ouvrage. Un pont, comme toute autrestructure mécanique, possède une série de fréquencesde vibration caractéristiques; si la perturbationextérieure apporte de l’énergie à desfréquences qui correspondent aux fréquencespropres de vibration, une résonance se produitet le pont accumule de l’énergie dans ses modespropres de vibration. Ceux-ci s’amplifient alors,tant que dure la perturbation extérieure, ettant que la structure résiste aux contraintesmécaniques qui en résultent.Pour contrôler de tels phénomènes, il fautles comprendre, savoir les prévoir et mettre enplace des dispositifs techniques capables decontrecarrer les dangereuses résonances. Onparle de contrôle passif lorsqu’on calcule où installerles amortisseurs qui absorberont assezd’énergie avant qu’elle ne s’accumule auxendroits critiques. Mais on parle de contrôleactif si, une fois repérés ces points critiques, onplace en des endroits bien choisis des dispositifsactifs, des actionneurs; ces derniers agiront


Contrôler un monde complexe 21alors en fonction de l’amplitude des déplacementsdes points critiques, de façon à évitertoute évolution dangereuse de la structure.C’est une analyse mathématique du systèmeétudié qui détermine les emplacements adéquatsdes capteurs et actionneurs et les procéduresde contrôle les mieux adaptées.Malheureusement, le calcul exact du comportementdu système en l’absence de contrôle,de sa sensibilité et de son aptitude à être contrôléest, le plus souvent, inaccessible. La raison esten général soit la complexité mathématique desproblèmes dès qu’ils sont non linéaires (impossibilitéde les décomposer en somme d’élémentssimples et à peu près indépendants du point devue mathématique), soit le temps de calcul surordinateur qui serait trop long. En conséquence,le contrôle est souvent imparfait. Il se peut parexemple que l’on réussisse à contrôler des modesde vibration provisoirement seulement — l’énergieextérieure s’accumule d’abord dans de nombreuxmodes de vibration de faible amplitude,avant de se combiner et de resurgir dans unnombre plus petit de modes, mais avec une forteamplitude. Beaucoup reste à faire pour biencomprendre ces processus et remédier à leurseffets négatifs.Tenir bon malgré les turbulencesPrenons un troisième exemple : les écoulementsde fluide à grande vitesse, commel’écoulement de l’air autour d’un avion, d’unefusée en décollage, ou de l’eau autour d’unbateau rapide. Dans ces situations, on estconfronté à la turbulence, c’est-à-dire à desmouvements complexes et instables du fluide,à une perpétuelle destruction et reconstructionde structures si compliquées qu’elles semblentrelever d’un désordre total. Les turbulencespeuvent gêner considérablement lemouvement d’un véhicule, aérien ou autre.On comprend que le contrôle soit ici beaucoupplus difficile à obtenir. Mais ces problèmesont une grande importance pratique.Aussi les ingénieurs ont-ils essayé, par tâtonnements,et en s’inspirant par exemple du voldes oiseaux pour concevoir les avions, d’assurerune certaine contrôlabilité de l’écoulement.Ils y ont partiellement réussi en renforçantnotamment les bords de fuite etd’attaque des ailes, en plaçant des capteursen des endroits peu perturbés et des actionneurs— des gouvernes — aux endroits sensibles,près des bords de fuite.L’image du haut montre un écoulement fluide supersonique relativementrégulier. Dans l’image du bas, l’action d’un petit jet de fluideinjecté latéralement a eu pour résultat le développement d’instabilitésdans l’écoulement. Une telle manipulation illustre l’idée que l’on peutagir sur un écoulement à l’aide de petits dispositifs, notamment en vuede le contrôler (Cliché Erwan Collin-LEA/CEAT-Université de Poitiers).La théorie mathématique du contrôle apermis dans un premier temps de retrouverces résultats empiriques. Puis elle a permis deproposer des stratégies d’actions, des plansde conception qui renforcent ou diminuent,selon le cas, la sensibilité aux actions d’un opérateurhumain ou aux perturbations extérieures.On en est maintenant au point d’identifierdes dispositifs élémentaires de contrôleactif qui agiraient à l’échelle quasi microscopique,celle d’une couche de fluide de


22 L’explosion des mathématiquesquelques dixièmes de millimètre d’épaisseur :par exemple de petits volets ou des micromécanismespermettant de déformer localementle profil du véhicule aux points critiquesde l’écoulement du fluide. En coordonnantl’action de très nombreux micro-dispositifs dece genre, on obtiendrait, à l’échelle macroscopique,un écoulement fluide ayant les propriétéssouhaitées. Dans le domaine ducontrôle de la turbulence des fluides, desrecherches mathématiques, alliées à des essaisphysiques ou techniques, vont ainsi ouvrir unmonde de performances inimaginables il y aquelques années ; un monde où, pour obtenirun même effet, l’énergie ou la taille desdispositifs nécessaires sera diminuée de plusd’un ordre de grandeur.La théorie du contrôle met en jeu diverschamps mathématiques, en particulierla théorie des équations différentiellesLes problèmes de contrôle que l’on a évoquésici peuvent concerner de banals essuieglacesde voiture comme le lanceur spatial leplus élaboré. La théorie du contrôle, née dansles années 1940-1950 en relation notammentavec les activités aérospatiales, puise sesméthodes et ses concepts dans plusieursbranches des mathématiques. Elle concernesurtout des équations différentielles (où l’inconnueest une fonction) et des équations auxdérivées partielles (équations différentiellesoù la fonction inconnue est une fonction deplusieurs variables), un vaste champ d’étudedéjà ancien mais toujours très actif. En effet,pour la plupart des systèmes rencontrés dansle monde réel, leur comportement peut êtremodélisé à l’aide d’une telle équation. Un problèmede contrôle se traduit alors par une ouplusieurs équations différentielles ou aux dérivéespartielles, qui contiennent des termesreprésentant des actions de contrôle, définiespar l’homme. Notons globalement C ces termesde contrôle, et f la fonction représentant lecomportement du système ; f est la solutiond’équations différentielles où intervient C, etdonc f dépend de C. Le but de la théorie ducontrôle est alors, en gros, de déterminer le Cadéquat pour que f, le comportement du système,soit acceptable. Pour un mathématicien,il ne s’agit pas tant de le faire avec telle outelle équation particulière, mais plutôt d’obtenirdes résultats généraux, valables pour denombreuses classes d’équations et donc applicablesà de nombreuses situations différentes.En France, la théorie du contrôle figureen bonne place au sein de la brillante écolede mathématiques appliquées qu’a su créerJacques-Louis Lions (1928-2001). Mais à elleseule, une bonne école mathématique ne suffitpas. Il faut également que ses résultatssoient connus et appliqués par tous ceux quipourraient en avoir besoin. D’où l’intérêt deresserrer les liens entre la communauté mathématiqueet les mécaniciens, les ingénieurs, leschimistes ou les biologistes.Quelques références :Pierre PerrierAcadémie des sciences etAcadémie des technologies, Paris.• J. R. Leigh, Control theory. A guided tour (PeterPeregrimus, Londres, 1992).• J. Zabczyk, Mathematical control theory: an introduction(Birkhaüser, 1992).• J.-L. Lions, Contrôlabilité exacte, perturbations etstabilisation de systèmes distribués (Masson, 1988).


Le théorème du souffletÉtienne GhysUne règle, un crayon, du carton, des ciseaux et de la colle :il n’en faut guère plus pour procurer aux mathématiciens du plaisiret de jolis problèmes — dont l’étude se révèle souvent, après coupet de manière inattendue, utile dans d’autres métiers.construisons unepyramide en carton…Pour cela, on commencepar découperun patron SABCDEdans une feuille decarton comme indiquésur la figure 1,puis on plie le longdes lignes pointilléeset, enfin, on colle lescôtés AS et ES.Figure 1. La construction d’une pyramide en carton. Dépourvu de la base ABCDA, cet objet est flexible.Le résultat est une espèce de cornet dontle sommet est le point S et dont le bord est unquadrilatère ABCD. Cet objet est flexible. Sion le tient dans la main, le quadrilatère ABCDpeut se déformer et s’ouvrir plus ou moins : laconstruction n’est pas très solide. Pour compléterla pyramide, il faut encore découper uncarré en carton et le coller sur le quadrilatèrepour former la base. Après cette opération, lapyramide est solidifiée, rigidifiée. Si on la posesur une table, elle ne s’écroule pas. Si on laprend dans la main et si on essaye de la déformer(avec douceur !), on n’y parvient pas, àmoins de déformer les faces en carton. Demême, un cube en carton est rigide commetout le monde l’a souvent constaté. Qu’en estilpour un polyèdre plus général, possédantpeut-être des milliers de faces ? La géode dela Villette, à Paris, est-elle rigide ? Cette dernièrequestion laisse entrevoir que le sujet dela rigidité et de la flexibilité n’est peut-êtrepas seulement théorique !


24 L’explosion des mathématiquesUn problème encore d’actualité et quiremonte à l’AntiquitéLe problème de la rigidité de ce typed’objets est très ancien. Euclide en avait probablementconnaissance. Le grand mathématicienfrançais Adrien-Marie Legendre s’yest intéressé vers la fin du XVIII e siècle et ena parlé à son collègue Joseph-Louis Lagrange;lequel suggéra à son tour au jeune Augustin-Louis Cauchy d’étudier cette question en1813. Ce sera le premier résultat marquantdu baron A.-L. Cauchy, qui deviendra par lasuite l’un des plus grands mathématiciens deson siècle.Cauchy s’est intéressé aux polyèdresconvexes, c’est-à-dire aux polyèdres qui n’ontpas d’arêtes rentrantes. Par exemple, la pyramideque nous avons construite ou le ballonFigure 2. Un polyèdre convexe et un polyèdre étoilé, non convexe.de football sont convexes, tandis que l’objetdessiné à droite de la figure 2 ne l’est pas.Le théorème établi par Cauchy est le suivant: tout polyèdre convexe est rigide. Celasignifie que si l’on construit un polyèdreconvexe avec des polygones indéformables(en métal par exemple) ajustés par des charnièresle long de leurs arêtes, la géométrieglobale de l’ensemble empêche les jointuresde jouer. Le cornet que nous avons construitest flexible mais cela n’invalide pas le théorème: il lui manque une face, et c’est la dernièreface qui rigidifie la pyramide…Faire des mathématiques, c’est démontrerce qu’on affirme ! Or la démonstration deCauchy est superbe (même si certains ont faitremarquer par la suite qu’elle était incomplète).Il n’est malheureusement pas question dans cepetit article de donner une idée de cette preuve,mais j’aimerais en extraire un « lemme », c’està-direune étape dans la démonstration.Augustin-Louis Cauchy (1789-1857), l’un des grands mathématiciensde son époque. (Cliché Archives de l'École polytechnique)Posons sur le sol une chaîne constituée dequelques barres métalliques assemblées boutà bout, comme sur la figure 3. En chacun desangles de cette ligne polygonale, bougeons lesdeux barres de façon à diminuer l’angle correspondant.Alors, les deux extrémités de la chaînese rapprochent. Cela vous semble évident ?Essayez de le démontrer…


Le théorème du soufflet 25Pendant longtemps,beaucoup de mathématiciensse sont demandé si les polyèdresnon convexes étaientégalement rigides. Peut-ontrouver une preuve de la rigiditéqui n’utiliserait pas l’hypothèsede convexité ? Lesmathématiciens aiment lesénoncés dans lesquels toutesles hypothèses sont utiles pourobtenir la conclusion. Il a falluattendre plus de 160 ans pourconnaître la réponse dans cecas particulier.La géode de la Villette, à la Cité des sciences à Paris, est un polyèdre convexe formé de 1730facettes triangulaires. La rigidité des polyèdres articulés donne lieu à un joli problème mathématiquequi a été résolu seulement en 1997. (Cliché Cosmos/R. Bergerot)En 1977, le mathématicien canadienRobert Connelly créa la surprise. Il a construitun polyèdre (assez compliqué) qui est flexible,bien sûr non convexe pour ne pas contrarierCauchy! Depuis, sa construction a été quelquepeu simplifiée, en particulier par Klaus Steffen.Je présente dans la figure 4 un patron quipermettra au lecteur de construire le « flexidron» de Steffen. Découpez, pliez le long deslignes. Les lignes en continu sont des arêtessaillantes et les lignes en pointillé correspondentaux arêtes rentrantes. Collez les bordslibres de la manière évidente. Vous obtiendrezune espèce de Shadok et vous verrez qu’ilest effectivement flexible (un peu…).Figure 3. Si l’on diminue les angles que font les segments entre eux,les extrémités de la chaîne de segments se rapprochent.Le volume d’un polyèdre varie-t-illorsqu’on le déforme ?À l’époque, les mathématiciens furentenchantés par ce nouvel objet. Un modèlemétallique fut construit et déposé dans la sallede thé de l’Institut des hautes études scientifiques,à Bures-sur-Yvette près de Paris, et l’onpouvait s’amuser à faire bouger cette choseà vrai dire pas très jolie, et qui grince un peu.L’histoire raconte que Dennis Sullivan eut l’idéede souffler de la fumée de cigarette à l’intérieurdu flexidron de Connelly et qu’il constataqu’en faisant bouger l’objet, aucune fuméene sortait… Il eut donc l’intuition que quandle flexidron se déforme, son volume ne variepas ! L’anecdote est-elle vraie ? Quoi qu’il ensoit, Connelly et Sullivan conjecturèrent quelorsqu’un polyèdre se déforme, son volumeest constant. Il n’est pas difficile de vérifiercette propriété dans l’exemple particulier duflexidron de Connelly ou encore pour celui deSteffen (au prix de calculs compliqués maisdépourvus d’intérêt). Mais la conjecture enquestion considère tous les polyèdres, y com-


26 L’explosion des mathématiquespris ceux qui n’ont jamais été construits enpratique ! Ils ont appelé cette question la« conjecture du soufflet » : le soufflet au coindu feu éjecte de l’air quand on le presse; autrementdit, son volume diminue (et c’estd’ailleurs sa fonction). Bien sûr, un vrai souffletne répond pas au problème de Connellyet Sullivan : il est en cuir et ses faces se déformentconstamment, contrairement à nospolyèdres aux faces rigides.En 1997, Connelly et deux autres mathématiciens,I. Sabitov et A. Walz, ont finalementréussi à prouver cette conjecture. Leur démonstrationest grandiose, et illustre une fois deplus les interactions entre toutes les parties desmathématiques. Dans cette question éminemmentgéométrique, les auteurs ont utilisédes méthodes très fines d’algèbre abstraitemoderne. Il ne s’agit pas d’une démonstrationque Cauchy « aurait pu trouver » : les techniquesmathématiques de l’époque étaientinsuffisantes. Je voudrais rappeler une formuleque l’on apprenait autrefois à l’école secondaire.Si les longueurs des côtés d’un trianglesont a, b et c, on peut calculer facilement lasuperficie du triangle. Pour cela, on calculeFigure 4. La patron du flexidron de Steffen.d’abord le demi-périmètre p =(a + b + c)/2 etensuite on obtient la superficie en extrayantla racine carrée de p(p - a)(p - b)(p - c). Cettejolie formule porte le nom du mathématiciengrec Héron et nous vient de la nuit des temps.Peut-on calculer, de façon analogue, le volumed’un polyèdre si l’on connaît les longueurs deses arêtes ? Nos trois mathématiciens contemporainsont montré que oui.Ils partent d’un polyèdre construit à partird’un patron formé d’un certain nombre detriangles et ils appellent l 1 , l 2 , l 3 , etc. les longueursdes côtés de ces triangles (éventuellementtrès nombreux). Ils trouvent alors quele volume V du polyèdre doit satisfaire à uneéquation du n e degré, c’est-à-dire une équationde la forme a 0 + a 1 V + a 2 V 2 +… + a n V n =0.Le degré n dépend du patron utilisé et lescoefficients de l’équation (a 0 , a 1 , etc.) dépendentexplicitement des longueurs des côtés l 1 ,l 2 , l 3 , etc. Autrement dit, si l’on connaît lepatron et les longueurs des côtés, on connaîtl’équation. Si le lecteur se souvient qu’uneéquation a en général une solution lorsqu’elleest du premier degré, deux solutions lorsqu’elleest du second degré, il pourra devinerqu’une équation de degré n n’aguère que n solutions.Conclusion : si l’on connaît lepatron et les longueurs, on neconnaît pas nécessairement levolume, mais on sait au moinsque ce volume ne peut prendrequ’un nombre fini de valeurs.Lorsque le flexidron se déforme,son volume ne peut donc pasvarier continûment (sinon, levolume prendrait une infinité devaleurs successives) ; ce volumeest « bloqué » et la conjecturedu soufflet est établie…


Le théorème du soufflet 27Oui, le problème du soufflet est digned’intérêt !Ce problème est-il utile, intéressant ?Qu’est-ce qu’un problème mathématiqueintéressant ? Question difficile à laquelle lesmathématiciens réfléchissent depuis longtemps,bien sûr. Voici quelques éléments deréponse, quelques indices de « qualité ».L’ancienneté est un premier critère: les mathématicienssont très sensibles à la tradition, àdes problèmes énoncés depuis longtemps, surlesquels des mathématiciens de plusieursgénérations ont planché. Un bon problèmedoit également s’énoncer simplement, sa solutiondoit mener à des développements surprenants,si possible mettant en relation desdomaines très différents. De ces points devue, le problème de la rigidité que nousvenons d’aborder est intéressant.La question de savoir si un bon problèmedoit avoir des applications utiles dans la pratiqueest plus subtile. Les mathématiciens yrépondent de manière très variable.Incontestablement, les questions « pratiques »,issues par exemple de la physique, serventbien souvent de motivation pour les mathématiques.Parfois, il s’agit de résoudre un problèmebien concret, mais le lien est souventplus flou : le mathématicien ne se sert alorsde la question concrète que comme d’unesource d’inspiration et la résolution effectivedu problème initial n’est plus la motivationvéritable. Le problème de rigidité appartientà cette dernière catégorie. L’origine physiqueest assez claire : la stabilité et la rigidité destructures, par exemple métalliques. Pour l’instant,les exemples de Connelly ne sont d’aucuneutilité pour les ingénieurs. Cependant,il paraît clair que ce genre de recherche nemanquera pas, dans un avenir indéterminé,de permettre une meilleure compréhensionglobale de la rigidité des vastes structuresconstituées d’un grand nombre d’élémentsindividuels (macromolécules, bâtiments, etc.).Il s’agit donc de recherches théoriques et« désintéressées », mais qui ont de bonneschances de s’avérer utiles un jour…Quelques références :Étienne GhysÉcole Normale Supérieure de Lyon,CNRS-UMR 5669• M. Berger, Géométrie, vol. 3. - Convexes etpolytopes, polyèdres réguliers, aires et volumes(CEDIC/Nathan Information, 1977).• R. Connelly, I. Sabitov, A. Walz, « The bellowsconjecture », Beiträge Algebra Geom., 38 (1997),n° 1, pp. 1-10.• R. Connelly, « A counterexample to the rigidityconjecture for polyhedra », Institut des HautesÉtudes Scientifiques, Publication Mathématiquen° 47 (1977), pp. 333-338.• N. H. Kuiper, « Sphères polyédriques flexiblesdans E 3 , d’après Robert Connelly », SéminaireBourbaki, 30 e année (1977/78), exposé n° 514,pp. 147-168 (Lecture Notes in Math. 710,Springer, 1979).


Trouver un gèneresponsable de cancerBernard PrumLes développements de la biologie moderne, et notamment ceuxde la génétique moléculaire, exigent de nouveaux outilsmathématiques. Exemple avec la statistique et son rôle dansla recherche d’un gène lié au cancer du sein.d’innombrables maladies ont une composantehéréditaire : le risque d’être atteintest plus ou moins élevé chez un individu selonqu’il est porteur ou non d’un gène dit de susceptibilitéà la maladie en question. C’est pourquoila génétique d’aujourd’hui cherche àcomprendre le rôle des différents gènes, et enparticulier leur rôle dans l’étiologie des maladies— dans l’espoir de mettre au point unjour une thérapie. Prenons comme exemplele cancer du sein qui, en France, touche outouchera environ une femme sur huit. À côtéde divers facteurs de risque (alimentation,tabac, exposition aux radiations, etc.), on aidentifié il y a quelques années un gène dontles mutations sont impliquées dans un pourcentageélevé de femmes atteintes d’un telcancer. Ce gène a été baptisé BRCA1 (pourbreast cancer 1). Un tel résultat, de nature biomédicale,n’a pu être obtenu que par une successiond’analyses statistiques qui, nous allonsle voir, ont permis de localiser le gène de façonde plus en plus précise.Dans cette mammographie en fausses couleurs, une tumeur cancéreuseest visible en rose. Une partie des recherches sur les cancers du seinsont consacrées à leur aspect génétique. La théorie des statistiques y joueun rôle capital. (Cliché Kings College School/SPL/Cosmos)


Trouver un gène responsable de cancer 29La génétique a longtempsignoré la nature matérielle desgènes. Ce n’est que depuis unevingtaine d’années que l’on aaccès massivement auxséquences d’ADN, la chaînemoléculaire qui matérialise l’informationgénétique transmisedes parents aux enfants. Pourautant, l’ignorance de la compositionchimique des gènes n’anullement empêché d’obtenirdes résultats fins sur l’héréditéde tel ou tel trait.La première question que l’on se pose faceà une maladie comme le cancer du sein est :« est-ce une maladie génétique, existe-t-il desgènes qui prédisposent à cette maladie? ». Pourles cancers, la réponse a longtemps été incertaine.On s’attend à une réponse positive si l’onconstate des concentrations familiales de lamaladie, si l’on peut attribuer à la fille ou lasœur d’une femme atteinte un risque plusgrand que celui encouru par l’ensemble de lapopulation. Et pendant longtemps, le statisticiengénéticien a eu pour données de base despedigrees comme celui de la figure 1.Figure 1. Une famille où l’on observe une concentration de cancers du sein. Les carrés indiquentles hommes, les cercles les femmes. Un individu est indiqué en noir s’il est atteint,barré s’il est décédé. On constate que la grand-mère, une de ses filles et trois de ses petitesfilles ont eu un cancer. Bien sûr, chez d’autres membres de la famille, la maladie peut encorese déclarer. C’est à partir de tels pedigrees que les généticiens sont conduits à supposer l’existencede gènes de susceptibilité à la maladie.les plus simples, comme: « la maladie étudiéen’a aucune composante génétique ».Dans le cas de plus en plus étudié des maladiesà étiologie complexe (cas du cancer dusein), où interviennent des facteurs d’environnementou bien dont l’incidence dépendde l’âge, il convient de traiter des donnéesqui dépendent du temps ; on doit alors faireappel à la statistique des processus. C’est unebranche mathématique élaborée, qui s’appuieen grande partie sur les résultats obtenus parl’école française de probabilités des années1980 (P. A. Meyer, J. Jacod) et ceux de statistiquedus à l’école scandinave.Que faire d’un tel pedigree ? On sait,presque depuis Mendel, qu’un caractère héréditaireest souvent déterminé par un « gène »pouvant prendre plusieurs formes, appelées sesallèles. Chaque individu hérite un allèle de sonpère et un allèle de sa mère; il transmet à chacunde ses enfants l’un de ces deux allèles auhasard. Le généticien propose alors, pour latransmission de la maladie étudiée, un modèle,qui suppose l’intervention de certains gènes etallèles. Ce modèle, le statisticien doit le validerà l’aide de tests statistiques appropriés, qui permettrontpar exemple d’éliminer les hypothèsesDes statistiques pour déterminer lechromosome porteur du gèneUne fois établie par l’analyse des pedigreesl’existence d’un gène de susceptibilitéau cancer du sein, la seconde étape consisteà le localiser, au moins grossièrement, sur l’undes 23 chromosomes humains. Pour cela, ondispose depuis les années 1980 de marqueurs;ce sont de petites chaînes d’ADN bien déterminéesque l’on peut « lire » à moindre coût,disons par une analyse chimique rapide. Balises


30 L’explosion des mathématiquesrelativement faciles à localiser, les marqueurspermettent par exemple d’évaluer la ressemblanceentre des régions de chromosomes examinéeschez des personnes malades et apparentées.Plus grande est la similitude d’unemême région de chromosome chez des personnesapparentées atteintes, plus élevée estla probabilité que cette région porte un gèneimpliqué dans la maladie.Mais une telle analyse, statistique bien sûr,est compliquée par le fait que chaque parentne transmet pas à ses enfants les chromosomesqu’il a lui-même hérités de ses parents, maisune recombinaison de ceux-ci (figure 2). Si l’onconsidère deux gènes situés au départ sur unmême chromosome, ils pourront après recombinaisonse retrouver sur deux chromosomesdifférents ; la probabilité que cela arrive estd’autant plus élevée que les deux gènes enquestion sont éloignés. Analyser le taux desimilarité le long d’un chromosome, c’est doncétudier un processus aléatoire. Grâce à la statistiquedes processus, on peut donc délimiterun intervalle dans lequel se trouve un gènede susceptibilité. L’emploi des marqueurs aainsi permis à l’équipe américaine de JeffFigure 2. Pour chaque paire de chromosomes d’un individu, un chromosome esthérité de son père (en noir) et l’autre hérité de sa mère (en blanc). Un parent transmetà chaque descendant un seul chromosome de chaque paire. Mais avant la transmission,les chromosomes de chaque paire peuvent s’échanger des morceaux, auhasard. Ce processus dit de recombinaison fait que le parent transmet à son enfantun chromosome recombiné (l’une des quatre possibilités indiquées dans la figure,où l’on suppose que les chromosomes s’échangent deux régions).M. Hall, à Berkeley, de localiser en 1990 le gèneBRCA1 sur le chromosome 17.Lire la molécule d’ADN pour décrirecomplètement le gène et ses formesanormalesIl s’agit ensuite de localiser précisément legène et de déterminer sa structure. On saitque l’ADN, le matériau génétique, est unelongue chaîne moléculaire « écrite » dans unalphabet de 4 « lettres » (a, c, g et t, initialesdes quatre types de molécules dont est forméela chaîne d’ADN). Les banques de donnéesgénétiques répertorient plusieurs milliardsde telles lettres (il en arrive quelque25 millions par jour…).La précision de la méthode des marqueurspermet au mieux de localiser un gène sur uneséquence d’ADN comptant quelque 4 millions delettres. Pour savoir exactement quel allèle, ouquelle mutation est responsable, par exemple, ducancer du sein, il faut « lire » ces séquences chezles sujets sains et malades pour les comparer. Celarevient à trouver une « faute de frappe » dans untexte de 4 millions de caractères, disonsun livre de 2000 pages – ou plutôt dansautant de livres de 2000 pages que l’ona d’individus à étudier. Cette tâche estlourde, même avec des moyens informatiquespuissants. Or chez l’homme, lesgènes ne constituent pas plus de 3 % deschromosomes. Le reste du matériel chromosomiqueest qualifié d’intergénique.Si l’on parvient à limiter la recherche desfautes de frappe aux seuls gènes, onréduit la séquence à explorer à une trentainede pages, ce qui devient accessibleà tout ordinateur.Mais comment distinguer les gènes


Trouver un gène responsable de cancer 31du reste ? Il s’avère que le « style » dans lequelsont écrits les gènes diffère du style intergénique:les fréquences de successions de lettresne sont pas les mêmes. On peut chercher àexploiter cette différence de style pour annoterla séquence et distinguer les gènes de lapartie intergénique. Le défi est ardu. On doitfaire appel à des modèles statistiques appeléschaînes de Markov cachées et développés dansles années 1980, en liaison notamment avecdes problèmes de reconnaissance automatiquede la parole ; ils ont dû être adaptés à la génomique,en même temps que l’on mettait aupoint des algorithmes capables à la fois decaractériser les différents styles et d’attribuerun style à chaque position sur le chromosome.C’est ainsi que l’on a fini par localiser précisémentBRCA1. On peut désormais le lirefacilement chez chaque malade. Ce gène desusceptibilité au cancer du sein compte 5 592lettres et l’on en connaît plus de 80 allèles.Reste un nouveau travail pour le statisticien :établir les relations entre les divers allèles etla prévalence de ce cancer.La biologie offre aux mathématiquesun nouveau terrain d’actionL’exemple du gène BRCA1 le suggère, labiologie jouera probablement vis-à-vis desmathématiques le rôle détenu par la physiqueau cours d’une bonne partie du XX e siècle :offrir un champ d’application aux outils théoriquesrécents et susciter l’élaboration de nouveauxoutils (nous avons évoqué ici les outilsstatistiques, mais on pourrait évoquer d’autresdomaines des mathématiques comme les systèmesdynamiques, l’optimisation, jusqu’à lagéométrie — la conformation spatiale desmolécules joue, on le sait, un rôle essentieldans leur fonction). Un nouveau défi estaujourd’hui lancé au statisticien: on est actuellementcapable de placer quelques milliers deréactifs sur une surface de verre d’un centimètrecarré (les « puces ») et de savoir ainsiquels gènes travaillent dans quels tissus, dansquelles conditions expérimentales ou… dansquelles cellules cancéreuses. Les mesures effectuéesen laboratoire, selon des centaines deconditions diverses, fournissent aux chercheursun nombre considérable de données numériques,qui caractérisent l’expression de milliersde gènes. À ce jour, seules des analysesstatistiques peuvent prétendre les traiter etpréciser ainsi les liens entre gènes et maladies.Quelques références :Bernard PrumLaboratoire Statistique et Génome(UMR CNRS 8071),La Génopole, Université d’Évry• B. Prum, « Statistique et génétique » dansDevelopment of Mathematics 1950-2000(sous la dir. de J.-P. Pier, Birkhäuser, 2000).• C. Bonaïti-Pellié, F. Doyon et M. G. Lé,«Où en est l’épidémiologie du cancer en l’an2001 », Médecine-Science, 17, pp. 586-595 (2001).• F. Muri-Majoube et B. Prum, « Une approchestatistique de l’analyse des génomes », Gazettedes mathématiciens, n° 89, pp. 63-98(juillet 2001).• B. Prum, « La recherche automatique desgènes », La Recherche, n° 346, pp. 84-87 (2001).• M. S. Waterman, Introduction to computationalbiology (Chapman & Hall, 1995).


Des ondelettespour comprimer une imageStéphane MallatQu’elles soient stockées numériquement dans des mémoiresinformatiques ou qu’elles voyagent à travers Internet,les images occupent beaucoup de place. Heureusement, il est possiblede les « condenser » sans altérer leur qualité !A B CFigure 1. Ces trois images illustrent la puissance des méthodes de compression actuelles. L’image originale (A) est constituée de 512 x 512 points,chacun d’eux ayant un certain niveau de gris, pris dans une palette de 256 niveaux. L’image (B) est le résultat d’une compression par un facteur8, réalisée en réduisant les niveaux de gris à 2 valeurs possibles seulement (noir ou blanc). L’image (C) a été obtenue de (A) par une compressiond’un facteur 32 en utilisant une base d’ondelettes. La différence de qualité avec l’image initiale est à peine perceptible. (Illustration auteur)une image numérisée se comprime, toutcomme un jus d’orange que l’on réduit àquelques grammes de poudre concentrée. Ilne s’agit pas d’un tour de passe-passe, maisde techniques mathématiques et informatiquespermettant de réduire la place occupéepar une image dans un ordinateur ou dans uncâble de communication. Elles sont aujourd’huiindispensables pour stocker de l’informationou la transmettre par Internet, téléphone,satellite ou autre.La compression d’une image revient àreprésenter celle-ci à l’aide d’un nombre réduitde paramètres, en éliminant les redondances.Un exemple caricatural aidera à comprendrel’idée de principe : dans le cas d’une imageuniformément blanche, il est inutile de préciserexplicitement pour chacun de ses points leniveau de gris correspondant; cela serait beaucoupplus long que d’énoncer: « tous les pointsde l’image sont blancs ». Le problème de lareprésentation est un sujet central en mathé-


Des ondelettes pour comprimer une image 33matiques, et ses applications vont bien audelàde la compression de données. Durantces dix dernières années, des avancées considérablesont eu lieu grâce au développementde la théorie des ondelettes. Dans le domainedu traitement d’images, ces progrès ont aboutià l’adoption du nouveau standard de compressionJPEG-2000. Cette histoire a de nombreuxméandres, qui illustrent bien le rôle desmathématiques dans le paysage scientifiqueet technologique moderne.Trente-deux fois moins de place grâceaux ondelettesConsidérons une image comme celle de lafigure 1A. Elle est constituée de 512 x 512points, dont les niveaux de gris peuvent varierde 0 (noir) à 255 (blanc). Chacun des 256 niveauxde gris possibles peut être représenté par unoctet, c’est-à-dire un nombre binaire constituéde 8 bits (un octet est donc simplement unesuite de 8 chiffres 0 ou 1, comme 11010001).Il faut donc 512 x 512 x 8 = 2097152 bits pourcoder une seule image de ce genre, ce qui estbeaucoup ! Première idée qui vient à l’espritpour réduire le nombre de bits : diminuer lenombre de niveaux de gris, par exemple en selimitant à du blanc ou du noir, comme dans lafigure 1B. Les deux valeurs possibles du niveaude gris se codent avec un seul bit (valant 0 ou1), et l’on a ainsi diminué le nombre de bits par8. Évidemment, la qualité de l’image s’est beaucoupdégradée. Regardez maintenant l’imagede la figure 1C. Elle est codée avec 32 fois moinsde bits que l’image originale, par une méthodeutilisant la théorie des ondelettes ; pourtant,la dégradation est à peine perceptible !Pourquoi? Parce qu’au lieu de réduire la précision,c’est la manière de représenter l’informationqui a ici été changée.Au commencement était l’analyse deJoseph Fourier…Comme on l’a dit, l’image numérisée estdéfinie par les 512 x 512 nombres qui spécifientl’intensité lumineuse en chaque point.On peut donc interpréter cette image commeun point dans un espace à 512 x 512 dimensions— de la même façon qu’un point sur unesurface, espace à deux dimensions, peut êtrerepéré par deux coordonnées — et se demanderquels sont les axes de coordonnées les plusappropriés pour représenter un tel point. Unsystème d’axes (ici de nature plus abstraiteque les axes familiers de la géométrie élémentaire)définit ce que l’on appelle une base.Une première avancée fondamentale aété réalisée par le mathématicien-physicienJoseph Fourier en 1802, dans son mémoire àl’Académie des Sciences sur la propagation dela chaleur, sujet a priori sans relation avecnotre problème. Fourier a notamment montréque, pour représenter de façon compacteet commode une fonction f(x) (du point devue mathématique, une telle fonction est unpoint dans un espace ayant une infinité dedimensions), on peut utiliser des « axes »construits à l’aide d’un ensemble infini defonctions sinusoïdales. En des termes un peuplus précis : Fourier a montré que l’on peutreprésenter une fonction f(x) par une sommed’une infinité de fonctions sinus et cosinus dela forme sin (ax) ou cos (ax), chacune affectéed’un certain coefficient.Ces « bases de Fourier » sont devenues unoutil essentiel, d’usage extrêmement fréquentdans les sciences, car elles servent à représenterde nombreux types de fonctions, doncde nombreuses grandeurs physiques. En particulier,on les utilise aussi pour représenter


34 L’explosion des mathématiquesdes sons ou des images. Et pourtant, les ingénieurssavent bien que ces sinusoïdes sont loind’être idéales pour des signaux aussi complexesque des images: elles ne représentent pas efficacementdes structures transitoires telles queles contours de l’image.…puis est venue la « transformée enondelettes »Les spécialistes du traitement des signauxn’étaient pas les seuls à prendre consciencedes limitations des bases de Fourier. Dans lesannées 1970, un ingénieur-géophysicien français,Jean Morlet, s’est rendu compte qu’ellesn’étaient pas le meilleur outil mathématiquepour explorer le sous-sol; cela conduisit à l’unedes découvertes — dans un laboratoire d’Elf-Aquitaine — de la transformée en ondelettes.Cette méthode mathématique, fondée sur unensemble de fonctions de base différentes desfonctions sinusoïdales utilisées dans la méthodede Fourier, remplace avantageusement la transforméede Fourier dans certaines situations.Par ailleurs, dès les années 1930, les physicienss’étaient rendu compte que les bases de Fouriern’étaient pas bien adaptées pour analyser lesétats d’un atome. Cela a été à l’origine denombreux travaux qui ont, ultérieurement,beaucoup apporté à la théorie des ondelettes.C’est aussi vers les années 1930 que des mathématiciensse sont mis à tenter d’améliorer lesbases de Fourier pour analyser des structuressingulières localisées, ce qui a ouvert un importantprogramme de recherche toujours trèsvivant. Autrement dit, une multitude de communautésscientifiques ont développé, avecles moyens du bord, des modifications desbases de Fourier. Dans les années 1980, YvesMeyer, un mathématicien français, a découvertles premières bases d’ondelettes orthogonales(l’orthogonalité désigne une propriétéqui facilite beaucoup les raisonnements et lescalculs ; les bases de Fourier sont égalementorthogonales). Cette découverte, suivie dequelques rencontres inopinées autour de photocopieusesou de tables de café, ont déclenchéen France un vaste mouvement scientifiquepluridisciplinaire, dont l’impactinternational fut considérable. Les applicationsde la théorie et des algorithmes d’ondelettesont fait leur chemin non seulementdans de nombreux domaines scientifiques ettechnologiques, mais sont aussi àl’origine de la création de plusieursentreprises aux États-Unis.Les mathématiques desondelettes ont joué un rôlede pivot dans nombre dedomainesFigure 2. Le graphe d’une ondelette utilisée dans la compression d’images.Les mathématiques ont eu iciun rôle fondamental, à la fois decatalyse, de nettoyage et d’approfondissement.En dégageant lesconcepts fondamentaux des appli-


Des ondelettes pour comprimer une image 35cations spécifiques, elles ont permis à desscientifiques de domaines très divers — enphysique, en traitement du signal, en informatique,etc. — de se rendre compte qu’ilstravaillaient sur le même outil. Aller au-delà,affiner ces outils, contrôler leurs performances: ce sont les travaux mathématiquesmodernes sur l’analyse de Fourier qui ontrendu tout cela possible. Enfin, cette théoriea donné une technique standard de calculscientifique (la transformée en ondelettesrapide) grâce à une collaboration entremathématiciens et spécialistes du traitementdes signaux. L’image de la figure1C a ainsi étéobtenue grâce aux mêmes bases d’ondelettesque celles utilisées en statistique, en sismique,ou en calcul scientifique, avec le même algorithmerapide. Et à travers le standard internationalJPEG-2000 pour la compressiond’images, ces ondelettes envahissent actuellementtous les domaines de l’image, del’Internet aux appareils photos numériques,et se dirigent vers les satellites.figurant dans l’image à des courbes géométriquesassez simples. Mettre à profit cescourbes et leur régularité devrait donc permettred’améliorer considérablement les résultatsobtenus jusqu’à présent ; mais la théoriedes ondelettes n’en est pour l’instant pascapable. Construire ce pont avec le monde dela géométrie pose des problèmes mathématiquesdifficiles. Cependant, l’enjeu scientifiqueet industriel étant important, on peuts’attendre à ce qu’il soit construit dans les dixannées à venir. En France ?Stéphane MallatDépartement de mathématiques appliquées,École polytechnique, PalaiseauUn pont reste à construire entre lemonde des ondelettes et le monde dela géométrieLes bases de Fourier n’étaient pas bienadaptées à l’analyse des phénomènes transitoires,tandis que les bases d’ondelettes lesont. Est-ce la fin de l’histoire ? Non. En traitementd’images, comme dans tous les autresdomaines où les ondelettes sont devenues unoutil de base, chacun bute actuellement surle même type de problème: exploiter les régularitésgéométriques. En effet, on sait qu’uneimage, même complexe, est remarquablementbien représentée par un simple dessin composéde relativement peu de traits, et l’onpeut souvent assimiler les contours des objetsQuelques références :• B. B. Hubbard, Ondes et ondelettes - La saga d’unoutil mathématique(Pour la Science/Belin, 1995).• S. Mallat, Une exploration des signaux en ondelettes(École polytechnique/Ellipses, 2000).• Y. Meyer, Ondelettes et algorithmes concurrents(Hermann, 1992).


Empêcher les ondesde faire du bruitDaniel BoucheComment échapper à la détection par un radar ?Quelle est la forme optimale d’un mur anti-bruit ?Peut-on améliorer les images échographiques ?Pour recevoir une réponse satisfaisante, ces questions demandentdes analyses théoriques poussées.qu’est-ce qu’une onde ? Bien malin celuiqui saurait donner une réponse à la fois préciseet unique à cette question ! Pourtant, lesondes sont omniprésentes et constituent lequotidien d’un grand nombre de scientifiqueset d’ingénieurs. En termes un peu vagues etintuitifs, on peut dire qu’une onde est la propagationd’un signal, d’une perturbation, dansun certain milieu, à une vitesse identifiable.Les exemples ne manquent pas. Il y a biensûr les vaguelettes que l’on peut créer à la surfacede l’eau en y jetant un petit caillou ; ici,c’est une perturbation de la hauteur de l’eauqui se propage. La distance entre deux vaguelettessuccessives est la longueur d’onde, unegrandeur fondamentale dans la descriptiondes phénomènes ondulatoires. Les ondessonores, elles, mettent en jeu des variationsde la pression et de la densité du milieuambiant (l’air le plus souvent), ces variationsse produisant à des fréquences audibles. Lesondes acoustiques sont de même nature, etenglobent à la fois les ondes sonores et cellesque l’oreille ne perçoit pas. Lorsqu’elles se propagentau sein d’un solide, on parle plutôtd’ondes élastiques, dont font partie les ondessismiques qui traversent l’intérieur de notreplanète et que détectent les sismographes.Le cas des ondes électromagnétiques estparticulièrement important. Ce sont des variationsde champs électrique et magnétique, quise propagent dans le vide à la vitesse de lalumière. La lumière visible, les infrarouges, lesultraviolets, les rayons X, les rayons gamma,les micro-ondes, les ondes radio, les ondesradar, tous ces phénomènes sont des ondesélectromagnétiques. Ce qui les distingue, c’estleur fréquence, ou encore leur longueurd’onde (quelques fractions de micromètre pourla lumière visible, encore moins pour les ultravioletset les rayons X et gamma, quelquescentimètres à quelques centaines de mètrespour les ondes radar et radio).L’étude du comportement des ondes sertnon seulement à comprendre la nature qui


Empêcher les ondes de faire du bruit 37nous entoure, mais aussi à maîtriser quantitéde techniques, et a fortiori à créer de nouvellesinventions pointues. Le comportementdes ondes lumineuses touche tout le domainedes instruments optiques, qu’il s’agisse d’objectifsphotographiques, de microscopes,d’appareils de télémétrie, etc. On peut penseraux ondes radar et à leurs applicationsmilitaires, à la conception d’engins militairesfurtifs, c’est-à-dire qui échappent autant quefaire se peut à la détection par les radars.Quant aux ondes acoustiques, on peut évoquerla conception de salles de concert ayantune acoustique optimale, de matériaux oude structures absorbant le bruit, de dispositifsanti-bruit actifs (c’est-à-dire qui émettentdes ondes sonores opposées à celles du bruit,pour neutraliser celui-ci), d’appareils d’échographieou de destruction de calculs rénaux,d’appareils de contrôle non destructif (détectionde défauts dans des pièces d’avions parexemple), etc.Des équations connues, maisdifficiles à résoudre avec précisionLes équations qui régissent les différentstypes d’ondes sont bien connues depuis longtemps.Ainsi, celles relatives aux ondes électromagnétiquesont été établies par le physicienécossais James Clerk Maxwell il y a plusd’un siècle, vers 1870. Mais il ne suffit pas deconnaître les équations auxquelles obéit uneonde radar, par exemple, pour savoir commentcette onde va se propager, interagir avecl’obstacle — constitué par un avion ou unautre objet que l’on cherche à détecter et àlocaliser — et se réfléchir partiellement versl’antenne radar qui l’a émise. Il faut en effetpouvoir résoudre ces équations, dont l’inconnueest le champ ondulatoire, c’est-à-direles amplitudes de l’onde en chaque point del’espace et à tout instant. Ce n’est pas du toutfacile. Il s’agit d’équations aux dérivées partielles(où interviennent l’amplitude inconnuede l’onde et ses dérivées par rapport aux coordonnéesspatiales et au temps), quel’on doit compléter par des « conditionsaux limites ». Celles-ci spécifientmathématiquement des donnéesessentielles comme le champ ondulatoireà l’instant initial, la forme de l’obstacleet la façon dont l’onde se comporteà sa surface (réflexion,absorption, etc.), la manière dont l’amplitudede l’onde décroît à très grandedistance de la source et de l’obstacle.Le Petit duc est un drone (petit avion télécommandé) que développe DassaultAviation. C’est un appareil furtif: sa forme et ses matériaux sont choisis de manièreà ce qu’il soit difficile à détecter par les ondes radar. Ce choix s’effectue sur la basede calculs compliqués portant sur la propagation d’ondes ; dans certains cas, laprécision de tels calculs laisse à désirer et fait l’objet de recherches soutenues (ClichéDassault Aviation).La résolution de ce type de problèmes,où l’onde est diffractée (déviée,modifiée) par des objets, est complexe;elle nécessite des outils mathématiques,certains simples et connus depuis longtemps,d’autres beaucoup plus élaboréset encore en développement. Plus


38 L’explosion des mathématiquesgénéralement, d’ailleurs, les équations auxdérivées partielles représentent une branchetrès importante des mathématiques, qui faitl’objet de recherches actives depuis plus dedeux cents ans. Une fois les équations et leursconditions aux limites établies, l’une des premièrestâches du mathématicien consiste à formulerle problème en termes rigoureux et àdémontrer que les équations ont une solution,et que si c’est le cas, la solution est unique(autrement, cela signifierait que le problèmeest mal posé, que la modélisation est incomplète).Une telle étude peut être ardue, et onne sait pas toujours la mener à bien ; mais ellepermet de s’assurer que l’on ne se lancera pasen vain dans des calculs de résolution !Ainsi, dans les problèmes mettant en jeula diffraction d’ondes par des objets, le milieude propagation est souvent illimité : l’ondepeut aller jusqu’à l’infini. Or pour que la solutiondu problème soit unique, il faut imposerune condition dite de rayonnement qui spécifiecomment l’amplitude de l’onde décroîtau fur et à mesure qu’elle s’éloigne. Cettecondition n’est pas simple à imposer numériquement.L’une des solutions proposéesconsiste à transformer l’équation aux dérivéespartielles d’origine en une équation intégrale(équation où les fonctions inconnues apparaissentdans des intégrales) ; l’avantage decette formulation est qu’elle satisfait automatiquementla condition de rayonnement.C’est dans les années 1960 qu’ont été écritsles premiers programmes informatiques deL’analyse mathématique permet deformuler rigoureusement le problèmeet de mettre au point des méthodes derésolution efficacesIl s’agit ensuite de proposer des méthodesefficaces pour résoudre, avec une précisionsuffisante, le problème posé. La résolution diteanalytique, où l’on obtient un résultat exactet général, exprimé par une formule compacte,est généralement hors de portée, sauf casexceptionnels et très simples. Le scientifiqueou l’ingénieur doit se contenter d’une résolutionnumérique — réalisée par ordinateurcar les calculs nécessaires sont très volumineux— qui donne le résultat sous forme de valeursnumériques (des nombres), valables avec unecertaine approximation. D’importantes difficultésapparaissent ici aussi.Un problème typique de propagation d’ondes : une source S émet uneonde radar, lumineuse, acoustique ou autre (en rouge sur la figure)de longueur d’onde bien définie ; l’onde se réfléchit partiellement (enbleu et vert sur la figure) sur les deux obstacles présents O 1 et O 2 ;quelle va être l’amplitude de l’onde résultante en chaque lieu, parexemple au niveau d’un détecteur placé en S? La résolution de ce problèmedifficile doit prendre en compte le type d’ondes émises, leur longueurd’onde, la forme des obstacles, le matériau dont ceux-ci sontconstitués, etc.résolution par équations intégrales. Ils ne permettaientde calculer que la diffraction pardes objets petits par rapport à la longueurd’onde ; de plus, ils donnaient souvent des


Empêcher les ondes de faire du bruit 39résultats aberrants, faute d’une analyse mathématiquesuffisante. La compréhension desproblèmes rencontrés et leur résolution ontpermis, à partir de la fin des années 1980, decalculer avec de plus en plus de précision ladiffraction d’une onde par des objets de plusen plus grands par rapport à la longueurd’onde. Les recherches se prolongent aujourd’huidans divers domaines : choix de la formulationintégrale la mieux adaptée au problème,techniques numériques pour résoudrel’équation. En particulier, les méthodes ditesmultipolaires ont permis d’augmenter notablementla taille des problèmes traitables. Cestravaux ont contribué à la réalisation d’outilslogiciels fiables, capables de calculer avec précisionle champ ondulatoire diffracté par desobjets de taille atteignant plusieurs dizainesde fois la longueur d’onde. C’est, notamment,le cas d’un avion dans le champ d’un radar delongueur d’onde métrique.Une méthode concurrente de la formulationen équations intégrales consiste à résoudredirectement l’équation aux dérivées partielles,et à s’affranchir de la condition de rayonnementen limitant artificiellementle milieu de propagationpar une « condition aux limitesabsorbantes » : on impose(mathématiquement) la présenced’une frontière imaginairequi absorbe complètementtoutes les ondes qu’ellerecueille. Ces conditions auxlimites absorbantes ont longtempsété responsables del’apparition, dans les solutionsnumériques, de phénomènesde réflexions parasites ; ilsétaient particulièrementgênants dans le cas d’objetsfaiblement diffractants. Mais les techniquesnumériques faisant appel aux conditions auxlimites absorbantes ont elles aussi considérablementprogressé ; elles offrent à présent unniveau de réflexion parasite très faible, grâceà des travaux théoriques réalisés essentiellementau début des années 1990.L’optique géométrique et sesgénéralisations, au service descourtes longueurs d’ondeLorsque la taille des obstacles qui diffractentles ondes est très grande par rapport àla longueur d’onde (une gouttelette d’eauéclairée par de la lumière visible, un avionbalayé par un radar de longueur d’onde décimétrique,etc.), il existe une voie un peu plusfacile que la résolution directe des équationsdes ondes : la bonne vieille optique géométrique.Celle-ci assimile les ondes lumineusesà des rayons qui se propagent en ligne droitedans un milieu donné, et qui sont soumis auxlois simples de la réflexion et de la réfractiondécouvertes plusieurs siècles avant les équa-Des ondes se propageant à la surface de l’eau : même ce phénomène quotidien et banal peutêtre extrêmement difficile à décrire correctement et avec précision. (Photo : Getty Images)


40 L’explosion des mathématiquestions décrivant les ondes électromagnétiques.L’un des apports des physiciens, en particulierl’Allemand Arnold Sommerfeld (1868-1951),a été de montrer que l’optique géométriqueest en définitive une manière de résoudre lesproblèmes de diffraction lorsque les objetssont infiniment grands par rapport à la longueurd’onde.Mais bien sûr, la taille des objets réels n’estpas infinie : l’optique géométrique n’est doncqu’une approximation plus ou moins bonne.Aussi a-t-elle été ensuite étendue et généraliséeafin de déterminer le champ ondulatoireaux endroits où l’optique géométrique classiqueprévoyait uniquement de l’ombre. Cestravaux, entamés dans les années 1950, sepoursuivent ; ils permettent de disposer d’outils,certes moins précis que les méthodes derésolution numérique directe d’équations auxdérivées partielles, mais opérants dans ledomaine des courtes longueurs d’onde.Malgré toutes ces avancées, de nombreuxproblèmes ondulatoires ne sont toujours pasrésolus de manière satisfaisante. Il en est ainside la diffraction par des objets de grande taillepar rapport à la longueur d’onde, mais deforme complexe, avec des détails fins par rapportà la longueur d’onde (cas d’un avion, oud’un missile, lorsqu’on veut prendre en compteleur forme détaillée au boulon près, et nonleur allure générale). Il reste encore beaucoupà faire !Daniel BoucheCEA (Commissariat à l’énergie atomique),Département de physique théorique et appliquée,Direction d’Île-de-FranceQuelques références :• Site Internet du projet de recherche « Ondes » àl’INRIA:http://www.inria.fr/recherche/equipes/ondes.fr.html• G. B. Whitham, Linear and non-linear waves(Wiley, 1974).• D. S. Jones, Acoustic and electromagnetic waves(Oxford University Press, 1986).• J. A. Kong, Electromagnetic wave theory(Wiley, 1990).• E. Darve, « The fast multipole method: numericalimplementation », Journal of ComputationalPhysics, 160 (1), pp. 195-240 (2000).• D. Bouche et F. Molinet, Méthodes asymptotiquesen électromagnétisme (Springer-Verlag, 1994).


Quand art rimeavec mathsFrancine DelmerLes mathématiques n’inspirent pas que les scientifiques.De nombreux artistes y ont puisé la matière de certaines de leursœuvres. La réciproque est parfois vraie aussi, comme dans le cas de laperspective, où l’art a montré le chemin à des théories géométriques.de novembre 2000 à janvier 2001, la Galerienationale du Jeu de Paume présente unerétrospective du plasticien François Morellet,artiste que le critique Thomas McEvilley qualifie,dans le catalogue de l’exposition,de « pythagoricienpostmoderne ». En février 2001,Tom Johnson se voit décerner laVictoire de la musique de créationmusicale contemporainepour sa pièce Kientzy Loops. Cecompositeur élabore des transpositionsmusicales de suites quiagissent comme des contraintes,détourne les automates, déclinele triangle de Pascal (Self-Replicating Loops, Canons rythmiques,etc.). Il place toujoursles concepts mathématiques enpréalable à ses œuvres, et poursuitde longue date dialogueset questionnements fructueuxavec Jean-Paul Allouche, chercheuren théorie des nombreset informatique théorique. La même année,Proof de David Auburn, qui met en scène lavie de mathématiciens, obtient le prix Pulitzerde théâtre. Écrite pour un public néophyte,On raconte que Galilée aurait observé, dans la cathédrale de Pise, les balancements des lustrespendus à la voûte au lieu d'écouter le sermon. Il eut l'idée de compter les oscillations, remarquaque leurs fréquences étaient différentes mais qu'elles étaient inversement proportionnellesà la racine carrée de la longueur du pendule. C'est sur cette constatation que s'appuiel'œuvre Galileodu compositeur Tom Johnson. Ici, les pendules sont suspendus à une structuredessinée et construite par l'artiste-ingénieur bordelais Eric Castagnès. (Cliché Eric Castagnès)


42 L’explosion des mathématiquescette œuvre offre une vision intéressante dutravail de chercheur et met en exergue certainescaractéristiques de ce milieu. On peuty déceler des clins d’œil à l’histoire récente etsingulière du mathématicien américain JohnForbes Nash, des allusions à celle de la démonstrationdu théorème de Fermat par le chercheuranglais Andrew Wiles.Ces trois événements, relayés par les médias,illustrent l’actualité de la fascination réciproqueentre mathématiciens et artistes. Continûmentdans l’histoire, leurs relations parcourent l’ensembledes domaines artistiques et s’entretiennentà des niveaux très diversifiés, commeen témoignent philosophes, historiens de l’art,épistémologues, artistes et mathématiciens lorsqu’ilsdébattent de leur réalité et de leur pertinence.Il ne s’agira pas ici de légitimer quelquecréation artistique par ses références à des théoriesscientifiques, ni de porter un jugement devaleur ou de tenter une quelconque classificationdes pratiques mathématiques et artistiques.Nous nous bornerons seulement à éclairer cesliens d’un regard pointilliste.Entre les arts et les mathématiques,des liens tissés de tout tempsC’est pour la construction des pyramidesdit-on, que les Égyptiens, environ 2 700 ansavant notre ère, utilisaient les triangles sacrésde côtés 3, 4, 5 donnant l’angle droit (cesmesures vérifient la relation « carré de l’hypoténuse= somme des carrés des deux autrescôtés » qui caractérise les triangles rectangles).On pense aussi aux théories pythagoriciennes— vers 500 ans avant J.-C. — des rapports numériquesqui vont gouverner l’harmonie musicale.Plus près de nous, Albrecht Dürer etLéonard de Vinci, figures emblématiques del’esprit humaniste de la Renaissance, se sontintéressés à la géométrie, à l’optique, à l’architectureet aux questions tant théoriques quepratiques inhérentes à ces domaines. Dürer,nourri des réflexions et des travaux des Italiens,en particulier Piero della Francesca et Alberti,a fixé dans son traité de géométrieUnderweysung der messung (1525) les règlesde la perspective. Dès lors, les artistes en ferontlargement usage dans leurs œuvres, tandis queles mathématiciens français Girard Desarguespuis Gaspard Monge développeront aux XVII eet XVIII e siècles les géométries projective et descriptive.Il faut noter dans ce cas précis la préséancede l’art sur la science: comme l’expliquel’historien de l’art Eric Valette, « l’invention dela perspective est certainement un des plus flagrantsexemples où le système symbolique artistiqueapporte une connaissance du mondeencore inconnue pour la science ».En littérature, la mathématique pourraitparaître moins présente. Cependant, lesmembres de l’Oulipo (Ouvroir de littératurepotentielle, fondé en 1960 par RaymondQueneau et François Le Lionnais, écrivains etmathématiciens), y puisent souvent leurscontraintes d’écriture. Ainsi, dans La Vie moded’emploi de Georges Perec, les ressorts de l’intriguerépondent au problème combinatoiredu carré bi-latin orthogonal d’ordre dix.Au XX e siècle, la création musicale a été marquéepar les compositeurs Pierre Boulez et IannisXenakis, tous deux formés aux mathématiques.Boulez développe dans ses compositions lesprincipes du sérialisme, tandis que Xenakis faitappel à un contrôle statistique des paramètresmusicaux dans sa musique stochastique, pourne citer qu’un exemple dans le foisonnementde leur création. L’IRCAM créé en 1970 par PierreBoulez et au sein duquel travaillent nombre de


Quand art rime avec maths 43musiciens, acousticiens, mathématiciens et informaticiens— aux formations mixtes — attesteencore de l’imbrication profonde des mathématiqueset de la musique en ce début duXXI e siècle, tant au niveau technique que théorique.Une intéressante mise en perspective desquestions relatives à ce sujet y fut présentéeau cours du Quatrième forum mathématiqueDiderot organisé en décembre 1999 par laSociété européenne de mathématiques, sousle titre Logiques mathématiques, logiques musicalesau XX e siècle.Les mathématiques, tantôt simpleoutil, tantôt moteur théorique de lacréationCes quelques échantillons illustrent ladiversité des relations entre mathématiqueset arts et posent quelques questions. Lesmathématiques sont-elles utilisées, par tel art,pour des raisons techniques ou théoriques ?Inspirent-elles les artistes de façon métaphoriqueou symbolique ?Le peintre François Morellet, déjà cité, utiliseau plus près l’outil mathématique; en témoignentses œuvres Répartition aléatoire de quarantemille carrés suivant les chiffres pairs etimpairs d’un annuaire de téléphone, π ironiconn° 2, etc., où il suggère l’idée de l’infini.Selon le critique d’art Gilles Gheerbrandt, « chezlui, les mathématiques (élémentaires) peuventservir à la formulation des problèmes, mais ellessont un simple outil, jamais une fin en soi ».L’artiste, de son côté, affirme utiliser les mathématiquespour échapper à toute subjectivitéou affectivité, pour garder une distance vis-àvisde l’œuvre, pour la désensibiliser; il renoueainsi avec la vieille idéologie platonicienneL’artiste François Morellet, un « pythagoricien postmoderne ». (Cliché Gamma/Raphaël Gaillarde)


44 L’explosion des mathématiquesconsistant à dénoncer les charmes de l’art quine seraient que tromperie.Si certains artistes usent de notions élémentairescomme références ou prétextes,d’autres s’approprient les principes de théoriesmathématiques dans leurs fondements,puisant alors à l’essence du raisonnement. Lepeintre Albert Aymé, l’un des exemples lesplus radicaux de plongée dans l’abstraction,s’appuie sur une démarche analogue à cellede la recherche mathématique. Rejetant lesmécanismes combinatoires, il développe saréflexion dans des traités — Approche d’unlangage spécifique, Sur les paradigmes, etc.— qui donnent le cadre de son projet pictural: « Je m’efforce d’avancer dans mon travailavec la rigueur d’un scientifique mais sans medissocier pour autant de la passion du poèteou du musicien ». L’œuvre, au demeurant, peutse passer du discours et reste « intrinsèquementbelle », l’art abstrait n’étant, à son sens,« pas une affaire de goût mais de méthode ».Activités humaines, les mathématiques etles arts sont le fait d’individus plongés dans lemême climat culturel, politique, religieux. Lesgrandes ruptures de l’histoire ne laissent aucunde ces domaines sur le bord du chemin en raisond’interactions qui semblent tributaires del’esprit du temps. N’est-ce pas, en effet, à lalecture des écrits philosophiques de HenriPoincaré, qui popularise au tournant duXX e siècle les idées de la géométrie non euclidienne,que les cubistes balayent la perspectivetraditionnelle ?Soyons en conscients, toute volonté defusion ou d’unification entre mathématiqueset arts serait réductrice et vaine. C’est bien laconnaissance et la curiosité qui permettentéchanges et confrontations dans un abordpropre à chaque forme d’expression.Constatons seulement avec bonheur que lesmathématiques et les arts jouent ensemble,encore et toujours, une partition de lumière.Francine DelmerLaboratoire Arithmétique et AlgorithmiqueexpérimentaleUniversité Bordeaux 1, TalenceQuelques références :• E. Valette, La perspective à l’ordre du jour(L’Harmattan, 2000).• G. Gheerbrant, « François Morellet », Parachute,Montréal, n° 10, p. 5 (printemps 1978).• M. Loi (sous la dir. de), Mathématiques et arts(Hermann, 1995).• J.-L. Binet, J. Bernard, M. Bessis (sous la dir.de), La création vagabonde (Hermann, collectionSavoir, 1980).• V. Hugo, L’art et la science (Anaïs et Actes Sud,1864/1995).•M.Sicard (sous la dir. de), Chercheurs ou artistes(Autrement, série Mutations, n° 158, 1995).• I. Xenakis, Arts/sciences. Alliages(Casterman, 1979).• J.-M. Lévy-Leblond, La pierre de touche - lascience à l'épreuve (Gallimard, 1996).• J. Mandelbrot, « Les cheveux de la réalité - autoportraitsde l’art et de la science », Alliage, 1991.• D. Boeno, « De l’usage des sections coniques »,Cahiers art et science, n° 5, pp. 41-54(Confluences, 1998).


De l’ADNà la théorie des nœudsNguyen Cam Chi et Hoang Ngoc MinhL’activité biologique de la molécule d’ADN dépend notammentde son agencement dans l’espace et de la façon dont elleest entortillée — choses qui sont du ressortde la théorie mathématique des nœuds.personne aujourd’huine peut l’ignorer:l’ADN est la moléculequi, dans chaque celluledes êtres vivants, portel’information génétiqueet commande pour unelarge part l’activité cellulaire.L’ADN comporteen général deux longsbrins parallèles constituésd’un enchaînementde molécules appeléesbases nucléotidiques, lesdeux brins tournantl’un autour de l’autreen formant une structurehélicoïdale : lacélèbre double hélice.L’information portée par l’ADN est codéepar la séquence de paires de bases nucléotidiques.Cette séquence ne dépend pas de lafaçon dont la molécule est tortillée, mêlée ouUne molécule d’ADN circulaire et nouée, vue au microscope électronique. La topologie de la moléculed’ADN influence son activité. (Cliché N. Cozzarelli, université de Berkeley)nouée. Dans les années 1960-1970, cependant,après la découverte des molécules d’ADN circulaires(des boucles composées d’un seul brinou de deux brins enroulés l’un autour del’autre), on a commencé à s’interroger sur l’influencede la forme topologique de l’ADN,


48 L’explosion des mathématiquesc’est-à-dire sa disposition dans l’espace. En1971, le biochimiste américain James Wang amis en évidence que certaines enzymes, lestopo-isomérases, peuvent modifier la configurationtopologique de l’ADN, par exempleen y créant des nœuds, et que la topologie dela molécule d’ADN influe sur son fonctionnementdans la cellule. L’étude des configurationstopologiques de l’ADN peut donc nousrenseigner sur la façon dont l’ADN intervientdans les mécanismes cellulaires.La topologie, que certains définissentcomme la « géométrie du caoutchouc » —c’est-à-dire l’étude de propriétés qui ne sontpas modifiées par une déformation, par unemodification des longueurs — est une brancheimportante et fondamentale des mathématiques.Ses concepts et méthodes sont nécessairesà quasiment tous les mathématiciens.La théorie des nœuds en est une émanationparticulière. Née il y a environ un siècle, cellecivise à étudier précisément la structure desnœuds, et à les classer. Elle a trouvé des applicationsdans d’autres disciplines scientifiques(en chimie moléculaire, en physique statistique,en physique théorique des particules,etc.), en plus de ses liens avec d’autresdomaines de la recherche mathématique.La question fondamentale de la théoriedes nœuds est la suivante : étant donnés deuxnœuds (pas trop simples!) réalisés par exempleavec du fil, peut-on dire s’ils sont équivalents?En d’autres termes, peut-on étirer ou déformerl’un pour le rendre identique à l’autre,sans rien couper? Comme les topologues s’autorisentdes déformations, leur définition d’unnœud est légèrement différente de celle del’homme de la rue : pour eux, un nœud s’obtienten joignant les deux extrémités du fil ;sinon, on pourrait — en tirant et en déformantconvenablement le fil — dénouer n’importequel nœud, et tous les nœuds seraientalors équivalents. Du point de vue de la topologie,donc, un nœud est obligatoirementconstitué d’une ou plusieurs boucles — ce quiest le cas des ADN circulaires.Classer les nœuds en recherchant des«invariants » : un problème detopologie algébriqueLes spécialistes des nœuds font en généralde la topologie algébrique : ils cherchentà associer à chaque nœud topologiquementdifférent un « invariant », un objet mathématiquequi le caractérise, calculable aisémentet qui se prête à des manipulations algébriques.Cet objet mathématique peut être, apriori, un nombre, un polynôme (une expressionalgébrique comme x 6 - 3x 2 + x + 2) ouquelque chose de plus compliqué ou abstrait.L’important, c’est qu’il soit le même pour tousles nœuds topologiquement équivalents (d’oùle terme d’invariant). L’idéal est de trouver desinvariants qui caractérisent complètement lesnœuds, c’est-à-dire tels que deux nœuds distinctsaient forcément des invariants différents.Alors le problème de classification serarésolu. Pour résumer, les principales questionssont : a-t-on une manière de caractériser lesnœuds afin de les distinguer ? Existe-t-il unalgorithme pour distinguer deux nœuds ?Existe-t-il un programme informatique permettantà un ordinateur de distinguer deuxnœuds donnés en un temps raisonnable ?Malgré plusieurs décennies de recherches,la réponse à ces questions reste incomplète.D’importants progrès ont toutefois été réalisés.Évoquons en quelques-uns, brièvement.En 1928, le mathématicien américain JamesAlexander a introduit le premier invariant poly-


De l’ADN à la théorie des nœuds 49nomial (le polynôme d’Alexander) permettantde classer des nœuds. Mais le polynômed’Alexander est un invariant incomplet : certainsnœuds distincts ont le même polynômed’Alexander. Beaucoup plus récemment, en1984, le mathématicien néo-zélandaisVaughan Jones a découvert un nouvel invariant,lui aussi polynomial ; il est plus efficaceque le polynôme d’Alexander, mais lui nonplus ne résout pas entièrement le problèmede classification. Quelque temps après, d’autreschercheurs ont affiné et généralisé l’invariantde Jones ; là encore, les nouveaux invariantspolynomiaux introduits sont incomplets etéchouent à faire la différence entre certainsnœuds topologiquement distincts.Les deux nœuds représentés ici sont topologiquement distincts: on ne peut passer de l’un à l’autre en tirantseulement les fils, sans couper et recoller. Le nœud de gauche (nœud de trèfle) a pour polynôme d’Alexanderle polynôme P(t) = t 2 – t + 1 ; celui de droite a pour polynôme d’Alexander P(t) = t 2 – 3t + 1. Commeil se doit, ces deux polynômes sont distincts. Cependant, il existe des nœuds distincts associés à un mêmepolynôme d’Alexander: les polynômes d’Alexander ne constituent pas des invariants complets.Un début de solution complète est peutêtreintervenu vers 1990, avec les travaux duchercheur moscovite Victor Vassiliev. Ce derniera introduit une nouvelle classe d’invariantsdéfinis de manière implicite, c’est-à-diredéfinis seulement par les relations qu’ils doiventvérifier entre eux. Les invariants deVassiliev sont numériques, c’est-à-dire qu’àchaque nœud est associé un nombre (qui peutêtre déterminé à partir d’une analyse combinatoirede la topologie du nœud). Vassiliev aconjecturé que ces invariants forment un systèmecomplet, autrement dit que des nœudsdistincts ont toujours des invariants de Vassilievdifférents. Bien qu’aucun contre-exemple n’aitété trouvé jusqu’à présent, la conjecture resteà prouver, de même qu’il reste à trouver desméthodes pour calculer de façon effective etefficace les invariants de Vassiliev. Tout demême, l’avancée est considérable.Un parallèle existe entre destransformations mathématiques etdes mécanismes enzymatiquesCes recherches mathématiques ont desliens avec les questions que se posent les biologistesà propos de molécules comme l’ADN.Par exemple, vers 1973, le mathématicien britanniqueJohn Conway a introduit des opérations« chirurgicales » élémentaires (le flipet le décroisement) qui permettent de transformerun nœud en un autre en modifiant lenœud au niveau d’un croisement de ses brins.Or ces opérations de nature mathématiqueont des équivalents biochimiques, réalisés pardes topo-isomérases. Cesenzymes, indispensablesau fonctionnement detoutes les cellules, peuventcouper d’abord l’undes brins ou les deux brinsde l’anneau d’ADN circulaireet passer un segmentde l’anneau à travers l’ouverture,et refermerensuite les extrémités coupéespour faire un nœuddans chaque anneau. Eneffectuant les opérationsde coupure, de passage et


50 L’explosion des mathématiquesde ressoudage, elles peuvent couper un brin,faire passer l’autre brin par l’ouverture obtenuepuis ressouder cette coupure (cela correspondà l’opération flip de Conway), ou bieneffectuer deux coupures, deux ressoudages enattachant les deux brins « à l’envers » (opérationdécroisement de Conway).Maintenant, comment la topologie del’ADN peut-elle influencer son activité biologique? Illustrons-le sur l’exemple du surenroulementde la molécule d’ADN. Dans sonétat habituel, les brins de la double hélicemoléculaire décrivent un certain nombre detours autour de l’axe de l’hélice. Certainestopo-isomérases peuvent augmenter ouréduire cet entortillement, un peu comme onpeut surenrouler ou sous-enrouler un fil detéléphone, ce qui modifie sa forme. Qui plusest, dans un ADN circulaire, le nombre de toursde la double hélice est une propriété topologiqueinvariante : il ne peut être changé paraucune modification de la forme de la structure,sauf celle qui implique la coupure et lareconstruction des brins de l’anneau de l’ADNbicaténaire. Or si un anneau d’ADN est désenroulé,on voit aisément que la double hélicedevient moins compacte, et que sa partieinterne devient plus exposée à l’action desenzymes qui l’entourent. Une telle expositionpréconditionne la réplication (formation d’undeuxième exemplaire de la molécule) de l’ADNet sa transcription (processus qui conduit lacellule à synthétiser des protéines).La configuration topologique de l’ADNétant déterminée par un mécanisme enzymatique,une des questions légitimes pour lesbiologistes est de savoir dans quelle mesureune classification topologique des nœuds permetde remonter aux mécanismes enzymatiquesà l’œuvre. Une autre question voisineest de savoir si l’on peut simuler tous ces mécanismesenzymatiques en utilisant les opérationsde base introduites pour les nœudsmathématiques. Les recherches aux frontièresentre mathématiques des nœuds et biologiemoléculaire sont loin d’être épuisées.Nguyen Cam Chi et Hoang Ngoc MinhDépartement de mathématiques etd’informatique,Université de Lille 2Quelques références :• « La science des nœuds », dossier hors-série dePour la Science, avril 1997.• A. Sossinsky, Nœuds - Genèse d’une théoriemathématique (Seuil, 1999).• D. W. Sumners, « Lifting the curtain : usingtopology to prob the hidden action ofenzymes », Notices of the AmericanMathematical Society, 42 (5), pp. 528-537(mai 1995).


Le philosopheet le mathématicienPierre Cassou-NoguèsTout au long de leur histoire, la philosophie et les mathématiquesont entretenu une relation aussi étroite qu’énigmatique. Il faudraitrevenir à Platon dans le monde grec et à Descartes à l’aube de l’époquemoderne. Évoquons ici deux grandes figures du XX e siècle, DavidHilbert et Edmund Husserl.edmund Husserl et David Hilbert se rencontrentà Göttingen en 1901. Le philosophe,Husserl, a suivi des études de mathématiques.Il a été à Berlin l’assistant de Karl Weierstrass,grand mathématicien analyste, avant de rencontrerFranz Brentano, à Vienne, et de setourner vers la philosophie. Il a publié en 1891la Philosophie de l’arithmétique. Le premiertome de ses Recherches logiques paraît enmême temps que le philosophe s'installe àGöttingen. Le mathématicien, Hilbert, est àGöttingen depuis 1897. Il a résolu un problèmefameux, le « problème de Gordan », en théoriedes invariants, qui, depuis une vingtained’années, préoccupait les géomètres allemands.Il a développé, en algèbre, la « théoriedes corps algébriques ». Husserl et Hilbertont à peu près le même âge. Ils se croisent àla Faculté de philosophie qui regroupe, en réalité,les philosophes et les mathématiciens. Ilsvont, l’un comme l’autre, transformer leur discipline.Husserl découvre la phénoménologie.Hilbert met en place la méthode abstraite quicaractérise les mathématiques modernes.David Hilbert (1862-1943) était, avec le Français Henri Poincaré,l’un des grands mathématiciens des années 1900. Par la profondeurde ses travaux et de ses points de vue, par le dynamisme qu’il a suinsuffler à Göttingen, il a exercé une influence considérable sur lesmathématiques du XX e siècle. (Cliché AKG)


52 L’explosion des mathématiquesGöttingen, lieu d’excellencemathématique, accueilleles philosophesSi Göttingen n’était qu’une petite ville,près de Stuttgart, elle devient, peu après 1900,le centre du monde mathématique. Felix Kleinest à la tête de la Faculté. Ce grand géomètre,qui a établi de façon définitive l’existence desespaces non euclidiens, renonce à la rechercheet se consacre à ses cours, sur le développementdes mathématiques au XIX e siècle, et àl’administration de la Faculté, pour laquelle ilréunit de nouveaux moyens financiers. Il faitvenir Hilbert puis Hermann Minkowski. Ce dernierintroduira, lors d’une leçon célèbre, le« continuum d’espace-temps » — qui porteson nom et qui servira de cadre à Einstein pourformuler la théorie de la relativité. Chaquesemaine, la Société mathématique deGöttingen se réunit autour d’un conférencier,de Göttingen ou d’ailleurs. Husserl, le philosophe,parle en avril 1901 du problème desimaginaires en arithmétique. Göttingen estun lieu consacré aux mathématiques. Onraconte qu’un jour Minkowski, se promenantdans la rue principale, vit un jeune hommepensif, en proie à quelque tourment ; il luitapa gentiment sur l’épaule et lui dit : « nevous inquiétez pas, ça converge », sur quoi lejeune homme s’éloigna, rassuré.C’est à Göttingen que Hilbert mûrit laméthode abstraite des mathématiquesmodernes. La méthode abstraite est née dansl’algèbre du XIX e siècle. Richard Dedekind etLeopold Kronecker, notamment, ont introduitce qu’on appelle des structures. On définit unestructure mathématique, comme celle de«groupe », d’« espace vectoriel », de « corps »,Un des bâtiments de mathématiques (l’Institut de mathématiques appliquées et numériques) de l’université de Göttingen, aujourd’hui.Entre 1900 et 1930, Göttingen a été pour les mathématiques un centre de renommée mondiale, grâce aux efforts de David Hilbert. Les mathématiciensy cotoyaient des philosophes et des scientifiques d’autres disciplines. (Cliché université de Göttingen)


Le philosophe et le mathématicien 53en fixant les règles que vérifient les opérations,sans considérer la nature des objets soumisà ces opérations. Ainsi, une même structurepeut s’appliquer à des objets de naturedifférente — à des nombres, à des fonctions,à des transformations géométriques, etc.L’abstraction, en mathématiques, consiste àse détourner, ou à faire abstraction, de lanature des objets pour ne considérer que lesrelations qu’entretiennent ces objets. Ce pointde vue, qui émerge dans l’algèbre de Dedekindet qui est resté anonyme au XIX e siècle, Hilbertle rend explicite.Hilbert donne une représentationaxiomatique de la géométrieDès son arrivée à Göttingen, Hilbertannonce un cours sur la géométrie. Ce cours,qui sera publié sous le titre Les fondementsde la géométrie, s'appuie sur la méthode abstraitepour donner une axiomatisation de lagéométrie. Hilbert fait abstraction de la naturedes objets géométriques, le point, la droite,le plan, et se contente de poser entre eux desrelations dont les propriétés sont explicitéespar les axiomes. Autrement dit, les axiomesfixent les propriétés des relations existantentre des objets dont la nature est laissée indéterminée.Ainsi, les axiomes définissent unestructure, analogue aux structures algébriques.Mais, de l’algèbre à la géométrie, le primatde la structure est renforcé. En algèbre, ondonne une structure à des objets supposésconnus, des nombres, des fonctions. On peutdéduire un théorème en raisonnant à partirde la structure ou bien en raisonnant sur lesobjets, avec leur nature propre. En revanche,par axiomatisation, le raisonnement est réduità une simple déduction à partir des axiomeset les objets sont définis par la seule positiondes axiomes. Les axiomes, c’est-à-dire la structure,suffisent à définir les objets et à effectuerdes démonstrations sur ces objets.Dans son axiomatisation de la géométrieet dans ses travaux ultérieurs, Hilbert explicitela méthode abstraite de l’algèbre, la radicaliseet l’utilise pour produire de nouveauxrésultats. En réalité, Hilbert parcourt et transforme,dans une perspective abstraite, toutesles mathématiques de son temps : la géométrie; l’algèbre et la théorie des nombres, avecune première démonstration de la « conjecturede Waring » en 1909; l’analyse, où il introduitles espaces de Hilbert, espaces abstraitsdont les « points » sont par exemple des fonctions.La méthode abstraite sera reprise, àGöttingen, par l’école d’Emmy Noether etd’Emil Artin, puis, en France, par le groupeBourbaki. Elle nourrira dès lors toutes lesmathématiques.Donner un fondement auxmathématiquesParallèlement, Hilbert développe laméthode abstraite pour lancer un programmede fondement des mathématiques. Fonder lesmathématiques, c’est donner à leurs raisonnementsune garantie ultime. Il s'agit en particulierde justifier les raisonnements qui supposentun infini existant en acte, lesraisonnements transfinis, tout en faisant l’économiede l’hypothèse de l’existence de l’infini.Le programme formaliste comporte deuxétapes. La première tâche est de formaliserles théories mathématiques. On considère unalphabet de symboles. On fixe des règles, analoguesà l’orthographe et à la grammaire, pourconstruire une formule à partir de ces symboles.On explicite des axiomes, qui serviront


54 L’explosion des mathématiquesde prémisses dans les démonstrations, et desrègles pour déduire une formule d’une autre.Les mathématiques sont remplacées par unstock de formules. Une démonstration consisteen manipulations de symboles selon des règlesexplicites, abstraction faite du sens des symboles.Une démonstration se présente commeun assemblage de symboles conforme à desrègles explicites, un dessin construit selon lesrègles qu’on s’est fixé. La seconde tâche estde démontrer la non-contradiction de ces systèmesformels au moyen de raisonnementsfinitistes, c’est-à-dire ne faisant pas intervenirl’infini actuel.La première théorie à laquelle Hilbert tented’appliquer ce programme est l’arithmétique,qui comporte déjà des raisonnements transfinis.Ainsi, Hilbert ouvre une théorie de ladémonstration, qui consiste en raisonnementsfinitistes portant sur les dessins qui représententles démonstrations dans un système formel.Toutefois, en 1931, le logicien autrichienKurt Gödel établit qu’il est impossible de prouver,au moyen de raisonnements finitistes, lanon-contradiction d’un système formelincluant l’arithmétique élémentaire. Il fautdonc renoncer au programme initial de Hilbert.exercé une sorte de fascination sur les philosophes.D’emblée, dans ses Recherches logiquesde 1901, puis dans Logique formelle et logiquetranscendantale de 1929, Husserl intègre lareprésentation abstraite des mathématiquesà la phénoménologie naissante. Husserl distinguedeux mathématiques, une mathématiqueappliquée, qui comprend par exemplela géométrie en tant que théorie de notreespace, l’espace dans lequel nous vivons, etune mathématique formelle. Partant d’unethéorie appliquée, un mathématicien endégage l’architecture et isole un systèmed’axiomes, qu’il peut ensuite faire varier pourobtenir de nouvelles formes pour des théoriespossibles. Ainsi, la mathématique formelleapparaît comme une théorie des formes dethéories ou, dans le vocabulaire de Husserl,une apophantique formelle, qui vise à définirLa méthode abstraite etle programme formaliste ont fascinéles philosophesIl reste que Hilbert a réussi à transformerune question philosophique, celle du fondement,en un problème mathématique, traitéau moyen de la méthode abstraite et relevantd’une nouvelle théorie, la théorie de ladémonstration, qui reste aujourd’hui encorevivante. En retour, la méthode abstraite et leprogramme formaliste qu’elle sous-tend ontEdmund Husserl (1859-1938), qui s’est en partie inspiré de problématiquesmathématiques pour édifier sa philosophie. (Cliché AKG)


Le philosophe et le mathématicien 55et à classer tous les systèmes possibles de jugements.En outre, comme l’avait montré Hilbert,procéder de façon axiomatique revient à faireabstraction de la nature des objets. Par conséquent,à chaque forme de théories, correspondun domaine d’objets, d’objets quelconquesdéterminés par ceci seul qu’ils sont soumis àtel système d’axiomes. La théorie des formesde théories représente donc une ontologie formelle,une théorie du pur « quelque chose »,qui vise à définir et classer, par leur seule forme,toutes les multiplicités possibles d’objets. Lamathématique formelle comporte une doubleorientation : elle est apophantique formelle,lorsque le mathématicien se tourne vers lessystèmes de jugements; elle est ontologie formelle,lorsque le mathématicien se tourne versles domaines d’objets. Si Husserl, qui avait étudiéde près la géométrie du XIX e siècle, disposaitdes concepts de forme de théories et demultiplicité formelle avant 1901, il est certainque la rencontre avec Hilbert et les discussionsà la Société mathématique de Göttingen ontjoué un rôle décisif dans l’élaboration d’unephénoménologie systématique.Hilbert a réussi à poser à l’intérieur desmathématiques la question du fondement desmathématiques. C’est l’intériorisation dans lesmathématiques d’une question philosophique.Husserl a opéré l'intériorisation inverse, de laméthode abstraite des mathématiques dansla philosophie. Le parcours de deux hommes,le philosophe Husserl et le mathématicienHilbert, témoigne d’une intériorisation, réciproqueet concomitante, des mathématiquesdans la philosophie et de la philosophie dansles mathématiques.Pierre Cassou-NoguèsCNRS, Laboratoire Savoirs et Textes,Université Lille IIIQuelques références :• P. Cassou-Noguès, Hilbert(Les Belles Lettres, 2001).• P. Cassou-Noguès, De l'expérience mathématique.Essai sur la philosophie des sciences de JeanCavaillès (Vrin, 2001).• J.-T. Desanti, La philosophie silencieuse (Seuil, 1975).• D. Hilbert, Gesammelte Abhandlungen(Springer, Berlin, 1931-35).• E. Husserl, Recherches logiques (tr. fr. H. Elie,A. L. Kelkel et R. Schérer, P. U. F., 1959).• C. Reid, Hilbert (Springer, 1970).• H. Sinaceur, Corps et modèles (Vrin, 1991).


Comment rationaliserles ventes aux enchères ?Jean-Jacques LaffontGrâce notamment à Internet, les ventes aux enchères se généralisent.La modélisation de ces procédés de vente permet de définir les règleset stratégies optimales de leur utilisation.les enchères constituentun mode d’achatet de vente de plus enplus répandu. C’est enparticulier le cas surInternet, comme entémoigne le succès foudroyantdu site eBay oùdes biens de toutes sortes— des livres aux voitures,en passant par des objetsd’art ou des appareilsélectroménagers — sontmis aux enchères.Méthode d’allocation desressources rares, lesenchères sont traditionnellesdans les marchés de produits de l’élevageet de l’agriculture (poissons, fleurs, etc.). Ellesont été étendues récemment à des biens pluscoûteux, comme les appartements, et à desobjets beaucoup plus complexes, comme leslicences pour la téléphonie mobile de troisièmegénération.Une vente aux enchères d’œuvres d’artistes du XX e siècle chez Christie’s. Chaque acquéreur potentiel secomporte en fonction de ce qu’il croit que les autres vont faire. La théorie des jeux analyse de telles situationset aide à trouver les stratégies optimales (Cliché Gamma Liaison/Jonathan Elderfield)L’utilisation du système des enchères esttrès ancienne, et remonte à l’Antiquité.Ainsi, Hérodote décrit le marché du mariagede Babylone comme une enchère au premierprix (c’est-à-dire que l’offre la plus élevéeremporte l’« objet » à vendre), quidémarrait avec les plus belles jeunes femmes.


Comment rationaliser les ventes aux enchères ? 57En Asie, le récit le plus ancien d’enchèresconcerne la vente des effets des moinesdécédés, au VII e siècle.Les premières conceptualisationsdes enchères étaient inadaptées,car trop simplistesSi les enchères remontent presque à l’aubede l’humanité, leur conceptualisation est, elle,beaucoup plus récente. La première œuvreacadémique importante consacrée à ce sujetest une thèse de 1955, dont l’auteur étaitl’Américain L. Friedman. C’était l’une des premièresthèses de recherche opérationnelle.Elle portait sur ledéveloppement des stratégiesd’enchère par les entreprises àl’occasion de la vente des droitsde forage pétroliers dans le Golfedu Mexique. Il s’agissait d’enchères« au premier prix sous plifermé » : dans cette procédure,les offres ne sont pas renduespubliques et c’est l’offre la plusélevée qui remporte les enchères.La démarche adoptée parFriedman consistait simplementà rendre maximale ce qu’onappelle l’espérance de profit. Encas de succès, l’enchérisseurgagne la différence (v – b) entreson évaluation v de l’objet mis envente et le prix b qu’il proposede payer. L’espérance de gain estdonc cette différence multipliéepar la probabilité P(b) de remporterl’enchère avec un tel prix,soit (v – b)P(b). La probabilité P(b)est a priori inconnue; mais en réalisantune analyse statistique des enchères passées,on découvre les façons d’enchérirdes concurrents ; cela permet de déterminerune approximation de la fonction P(b), et parsuite de trouver l’enchère b* qui maximisel’espérance de gain, c’est-à-dire telle que(v – b*)P(b*) soit maximal.Cette méthode, largement utilisée et raffinéede multiples façons, est toutefois extrêmementnaïve. En effet, elle suppose implicitementque les autres enchérisseursn’élaborent pas de stratégies et que leur comportementfutur peut être aisément déduitde leur comportement passé. En 1961, leLa page d’accueil du site d’enchères sur Internet eBay-France.


58 L’explosion des mathématiquesCanadien William Vickrey (qui a reçu le prixNobel d’économie en 1996, deux jours avantson décès) a posé le problème différemment,en faisant appel à la théorie des jeux.La théorie des jeux et l’économiemathématique entrent en action pourdéfinir des stratégies optimalesCréée par le célèbre mathématicien d’originehongroise John von Neumann dans lesannées 1920-1940, en collaboration avec l’économisted’origine autrichienne OskarMorgenstern, la théorie des jeux examine l’interactiond’acteurs stratégiques. Elle concernetoute situation où des acteurs doivent chacunprendre des décisions, qui déterminent l’issuede cette situation. La théorie des jeux s’appliqueainsi à de nombreux scénarios de l’universéconomique, politique, diplomatique oumilitaire. Mais revenons à nos enchères.Lorsqu’un enchérisseur doit décider de sa mise,il s’interroge sur le comportement de sesconcurrents, et chaque enchérisseur fait demême. Un équilibre de cette situation désigne,pour les spécialistes, un objet assez complexe :c’est une méthode de miser — autrement ditune relation entre l’évaluation v de l’enchérisseuret sa mise b — qui est, pour cet enchérisseur,la meilleure façon de miser comptetenu de ce qu’il anticipe sur la façon de miserdes autres acteurs et des croyances qu’il a surleurs propres évaluations. Par exemple, dansune situation symétrique où les croyances desuns sur les autres sont les mêmes, la stratégied’un enchérisseur doit maximiser son espérancede profit sachant que tous les autres utilisentla même stratégie que lui.Le concept que l’on vient d’évoquer estune généralisation de l’équilibre de Nash,adaptée au contexte d’information incomplètedes enchères. De quoi s’agit-il ? Lemathématicien américain John Nash (prixNobel d’économie en 1994) avait proposé vers1950 une notion d’équilibre très naturelle, quigénéralisait celle donnée en 1838 par le mathématicienet économiste français AntoineCournot. Étant données des actions que peuventchoisir des joueurs, ces actions formentun équilibre de Nash lorsque l’action de chaquejoueur est la meilleure possible pour celui-ci,sachant que les autres joueurs choisissent éga-Le mathématicien américain John Forbes Nash, né en 1928, a reçule prix Nobel d’économie en 1994, notamment pour ses travaux enthéorie des jeux. Vers l’âge de trente ans, Nash a commencé à souffrirde troubles mentaux graves, dont il s’est remis de manière spectaculaireau milieu des années 1980. Sa vie a d’ailleurs fait l’objetde la biographie « Un homme d’exception » et a inspiré le film dumême titre. (Cliché Université de Princeton)


Comment rationaliser les ventes aux enchères ? 59lement des actions spécifiées par l’équilibrede Nash. Dans une situation d’équilibre deNash, personne n’a intérêt à changer unilatéralementson action.La difficulté particulière des enchères, c’estque chaque joueur-enchérisseur est le seul àconnaître sa propre évaluation du bien àvendre, et qu’il ne connaît pas les évaluationsdes autres acheteurs potentiels. Il faut doncgénéraliser le concept d’équilibre de Nash àcette situation, où l’information est incomplète.C’est ce qu’a réalisé intuitivementVickrey en 1961 ; l’Américain d’origine hongroiseJohn Harsanyi l’a fait plus rigoureusementvers 1967-1968, ce qui lui a valu aussi leprix Nobel, en 1994. On est ainsi parvenu àl’équilibre de Nash bayésien, notion d’équilibrequi permet d’émettre une conjecture surla façon dont des enchérisseurs rationnels doiventmiser dans une enchère.Dans le contexte des enchères, une stratégieest, du point de vue mathématique, unefonction S qui associe à chaque évaluationd’un joueur sa mise correspondante. End’autres termes, pour toute évaluation particulièrev, cette fonction doit spécifier la miseb* = S(v) qui maximise l’espérance de gain calculéeà partir des règles de l’enchère et ensupposant que les autres joueurs utilisent lamême stratégie. Cela signifie, dans un équilibrede Nash bayésien symétrique, que si lesautres misent de la même façon, en employantla même stratégie, cette façon de miser estoptimale. Pourquoi l’adjectif bayésien ? Parceque le joueur calcule une espérance de gainà partir des croyances qu’il a sur les évaluationsdes autres (en probabilités et statistiques,le point de vue bayésien — d’après ThomasBayes, mathématicien anglais du XVIII e siècle— consiste à évaluer des probabilités sur labase de l’information partielle disponible etde croyances a priori).Quand la théorie confirme et étendl’intérêt de méthodes de venteconçues intuitivement…Dans le domaine des enchères, les mathématiquesont donc permis de modéliser lescomportements des acteurs, ce qui conduit àune prédiction sur leur façon de miser. Cela apermis de progresser dans deux directions. Surle plan de la connaissance positive, il estdevenu possible de confronter les données,c’est-à-dire les mises des joueurs dans différentstypes d’enchères, à ce que prédit la théorie.Celle-ci a, de ce fait, acquis un statut scientifique: on pourrait la rejeter au cas où l’ontrouverait des données contredisant ses prédictions,la théorie est donc réfutable.Sur le plan de l’établissement de normes,les conséquences ont été encore plus importantes.Dans le cadre des hypothèses de lathéorie des enchères ainsi construite, on a pudémontrer un théorème assez fascinant : lethéorème de l’équivalence du revenu. Sansentrer dans les détails, ce théorème prouveque les procédures d’enchères au premier oudeuxième prix (l’acheteur qui remporte le lotne paye que le deuxième prix proposé) souspli fermé, les enchères orales montantes(anglaises) ou descendantes (hollandaises) sontéquivalentes pour le vendeur et qu’elles sont,de plus, souvent optimales. Ainsi, desméthodes de vente que l’on utilisait pragmatiquementdans des cas particuliers s’avéraientêtre, à la lumière de la théorie, la façon optimaled’allouer des ressources rares. D’où unenthousiasme nouveau pour l’extension deces méthodes à toutes sortes d’activités éco-


60 L’explosion des mathématiquesnomiques. Enfin, dans des circonstances pluscomplexes que la vente d’un simple objet, lathéorie permet de concevoir des généralisationsdes simples enchères pour optimiserdavantage encore soit le revenu du vendeur,soit le bien-être social si l’organisateur desenchères est un État soucieux de cet aspectdes choses. On a ainsi pu, grâce aux mathématiques,comprendre le sens et l’intérêt d’unepratique ancestrale et, par suite, transformercette intuition humaine en un vrai outil dedéveloppement économique.Avec Internet et les nouvelles technologiesde communication, les enchères trouventun champ immense d’expérimentations. Leréseau Internet offre à ce système de vente denouvelles possibilités, que la théorie aidera àévaluer et à exploiter. Par exemple, dans unevente aux enchères, un vendeur anonymedevrait a priori souffrir de l’asymétrie d’information— lui seul connaît la qualité desbiens qu’il vend — et ne réussir qu’à obtenirun prix de vente très faible; mais par des ventesrépétées d’objets de qualité a priori inconnuedes acheteurs potentiels, il va pouvoir petit àpetit se construire une réputation, grâce auxcommentaires qu’apporteront ses anciensacheteurs. La qualité des échanges pourra doncêtre améliorée en créant un lieu où peuventse bâtir des réputations de qualité et d’honnêteté,ce à quoi se prête aisément un siteInternet.Jean-Jacques LaffontInstitut d’économie industrielle,Université des sciences sociales,Manufacture des tabacs, ToulouseQuelques références :• I. Ekeland, La théorie des jeux et ses applicationsà l’économie mathématique (P.U.F., 1974)• A. Cournot (1838), Recherche sur les principesmathématiques de la théorie des richesses(Calmann-Lévy, Paris, rééd. 1974).• J. Crémer et J.-J. Laffont, « Téléphoniemobile », Commentaire, 93, 81-92 (2001).• L. Friedman, « A Competitive bidding strategy »,Operations Research, 4, 104-112 (1956).• J. Harsanyi, « Games with incomplete informationplayed by bayesian players », Management Science,14, 159-182, 320-134, 486-502 (1967-1968).• J.-J. Laffont, « Game theory and empirical economics: the case of auction data », EuropeanEconomic Review, 41, 1-35 (1997).


De l’économétrie pour vendredes vins ou des obligationsPhilippe Février et Michael VisserGrands vins ou bons du Trésor font l’objet de ventes aux enchères.Mais quel type d’enchères faut-il pratiquer ? Pour le savoir,on complète les modélisations générales des enchères pardes études économétriques.dans les salles devente de Richelieu-Drouot, les ventes auxenchères de vins sont desenchères ascendantesclassiques, ou enchèresanglaises. Dans une telleprocédure, le commissaire-priseurannonce unprix de départ peu élevé,puis augmente progressivementce prix jusqu’àce qu’il ne reste qu’unseul enchérisseur, lesautres ayant abandonné.L’objet à vendre estacquis par ce dernier au prix atteint. Lorsqueplusieurs lots de vin identiques doivent êtremis aux enchères, un mécanisme appelé optiond’achat permet au gagnant d’un lot dans uneenchère de choisir le nombre de lots qu’il souhaiteacquérir au même prix (si l’option d’achatn’est pas disponible, les lots sont mis successivementaux enchères). Considérons parUne vente aux enchères (à la bougie) de vins aux hospices de Beaune, en Bourgogne. Des analyses économétriquesindiquent que le recours aux options d’achat permet d’augmenter le revenu du commissaire-priseur.(Cliché Gamma/Alexis Orand)exemple le cas de la vente de deux lots identiquesde six bouteilles Mouton-Rotschild 1945.La première enchère terminée, le commissairepriseurpropose au gagnant d’obtenir ledeuxième lot au même prix que le premier. Sile gagnant exerce son option, il n’y a pas dedeuxième enchère et les deux lots sont attribuésau gagnant de la première enchère. Si le


62 L’explosion des mathématiquesgagnant n’exerce pas son droit, le deuxièmelot est alors mis aux enchères.L’option d’achat permet bien sûr d’accélérerles ventes, mais elle induit aussi une composantestratégique. Il est clair en effet que lesenchérisseurs ne se comportent pas de la mêmefaçon avec ou sans option d’achat. Dans le premiercas, la perte du premier lot implique potentiellementla perte des deux lots si le gagnantutilise son option, ce qui n’est pas le cas en l’absenced’option. Quel est donc l’impact stratégiquede l’option d’achat? La présence de l’optiond’achat incite-t-elle les enchérisseurs àenchérir davantage que dans le cas contraireet donc augmente-t-elle le revenu du vendeur?L’État doit-il pratiquer des enchèresuniformes ou discriminatoires ?L’État français finance sa dette en émettantdes obligations appelées bons du Trésor.L’attribution de ces obligations se fait à l’aided’une procédure d’enchère dite discriminatoire.Chacun des enchérisseurs,appelés spécialistesen valeur du Trésorou SVT, établit unensemble de couples prixquantité(p, Q (p)) quidéfinit, selon le prix pd’un bon du Trésor, laquantité Q (p) de bonsqu’il souhaite acheter.L’État ayant au préalableannoncé la quantitétotale T d’obligations qu’ildésirait émettre, lademande agrégée (lasomme des demandesindividuelles des enchérisseurs)détermine un prix dit d’équilibre p* :c’est le prix p* tel que T = Q 1 (p*) + Q 2 (p*)+ ... + Q N (p*), où Q i est la quantité de bonssouhaitée par le i-ème SVT. Chacun de ces derniersobtient alors la quantité Q i (p*) de bonsqu’il a demandée.Si le prix que chaque enchérisseur payaitpour une obligation était p*, il s’agirait d’uneenchère dite uniforme, et le coût total pourl’enchérisseur serait alors simplement p*Q (p*),le prix d’un bon multiplié par le nombre debons demandés (c’est l’aire du rectanglehachuré dans le graphique de gauche). Maisdans l’enchère dite discriminatoire à laquellel’État recourt, le prix payé n’est pas p* pourchaque obligation, mais un peu supérieur. Eneffet, l’État fait payer aux enchérisseurs lemaximum de ce qu’ils étaient prêts à payerpour chaque obligation supplémentaire ; lecoût total pour l’enchérisseur est représentépar l’aire hachurée dans le graphique de droite.Illustrons-le par l’exemple d’un enchérisseurdont la courbe de demande est la sui-Dans une enchère uniforme sur les bons du Trésor, l’enchérisseur paie la somme p*Q (p*) (aire de lasurface hachurée dans le graphique de gauche), où p* est le prix dit d’équilibre d’un bon, déterminéen fonction de la demande de tous les enchérisseurs, et Q (p*) la quantité de bons demandée au préalablepar l’enchérisseur pour ce prix. Dans une enchère discriminatoire, l’enchérisseur paie un prixplus élevé que p*Q (p*), correspondant à l’aire hachurée dans le graphique de droite. Les stratégiesdes enchérisseurs ne sont pas les mêmes dans ces deux types d’enchère.


De l’économétrie pour vendre des vins ou des obligations 63vante : il demande 10 obligations si le prix estde 90 euros, 9 obligations si le prix est de100 euros, ..., 1 obligation si le prix est de180 euros. En supposant que le prix d’équilibrep* est de 130 euros, cet enchérisseur recevra6 obligations. Dans une enchère discriminatoire,le prix qu’il payera est le prix maximalqu’il était prêt à payer pour ces 6 obligations,à savoir: 180 euros pour la première, 170 eurospour la deuxième, ..., 130 euros pour la sixième,soit un total de 930 euros. Dans la procédured’enchère uniforme, cet enchérisseur auraitpayé 130 euros chacune des six obligations,soit un total de 780 euros.Évidemment, les SVT n’enchérissent pasde la même manière dans les deux types d’enchèreet la comparaison des deux mécanismesn’a rien d’immédiat. Le Mexique a changé deprocédure d’enchère en 1990 pour privilégierl’enchère discriminatoire. Les États-Unis, aucontraire, ont abandonné en 1998 l’enchèrediscriminatoire pour l’enchère uniforme.L’enchère uniforme est-elle plus rentable pourl’État ? La France devrait-elle aussi changer demode d’adjudication ?On doit comparer deux situationsalors qu’il n’existe de donnéesque sur une seule d’entre ellesLes réponses à ces questions, concernantl’option d’achat pour les vins ou les enchèresdiscriminatoires pour les obligations, sontimportantes. Les montants en jeu peuventêtre considérables : 185 milliards d’euros enl’an 2000 pour les adjudications des bons duTrésor, plusieurs dizaines de millions d’eurospar an pour Drouot. Comment résoudre desproblèmes de ce type ? La méthode la plusefficace consisterait à organiser une expérienceréelle. Ainsi, dans les enchères de bonsdu Trésor, il faudrait recourir aux deux modesd’enchères en parallèle pour comparer lesrésultats. De même, pour les ventes de vinsaux enchères, il faudrait pratiquer les deuxmodes d’enchère, avec et sans option d’achat,pour comparer le comportement des enchérisseurs.Malheureusement, il est très rarementpossible de mettre en place de tellesexpériences. Nous sommes donc confrontésau problème suivant : comparer deux situationsen n’ayant des informations a priori quesur une seule d’entre elles.La solution de notre problème fait intervenirune démarche mathématique complexe.Dans un premier temps, il faut modéliser lescomportements des enchérisseurs. Les enchérisseurssont caractérisés par le prix maximumqu’ils sont prêts à payer pour obtenir l’objeten vente, prix que l’on appelle leur évaluation.Dans ce modèle, chaque joueur connaîtsa propre évaluation, mais ignore celles desautres joueurs. Il n’a en fait qu’un a priori surles possibles valeurs que peuvent prendre cesévaluations et cet a priori peut être représentépar une fonction f qui spécifie avec quelle probabilitéces différentes valeurs sont prises :f (v) est la probabilité que l’enchérisseur attribuela valeur v au bien à vendre. La stratégied’enchère optimale, c’est-à-dire le prix quedoit offrir l’enchérisseur en fonction de sonévaluation, est obtenue par la recherche del’équilibre de Nash bayésien (voir l’article précédent,de Jean-Jacques Laffont).On peut ainsi modéliser d’un point de vuethéorique les deux situations concrètes quel’on veut analyser, ce qui permet de les comparerthéoriquement. Cette comparaisondépend évidemment de la fonction f choisie.Si, quelle que soit la fonction f, l’une des deux


64 L’explosion des mathématiquessituations domine l’autre (par exemple l’enchèrediscriminatoire permet à l’État d’obtenirun revenu plus important que l’enchèreuniforme quelles que soient les croyances desSVT, définies par la fonction f ), il est possiblede conclure. En général, les situations analyséessont trop complexes pour qu’une telledominance apparaisse. Nous obtenons alors àce stade des conclusions du type : si la fonctionf est celle-ci, alors Drouot a intérêt à maintenirl’option d’achat, mais si la fonction f estcelle-là, ce n’est plus le cas. Le problème revientdonc à celui de la connaissance effective decette fonction f.C’est la confrontation entre les donnéesréelles et les prévisions de la théorie qui permetde déterminer f. En effet, si l’on choisitune fonction donnée f, le modèle et les stratégiesd’équilibre calculées dans le modèle decomportement nous disent ce que les joueursauraient dû enchérir. Il suffit alors de comparerces prédictions — calculables puisque nousavons fait un choix pour f — avec les donnéesréelles. Si elles coïncident, c’est que la fonctionchoisie pour f était la bonne; sinon, il fautrecommencer avec une autre fonction.Deux types de méthodeséconométriques pour déterminerles probabilités attachéesaux évaluations des enchérisseursEn pratique, il n’est pas possible d’essayerl’une après l’autre toutes les fonctions f imaginables: il y en a une infinité ! Pour déterminerf, on doit faire appel à des méthodesdites économétriques. On peut les classer endeux grandes catégories : les méthodes paramétriques(dans lesquelles on suppose que lafonction f est complètement caractérisée parun certain nombre de paramètres inconnus)et les méthodes non paramétriques (qui nefont aucune hypothèse a priori sur f). Ces dernières,plus générales mais aussi plus compliquées,ont été développées à partir de la findes années 1950, mais ce n’est que très récemmentque les chercheurs ont réussi à les adapterau problème de l’estimation de notrefameuse fonction f. Une fois trouvée cettefonction f (ou, de manière équivalente, lesvaleurs des paramètres définissant f dans lesméthodes paramétriques), il suffit de comparerles deux situations étudiées pour savoirlaquelle domine l’autre, laquelle est la plusavantageuse du point de vue du vendeur.Option d’achat, enchèrediscrimatoire : les modèles montrentque ces procédures sont avantageusespour le vendeurC’est cette démarche qui nous a permis derépondre aux questions posées au début decet article sur l’utilisation de l’option d’achatdans les enchères de vin à Drouot. Nous avonsdans un premier temps développé deuxmodèles théoriques, l’un avec option d’achatet l’autre sans, et calculé les équilibres bayésiensdans les deux situations. Nous noussommes alors rendus à Drouot pour obtenirdes données (prix de vente des vins, caractéristiquesde ces vins, etc.), puis nous avonsappliqué une méthode d’estimation paramétriqueà notre modèle théorique avec optiond’achat. Il est important de noter que tous lesvins ne sont pas identiques (année, couleur,château, niveau, étiquette, etc.) et qu’il fautprocéder à une estimation de la fonction fpour chaque catégorie de vin. Une fois ces estimationsréalisées, le modèle théorique sansoption d’achat nous a permis de calculer le


De l’économétrie pour vendre des vins ou des obligations 65revenu qu’aurait eu le commissaire-priseur s’iln’avait pas utilisé l’option d’achat. Les premièresconclusions de cette étude sont quel’utilisation de l’option d’achat permettraitaux commissaires-priseurs d’augmenter leurrevenu de 7 % par rapport à la situation sansoption d’achat.À partir de données sur les ventes françaisesde bons du Trésor en 1995, nous avonsmis en œuvre le même type de démarche pourcomparer les deux modes d’adjudication(enchère uniforme versus enchère discriminatoire).Les résultats de ces travaux montrentqu’avec l’enchère discriminatoire, le revenude l’État est supérieur de 5 % à celui obtenuavec une enchère uniforme. Ainsi, dans ce problèmecomme dans celui des enchères de vins,des modèles économétriques élaborés apportentdes réponses à des questions auxquellesil pouvait sembler impossible de répondre, depar l’absence de données concernant l’unedes deux situations à comparer.Philippe Février 1, 2 et Michael Visser 11CREST-LEI (Centre de recherche en économie etstatistique-Laboratoire d’économie industrielle, Paris)2INSEE (Institut national de la statistiqueet des études économiques)Quelques références :• C. Gouriéroux et A. Monfort, Statistique et modèleséconométriques (Economica, 1989).• P. Février, W. Roos et M. Visser, « Etude théoriqueet empirique de l’option d’achat dans lesenchères anglaises », Document de travail duCREST (2001).• J.-J. Laffont, H. Ossard et Q. Vuong,«Econometrics of first price auctions »,Econometrica, 63, pp. 953-980 (1995).• S. Donald et H. Paarsch, « Piecewise pseudomaximumlikelihood estimation in empiricalmodels of auctions », International EconomicReview, 34, pp. 121-148 (1993).• P. Février, R. Préget et M. Visser,«Econometrics of Share Auctions », Documentde travail du CREST (2001).• E. Guerre, I. Perrigne et Q. Vuong, « Optimalnonparametric estimation of first price auctions», Econometrica, 68, pp. 525-574 (2000).• W. Härdle, Applied nonparametric regression(Cambridge University Press, 1990).


Les casse-tête descompagnies aériennesJean-Christophe CulioliLes problèmes d’organisation et de planification posésà une compagnie aérienne sont analogues à ceux rencontrés dansd’autres secteurs d’activité. La recherche opérationnelle, domaine quiconcerne des dizaines de milliers de mathématiciens et d’ingénieursdans le monde, s’évertue à les résoudre au mieux.le transport aérien est une activité complexe.Celle-ci met en jeu des investissements lourds(les avions et les infrastructures de maintenance),du personnel hautement qualifié(comme le personnel navigant) et une informatiqueà temps réel coûteuse (les systèmesde réservation et de gestion). C’est aussi unsecteur où la concurrence est exacerbée,où les prix affichés ne reflètentpas toujours les coûts de productioninstantanés. Pour qu’elle soità la fois compétitive et sûre, unecompagnie aérienne doit donc êtregérée au plus juste.guerre mondiale, avec les débuts des ordinateurset des méthodes dites de programmationlinéaire (voir l’encadré). La recherche opérationnelles’est, depuis, beaucoup développéeet a largement pénétré le monde des entrepriseset de l’industrie. Étant donnés les enjeux,ses méthodes sont parfois confidentielles.Pour ce faire, elle doit faireappel à des techniques d’optimisationspécifiques à chacune desétapes de la production. Onregroupe ces techniques mathématiquessous le nom de recherche opérationnelle.Ce domaine est né sousl’impulsion des besoins militairesanglo-saxons durant la DeuxièmePour utiliser au mieux sa flotte, une compagnie aérienne doit établir soigneusement sesprogrammes de maintenance et ses programmes de vols, planifier le travail des personnelsau sol et les rotations d’équipages, etc. Ce sont des problèmes difficiles de recherche opérationnelle,qui font intervenir des équations à plusieurs milliers d’inconnues. (ClichéAir France)


les casse-tête des compagnies aériennes 67La recherche opérationnelle est censéerésoudre des questions d’emploi du temps, d’affectationde tâches, d’ordonnancement d’étapesde fabrication, etc., où interviennent de multiplesvariables et contraintes, la solution devantêtre la meilleure possible — au sens d’unmeilleur coût, d’un délai minimal, ou autre. Unexemple élémentaire de problème de rechercheopérationnelle est celui d’affecter, dans uneentreprise qui comporte 50 postes de travail,un poste déterminé à chacun des 50 employés,en tenant compte au mieux des aptitudes dechacun. Pour obtenir la meilleure solution à ceproblème, on pourrait bien sûr passer en revuetoutes les possibilités, évaluer chacune puis choisirla plus avantageuse. C’est tout à fait excluen pratique: il faudrait explorer 50! = 50 × 49× 48 ×... × 3 × 2 × 1 possibilités, un nombre faramineux(égal à environ 3 × 10 64 ). Même si unordinateur pouvait parcourir un milliard de possibilitéspar seconde, il lui faudrait 10 48 annéespour les épuiser toutes, beaucoup plus que l’âgeestimé de l’Univers (environ 10 10 ans)!Cet exemple laisse entrevoir l’ingéniositéque doit déployer la recherche opérationnellepour traiter de tels problèmes de façon réaliste,en un temps de calcul acceptable. En plusdes outils informatiques, des techniquesmathématiques diverses et variées (algébriques,probabilistes, numériques, etc.)entrent dans la conception de ses méthodes.Bien que née il y a plus de cinquante ans, larecherche opérationnelle est une sciencemathématique toujours jeune : il ne se passeguère plus de trois ans entre le moment oùune méthode est conçue dans un laboratoirede recherche et le moment où elle passe enproduction, après avoir passé l’étape dubureau d’études. Dans le secteur aérien, lesenjeux sont tels qu’ils ont suscité la créationde nombreuses sociétés de conseils et servicesmathématiques et informatiques comme legroupe Sabre, issu du département derecherche opérationnelle de la compagnieAmerican Airlines, la société Adopt issue dulaboratoire Gerad (Groupe d’études et deLa programmation linéaireLa programmation linéaire est le problème mathématique consistant à déterminer des quantités positivesx 1 , x 2 , …, x N qui minimisent un certain « coût », supposé égal à c 1 x 1 +c 2 x 2 + ... + c N x N , où les c 1 ,c 2 ,..., c N sont des nombres connus, et les x i étant par ailleurs soumis à des contraintes s’exprimant par deséquations linéaires (de la forme A 1 x 1 +A 2 x 2 + ... + A N x N = B, où les A i et B sont des nombres connus, quidépendent du problème posé). De très nombreuses questions de recherche opérationnelle peuvent se formuleren ces termes. Si l’énoncé du problème de programmation linéaire est relativement simple, sa résolution nel’est pas du tout, d’autant que le nombre N d’inconnues à déterminer atteint, dans la pratique, plusieursmilliers. Ce problème d’apparence anodine, mais de première importance pour les applications, est à l’originedes recherches les plus fructueuses en optimisation depuis une trentaine d’années. En 1947, le mathématicienaméricain George Dantzig proposait l’excellent et encore fréquemment utilisé algorithme du simplexe.Dans les années 1970 et 1980, d’autres algorithmes concurrents sont apparus. L’année 1984 a marquéun tournant : un jeune mathématicien travaillant aux États-Unis, Narendra Karmarkar, découvrait unalgorithme de programmation linéaire particulièrement efficace (convergence dite polynomiale). Les idéessous-jacentes à sa méthode ont inauguré un courant de recherche très actif (méthodes de points intérieurs),qui a mobilisé simultanément des milliers de mathématiciens dans le monde. Grâce à ces efforts, l’industriedispose à présent d’une palette d’algorithmes de programmation linéaire très performants.


68 L’explosion des mathématiquesrecherche en analyse des décisions) de l’universitéde Montréal, ou des sociétés françaisescomme Eurodecision, Ilog, ou Cosytech.Optimiser le programme de vols,attribuer un appareil à chaque vol,minimiser les temps d’immobilisationPour utiliser au mieux la flotte d’appareils,première richesse d’une compagnie aérienne,il faut commencer par établir un programmede maintenance optimal, en positionnant dansle temps les petites et grandes visites techniquesque doit subir chaque avion. Un avionau sol ne rapportant aucune recette, on doitminimiser le temps d’immobilisation de chaqueappareil en tenant compte des horaires et desqualifications des agents, de la disponibilitédes hangars, etc. Les équations qui traduisentle problème ne sont pas linéaires. Elles présententdonc quelques difficultés, mais on disposedepuis peu de méthodes suffisammentefficaces pour les traiter.Une fois le programme de maintenanceétabli (sur un horizon de 6 mois à 10 ans) ils’agit d’établir un programme de vol optimisé.Les compagnies aériennes cherchent à réduire le plus possible les tempsd’immobilisation au sol de leurs appareils, en tenant compte decontraintes multiples : au sol, un avion ne rapporte aucune recette.(Cliché Air France)Après avoir construit un réseau — une liste deparcours à réaliser avec des horaires associés,en fonction de prévisions de parts de marchéset de fenêtres attribuées à chaque compagniepar l’IATA (International Airline TransportationAssociation) — on détermine quel type d’avion(Airbus 340, par exemple) sera le plus adapté,techniquement et économiquement, poureffectuer chacun de ces vols. Les données quientrent dans les programmes d’optimisationsont les caractéristiques des avions (capacité,performances), les flux prévisionnels de passagers,etc. L’élaboration du programme devols nécessite des techniques d’optimisationfaisant appel aux statistiques et aux probabilités,ainsi qu’à des algorithmes de programmationlinéaire dite en nombre entiers (où lesinconnues représentent des nombres entiers).Il s’agit ensuite d’enchaîner les vols et lesopérations de maintenance de chacun desavions de manière à satisfaire l’ensemble descontraintes opérationnelles (successions autoriséesou non, règles de maintenance, etc.),tout en minimisant les conséquences éventuellesde pannes techniques, de retards imprévus,etc. Ce problème d’optimisation, connusous le nom de construction de rotationsd’avions, est modélisé comme un programmelinéaire en nombres entiers de très grandetaille. Il nécessite, pour être résolu exactement,l’application d’une technique de décomposition(la génération de colonnes, relaxationlagrangienne).Enfin, pour chaque rotation d’avion, il fautdéterminer quel avion exactement lui seraaffecté en fonction des contraintes de maintenancede chaque appareil (nombre d’heuresde vol, nombre de cycles d’atterrissages/décollagesavant visite, etc.). Cette matriculationest généralement réalisée par une recherche


Les casse-tête des compagnies aériennes 69de type « programmation dynamique ».Introduite par l’Américain Richard Bellmandans les années 1950, cette démarche consisteà décomposer le problème de décision initialen plusieurs problèmes plus simples qui peuventêtre résolus l’un à la suite de l’autre (laprogrammation dynamique peut s’appliqueraussi bien au calcul des trajectoires optimalesd’avions qu’à la détermination de stratégiesfinancières d’investissement).Les problèmes de planificationrevêtent des formes diverses ; lesmathématiques sous-jacentes aussiChaque avion ayant un programme bienprécis prévu à l’avance, on peut alors tenterde maximiser sa recette attendue en ouvrantou fermant les classes de réservation selon lademande effective de la clientèle. Ce problèmeest très classique dans l’aviation, le transportferroviaire de passagers, chez les loueurs devoitures et les chaînes hôtelières. Il se posecomme un problème d’optimisation stochastique,où il faut maximiser une recette F ausens des probabilités, c’est-à-dire maximiserl’espérance mathématique de la recette Fsachant que F dépend de variables aléatoiresx i (les x i peuvent par exemple représenter leseffectifs de chaque classe de réservation, avecdes contraintes de la forme A 1 x 1 +A 2 x 2 +… +A N x N = B, où B représente une capacité).À tout ce qui précède, il faut ajouter la planificationdes personnels au sol (taille des effectifs,synchronisation avec les programmes devol, programmation de la prise en charge despassagers en correspondance et de leursbagages, etc.) et celle du personnel navigant,en tenant compte bien sûr de la réglementationdu travail et des normes de sécurité. Onle voit, l’activité d’une compagnie aériennepose une grande variété de problèmes d’optimisation,qui sont d’ailleurs souvent analoguesà ceux du transport ferroviaire ou maritime.Ces problèmes sont difficiles ;mathématiquement, ils correspondent à laminimisation ou la maximisation de quantitésdépendant d’un grand nombre de variables(souvent plusieurs milliers, voire plus).Néanmoins, les efforts de la recherche opérationnelleont porté leurs fruits, et l’on disposeaujourd’hui de très bons algorithmes pour laplupart des situations. Mais personne dans cedomaine ne s’endort sur ses lauriers : commeles performances de l’entreprise en dépendent,les recherches doivent se poursuivre.Jean-Christophe CulioliDirecteur de la recherche opérationnelleAir FranceQuelques références :• Y. Nobert, R. Ouellet et R. Parent, La rechercheopérationnelle (3 e éd., Gaëtan Morin, 2001).• R. Faure, B. Lemaire et C. Picouleau, Précis derecherche opérationnelle (5 e éd., Dunod, 2000).• « AirWorthy OR » dans Operational Researchand Management Science Today, numéro dedécembre 1999.• Bulletins de la ROADEF (Association pour laRecherche Opérationnelle et l’Aide à laDécision en France, issue de la refondationde l’AFCET).


De la géométrie à 11dimensions pourcomprendre la Genèse ?Maurice MashaalLes physiciens aspirent depuis longtemps à une théorie capabled’englober toutes les particules élémentaires et toutes leurs interactions.Depuis une quinzaine d’années, ils ont une piste sérieuse.Mais pour l’explorer, ils doivent naviguer dans des espaces hautementabstraits où même les mathématiciens ne s’étaient pas encore aventurés.tout honnête homme sait que les scientifiquescomme les physiciens ou les chimistesutilisent des mathématiques. Plus rares sontceux qui savent à quel point cela est vrai, etcombien profonde est l’imbrication entremathématiques et sciences de la nature. Galiléea dit que le livre de la Nature est écrit en langagemathématique. Cette idée, le développementde la science moderne, et plus particulièrementcelui de la physique, semble laconfirmer pleinement. Il y a même plus qu’uneconfirmation : bien des penseurs s’étonnentde constater que les inventions ou découvertesmathématiques ont toujours fini par servir àla description de quelque aspect des phénomènesnaturels. C’est l’étonnement devant lafameuse « déraisonnable efficacité desmathématiques dans les sciences de la nature »dont parlait le physicien d’origine hongroiseEugene P. Wigner (1902-1995).On ne sait pas vraiment pourquoi lesmathématiques sont si « efficaces ». C’est unequestion encore ouverte, qui concerne la philosophiede la connaissance. On n’essaiera pasici d’y répondre, mais seulement d’illustrercette efficacité dans le domaine de la physiquela plus théorique et la plus fondamentale, cellequi n’a a priori aucune utilité matérielle — etde laquelle pourtant ont résulté des inventionscruciales comme le laser, le transistor oul’énergie nucléaire…Physique et mathématiques, unelongue histoire d’apports réciproquesLes liens entre mathématiques et physiquene datent pas d’aujourd’hui. Le principed’Archimède (« tout corps plongé dans unliquide subit une poussée égale au poids duvolume de liquide déplacé ») ne constitue-t-ilpas un énoncé mathématique portant sur unphénomène physique ? La physique n’a-t-ellepas connu des progrès spectaculaires grâce àla création du calcul différentiel et intégralpar Newton et Leibniz, au XVII e siècle? Qui plusest, ces liens ne sont pas toujours à sens unique,


De la géométrie à 11 dimensions… 71un outil mathématiqueétant d’abord inventé puisappliqué à un problème dephysique. Un exempleparmi bien d’autres entémoigne : c’est en s’intéressantau problème de lapropagation de la chaleurque le mathématicien françaisJean-Baptiste JosephFourier (1768-1830) a conçules « séries de Fourier » (ils’agit de sommes infinies defonctions trigonométriques),qui jouent depuisun rôle extrêmementimportant dans les scienceset les techniques.Une myriade de galaxies très lointaines vues par le télescope spatial Hubble. La gravitation étant unélément clef de la naissance et de l’évolution de l’Univers, les spécialistes de cosmologie aimeraient disposerenfin d’une description de la force de gravitation compatible avec les principes de la physiquequantique. La théorie des cordes exaucera-t-elle ce vœu? (Cliché R. Williams/HDF (STSci)/NASA)La physique du XX e siècleest riche en interactionsavec les mathématiques.C’est le cas avec les deuxgrandes théories nées auxdébut de ce siècle, la théoriede la relativité d’Einstein et la mécaniquequantique. La relativité (générale) d’Einsteinest une théorie de la gravitation qui supplantecelle de Newton ; elle repose sur des conceptsradicalement différents, liés aux géométriesnon euclidiennes, introduites au XIX e siècle,quand personne ne soupçonnait que de tellesmathématiques puissent avoir un quelconquerapport avec la réalité. De même, quand desmathématiciens ont commencé à étudier les« espaces de Hilbert » (espaces abstraits dontles points peuvent être — par exemple — desfonctions vérifiant certaines conditions techniques),au début des années 1900, personnene se doutait qu’une vingtaine d’années plustard, les mathématiques des espaces de Hilbertallaient constituer le cadre adéquat pour formulerles lois de la mécanique quantique (quise manifestent surtout à l’échelle atomiqueet subatomique). Réciproquement, lesrecherches fondamentales en relativité généraleou en mécanique quantique ont à leurtour stimulé des recherches purement mathématiques.La physique des particulesélémentaires, champ où sedéploient des mathématiquestrès abstraitesRegardons d’un peu plus près l’une desvoies dans laquelle s’est développée la physiquequantique : l’étude des particules dites


72 L’explosion des mathématiquesélémentaires et de leurs interactions. Au coursdes décennies 1930-1950, s’est élaboré un cadrethéorique d’une grande complexité, tant dupoint de vue des concepts que des techniquesmathématiques mises en œuvre, appelé la théoriequantique des champs. C’est dans ce cadre,et avec la mise en évidence de nouvelles particulesgrâce aux accélérateurs de particules, queles physiciens ont découvert que le monde desparticules élémentaires manifeste un certainnombre de symétries. La théorie des groupes,une importante branche des mathématiquesfondée au XIX e siècle, a joué et continue à jouerun rôle capital dans l’élucidation de ces symétries(abstraites pour la plupart). C’est grâce àUne corde fermée vibre de façon à présenter un nombre entier de crêteset de creux. Les différentes particules subatomiques (électrons, photons,etc.) correspondraient aux différents modes de vibration de minusculescordes fondamentales.elle que, à plusieurs reprises, les théoriciens ontpu prédire l’existence de certaines particules,quelques années avant qu’elles ne soient découvertespar les expérimentateurs.Dans les années 1970-1980, la théorie desparticules élémentaires était parvenue au pointoù elle était capable de décrire de manièresatisfaisante et unifiée toutes les particulesconnues et presque toutes leurs interactions.Pourquoi « presque »? On connaît quatre interactionsfondamentales — la force gravitationnelle,la force électromagnétique et deuxforces agissant à l’échelle nucléaire, l’interactionfaible et l’interaction forte ; or les physiciensn’ont pas réussi à faire entrer la forcegravitationnelle dans leur théorie, appelée leModèle standard de la physique des particules.Concilier la gravitation avecla physique quantique : un défifondamental qui semble à la portéede la théorie des cordesQue signifie cette exception ? La gravitationsemble correctement décrite par la relativitégénérale d’Einstein, mais la théoried’Einstein n’est pas une théorie quantique,c’est-à-dire qu’elle n’intègre pas les principes(assez étranges, soit dit en passant) de la physiquequantique. Or on ne voit pas du toutpourquoi, alors que toute la nature obéit auxlois quantiques, la gravitation en serait dispensée.D’où l’obstination des physiciensthéoriciens de faire rentrer la gravitation dansle bercail quantique. Malgré plusieurs décenniesd’efforts, ils n’y sont pas arrivés.Cependant, depuis le milieu des années1980, beaucoup d’entre eux croient que l’ontient le bon bout. En effet, c’est à cette époquequ’une nouvelle théorie encore inachevée maisprometteuse, appelée théorie des cordes, agagné suffisamment de cohérence pour qu’onl’envisage sérieusement. Le contexte exact etles raisons précises qui ont poussé les théoriciensdans cette direction sont beaucoup troptechniques pour qu’on les explique ici. Il estégalement impossible d’expliquer de façonsimple en quoi consiste la théorie des cordes.Disons juste, de façon très approximative,qu’elle suppose que les objets physiques fondamentauxne sont pas des particules assimiléesà des points (« philosophie » des théories


De la géométrie à 11 dimensions… 73quantiques de champs traditionnelles), maisde minuscules cordes sans épaisseur — depetits morceaux de ligne, en quelque sorte ;et que les différentes particules observées ànotre échelle correspondraient aux différentsmodes de vibration des cordes, un peu commeles différents modes de vibration d’une cordede violon correspondent aux différentes notesmusicales.Pour que les théories des cordessoient cohérentes, il faut quel’espace-temps possède 11 dimensionsLes théories des cordes (théories au pluriel,car il en existe en fait plusieurs variantes)sont encore préliminaires et d’une complexitéredoutable. Nombre de leurs aspects restentà défricher. De plus, il est pour le momentimpossible de les mettre à l’épreuve de l’expérience,car les énergies que cela demanderaitsont tout à fait inaccessibles, même avecles accélérateurs de particules les plus puissantsdont nous disposons. Mais elles ont séduitles théoriciens, parce que ces théories (quantiques)intègrent de façon naturelle la gravitation,apparemment sans se heurter aux obstaclesqui surgissaient dans les théoriesprécédentes.Représentation schématique de l’interaction entre deux cordes. Au cours du temps, quis’écoule de gauche à droite dans ce schéma, une corde fermée balaie une surface analogueà un tube.Si les physiciens réussissent à construireune théorie des cordes complète et cohérente,ils seront en mesure d’étudier de façon préciseles phénomènes gravitationnels violents(de très haute énergie) qui se déroulent dansle cosmos, comme l’effondrement d’une grosseétoile sur elle-même, la physique des « trousnoirs », etc. Ce sont aussi les mystères des toutpremiers instants de la naissance de l’Univers— les premiers instants du fameux big bang,événement violent s’il en est — que l’on pourramieux cerner. Une description quantique dela gravitation permettra certainement de faireun saut qualitatif et quantitatif dans la compréhensionde l’Univers, de son origine et deson évolution.Mais comme on l’a dit plus haut, les théoriesdes cordes sont très compliquées. Ellesimpliquent des techniques mathématiquesélaborées, souvent issues des recherches lesplus récentes. De fait, les spécialistes qui étudientces théories comprennent indifféremmentdes physiciens et des mathématiciens(plusieurs lauréats de la médaille Fields, larécompense suprême en mathématiques, ontconsacré une part importante de leurs travauxaux théories des cordes ; c’est le cas del’Américain Edward Witten, ou du Russe installéen France Maxim Kontsevitch). Il a éténotamment établi que les théoriesdes cordes ne peuvent être cohérentesque si l’on suppose que l’espace-tempspossède non pasquatre dimensions (trois dimensionspour l’espace, une dimensionpour le temps), mais bien davantage: 11 dimensions aux dernièresnouvelles! Les sept dimensions supplémentaires,imperceptibles à nossens car elles seraient refermées surelles-mêmes en de minuscules


74 L’explosion des mathématiquesEdward Witten, l’un des principaux artisans de la théorie des cordes.On ne sait s’il faut le considérer comme un physicien ou comme unmathématicien… (Cliché : DR)boucles, contribuent à l’abstraction et à la difficulté.La nécessité pour les théoriciens demanier des cordes et autres objets dans desespaces possédant un tel nombre de dimensionsa créé un formidable terrain de collaborationentre physiciens et mathématiciens. Lesrecherches dans ce domaine ont eu autant deretombées pour les théories des cordes ellesmêmesque pour diverses branches des mathématiquesfondamentales. C’est un bel exemple,dans l’histoire de la physique et des mathématiques,d’une liaison intime entre ces deuxdisciplines, les résultats de l’une nourrissant lesrecherches de l’autre. Le jeu en vaut bien lachandelle : bien que les théories des cordessoient encore hautement spéculatives, il nes’agit rien de moins que de percer les énigmesde l’infiniment petit et de l’infiniment grand,c’est-à-dire, en définitive, celles de nos origines.Maurice Mashaaljournaliste scientifiqueQuelques références :• B. Greene, L’Univers élégant (Robert Laffont, 2000).• M. Duff, « Les nouvelles théories des cordes »,Pour la Science, avril 1998.• N. Arkani-Hamed, S. Dimopoulos, G. Dvali,«Les dimensions cachées de l’Univers », Pour laScience, octobre 2000.• I. Antoniadis, E. Cremmer et K. S. Stelle, « Lessupercordes », Gazette des mathématiciens n° 87,pp. 17-39, et n° 88, pp. 95-114 (janvier etavril 2001).• P. Deligne et al. (eds.), Quantum fields andstrings : a course for mathematicians (AmericanMathematical Society/Institute for AdvancedStudy, 1999).


Internet : modéliser le traficpour mieux le gérerFrançois BaccelliLes spécialistes des réseaux de communication s’efforcentde bien comprendre les propriétés statistiques du traficde données qu’ils doivent acheminer. La gestion de ces réseauxet leur développement en dépendent.les réseaux decommunication(téléphone,Internet, réseauxlocaux, etc.) ontconnu, au cours desdernières décennies,une expansionphénoménale.Pour leurs opérateurs,une questioncentrale est desavoir contrôler lesflux d’informationde façon optimale,Le réseau Internet n’est pas centralisé comme l’étaient autrefois les réseaux de communication. De tels changementsstructurels ont des répercussions profondes sur les propriétés mathématiques du trafic de données.(Photo : Getty Images)afin d’éviter tout engorgement et d’offrir auxutilisateurs un service de bonne qualité, fiableet rapide. Or pour concevoir des procéduresefficaces de contrôle de la circulation des informations,pour dimensionner correctement leslogiciels et les équipements matériels nécessaires,une connaissance approfondie des propriétésdu trafic des communications dans detels réseaux s’impose.L’analyse mathématique du trafic dans lesréseaux de communication est une disciplinedéjà ancienne. Elle remonte à 1917, avec les travauxengagés par l’ingénieur danois AgnerK. Erlang. Sa démarche, poursuivie par beaucoupd’autres chercheurs, a fourni les principauxoutils mathématiques de dimensionnement utiliséspar les opérateurs et les constructeurs deréseaux, jusqu’aux années 1990 environ.


76 L’explosion des mathématiquesJusqu’aux années 1990,la modélisation du trafic par des loisstatistiques classiques suffisaitDans ses principes, la démarche mathématiqueexplorée par Erlang et par d’autreschercheurs et ingénieurs après lui est markovienne.Cela signifie qu’elle décrit le traficen s’appuyant sur un modèle simple deprocessus aléatoires, les chaînes de Markov,pour lesquelles la théorie mathématique estbien avancée et puissante (Andreï Markov(1856-1922) était un mathématicien russe quia apporté des contributions importantes à lathéorie des probabilités). En simplifiant, unechaîne de Markov est une suite d’événementsaléatoires, dans laquelle la probabilité d’unévénement donné ne dépend que de l’événementqui précède immédiatement. Dansle cadre des réseaux de communication, ladémarche markovienne d’Erlang suppose queles lois statistiques caractérisant le trafic sontdes lois de Poisson ; la loi de Poisson est unedes lois de probabilité ou de statistique lesplus répandues et les plus simples, elle tireson nom du mathématicien français DenisPoisson (1781-1840). L’hypothèse poissoniennes’avérait justifiée pour le trafic téléphonique(où les événements aléatoires sontles appels des abonnés, qui surviennent à desinstants aléatoires et dont la durée est égalementaléatoire).Ce type de modélisation du trafic a permisde mettre en place des procédures decontrôle adaptées. Jusqu’à une date récente,le contrôle des réseaux de communication étaitun contrôle d’admission, c’est-à-dire que l’opérateurrefuse à l’utilisateur l’accès au réseaulorsque ce dernier ne peut garantir une qualitéde service prédéfinie. Ce type de contrôleexige une connaissance assez précise de l’étatdu réseau dans son ensemble, et il n’est doncpossible que pour des réseaux gérés demanière centralisée.Mais les réseaux de communication d’aujourd’huine sont plus ceux d’hier. Internet aconnu un développement extraordinaire cescinq dernières années (on estime que le traficde communications vocales représentait 90 %du trafic global en 1997, 50 % en 2000, et n’enreprésentera que 10 % d’ici un an ou deux).Cet essor a radicalement changé une situationqui était stable depuis plus d’un demi-siècle.Les raisons profondes de ce développementrapide résident dans l’utilisation, pour l’acheminementde l’information et le contrôle dutrafic, de nouveaux protocoles de routage (routageIP, pour Internet Protocol) et de contrôle(TCP, pour Transmission Control Protocol)décentralisés, qui rendent le réseau Internetindéfiniment extensible.Les propriétés statistiques du traficont changé. Il fallait comprendrecomment et pourquoiCes modifications structurelles ont eu desconséquences sur le trafic et ses propriétés statistiques,et il a fallu développer une théoriemathématique adaptée à la nouvelle donne.En effet, des analyses statistiques effectuéesau milieu des années 1990 par des chercheursde Bellcore, aux États-Unis, et de l’INRIA (Institutnational de recherche en informatique et enautomatique), en France, ont montré, d’abordsur des réseaux locaux puis sur le Web, que letrafic ne pouvait plus être décrit à l’aide de loisde probabilité de Poisson. Notamment, onobserve des processus aléatoires à mémoirelongue (où la probabilité d’un événementdépend aussi d’événements qui se sont pro-


Internet : modéliser le trafic pour mieux le gérer 77duits relativement loin dans le passé), ce quiexclut toute modélisation usuelle fondée surles processus markoviens classiques. Souvent,ces processus présentent également des propriétésstatistiques connues sous le nom demulti-fractalité, qui traduisent une très grandeirrégularité. Or toutes ces propriétés statistiquesont des conséquences importantes, parexemple pour le dimensionnement desmémoires des routeurs; ne pas en tenir comptepourrait conduire à sous-estimer les pertes depaquets d’informations par le réseau et entraînerdes dysfonctionnements.Aujourd’hui, on comprend assez bien l’originedu phénomène de mémoire longue constatédans la statistique du trafic. On a pu établirqu’il découle directement de la répartitionstatistique des tailles de fichiers contenus dansles serveurs Web et FTP (protocole de transfertde fichiers) ainsi que des tailles des fichiersdemandés par les utilisateurs lors des requêtesHTTP (protocole de transfert hypertexte, utilisélorsqu’on surfe sur le Web) et FTP. Leurscourbes statistiques, c’est-à-dire les courbesreprésentant le nombre de fichiers échangésou consultés en fonction de la taille, décroissent,pour les grandes valeurs, moins rapidementqu’une exponentielle, de part et d’autrede leur maximum : on dit que leur loi de probabilitéest sous-exponentielle. Ce que l’on amontré, c’est que les lois statistiques sousexponentiellesauxquelles obéit le comportementindividuel des internautes, superposéesen grand nombre étant donnée la multitudede ces internautes, ont pour conséquencedirecte le phénomène de mémoire longuecaractérisant le trafic global.Analyser le protocole TCP etses effets afin d’améliorer la gestiondu réseau InternetDes internautes dans un cybercafé. Une bonne connaissance despropriétés statistiques des flux de données sur le réseau Internet estindispensable pour assurer le bon fonctionnement de la Toile.(Cliché Frank Moehle)Depuis les premiers articles mettant enévidence les nouvelles propriétés statistiquesdu trafic de données, de très nombreux travauxont été publiés en vue de les expliquer.Tout n’est pas éclairci pour autant. Les travauxactuels se concentrent sur l’explicationdes propriétés statistiques du trafic aux petiteséchelles de temps, la multi-fractalité en particulier.L’hypothèse la plus répandue est quecette propriété résulte des protocoles decontrôle utilisés, et notamment de TCP. Maisen quoi consiste le protocole TCP, qui contrôleactuellement près de 90 % du trafic surInternet ? Il s’agit d’un contrôle de flux adaptatif,où le débit d’information émise par unesource est commandé par un algorithme qui


78 L’explosion des mathématiquesaugmente linéairement le débit d’émission aucours du temps, tant qu’il ne se produit pasd’engorgement ; mais dès que des pertes sontdétectées, l’algorithme réduit de moitié ledébit d’émission.C’est ce contrôle adaptatif qui règle touteréponse à la congestion dans le réseau. Sonanalyse mathématique présente de nombreusesdifficultés, en raison du caractèredécentralisé, stochastique (l’encombrementet les pertes évoluent aléatoirement), nonlinéaire (les effets ne sont pas simplement proportionnelsaux causes), complexe (réseau trèsétendu, impliquant des interactions entrenombreux routeurs intermédiaires) de la situation.Or l’élaboration de modèles intégranttous ces éléments est un enjeu majeur, qu’ils’agisse de définir des règles de dimensionnementdu réseau, d’optimiser les débits oude prédire et contrôler les variations aléatoiresde la qualité de service offert par le réseau àses utilisateurs.Des défis scientifiques et des enjeuxéconomiques, qui mobilisentles universitaires et les industrielsUne telle tâche exige des efforts derecherche dans des domaines très divers (statistiques,théorie des probabilités et des filesd’attente, contrôle adaptatif de systèmes nonlinéaires, théorie des grands réseaux stochastiques,systèmes dynamiques) et quidépassent ceux de l’approche traditionnelle.Ces dernières années, un grand nombre demodèles plus ou moins simplifiés ont ainsiété proposés. Certains d’entre eux permettentde rendre compte de la multi-fractalitédu trafic global, propriété évoquée plus haut,d’autres permettent d’évaluer si le partaged’un même canal de communication entreplusieurs flux de données contrôlés par TCPest équitable, etc.Les recherches actuelles se concentrentaussi beaucoup sur l’analyse de DiffServ, uneméthode de différenciation des services offerts,fondée sur la création de classes de prioritépour les échanges de données. Cela paraît êtrela seule démarche extensible capable d’améliorerla qualité de service dans le réseauInternet. Un autre axe important concernel’adaptation d’UDP (User Datagram Protocol),un protocole utilisé pour les flux de donnéesvidéo et vocales, flux qui ne sont pas réguléspar TCP, notamment dans le but de définir desmodes de transmission de ces flux qui soientcompatibles avec TCP.Face à ces questions qui présentent desdéfis scientifiques et des enjeux économiquesde première importance, le monde académiqueet le monde industriel s’organisent.Comment ? La plupart des grands groupesindustriels des technologies de l’informationet des opérateurs ont constitué des équipesde recherche du plus haut niveau, centrées surla modélisation du trafic et du contrôle dansles réseaux de données, et tout particulièrementdans le réseau Internet. L’effort dumonde académique n’est pas moindre, notammentaux États-Unis, en Europe et dans certainspays asiatiques, où se mettent en placedes collaborations interdisciplinaires entre desmathématiciens et des chercheurs en informatiqueou en génie électrique.L’instance qui a la plus grande influencedans l’évolution du réseau Internet est sansdoute l’IETF (Internet Engineering Task Force,consultable à l’adresse http://www.ietf.org).Elle est ouverte à chacun, qu’il soit concepteur


Internet : modéliser le trafic pour mieux le gérer 79de réseau, chercheur ou opérateur. Les activitésse déroulent sous forme de groupes detravail portant sur plusieurs domaines tels quele routage, la sécurité, le transport, le contrôlede congestion, les applications, etc. Cesgroupes de travail sont chargés de faire desrecommandations dont certaines deviendrontdes normes. La validation de ces recommandationspar des études mathématiques, dutype de celles évoquées dans cet article, constitueune composante importante et parfoisdécisive du travail de normalisation.François BaccelliINRIA (Institut national de recherche eninformatique et automatique) etÉcole Normale Supérieure(Département d’informatique), ParisQuelques références :• K. Park et W. Willinger (eds.), Self similar trafficanalysis and performance evaluation (Wiley, 2000).• P. Abry, P. Flandrin, M. S. Taqqu et D. Veitch,«Wavelet for the analysis, estimation and synthesison scaling data », dans la référence ci-dessus.• F. P. Kelly, A. K. Maulloo et D.K.H. Tan, « Ratecontrol in communication networks : shadowprices, proportional fairness and stability »,Journal of the Operational Research Society, 49,pp. 237-252 (1998).• R. Riedi et J. Levy-Vehel, « Fractional brownianmotion and data traffic modeling : the otherend of the spectrum », Fractals in Engineering(Springer-Verlag, 1997).• M. Taqqu, W. Willinger et R. Sherman, « Proofof a fundamental result in self similar trafficmodeling », Computer Communication Review,27, pp. 5-23 (1997).• F. Baccelli et D. Hong, Interaction of TCP flowsas billiards, rapport INRIA, avril 2002.


Le prixdes options financièresElyès JouiniLe monde de la finance fixe le prix des options au moyende formules ayant été obtenues grâce à des travaux mathématiquesrelativement récents. La recherche de meilleures formules se poursuit…et cela ne concerne pas que les boursicoteurs !dans sa préface à la quatrièmeédition des Éléments d’économiepolitique pure ou théorie de larichesse sociale, publiée à Lausanneen 1900, Léon Walras écrivait :« Toute cette théorie est une théoriemathématique, c’est-à-dire quesi l’exposition peut s’en faire dansle langage ordinaire, la démonstrationdoit s’en faire mathématiquement». Plus loin, il ajoutait même:« Il est à présent bien certain quel’économie politique est, commel’astronomie, comme la mécanique,une science à la fois expérimentaleet rationnelle… Le XX e siècle, quin’est pas loin, sentira le besoin [...]de remettre les sciences sociales aux mainsd’hommes d’une culture générale, habitués àmanier à la fois l’induction et la déduction, leraisonnement et l’expérience. Alors l’économiemathématique prendra son rang à côté de l’astronomieet de la mécanique mathématique ».La Bourse de New York, un jour faste. Les mathématiques ont fait une entrée en forcedans le monde de la finance depuis plus d’une vingtaine d’années. Réciproquement, lemonde de la finance fournit des problèmes qui stimulent la recherche dans certainsdomaines des mathématiques. (Cliché Gamma Liaison/Gifford)Je voudrais à travers l’exemple qui suit,emprunté à la finance, montrer comment mathématiqueset économie continuent d’entretenirdes liens extrêmement étroits et qu’il y a, dansles sujets les plus actuels intéressant l’une etl’autre discipline, une réelle fertilisation croisée.


Le prix des option financières 81Le problème qui va nous intéresser ici estl’évaluation des options financières. La questionest aussi vieille que les options ellesmêmes,dont on trouve notamment trace dansl’Antiquité et au XVII e siècle sur le marché destulipes aux Pays-Bas. C’est pourtant en 1973,comme on le verra plus loin, que cette questiona trouvé sa première réponse mathématiquementsatisfaisante. Et ce n’est pas unhasard si c’est la même année que le premiermarché organisé d’options, celui de Chicago,a connu un essor jamais démenti depuis.Qu’est-ce qu’une option financière ?Considérons une certaine action cotée sur lesmarchés financiers, et dont le prix est, aujourd’hui,égal à S. Les marchés financiers offrentaux acheteurs potentiels, par le biais d’uneoption, la possibilité d’acheter cette action àune date ultérieure, mettons dans trois mois,au prix K. Cela peut être intéressant pour unacheteur qui, par exemple, ne dispose pasencore de l’argent nécessaire et veut se garantircontre une augmentation du prix de l’action.Une telle option est une sorte de contratd’assurance, qui confère le droit d’acheterl’action à une date ultérieure à un prixgaranti K. Évidemment, ce droit doit lui-mêmeêtre vendu à un certain prix, mais lequel? Telleest la question de l’évaluation du prix desoptions. Pour parler en termes financiers: queldoit être le prix d’une option sur l’action S,de « strike » ou prix d’exercice K et d’échéancetrois mois ?Il est clair que l’acheteur d’un tel droit nel’exercera que si, dans trois mois, le prix del’action sur le marché est supérieur à K. Ilpourra alors acheter l’action au prix K,revendre au prix courant et réaliser un bénéficeégal à la différence. Cette option procuredonc à son acheteur, dans trois mois, un gainégal à la différence entre le prix courant del’action et K, si cette différence est positive,et un gain nul sinon.Le principe de non-arbitrage està la base de la détermination desprix des actifs financiersPour fixer le prix d’une telle option, lathéorie de l’arbitrage s’appuie sur un principetrès simple, voire simpliste : l’absence d’opportunitésd’arbitrage. En d’autres termes, ceprincipe affirme qu’il n’est pas possible, à partird’un investissement nul aujourd’hui, de segarantir, quoi qu’il arrive, un paiement positifà une date ultérieure (on n’a rien pour rien).Le principe d’absence d’opportunités d’arbitragene signifie pas que des gains miraculeuxsoient impossibles. En effet, je peux très bienemprunter le prix d’un billet de loterie et acheterun tel billet — mon apport personnel estdonc nul — puis gagner un million d’euros,rembourser mon emprunt et dégager un bénéficeénorme. Le principe énonce seulementqu’un tel bénéfice ne saurait être garanti apriori. En effet, dans l’opération précédente,je peux également ne rien gagner et êtreobligé de rembourser mon emprunt: j’ai doncpris un risque de perte.Ainsi, l’absence d’opportunités d’arbitragesignifie tout simplement que tout gain supérieurau rendement d’un actif sans risque deréférence (taux d’intérêts, obligations, bonsdu Trésor, etc.) est nécessairement lié à unrisque. Les SICAV, par exemple, ont un rendementmoyen supérieur à celui du marchémonétaire ; toutefois, ce rendement n’est pasgaranti et peut très bien, comme nous l’avonsvu au cours de l’année 2001, passer en dessousde celui du marché monétaire.


82 L’explosion des mathématiquesSupposons à présent, pour simplifier leproblème, que le marché ne fonctionne qu’àdeux dates, aujourd’hui et dans trois mois, etque le prix S de l’action dans trois mois nepourra prendre que deux valeurs, disons soit100 soit 150 euros. Supposons de plus que K,le prix d’achat convenu pour l’action àl’échéance de l’option, soit compris entre lavaleur haute S h = 150 euros et la valeur basseS b = 100 euros, par exemple K = 140 euros. Sile prix de l’action dans trois mois est la valeurhaute 150 euros, le détenteur de l’optionexerce son droit et l’achète au prix préalablementconvenu K = 140 euros ; le gain associéà l’option vaut donc S h – K = 150 – 140=10euros. Si le prix de l’action dans trois moisest la valeur basse 100 euros, le détenteur del’option renonce à exercer son droit d’achatau prix K, qui est supérieur ; le gain associé àl’option est, dans ce cas, nul.On peut démontrer qu’un tel gain peutégalement être obtenu en se constituant unportefeuille ne comportant que des actions etdes placements (ou prêts) sur le taux d’intérêtdu marché, que l’on notera ici r. Appelons C lecoût de constitution d’un tel portefeuille. Deuxactifs aux rendements identiques devant avoirle même prix (on prouve que sinon, le principede non-arbitrage serait violé), on en conclutque le prix de l’option doit être égal à C.Le coût C du portefeuille, égal à celui del’option, peut être déterminé de façon précise.On démontre que C est une moyenne pondéréedes paiements actualisés de l’option, c’està-direune moyenne pondérée des montants(S h – K)/(1 + r) et 0/(1 + r) = 0, et que les poidsintervenant dans cette moyenne sont tels quele prix S de l’action aujourd’hui est, lui-même,une moyenne pondérée des paiements actualisésde l’action (S h /(1 + r) et S b /(1 + r)) avec lesmêmes poids. Plus précisément, on prouvequ’il existe une loi de probabilité telle que leprix de tout actif est égal à l’espérance, calculéed’après cette loi, de ses paiements actualisésfuturs. Ce dernier résultat est obtenu grâceà de l’algèbre linéaire élémentaire, et concernele modèle simple présenté ci-dessus. Mais grâceà des techniques d’analyse convexe apparuesau milieu du XX e siècle, il se généralise au casoù l’action peut prendre plusieurs valeurs différentes(en nombre fini).Le calcul stochastique : quandfinance et mathématiques théoriquess’enrichissent mutuellementCependant, si l’on souhaite adhérer davantageà la réalité et considérer un modèle entemps continu et avec un continuum de prixpossibles, il faut alors, pour interpréter lemême principe simple d’arbitrage, faire appelà des notions plus avancées de la théorie desprobabilités, apparues dans la deuxième moitiédu XX e siècle. Il s’agit plus précisément dela théorie des processus stochastiques (processusoù des quantités évoluent aléatoirementau cours du temps) et la théorie deséquations différentielles stochastiques (équationsdifférentielles où interviennent des quantitésaléatoires). Dans ces domaines, les développementsles plus récents sont étroitementliés aux problèmes rencontrés en finance.Ces modèles supposent que le cours del’action évolue avec un taux de rendementdéterministe (non aléatoire), auquel s’ajouteun terme aléatoire de moyenne nulle et d’amplitudepropre à l’actif considéré. Cette fluctuationaléatoire est appelée volatilité et peutdépendre du temps et de nombreux autresévénements endogènes ou exogènes.


Le prix des option financières 83Moyennant ces hypothèses, on trouve que leprix de l’option obéit à une certaine équationaux dérivées partielles (équation différentielleoù la fonction inconnue dépend de plusieursvariables). Dans le cas le plus simple, étudiéindépendamment par les Américains FischerBlack et Myron Scholes d’une part et RobertMerton d’autre part en 1973, cette équationest la même que l’équation de diffusion de lachaleur, bien connue des physiciens. Il est alorspossible de la résoudre explicitement et dedéterminer le prix de l’option en fonction deses propres caractéristiques (échéance, prixd’exercice) ainsi que du cours de l’action etde sa volatilité : c’est la formule de Black-Scholes et Merton, qui a valu à Scholes etMerton le prix Nobel d’économie en 1997(Black est décédé en 1995).Cette formule et ses variantes sont utiliséesdans toutes les places financières du monde.Programmées sur tous les ordinateurs des sallesde marché, mises à contribution d’innombrablesfois par jour, elles sont l’exemple même du lienpossible entre mathématiques théoriques etapplications concrètes. La formule de Black-Scholes et Merton ne correspond cependantqu’au cas simpliste où taux d’intérêts, taux derendements moyens, niveaux de risque, etc.,demeureraient constants au cours du temps. Dèsque l’on modifie ces hypothèses, les équationsobtenues ne sont plus équivalentes à celle de ladiffusion de la chaleur. Les équations pertinentesen sont des variantes, et elles nécessitent le plussouvent des méthodes de résolution — implicites,explicites ou numériques — spécifiques.C’est en travaillant sur certaines de ces équationsque les chercheurs français C. Daher etM. Romano, qui travaillaient à l’époque à l’universitéParis-Dauphine et à la Caisse autonomede refinancement, ont obtenu en 1990 le prixIBM de calcul numérique intensif.Enfin, lorsqu’on essaye d’être plus réalisteet de prendre en compte les coûts de transaction,les diverses contraintes imposées par lemarché ou encore l’impact du nombre des transactionssur les prix, les techniques du calcul stochastiqueclassique ne suffisent plus. Il faut développer,comme cela a été fait ces dernièresannées, des outils spécifiques comme les équationsdifférentielles stochastiques rétrogradesou des méthodes fines de dualité en contrôleoptimal stochastique. On découvre alors, et celapeut surprendre, que ces nouvelles idées mathématiques,développées pour résoudre des problèmeséconomiques et financiers, s’avèrent liéesà des problèmes déjà rencontrés en géométrieou en physique — par exemple la déformationde surfaces ou la fonte de glaçons — et qu’elleséclairent ces derniers d’un jour nouveau.Elyès JouiniProfesseur des Universités, CEREMADE (Centrede mathématiques de la décision)Université Paris-Dauphine (Paris 9)Quelques références :• N. Bouleau, Martingales et marchés financiers(Odile Jacob, 1998).• F. Black et M. Scholes, « The pricing of optionsand corporate liabilities », Journal of PoliticalEconomy, 81, pp. 637-654 (1973).• C. Huang et R. Litzenberger, Foundations forfinancial economics (North-Holland, 1988).• L. Walras, Éléments d'économie politique pure outhéorie de la richesse sociale (Corbaz, Lausanne,1874, édition définitive revue et augmentée parl'auteur, LGDJ, Paris, 1952).


Communiquer sans erreurs :les codes correcteursGilles LachaudPour détecter et corriger les inévitables erreurs qui affectentles échanges d’information numérisée, les spécialistes du codageen appellent à des méthodes abstraitesqui relèvent de l’algèbre ou de la géométrie.nous sommes en pleine ère numérique.Qu’est-ce que cela veut dire? Tout simplementqu’une partie énorme des informations échangéesà travers la planète est matériellementreprésentée sous la forme de nombres.Messages électroniques, téléphonie mobile,transactions bancaires, téléguidage de satellites,télétransmission d’images, disques CD ouDVD, etc. : dans tous ces exemples, l’informationest traduite — on dit codée (à ne pasconfondre avec cryptée) — en suites denombres entiers, et correspondant physiquementà des signaux électriques ou autres. Plusprécisément même, l’information est généralementcodée sous forme de suites de chiffresbinaires — des 0 ou des 1, appelés aussi bits.Par exemple, dans le code ASCII (AmericanStandard Code for Information Interchange)utilisé par les micro-ordinateurs, le A majusculeest codé par l’octet (séquence de 8 bits)01000001, le B majuscule par 01000010, etc.Un problème majeur de la transmission del’information est celui des erreurs. Il suffitLe Matrimandir à Auroville (Tamil Nadu, Inde), géode construitepar l’architecte français Roger Anger. Dans la conception de codescorrecteurs efficaces, on rencontre des problèmes apparentés à des questionsdifficiles de pure géométrie, comme celui de recouvrir une sphèrepar le plus grand nombre possible de disques de même taille, sansqu’ils se chevauchent.d’une petite rayure sur un disque, d’une perturbationde l’appareillage, ou d’un quelconquephénomène parasite pour que le messagetransmis comporte des erreurs, c’est-à-diredes « 0 » qui ont malencontreusement étéchangés en « 1 », ou inversement. Or l’un desnombreux atouts du numérique est la possibilitéde détecter, et même de corriger, detelles erreurs !


Communiquer sans erreurs : les codes correcteurs 85On rallonge les mots du messagede façon qu’après dégradation, onpuisse quand même les reconnaîtreTelle est la fonction des codes correcteursd’erreurs, dont les premiers ont été conçusà la même époque que les premiers ordinateurs,il y a plus d’une cinquantaine d’années.Comment font-ils ? Le principe est lesuivant : on allonge les « mots » numériquesqui composent le message, de façon qu’unepartie des bits servent de bits de contrôle.Par exemple, dans le code ASCII évoqué plushaut, l’un des huit bits est un bit de contrôle :il doit valoir 0 si le nombre de « 1 » dans les7 autres bits est pair, et 1 sinon. Si l’un deshuit bits a inopinément basculé de valeur, laparité indiquée par le bit de contrôle ne correspondplus et une erreur est alors détectée.La même idée se retrouve dans bien desnuméros que l’on rencontre dans la vie quotidienne.Par exemple, dans les relevés d’identitébancaire, on ajoute une lettre-clé à unnuméro de compte pour pouvoir détecterune erreur de transmission. De même, lesnuméros des billets de banque en euros sontcodés pour éviter les contrefaçons. Autrementdit, la philosophie des codes correcteurs estde composer des messages redondants :chaque mot du message est allongé de façonà contenir une information sur le messagelui-même !Un exemple simple et éclairant, mais peuréaliste, de code correcteur d’erreurs est latriple répétition : chaque bit du message àcoder est triplé, c’est-à-dire que 0 devient 000et 1 devient 111. Ce code permet de détecteret corriger une erreur éventuelle sur un triplet.En effet, si l’on reçoit, mettons, laséquence 101, on en déduit immédiatementque la bonne séquence était 111 (on supposequ’un seul bit sur les trois reçus est erroné),et donc que l’information initiale était le bit1. Le code de triple répétition n’est pas réalistecar il est coûteux : pour chaque bit d’information,il faut en envoyer trois ; on dit queson taux de rentabilité est 1/3. Ce taux a desrépercussions directes sur la durée nécessaireà la transmission des messages et sur le coûtdes communications.Un bon code correcteur doit posséderd’autres qualités en plus d’un taux de rentabilitéélevé. Il lui faut également une bonnecapacité de détection et correction d’erreurs,et la procédure de décodage doit être suffisammentsimple et rapide. Tout le problèmede la théorie des codes correcteurs d’erreursest là : construire des codes qui détectent etcorrigent le plus possible d’erreurs, tout enallongeant le moins possible les messages, etqui soient faciles à décoder.L’algèbre des corps finis s’appliquenaturellement aux codes, car ceux-ciutilisent un alphabet finiLes mathématiques interviennent depuislongtemps dans ces questions. Déjà en 1948,le mathématicien américain Claude Shannon,un des pères de la théorie de l’information,obtenait des résultats théoriques générauxaffirmant qu’il existe des codes ayant des qualitésoptimales, en un sens technique précis.Cependant, si le théorème de Shannon établissaitl’existence de très bon codes correcteurs,il ne fournissait pas de méthode pratiquepour les construire. Par ailleurs, ondisposait de codes correcteurs aux performancesmodestes, comme les codes deHamming, du nom de leur inventeur, lemathématicien américain Richard


86 L’explosion des mathématiquesOlympus Mons, sur la planète Mars, est le plus grand volcan du systèmesolaire : environ 600 km de diamètre et 27 km de hauteur !Cette image a été obtenue grâce à la sonde spatiale Mariner 9, en1971-1972. La sonde envoyait à la Terre ses informations en utilisantun code correcteur capable de corriger jusqu’à 7 bits erronés sur32. Dans chaque groupe de 32 bits, 26 étaient des bits de contrôle,et les 6 autres constituaient l’information nette. Aujourd’hui, on disposede codes correcteurs encore plus performants. (Cliché NASA/JPL)W. Hamming (1915-1998), dans les années1950 (dans ces codes, qui ont été beaucouputilisés, les bits de contrôle sont déterminésen fonction des bits d’information par deséquations linéaires simples).Les spécialistes se sont alors mis à étudierde manière systématique les codes correcteurset leurs propriétés, dans le but d’obtenirconcrètement des codes aussi performants oupresque que le prédisaient les résultats théoriquesde Shannon. Pour ce faire, ils ont utiliséà fond l’algèbre. Si le codage de l’informationse fait directement dans l’« alphabet »binaire 0 et 1, l’algèbre sous-jacente est celledu pair et de l’impair, connue déjà de Platon(pair + pair = pair, pair + impair = impair,pair x pair = pair, impair x impair = impair, etc.).En fait, il s’avère plus intéressant de considérerdes « alphabets » de codage ayant plus dedeux chiffres, et de traduire seulement à la finde la procédure le résultat en suites binairesde 0 et 1. Comme un alphabet comporte unnombre fini de symboles, et que l’on souhaiteeffectuer des calculs sur ces symboles, l’algèbresous-jacente est l’objet de la théorie des corpsfinis, créée par le jeune mathématicien françaisÉvariste Galois au début du XIX e siècle, enétudiant la résolubilité des équations algébriques(un corps fini est un ensemble d’élémentsen nombre fini qui peuvent s’additionner,se multiplier et se diviser de manièreanalogue aux nombres ordinaires, le résultatdes opérations restant à l’intérieur de cetensemble. L’ensemble constitué par 0 et 1, avecles règles arithmétiques du pair et de l’impair,est le corps fini à deux éléments ; c’est le corpsfini le plus simple).Ainsi, c’est à l’aide d’algèbre abstraite etélaborée, en liaison avec la théorie des corpsfinis, qu’ont été construits des codes correcteursd’erreurs très efficaces, adaptés à tel outel type de transmission d’information. Deuxexemples parmi une multitude d’autres sontle code employé pour la gravure des disquesaudionumériques (il permet de corriger jus-Quoi qu’en dise ce timbre français émis en 1984, Évariste Galoisn’était pas un géomètre mais un algébriste. C’était le pionnier de lathéorie des groupes, ainsi que de la théorie des corps finis utiliséenotamment par les spécialistes des codes correcteurs d’erreurs. Provoquéen duel, Galois est mort à l’âge de 21 ans à peine.


Communiquer sans erreurs : les codes correcteurs 87qu’à environ 4 000 bits erronés consécutifs,l’équivalent d’une rayure sur plus de 2 millimètresde piste !), et celui qu’a utilisé la sondespatiale Mariner 9 pour nous envoyer sesimages de la planète Mars.Une nouvelle famille de codesfaisant appel à la géométriealgébrique des courbesL’algèbre abstraite n’est pas le seul instrumentdont disposent les spécialistes descodes correcteurs. Il y a aussi la géométrie,et plus particulièrement la géométrie algébrique.Celle-ci, très vaste partie des mathématiquesactuelles, a pour point de départl’étude des objets géométriques — courbes,surfaces, etc. — définis par des équationsalgébriques. Tout lycéen sait par exemplequ’une parabole peut être représentéepar une équation algébrique, de typey = ax 2 + bx + c, où x et y sont les coordonnéesdes points de la parabole. On peut aussiétudier des courbes définies sur des corpsfinis, c’est-à-dire que dans les équations algébriquesqui les représentent, les grandeurscomme x et y ne sont pas n’importe quelsnombres, mais uniquement des élémentsd’un certain corps fini. En utilisant de tellescourbes et l’algèbre associée aux coordonnéesde leurs points (qui sont en nombrefini), on a inauguré, il y a environ vingt ans,une nouvelle famille de codes correcteurs :les codes géométriques. Cela a permis récemmentd’obtenir de nouveaux résultats concernantles codes binaires, et de construire descodes encore plus performants que ceux préditspar les travaux de Shannon. En contrepartie,l'analyse des codes géométriques aconduit les mathématiciens à examiner deplus près le nombre de points d'une courbealgébrique définie sur un corps fini. On a làun bel exemple de la rétroaction positivequ’un domaine d’application peut exercersur la discipline théorique dont il se sert.Gilles LachaudInstitut de mathématiques de Luminy,CNRS, MarseilleQuelques références :• P. Arnoux, « Codage et mathématiques », Lascience au présent (édition EncyclopædiaUniversalis, 1992).• P. Arnoux, « Minitel, codage et corps finis »,Pour la Science (mars 1988).• G. Lachaud et S. Vladut, « Les codes correcteursd’erreurs », La Recherche (juillet-août 1995).• O. Papini, « Disque compact : « la théorie, c’estpratique ! » dans « Secrets de nombres », Horssérien° 6 de la revue Tangente (1998).• O. Papini et J. Wolfmann, Algèbre discrète etcodes correcteurs (Springer-Verlag, 1995).• J. Vélu, Méthodes mathématiques pour l’informatique(Dunod, 1995).• M. Demazure, Cours d’algèbre — primalité,divisibilité, codes (Cassini, 1997)


Reconstruire des surfacespour l’imagerieJean-Daniel BoissonnatReconstituer une surface en ne connaissant que certains de ses points :un problème que l’on rencontre souvent, qu’il s’agisse d’explorationgéologique, d’archivage de vestiges archéologiques,d’imagerie médicale ou industrielle.lorsqu’on sonde le sous-sol en certainsendroits pour connaître la configuration desdifférentes couches géologiques, ou lorsqu’onveut cartographier un fond marin, le nombrede points de mesure est nécessairement fini.Or il faut reconstruire, à partir de ces donnéesen nombre restreint, les surfaces correspondantes.La situation est analogue avec tous lessystèmes d’imagerie informatisés (scanners,télémètres, imageurs tridimensionnels, etc.)utilisés en médecine, dans l’industrie, enarchéologie, etc. Comme point de départ, il ya un objet réel — qui peut être une partie ducorps humain, une pièce mécanique, un vestigearchéologique, une structure géologique,ou autre. De cet objet réel, les instruments nepeuvent enregistrer que certains points, à partirdesquels on doit reconstruire virtuellementla forme de l’objet. Tel est le problème dit dela reconstruction de surfaces (Figure 1). Ilconsiste donc à exploiter un nombre fini depoints pour fournir une représentation géométriqueet informatique de l’objet, ce quipermettra de le visualiser sur un écran, de l’ar-Figure 1. La reconstruction d’une surface à partir d’un échantillon de ses points : ce problème se pose dans des domaines variés .


Reconstruire des surfaces pour l’imagerie 89chiver dans la mémoire de l’ordinateur, deprocéder aisément à des calculs, voire de modifierl’objet ou d’en télécommander l’usinaged’une copie. Bref, une fois que la forme d’unobjet réel est numériquement enregistrée, etce avec suffisamment de précision, on disposede maintes possibilités d’action et de calcul.Les enjeux économique et industriel duproblème de la reconstruction de surfaces, soncaractère fondamental du point de vue scientifique,ont conduit à de nombreux travauxdepuis une vingtaine d’années. Mais ce n’estque très récemment que les spécialistes ontformalisé en termes mathématiques le problème,ce qui leur a permis de concevoir desalgorithmes efficaces et fournissant unereconstruction fidèle. Le transfert vers l’industriede certains de ces résultats de géométriedite algorithmique s’est alors opéré demanière très rapide au travers de la créationde jeunes pousses (comme Raindrop Geomagicaux États-Unis) ou le lancement de nouveauxproduits par les leaders de la conception assistéepar ordinateur ou de l’imagerie médicale(Dassault Systèmes, Siemens Medical).Georgi Voronoï (1868-1908). Considérons unensemble fini de points dans l’espace, et appelons-leE. Le diagramme de Voronoï de E estune division de l’espace en cellules convexes(en bleu sur la Figure 2), où chaque cellule estconstituée des points de l’espace plus prochesd’un point de E que des autres points de E.Les cellules — ce sont des polyèdres convexes— sont ainsi définies de manière univoque.Maintenant, relions par des segments dedroite les points de E dont les cellules deVoronoï sont adjacentes. L’ensemble de cessegments constitue la triangulation deDelaunay (en vert sur la Figure 2) associée àE. Ces structures se définissent dans desespaces de dimension quelconque ; c’est le casde la dimension trois — l’espace usuel — quiest le plus intéressant pour la reconstructionde surfaces. Les diagrammes de Voronoï(Figures 2 et 3) figurent parmi les principauxDiagrammes de Voronoï ettriangulation de Delaunay, deuxoutils géométriques indispensablesPour reconstruire une surface à partir d’unnuage de points qui l’échantillonnent, lagrande majorité des algorithmes utilisent unoutil central en géométrie algorithmique : latriangulation de Delaunay, nommée d’aprèsBoris Delone (1890-1980), mathématicien russedont le nom a été francisé en Delaunay. La triangulationde Delaunay se définit naturellementà partir de ce qu’on appelle le diagrammede Voronoï, du nom du mathématicien russeFigure 2. Le diagramme de Voronoï (en bleu) et la triangulation deDelaunay (en vert) d’un ensemble de points (marqués en rouge). Lediagramme de Voronoï et la triangulation de Delaunay sont des outilsfondamentaux en géométrie algorithmique.


90 L’explosion des mathématiquessujets d’étude de la géométrie algorithmique,et c’est dans les années 1980 que l’on a établileur lien avec la théorie des polytopes (analoguesdes polyèdres dans les espaces dedimension supérieure à trois). Leur étude dansle contexte de l’échantillonnage des surfacesest beaucoup plus récente.Quel est l’intérêt des diagrammes deVoronoï et des triangulations de Delaunay ?Si E est un échantillon de n points pris sur unesurface S, on peut montrer que son diagrammede Voronoï et la triangulation de Delaunaycorrespondante contiennent beaucoup d’informationssur cette surface. Lorsque l’échantillonnageest suffisamment dense, on peutfournir des approximations précises de la surface.Par exemple, le vecteur qui joint un pointP de E au sommet le plus éloigné de sa cellulede Voronoï est une bonne approximation dela normale à la surface S au point P.par exemple important de savoir si la quantitéde calculs que nécessite la triangulation deDelaunay restera ou non dans une limite raisonnable.Dans les cas les plus défavorables, lenombre T d’étapes de calcul (c’est-à-dire, en finde compte, le temps de calcul) peut être quadratique; autrement dit, T est au pire proportionnelau carré du nombre de points de l’échantillonnage.On suppose toutefois que cettesituation ne se produit pas dans le cas de surfacesbien échantillonnées. Des résultats plusprécis ont été démontrés très récemment dansle cas de surfaces S polyédriques, c’est-à-direconstituées uniquement de facettes polygonales:pour de telles surfaces et pour des conditionsd’échantillonnage faibles, la taille du calculde triangulation est, au pire, proportionnelleau nombre de points échantillonnés. Le cas dessurfaces lisses est plus délicat ; il fait actuellementl’objet de recherches actives.Il faut s’assurer que les temps decalcul resteront raisonnables, que lesalgorithmes sont fiablesC’est ainsi que l’on connaît aujourd’huiplusieurs algorithmes de reconstructioncapables, à partir d’un échantillon fini de pointsd’une surface S, de construire une surface S’qui approxime correctement la surface réelleS. Qui plus est, la théorie de ces algorithmespermet de calculer une borne supérieure surla différence entre S’ et S, borne qui dépendévidemment de la densité d’échantillonnage.Comme les jeux de données fournis par lesinstruments de mesure comportent généralementplusieurs centaines de milliers de points,voire des millions, les questions combinatoireset algorithmiques jouent un rôle critique. Il estFigure 3. Le diagramme de Voronoï d’un ensemble de points pris surune courbe.Les bornes théoriques ne sont pas tout,reste à savoir calculer effectivement et rapidementla triangulation d’un jeu de données.On connaît de nombreux algorithmes. Les plusefficaces sont dits randomisés car ils effectuentcertains tirages aléatoires au cours de leurdéroulement. La théorie des algorithmes randomiséss’est développée très rapidement dans


Reconstruire des surfaces pour l’imagerie 91les années 1990 et a conduit à des analysesprécises, validées expérimentalement. Dansbien des cas, et le calcul de la triangulationde Delaunay en est un, l’introduction d’unepart de hasard autorise à ne pas chercher àrésoudre de manière optimale le cas le pire(qui est peu probable) et conduit à des algorithmessimples et très efficaces en moyenne.On sait ainsi traiter des échantillons de100 000 points en une dizaine de secondes(Pentium III à 500 MHz).Si calculer vite est important, calculer demanière fiable l’est encore plus. Cette questionest délicate, car les ordinateurs ne saventgénéralement représenter les nombres qu’avecune précision finie (un nombre fini de décimales).Ainsi, il est impossible de donner unereprésentation à la fois numérique et exactede nombres comme π ou √2, qui comportentune infinité de décimales. L’accumulation deserreurs d’arrondis peut alors conduire à uncomportement anormal des programmes. Sices comportements sont bien connus, ils sontdifficiles à maîtriser, et la réalisation et la maintenanced’algorithmes fiables sont très coûteuses.Une part importante de la rechercherécente en géométrie algorithmique porte surces questions et mêlent algorithmique, calculformel (où l’ordinateur manipule des symboles,et non des nombres explicites) et arithmétiquedes ordinateurs. Elles ont d’ores et déjà débouchésur le développement de bibliothèques delogiciels permettant une programmation facile,efficace et sûre, telle que la bibliothèque CGAL(Computational Geometry Algorithms Library)développée par une collaboration internationaled’universités et d’organismes de recherche.Jean-Daniel BoissonnatINRIA (Institut national de recherche eninformatique et en automatique), Sophia-AntipolisQuelques références :• J.-D. Boissonnat et M. Yvinec, Algorithmic geometry(Cambridge University Press, 1998).• J.-D. Boissonnat et F. Cazals, « Smooth surfacereconstruction via natural neighbour interpolationof distance functions », dans Proceedings ofthe 16 th Annual ACM Symposium ofComputational Geometry (2000).• CGAL, The Computational GeometryAlgorithms Library, http://www.cgal.org.


Les mathématiciens en Franceet dans le mondeJean-Pierre BourguignonJusque vers la fin du XIX e siècle, les « géomètres », comme on appelaitjadis les mathématiciens, étaient peu nombreux. En un siècle, leursrangs se sont considérablement renforcés. Aujourd’hui, ils doiventfaire face à une profonde mutation de leur discipline.au cours du XX e siècle, la communautémathématique a connu une expansion numériquemajeure. Elle est passée de quelques centainesde membres en 1900 à des dizaines demilliers (probablement de l’ordre de 80 000)100 ans plus tard. Pour faire une estimationde ce genre, il faut d’abord que l’on s’entendesur la définition du terme « mathématicien ».Nous réservons ce nom à ceux et celles ayantatteint un niveau de formation équivalent àla thèse de doctorat, et dont la professionaccorde une place véritable à la recherchemathématique ou à l’assimilation de ses résultats.Ce choix peut être jugé un peu limitatifcar il a par exemple pour effet d’exclure denotre champ de vision presque tous les professeursde l’enseignement secondaire — unecatégorie dont le nombre a aussi augmentéconsidérablement dans tous les pays du mondeau cours de la deuxième moitié du XX e siècle.Cette croissance résulte de plusieurs processussimultanés. Il y a eu tout d’abord, justeaprès la Deuxième guerre mondiale, une prisede conscience de l’importance des sciencesdans le développement économique ou industriel.Par ailleurs, de nouveaux groupes de personnesont accédé à ces professions. Il en estainsi des femmes, certes avec de grandes inégalitésd’un pays à l’autre. Mais dans le mêmetemps, une communauté académique, regroupantles acteurs de l’enseignement supérieur,a fait son apparition dans presque tous lespays. Pour ne donner qu’un exemple, lesmathématiciens originaires d’Afrique sub-saharienneont soutenu leurs premières thèses dedoctorat dans les années 1970, après formationdans une université d’un pays occidentalou en Union soviétique. La génération suivantea souvent fait ses études sur place : dansla décennie 1990-2000, de nombreux paysd’Afrique sub-saharienne ont mis en place desformations supérieures autonomes et ont, dece point de vue, accédé à l’indépendance. Dansles prochaines années, l’expansion va continueravec probablement un renforcementconsidérable des communautés mathématiquesd’autres pays, comme la Chine et l’Inde.


Les mathématiciens en France et dans le monde 93La Terre vue de nuit. La répartition mondiale des lumières nocturnes n'est pas sans rappeler celle des centres d'activité mathématique. Pourautant, les mathématiciens ne travaillent pas tous la nuit ! (Cliché C. Mayhew et R. Simmon/NASA-GSFC)Une communauté de chercheurs etson réseau de sociétés savantesComment les communautés de mathématicienssont-elles organisées ? L’expansionde la communauté mathématique internationalea été accompagnée d’une structurationpar le biais de sociétés savantes, qui viventpresque toutes grâce au dévouement et àl’engagement de collègues bénévoles. Lessociétés de mathématiques sont aujourd’huiencore de taille modeste, à l’exception del’American Mathematical Society qui regroupeprès de 15 000 membres et qui a plus de 200employés.La première étape s’est produite au niveaunational, le plus souvent à un moment où lespouvoirs publics ont perçu que le développementdes sciences pouvait représenter unenjeu économique et militaire. C’est ainsi quela Société mathématique de France (SMF),comme d’ailleurs la Société française de physique,est née en 1872, juste après la déroutede 1870 face à l’Allemagne, et la réflexion surses causes qui s’en est suivie. Cette perspectiveétroitement nationaliste s’est, heureusement,estompée.L’Union mathématique internationale aété créée en 1896. Elle est restée une petitestructure. Sa responsabilité principale est defournir le cadre de l’organisation du Congrèsinternational des mathématiciens, un événementquadriennal qui demeure le rendez-vousincontournable de la communauté à l’échellemondiale. Son comité exécutif se charge ausside nommer la commission qui attribue, tousles quatre ans, les médailles Fields ; celles-cireprésentent la récompense la plus prestigieuseen mathématiques, le prix Nobel n’existantpas dans cette discipline.


94 L’explosion des mathématiquesL’IHÉS (Institut des hautes études scientifiques), à Bures-sur-Yvette en banlieue parisienne, et une discussion entre mathématiciensdans ses locaux. L’IHÉS, consacré aux mathématiquesfondamentales et à la physique théorique, est un institut derecherche prestigieux. Il ne compte que 7 chercheurs permanentsmais accueille chaque année, pour des durées variables, quelque200 chercheurs de toutes nationalités. Récemment, quelques-unsde ses mathématiciens ont commencé à se pencher sur des problèmesliés à la biologie moléculaire. (Clichés IHÉS et IHÉS-Outsider Agency)A la fin du XX e siècle, on a assisté àl’émergence de structures continentalesintermédiaires. L’exemple a été donnépar les collègues africains, qui ont créédès les années 1980 l’Union mathématiqueafricaine. Sont ensuite apparuesla Société mathématique européenne(SME), dont la gestation a été laborieuse— à l’image de celle de l’Union européenne— et qui regroupe depuis 1990 toutes les sociétésnationales de l’Europe géographique etd’Israël, et l’UMALCA, qui rassemble les mathématiciensd’Amérique du sud et des Caraïbes.Ces nouvelles structures sont nées de la volontéde renforcer des collaborations à l’échelle d’unsous-continent et, suivant les situations, dedisposer d’un interlocuteur représentatif faceà l’apparition d’un nouveau niveau politique(c’est le cas pour l’Europe) ou de contrôler l’aspirationdes ressources par l’Amérique du nord(c’est le cas pour l’Amérique du sud) au lendemainde la douloureuse période des dictaturesmilitaires.Une présence de plus en plus largedans l’industrie et les servicesOù sont employés les mathématiciens? Lagrande nouveauté est que, de nos jours, desmathématiciens sont présents dans de nombreuxsecteurs de l’industrie et des services. Iln’y a cependant pas d’« industrie mathématique» comme il y a une industrie chimique ouune industrie pharmaceutique. En effet, lesemplois confiés à des personnes à haute compétencemathématique portent souvent desdénominations variables, ce qui rend difficilele dénombrement des « mathématiciens industriels». Une estimation récente laisse penserqu’ils sont près de 2 000 à être employés decette façon en France. Ce nombre est à comparerà celui de leur contrepartie académique(mathématiciens des universités, Grandes écoleset organismes de recherche divers), dont onestime l’effectif de façon beaucoup plus fiableà environ 4 000. La ventilation de cette communautéacadémique entre organismes derecherche publics et enseignement supérieur(10 % contre 90 % environ) est un peu singulière:généralement, dans les autres disciplinesscientifiques, un choix différent a été fait, puis-


Les mathématiciens en France et dans le monde 95qu’une proportion beaucoup plus importanteconsacre tout son temps à la recherche, sanstâches d’enseignement.Quels sont les secteurs particulièrementintéressés à embaucher des mathématiciens ?Les banques et les assurances font un usagede plus en plus intensif de compétences mathématiques; les produits qu’elles vendent reposentsouvent sur une construction mathématiquequi en est tout le fondement. Mais il enva de même d’un certain nombre d’entreprisesde haute technologie dans lesquelles l’étudede systèmes complexes requiert une approchemathématique, que de puissants moyens decalcul fournis par les nouvelles générationsd’ordinateurs peuvent rendre opératoire. Cesouvertures nouvelles sont de nature à changerconsidérablement l’image des mathématiquesauprès des étudiants. Cependant, ellesn’ont pas encore été complètement assimiléespar l’enseignement supérieur français ; leplus souvent, la raison en est l’inertie excessivedu système éducatif, qui reste centré surles formations aux professions académiques.Les mathématiciens sont confrontésà une nouvelle donneCes nouveaux développements n’ont pasété sans avoir des répercussions sur la structurationdes mathématiques, tant dans lesétablissements d’enseignement supérieur etde recherche qu’au niveau des publications.On a quelquefois présenté la situation ainsicréée comme une bataille entre « mathématiquespures » et « mathématiques appliquées». Cette façon de voir les choses estinjustifiée, pour au moins deux raisons. D’unepart, les exemples de situations historiquesoù des mathématiques nouvelles ont étédéveloppées à partir de sollicitations extérieuresabondent ; d’autre part, les nouveauxdomaines à conquérir ne peuvent être abordésen déclarant a priori quelle partie desmathématiques sera la clef du problème posé.De nombreux rapprochements-surprises ontpu être constatés, qui prouvent que la dichotomiepure/appliquée est en fin de compteimproductive. C’est dans le contexte de tensioninterne à la communauté mathématiquequ’est née en France, en 1983, la Société demathématiques appliquées et industrielles(SMAI). Vingt ans plus tard, les deux sociétés,SMF et SMAI, ont trouvé un mode decoopération efficace et mènent ensembledes actions d’intérêt commun. À elles deux,elles mobilisent plus de 3 000 personnes, dontl’appartenance va bien au-delà de la communautéacadémique pour la SMAI.La nouveauté principale vient de la possibilitéd’étudier de plus en plus de systèmescomplexes grâce à l’usage de modèles denatures diverses. La modélisation est, aujourd’hui,une démarche à laquelle on recourt souvent.Ce nouvel engouement nécessite uneréflexion plus approfondie sur les fondements,y compris philosophiques, de cette approche.L’une des capacités qu’il convient de développerest la confrontation du modèle à laréalité qu’il est censé représenter.On peut néanmoins souligner deux tendanceslourdes qui se nourrissent de ces nouveauxcontacts des mathématiques avec unmonde qui leur est extérieur : un regain d’importancedonnée aux structures finies (structuresmathématiques ne mettant en jeuqu’un nombre fini d’éléments) et la généralisationdes approches stochastiques (faisantintervenir des processus aléatoires). Dans ledeuxième domaine, la France a remarqua-


96 L’explosion des mathématiquesblement su prendre le virage, si l’on y comparela situation avec celle des pays de mêmeniveau de développement, à l’exception peutêtred’une sous-représentation des statistiqueset de l’analyse des données. Enrevanche, l’enseignement des mathématiquesdiscrètes, c’est-à-dire portant sur les structuresfinies, y est toujours aussi discret : trèspeu de cursus d’enseignement supérieuroffrent dans ce domaine une formation suffisammentcomplète.Récemment, lors d’un colloque consacréà l’histoire de la géométrie dans la deuxièmemoitié du XX e siècle, Stephen Smale, un mathématicienaméricain qui fut l’un des pères dela topologie moderne et qui s’est par la suiteintéressé de très près à l’analyse numérique,fit une remarque pertinente: aujourd’hui, l’extraordinairecroissance des mathématiques estaussi assurée par des personnes que lesmathématiciens tendent à ne pas reconnaîtrecomme faisant partie de leur communauté. Ilest vrai que les statistiques, l’automatique, larecherche opérationnelle, la théorie ducontrôle sont souvent peu représentées dansles départements de mathématiques des universités,alors que le cœur de toutes ces disciplinesest vraiment mathématique. On pourraiten dire de même d’une bonne partie del’informatique théorique : celle-ci entretient,avec les mathématiques, des liens organiquesdont la profondeur et la force ne sont pas toujoursreconnues par les mathématiciens euxmêmes.Cette situation ouvre à la communautédes mathématiciens des possibilités decroissance considérable, pourvu qu’ils se montrentmoins prompts à exclure ces activitésnouvelles de leur champ. Avec plus de curiositéet d’ouverture, il y aura davantage de stimulationset de nouveaux champs d’action,pour le plus grand bien du développementdes mathématiques elles-mêmes.La mutation de la profession exigede nouveaux profils de formationUne des premières choses à reconnaîtreconcerne la pratique du métier de mathématicienrequise par ces nouveaux contacts, pratiquequi ne peut se limiter à prouver des théorèmes.On a aujourd’hui besoin qu’un nombresuffisant de mathématiciens aux profils trèsdivers s’intéressent aux applications. Cela exigequ’ils apprennent à échanger avec des spécialistesd’autres disciplines, en offrant uneécoute d’une qualité suffisante.Dans diverses structures d’enseignementsupérieur de par le monde, on constate déjàla mise en place de formations spécialisées,en mathématiques financières par exemple.D’autres créneaux, pour lesquels des débouchésimportants hors du monde académiquesont apparus, vont certainement voir le jour,à une échelle adaptée à ces débouchés ; c’estdéjà le cas pour les formations d’actuaires, etl’on peut anticiper que des formations mixtesverront le jour à l’interface des mathématiquesavec la biologie et la médecine parexemple.Laisser proliférer des formations trop spécialiséesserait une erreur, pour deux raisons :l’étroitesse des approches de ce genre d’unepart, et le risque de coupure de la communautémathématique qu’une telle pratiqueprésenterait d’autre part. Pour que les étudiantsperçoivent de manière plus naturelleles nouvelles orientations accessibles auxméthodes mathématiques, des modificationsplus profondes des cursus de formationdevront vraisemblablement être mises en


Les mathématiciens en France et dans le monde 97place. Il faut avoir l’ambition de créer unebonne fluidité entre le monde académique etle monde de l’industrie et des services ; c’estune condition pour que l’irrigation en bonsproblèmes, portant le plus souvent sur deschamps nouveaux, se produise assez spontanément,et pour que ces problèmes soient traitésavec le niveau de profondeur requis.Jean-Pierre BourguignonCNRS-IHÉS (Institut des hautes étudesscientifiques, Bures-sur-Yvette) etÉcole polytechnique, PalaiseauQuelques références :• B. Engquist et W. Schmid (eds.), Mathematicsunlimited — 2001 and beyond (Springer-Verlag, 2001).• C. Casacuberta, R. M. Miró-Roig, J. M. Ortega,et S. Xambó-Descamps (eds.), Mathematicalglimpses into the 21 st century, Round tables held atthe 3 rd european congress of mathematics (SocieteCatalana de Matemàtiques, Barcelona, 2001).


Comment devenirmathématicien ?Maurice MashaalDe longues années d’apprentissage et des talents évidents sontnécessaires pour qui veut faire de la recherche fondamentale enmathématiques. Mais les passionnés ont à leur disposition plusieursfilières de formation, avec des débouchés variés.au XVII e siècle, un certain magistrat toulousaindu nom de Pierre de Fermat (1601-1665) occupait ses heures de loisir à desrecherches mathématiques et à entretenir unecorrespondance à leur sujet. Bien que ce ne fûtpas sa profession, Fermat réalisa des découvertesmathématiques importantes. Il fut parexemple un pionnier de l’introduction des techniquesalgébriques en géométrie, et ses travauxen théorie des nombres l’ont renducélèbre — notamment pour une conjecturequ’il formula et qui ne fut démontrée qu’en1994 (celle-ci affirme que l’équation x n +y n =z nn’a pas de solutions x, y, z en nombres entierspositifs dès que l’entier fixé n est supérieur ouégal à 3). Fermat était, en fait, l’un des plusbrillants mathématiciens de son siècle.Cette époque où une personne douée pouvaitfaire des découvertes significatives enautodidacte, à ses heures perdues, est révolue.Certes, il arrive encore que des passionnésde mathématiques, dont ce n’est pas laprofession, découvrent et prouvent ici ou làUn cours de mathématiques à l'université. (Cliché Institut demathématiques-Université Bordeaux 1)un nouveau théorème. Non seulement de telscas sont rares, mais surtout les résultats obtenusportent généralement sur des questions


Comment devenir mathématicien ? 99de détail, à la marge des grands courants del’évolution des mathématiques.Non, si quelqu’un aujourd’hui désire devenirun véritable acteur des mathématiques, illui faut d’abord affronter de longues annéesd’études. Environ huit ans après le baccalauréatsont nécessaires afin d’assimiler lesconnaissances et les capacités essentielles, quipermettront à l’apprenti-mathématicien d’acquérirde l’autonomie et de commencer à produireà son tour des résultats mathématiquesoriginaux.L’itinéraire classique : DEUG,licence, maîtrise, DEA et thèse dedoctoratDe longues études supérieures, d’accord,mais lesquelles ? La voie traditionnelle, enFrance, consiste à suivre un premier cycle universitairede deux ans, puis un deuxième cyclede deux ans, et enfin un troisième cycle d’environquatre ans.Le premier cycle est l’objet du DEUG(Diplôme d’études universitaires générales).Pour les futurs mathématiciens, il s’agit généralementdu DEUG scientifique mention«Mathématiques, informatique et applicationaux sciences » (MIAS), dont l’enseignementest centré sur les mathématiques, l’informatiqueet la physique ; ou du DEUG« Mathématiques appliquées et sciencessociales » (MASS), construit autour des mathématiqueset de l’informatique d’une part,des sciences économiques ou humainesd’autre part.La première année du deuxième cycle universitaireest consacrée par le diplôme delicence, la deuxième par le diplôme de maîtrise.Il peut s’agir d’une licence et d’une maîtrisede mathématiques pour qui se destine àla recherche fondamentale en mathématiques,ou d’un deuxième cycle MASS pour ceux quis’intéressent aux mathématiques appliquéesaux sciences économiques et sociales, ouencore d’une maîtrise d’ingénierie mathématique,orientée vers les applications industrielles,avec un accent sur l’analyse numérique,la modélisation, l’informatique, lesprobabilités et les statistiques.Le troisième cycle commence par l’annéedu DEA (Diplôme d’études approfondies), dontil existe une grande variété (en mathématiques,il existe près d’une cinquantaine d’intitulésdifférents sur toute la France). Il peuts’agir de DEA encore généralistes, couvrantun spectre assez large des mathématiques, oude DEA plus spécifiques, comme un DEA d’algorithmiqueou un DEA de biomathématiques.Le choix du DEA est déterminant ; c’est généralementau cours de cette année que l’étudiantva entrer au contact de la recherchemathématique, qu’il va être confronté à desthèmes d’actualité, qu’il va devoir se plongerdans des articles de recherche publiés mêmetrès récemment.Le DEA conditionne largement la suite, àsavoir le doctorat qui se prépare généralementen trois ans. L’étudiant détermine sonchamp de recherche, se trouve alors un directeurde thèse et un laboratoire d’accueil, puistravaille sur le thème choisi en vue d’obtenirlui-même des résultats originaux, qui ferontl’objet d’une ou plusieurs publications dansles revues professionnelles. Le diplôme de doctoratest décerné après rédaction et soutenanced’une thèse, en public, devant un jurycomposé de spécialistes.


100 L’explosion des mathématiquesMagistères et Grandes écoles,tremplins vers la recherchefondamentaleLicence, maîtrise, DEA, thèse : tel est, enrésumé, le parcours d’études conventionnelen France pour devenir chercheur en mathématiques; à cela s’ajoutent souvent une ouplusieurs années de recherches post-doctorales,rémunérées à l’aide de bourses ou decontrats à durée déterminée et parfois effectuéesà l’étranger, avant que le jeune mathématicienne réussisse à décrocher un postestable de chercheur ou d’enseignant-chercheur.Ce modèle est grosso modo le même dans laplupart des pays. C’est le type d’itinérairequ’ont suivi des personnes comme AndrewWiles, le mathématicien britannique qui estvenu à bout, en 1994, de la fameuse conjecturede Fermat.En fait, le parcours que l’on vient dedécrire comporte plusieurs variantes ou exceptionsimportantes. Tout d’abord, en France,les Grandes écoles comme les Écoles normalessupérieures et l’École polytechnique ont tendance,en mathématiques, à drainer les étudiantsles plus brillants. Pour présenter lesconcours d’entrée à ces établissements trèssélectifs, les candidats suivent non pas unDEUG, mais deux (voire trois) années de« classes préparatoires » en lycée, caractériséespar une préparation intensive et un investissementpersonnel plus important. Après leconcours d’entrée, les élèves normaliens s’intégrentaux deuxième puis troisième cyclesuniversitaires ; les élèves polytechniciens, eux,suivent deux années de formation à l’Écolepolytechnique même, puis rejoignent s’ils lesouhaitent la filière universitaire au niveaudu DEA. Le passage par une École normalesupérieure ou par l’École polytechnique n’estpas obligatoire pour qui veut devenir mathématicien; cependant, il faut le reconnaître,la plupart des postes de chercheurs en mathématiquesfondamentales sont occupés, enFrance, par d’anciens élèves normaliens oupolytechniciens.Par ailleurs, plusieurs universités proposentdes magistères, formations d’excellenceen trois ans qui intègrent la licence, la maîtriseet un DEA, dans lesquelles les étudiants(en bonne partie des normaliens) sont sélectionnéssur dossier après un DEUG ou uneclasse préparatoire. Les futurs chercheurs ontplutôt intérêt à suivre un magistère, plutôtque le cursus habituel.Signalons également qu’il existe de multiplespasserelles entre les écoles d’ingénieurset l’université. Ainsi, les élèves des écoles d’ingénieurspeuvent, selon leurs centres d’intérêtet leur niveau, rejoindre la filière universitaire,pour un DEA ou pour une thèse de doctorat.Inversement, des étudiants d’université peuventdès la fin du DEUG et dans certaines conditionsintégrer une école d’ingénieurs, voire,ultérieurement, une Grande école.Le profil d’ingénieur : des étudesmoins longues, mais aussi moinsorientées vers la rechercheDisons quelques mots des écoles d’ingénieurs,qui recrutent généralement leurs élèvessur concours, après les classes préparatoires.Bien qu’il s’agisse a priori de former des ingénieurset non des chercheurs, l’enseignementen mathématiques y est souvent de bonniveau. Certaines de ces écoles conviennentparticulièrement à ceux qui souhaitent allierles mathématiques et un domaine d’ingénierie


Comment devenir mathématicien ? 101En mathématiques, plus encore que dans les autres disciplines scientifiques, la bibliothèque est un outilessentiel — pour les étudiants comme pour les chercheurs. (Cliché Institut de mathématiques-UniversitéBordeaux 1)ou de technologie, comme la mécanique,l’acoustique, l’informatique ou autre. Il existeaussi des écoles spécialisées, telles que l’ENSAE(École nationale de la statistique et de l’administrationéconomique) ou l’ENSAI (École nationalede la statistique et de l’analyse de l’information)qui forment des statisticiens, l’EURIAqui forme des actuaires, etc.La formation d’ingénieur permet, en quatreou cinq années d’études supérieures, une entréeassez rapide dans la vie active. Évidemment, lanature de l’activité exercée par un ingénieurmathématicientravaillant dans une entreprisene sera pas la même que celle d’un chercheurtravaillant dans un laboratoire de recherche:elle consistera davantage à appliquer des mathématiquesdéjà connues à des problèmes concretsqu’à créer des mathématiques nouvelles.Cependant, entre les deux types d’activité, onpeut rencontrer tous les intermédiaires, en fonctionde l’entreprise,de l’organisme ou dulaboratoire, et enfonction de la personneet de sa formation.Par exemple,un ingénieur ayantété formé à larecherche au traversd’une thèse de doctoratet travaillantdans une grandeentreprise de hautetechnologie peutêtre amené à effectuerdes recherchesde nature fondamentale.Enfin, il fautsavoir que des formationsde type ingénieur sont égalementdispensées par les universités, à travers lesInstituts universitaires professionnalisés (IUP)ou les maîtrises à finalité professionnellecomme les MIAGE (maîtrise en méthodes informatiquesappliquées à la gestion des entreprises)et les MST (maîtrise de sciences et techniques).Comme les écoles d’ingénieurs, cesformations de type bac + 4 ne sont pas particulièrementou exclusivement centrées sur lesmathématiques. Mais un DESS (diplômed’études supérieures spécialisées), sorte deDEA à finalité professionnelle, peut compléterune telle formation et lui donner une orientationmathématique plus marquée. Il existeainsi des DESS de « Calcul scientifique et informatique», d’« Ingénierie mathématique »,de « Mathématiques, informatique et sécuritéde l’information », de « Modélisation stochastiqueet recherche opérationnelle », etc. :le choix est vaste !


102 L’explosion des mathématiquesL’interdisciplinarité, une clef pour l’avenirBeaucoup sont conscients de la nécessité d’une ouverture plus grande des mathématiques vers lesautres disciplines. Les mathématiques de pointe se révèlent utiles et nécessaires dans des domaines de plusen plus nombreux ; inversement, les problèmes concrets posés dans ces domaines peuvent inspirer desrecherches fondamentales fructueuses, qui font progresser la science mathématique elle-même. Au seindes institutions d’enseignement et de recherche, apparaît la volonté politique de développer l’interdisciplinarité,mais elle a encore du mal à se traduire dans les faits.Un des principaux terrains d’action est l’enseignement supérieur. Si, au niveau des DEA et desDESS de mathématiques, on remarque une certaine ouverture vers d’autres domaines, la situation endeuxième cycle universitaire (licence et maîtrise) semble plus préoccupante: « les mathématiques y sontenseignées de façon presque totalement monolithique ; il faut repenser les programmes, qui onttrès peu évolué au cours des dernières décennies », affirme Jean-Pierre Bourguignon, directeur del’Institut des hautes études scientifiques (IHES). « Par exemple, l’interface entre mathématiques etbiologie ou médecine est quasiment inexistante, et il en est de même des mathématiques discrètes ».On peut tout de même noter quelques évolutions, comme l’instauration au concours de l’agrégationd’une épreuve de modélisation.Un autre terrain d’action vers l’interdisciplinarité concerne les recrutements de chercheurs et d’enseignants-chercheurs,ainsi que l’avancement de leurs carrières. Comme le souligne Jean-Marc Deshouillers,directeur pour les mathématiques à la Mission scientifique universitaire (Ministère de la Recherche), « onpeut favoriser les échanges interdisciplinaires à travers les commissions de recrutement », pour quepar exemple des spécialistes de statistique soient recrutés dans des laboratoires de biologie. On peut aussicréer de nouveaux laboratoires consacrés à des thèmes pluridisciplinaires, ou tenter de modifier l’orientationde laboratoires déjà existants, à travers leur évaluation. C’est ce que font déjà des organismes commele CNRS ou le Ministère de la Recherche. Mais, sur le chemin de l’interdisciplinarité, les difficultés sontnombreuses: il faut rompre avec certaines habitudes, contourner des obstacles administratifs ou statutaires,surmonter les incompréhensions entre chercheurs de disciplines différentes, investir en hommes eten argent, etc. Les choses en sont encore à leurs débuts. « La compétition et la spécialisation scientifiques,le système d’évaluation et de recrutement, ont trop souvent tendance à favoriser les profilsconventionnels et peu mobiles », dit Christian Peskine, directeur scientifique adjoint pour les mathématiquesau CNRS; le système ne suscite pas assez l’émergence de personnes ayant une formation originale,ayant envie de prendre des risques (scientifiques…) dans des domaines nouveaux. Mais ceux quitiennent déjà un rôle et une place dans les thèmes interdisciplinaires pourraient avoir un effet d’entraînementet encourager d’autres collègues ou étudiants à les imiter.


Comment devenir mathématicien ? 103Des débouchés d’autant plusnombreux que la formation laisse dela place à d’autres disciplinesLes débouchés qui s’offrent aux diplômésen mathématiques ? Pour ceux qui sont allésjusqu’au doctorat et au-delà, les voies naturellessont la recherche et l’enseignement supérieur: des organismes de recherche publiquecomme le CNRS, l’INRIA, le CEA, l’ONERA, etc.,mais aussi de grandes sociétés comme la RATPou EDF-GDF, recrutent des chercheurs, et lesuniversités recrutent des enseignants-chercheurs; de même, les Grandes écoles ou lesécoles d’ingénieurs recrutent des enseignantset, dans les cas où elles possèdent des laboratoiresde recherche, des chercheurs.Cependant, le nombre de postes offerts parla recherche et l’enseignement supérieur nesont pas très nombreux, et cette voie est donctrès sélective. À titre d’illustration, le CNRS(Centre national de recherche scientifique)recrute une quinzaine de jeunes « chargés derecherche » mathématiciens par an (20 en1995, 13 en 1997), les universités une centainede « maîtres de conférences » (116 en 1995,111 en 1997) ; ces chiffres sont à comparer aunombre de diplômes de doctorat délivrés enmathématiques, qui tourne autour de 350-400 annuellement (en France).Les entreprises privées, quant à elles,embauchent traditionnellement des ingénieurs; peu de mathématiciens (au sens dechercheurs) y trouvent place. Cependant, lanécessité de recherches mathématiques pointuesse fait sentir dans un nombre croissant dedomaines (finance, assurance, informatique,télécommunications numériques, robotique,industrie aéronautique et spatiale, recherchepétrolière, etc.). Aussi, la présence de mathématiciensdans les entreprises est appelée àaugmenter ; et une telle intégration se ferad’autant plus aisément que la formation dumathématicien aura comporté des ouverturesvers d’autres disciplines (voir l’encadré).À un niveau moins élevé que le doctorat,les études mathématiques offrent des débouchésplus nombreux, mais les métiers correspondantss’éloignent de celui de mathématicienà proprement parler. Une voienumériquement importante est l’enseignementsecondaire : le métier d’enseignant enlycée est accessible après une licence ou unemaîtrise, puis une année de préparation auconcours du CAPES (après licence) ou de l’agrégation(après maîtrise). Mais il y a une kyriellede possibilités d’emplois faisant appel à descompétences mathématiques, dans lesbanques, dans les assurances, en informatique,dans les services de « recherche et développement» des entreprises, etc. À condition queles études aient inclus une ou plusieurs spécialitésen plus des mathématiques, le risquede se retrouver sans travail est bien faible.Quelques références :Maurice Mashaaljournaliste scientifique• Infosup n° 189, janvier-février 2001 (Dossierde l’ONISEP sur les études universitaires demathématiques et leurs débouchés).• Site Internet de l’ONISEP (Office nationald’information sur les enseignements et lesprofessions) : http://www.onisep.fr.• Mathématiques à venir - où en est-on à la veillede l’an 2000 ? supplément au n° 75 de laGazette des mathématiciens, publié par la SMFet la SMAI (1997).

More magazines by this user
Similar magazines