13.07.2013 Views

AODVφ - CoDE

AODVφ - CoDE

AODVφ - CoDE

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Faculté des sciences<br />

département d’inFormatique<br />

Protocoles de routage pour l’interconnexion<br />

des réseaux Ad-Hoc et UMTS<br />

David Elorrieta<br />

Mémoire présenté sous la direction du Professeur Esteban Zimányi<br />

en vue de l’obtention du grade de Licencié en Informatique<br />

Année académique 2006–2007<br />

MEMBRE DE L’ACADÉMIE UNIVERSITAIRE WALLONIE-BRUXELLES ET DU PÔLE UNIVERSITAIRE EUROPÉEN BRUXELLES WALLONIE


Table des matières<br />

Table des matières i<br />

1 Introduction 3<br />

I Etat de l’art 5<br />

2 Les communications sans fils 7<br />

2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

2.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

2.3 La propagation des ondes . . . . . . . . . . . . . . . . . . . . . . . 9<br />

2.3.1 Mécanismes de base de la propagation . . . . . . . . . . . . 9<br />

2.3.2 Facteurs d’atténuation des ondes . . . . . . . . . . . . . . . 11<br />

2.4 Modèles de propagation . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

2.4.1 Free Space . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

2.4.2 Two Ray Ground . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

2.4.3 Shadowing . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

3 Les réseaux cellulaires 17<br />

3.1 Première Génération (1G) . . . . . . . . . . . . . . . . . . . . . . . 17<br />

3.2 Deuxième Génération (2G) . . . . . . . . . . . . . . . . . . . . . . 18<br />

3.2.1 Architecture . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

3.3 Deuxième Génération et demie (2,5G) . . . . . . . . . . . . . . . . 20<br />

3.3.1 Architecture . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

3.4 Troisième Génération (3G) . . . . . . . . . . . . . . . . . . . . . . 23<br />

3.4.1 Les services UMTS . . . . . . . . . . . . . . . . . . . . . . . 23<br />

3.4.2 Architecture . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

4 Mobile Ad-Hoc Networks (MANETs) 29<br />

4.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . 29<br />

4.2 La norme 802.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30<br />

i


ii TABLE DES MATI ÈRES<br />

4.2.1 La couche physique de 802.11 . . . . . . . . . . . . . . . . . 31<br />

4.2.2 La sous-couche MAC . . . . . . . . . . . . . . . . . . . . . . 32<br />

4.2.3 Le mode DCF . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />

4.2.4 RTS/CTS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35<br />

4.3 Les Challenges . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

4.3.1 La Mobilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

4.3.2 La consommation d’énergie . . . . . . . . . . . . . . . . . . 39<br />

4.3.3 Sécurité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41<br />

4.4 Le routage unicast dans les réseaux Ad-Hoc . . . . . . . . . . . . . 42<br />

4.4.1 Les protocoles proactifs . . . . . . . . . . . . . . . . . . . . 42<br />

4.4.2 Les protocoles réactifs . . . . . . . . . . . . . . . . . . . . . 46<br />

4.4.3 Les protocoles hybrides . . . . . . . . . . . . . . . . . . . . 50<br />

4.4.4 Location-Aided Routing (LAR) . . . . . . . . . . . . . . . . 52<br />

II Contribution personnelle 55<br />

5 AODV vs AODVϕ 59<br />

5.1 AODV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59<br />

5.1.1 Gestion des numéros de séquence . . . . . . . . . . . . . . . 59<br />

5.1.2 Table de routage . . . . . . . . . . . . . . . . . . . . . . . . 60<br />

5.1.3 Opérations et messages . . . . . . . . . . . . . . . . . . . . 61<br />

5.1.4 Détection d’un lien brisé . . . . . . . . . . . . . . . . . . . . 63<br />

5.2 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65<br />

5.3 AODVϕ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68<br />

5.3.1 Le Bit Error Rate . . . . . . . . . . . . . . . . . . . . . . . 69<br />

5.3.2 Le contrôle de puissance . . . . . . . . . . . . . . . . . . . . 71<br />

6 Evaluation des performances 75<br />

6.1 Average Route Lenght . . . . . . . . . . . . . . . . . . . . . . . . . 75<br />

6.2 Packet Delivery Fraction (PDF) . . . . . . . . . . . . . . . . . . . . 76<br />

6.2.1 Impacte du nombre de sources . . . . . . . . . . . . . . . . 76<br />

6.2.2 Impacte de la mobilité . . . . . . . . . . . . . . . . . . . . . 77<br />

6.3 Routing Overhead . . . . . . . . . . . . . . . . . . . . . . . . . . . 77<br />

6.3.1 Impacte du nombre de sources . . . . . . . . . . . . . . . . 77<br />

6.3.2 Impacte de la mobilité . . . . . . . . . . . . . . . . . . . . . 78<br />

6.4 Average End-To-End Delay (EED) . . . . . . . . . . . . . . . . . . 78<br />

6.4.1 Impacte du nombre de sources . . . . . . . . . . . . . . . . 78<br />

6.4.2 Impacte de la mobilité . . . . . . . . . . . . . . . . . . . . . 80<br />

6.5 Pertes de paquets . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80<br />

6.5.1 La sous-couche MAC . . . . . . . . . . . . . . . . . . . . . . 80<br />

6.5.2 La couche réseau . . . . . . . . . . . . . . . . . . . . . . . . 81


7 GWAODV vs iAODVϕ 83<br />

7.1 GWAODV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83<br />

7.1.1 Les messages Hello . . . . . . . . . . . . . . . . . . . . . . . 83<br />

7.1.2 Table des voisins et Associativité . . . . . . . . . . . . . . . 84<br />

7.1.3 Métriques et sélection du gateway . . . . . . . . . . . . . . 85<br />

7.1.4 Table des Gateways . . . . . . . . . . . . . . . . . . . . . . 85<br />

7.1.5 Création des messages Hello Gateway . . . . . . . . . . . . 86<br />

7.2 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />

7.3 iAODVϕ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88<br />

7.3.1 Gestion des gateways . . . . . . . . . . . . . . . . . . . . . . 88<br />

8 Evaluation des performances 91<br />

8.1 Average Route Lenght . . . . . . . . . . . . . . . . . . . . . . . . . 91<br />

8.1.1 FreeSpace . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91<br />

8.1.2 Shadowing . . . . . . . . . . . . . . . . . . . . . . . . . . . 92<br />

8.2 Packet Delivery Fraction . . . . . . . . . . . . . . . . . . . . . . . . 93<br />

8.2.1 Impact du nombre de sources . . . . . . . . . . . . . . . . . 93<br />

8.2.2 Impacte de la mobilité . . . . . . . . . . . . . . . . . . . . . 95<br />

8.3 Routing Overhead . . . . . . . . . . . . . . . . . . . . . . . . . . . 95<br />

8.4 Average End-To-End Delay . . . . . . . . . . . . . . . . . . . . . . 96<br />

9 Conclusions 97<br />

Bibliographie 99<br />

A Résultats des simulations AODV-AODVϕ 105<br />

B Résultats des simulations GWAODV-iAODVϕ 107<br />

Table des figures 109<br />

Liste des tableaux 111<br />

iii


Acknowledgements<br />

Ce mémoire était pour moi la cerise sur le gâteau de ma formation de licencié<br />

en informatique. Les péripéties furent nombreuses et sans l‘aide et le support<br />

inconditionnel de quelques personnes je n’y serai peut-être pas parvenu.<br />

Mes remerciements personnel se dirigent donc tout naturellement vers :<br />

Mr Esteban Zimanyi, pour m’avoir donné la chance de travailler dans ce<br />

domaine de recherche et de m’avoir donné confiance lorsque j’étais au plus bas.<br />

Mr Jean-Michel Dricot, pour son accompagnement et son aide tout au long du<br />

travail pratique. Je le remercie également de ne pas avoir perdu patience lorsque<br />

je devenais pressant.<br />

Mes parents, de m’avoir donné la chance d’entreprendre de longues études et de<br />

m’avoir soutenu durant toutes ces années.<br />

Ma petite amie, Griet, pour la patience dont elle a fait preuve et le soutient<br />

moral qu’elle m’a apporté.<br />

Bayani Carbone, pour le helpdesk qu’il a improvisé afin de traiter mes<br />

nombreuses plaintes.<br />

Antoine Bruyns, pour ses nombreux conseils et son support autant pour ce<br />

travail que pour toutes les épreuves auxquelles je me suis heurté. Un grand<br />

merci à toi.<br />

Je ne pouvais achever cette phase de remerciements sans adresser un merci<br />

particulier à Mr Ghislain Bocq dont la passion contagieuse des télécom est à<br />

l’origine du sujet de ce mémoire.<br />

1


Chapitre 1<br />

Introduction<br />

Contexte<br />

Cette dernière décennie a été marquée par l’évolution rapide des réseaux cellulaires<br />

et du réseau Internet. En raison des progrès technologiques que nous<br />

connaissons, ces deux domaines tendent à converger afin d’offrir l’accessibilité à<br />

de nombreux services tout en conservant notre mobilité. La téléphonie mobile à<br />

aujourd’hui atteint le stade de la troisième génération, couplant ainsi dans son<br />

architecture la commutation de circuit pour les services voix et la commutation<br />

de paquets permettant l’accès au réseau Internet.<br />

Cette évolution nécessite cependant le renouvellement de nombreux composants<br />

du réseau en place et nous laisse encore aujourd’hui dans une phase de transition<br />

avec une couverture partielle du territoire pour les services 3G. Le réseau<br />

GSM dont la couverture est quasi totale prend alors le relais afin d’assurer la<br />

continuité des services de bases (i.e., la téléphonie, SMS) lorsque le poste mobile<br />

se déplace dans une zone non couverte par le réseau UMTS. Malgré le handover<br />

possible entre les générations, il persiste des zones d’ombres à l’intérieur des<br />

bâtiments et dans les sous-sols où aucune connexion avec la station de base du<br />

réseau cellulaire n’est possible.<br />

Ces zones d’ombre sont essentiellement due à l’utilisation de technologies sans<br />

fils comme média de communication. Les ondes radio sont sensibles au milieu de<br />

déploiement et leur propagation est affectée chaque fois qu’elles se heurtent à un<br />

nouvel obstacle. Ceci se traduit dans un milieu obstrué par des murs, comme en<br />

indoor, par une chute de la puissance du signal reçu donnant ainsi lieu à des zones<br />

où le signal est trop faible pour être perçu.<br />

Durant le développement des réseaux cellulaires, la démocratisation des prix<br />

des technologies sans fils et le développement de protocoles standards tel que<br />

802.11 ont permis l’émergence de nouveaux réseaux mobiles, les MANETs (Mobile<br />

3


4 CHAPITRE 1. INTRODUCTION<br />

Ad-Hoc NETworks). Un réseau Ad-Hoc mobile est adaptatif et s’auto-organise,<br />

c’est à dire qu’il se forme et se déforme à la volée sans intervention d’une entité<br />

administrative. Un tel réseau ne nécessite donc pas d’infrastructure pour fonctionner,<br />

chaque noeud est à la fois utilisateur final et routeur afin de relayer<br />

les paquets d’une source vers sa destination. Le déploiement d’un tel réseau ne<br />

nécessite donc pas de frais supplémentaire pour sa mise en place et peut facilement<br />

s’étendre pour couvrir de longue distances.<br />

Objectif<br />

Ce travail à pour but d’étudier une solution à l’extension de la couverture des<br />

réseaux cellulaires, en l’occurrence du réseau UMTS. Plus précisément, la solution<br />

proposée exploite les caractéristiques des réseaux Ad-Hoc pour relayer hop-byhop<br />

les données afin d’offrir une connexion avec le réseau aux postes mobiles qui<br />

n’en n’ont pas.<br />

Etant donné que la majeure partie des problèmes de couverture surviennent<br />

dans un environnement indoor, la solution proposée sera adaptée à ce milieu de<br />

propagation afin d’optimiser les performances du routage.<br />

Approche<br />

Dans la première partie de ce travail, nous commencerons par une description<br />

des concepts de base des communications sans-fil, des réseaux cellulaires et des<br />

réseaux Ad-Hoc mobile.<br />

Ainsi, le premier chapitre mettra en avant les différents facteurs d’atténuation<br />

des ondes et décrira les mécanismes de base de la propagation. Le second chapitre<br />

sera consacré à l’évolution architecturale et protocolaires des réseaux cellulaires<br />

pour intégrer les services paquets haut débits dont nous jouissons actuellement.<br />

Finalement le troisième chapitre sera consacré aux MANETs et mettra en avant la<br />

problématique du routage dans un réseau où les décisions se prennent de manières<br />

distribuées.<br />

La deuxième partie de ce travail est consacrée à l’étude d’un protocole pour<br />

l’interconnexion des réseaux Ad-Hoc et UMTS dans un environnement indoor.<br />

Cette partie débutera en montrant l’impact des deux première couche du modèle<br />

OSI sur les performances de la couche réseau et le besoin de développer une<br />

architecture cross-layer tenant compte des propriétés physiques pour le routage.<br />

Elle se poursuivra ensuite par une descriptions des protocoles à la base de la<br />

solution proposée. Finalement, l’étude l’achève avec l’évaluation et la comparaison<br />

des performances obtenues dans le simulateur Ns2 pour les différents protocoles.


Première partie<br />

Etat de l’art<br />

5


Chapitre 2<br />

Les communications sans fils<br />

2.1 Introduction<br />

Le rôle de la couche physique est de transporter les données au format binaires<br />

d’un émetteur jusqu’à son récepteur. La transmission peut se faire sur<br />

différents types de supports physiques, appelés aussi médias, et qui se répartissent<br />

grossièrement en deux catégories :<br />

1. les supports guidés, comme le fil de cuivre ou la fibre optique<br />

2. les supports non guidés, comme les ondes radio et les faisceaux laser<br />

Le canal radio impose cependant d’importantes limitations sur les performances<br />

des communications sans fils. Le chemin de transmission entre un émetteur et<br />

le récepteur peut varier d’une simple ligne de visibilité directe (LOS : Line Of<br />

Sight) à un chemin obstrué par des bâtiments, des montagnes et de la végétation.<br />

Contrairement au canal filaire qui est stationnaire et prévisible, le canal radio est<br />

quant à lui extrêmement variable et son analyse est complexe. La modélisation<br />

du canal radio est donc typiquement faite d’une manière statistique, basée sur des<br />

mesures spécifiques à un système de communication ou au spectre de fréquence<br />

utilisé.<br />

Dans ce chapitre nous commencerons par une définition de l’onde et énoncerons<br />

quelques une de ses propriétés. Nous analyserons ensuite les différents moyens<br />

de propagation et les facteurs d’atténuation du signal dans un milieu obstrué<br />

par des obstacles. Enfin, nous terminerons par énoncer les différents modèles<br />

de propagations permettant d’approcher la valeur du signal reçu en fonction de<br />

l’environnement de déploiement.<br />

7


8 CHAPITRE 2. LES COMMUNICATIONS SANS FILS<br />

2.2 Définition<br />

Une onde[26, 25, 29] est la propagation d’une perturbation dans un milieu<br />

matériel ou immatériel, elle produit sur son passage une variation réversible des<br />

propriétés physiques locale. On distingue donc les ondes mécaniques qui se propagent<br />

dans un milieu matériel tel que de l’eau, et les ondes électromagnétiques<br />

qui se propagent dans le milieu ambiant ou dans le vide.<br />

James Clerk Maxwell montra qu’un courant électrique variant dans le temps<br />

produit un champ magnétique, ce champ magnétique variant également dans le<br />

temps produit un champ électrique. C’est le couplage de ces deux phénomènes<br />

qui permet le transport d’énergie (Fig. 2.1)<br />

Fig. 2.1: Couplage d’un champ électrique et d’un champ magnétique<br />

Lorsqu’une antenne de taille appropriée est reliée à un circuit électrique, les<br />

ondes électromagnétiques peuvent être diffusées efficacement et reçues par un<br />

récepteur distant. Ces ondes permettent alors d’acheminer des données, et ce au<br />

travers de leurs propriétés, telles que la phase, l’amplitude, la fréquence f, la<br />

longueur d’onde λ. La vitesse de propagation, v est quant à elle déterminée par<br />

les caractéristiques du milieu de propagation. Ces trois derniers paramètres sont<br />

lié par :<br />

λ = v<br />

f<br />

(2.1)<br />

Dans le vide, les ondes électromagnétiques se propagent à la vitesse de la lumière,<br />

indépendamment de leur fréquence, et correspond a la vitesse maximale que l’on<br />

puisse atteindre qui est de 3 × 10 8 m/s.


2.3. LA PROPAGATION DES ONDES 9<br />

2.3 La propagation des ondes<br />

2.3.1 Mécanismes de base de la propagation<br />

Lorsqu’une onde arrive à la frontière de deux milieux, plusieurs phénomènes<br />

peuvent survenir et affecter la propagation et les propriétés de l’onde[26, 25, 23] :<br />

la réflection,la réfraction, l’absorption, la diffusion.<br />

La réflexion est le brusque changement de direction d’une onde à l’interface<br />

de deux milieux, l’onde est réfléchie et repart dans son milieu d’origine. Ce<br />

phénomène ce produit lorsque la surface de l’objet rencontré et bien plus grand<br />

que la longueur d’onde du signal. Un exemple typique est celui de la lumière qui<br />

se reflète dans un miroir.<br />

Fig. 2.2: Phénomène de réflexion<br />

La réfraction est le changement d’angle qui se produit lorsqu’une onde pénètre<br />

dans un milieu à plus forte impédance. Une illustration de ce phénomène est une<br />

cuillère dans un verre d’eau, la cuillère semble être pliée à la frontière des deux<br />

milieux.<br />

Fig. 2.3: Phénomène de réfraction


10 CHAPITRE 2. LES COMMUNICATIONS SANS FILS<br />

L’absorption est un phénomène complémentaire aux deux précédents. Lorsqu’une<br />

onde arrive à l’interface des deux milieux, il se peut qu’une partie de celle<br />

ci soit réfléchie tandis que l’autre pénétrera dans le nouveau milieu. Ce phénomène<br />

ce produit par exemple lorsqu’on regarde son reflet dans une vitre, l’image est<br />

moins nette que dans un miroir car une partie à été transmise dans le nouveau<br />

milieu.<br />

Fig. 2.4: Phénomènes de réflexion, réfraction et absorption<br />

La diffusion, aussi appelé éparpillement, est le phénomène par lequel une onde<br />

est déviée dans de multiples directions. Elle se produit lors de la rencontre d’un<br />

obstacle dont la surface n’est pas parfaitement plane et lisse. Elle constitue avec<br />

l’absorption une source de l’affaiblissement de l’onde lors de la propagation.<br />

Fig. 2.5: Phénomène de diffusion<br />

A l’encontre d’un obstacle, chaque onde peut être transmise, réfléchie totalement<br />

ou partiellement ou dispersée dans plusieurs directions. Les nouvelles<br />

ondes qui en résultent se heurteront également à d’autres objets générant ainsi


2.3. LA PROPAGATION DES ONDES 11<br />

à leur tour d’autres ondes. Calculer avec exactitude le parcours d’une onde et<br />

la puissance du signal à sa réception est donc impossible à moins de connaître<br />

parfaitement la géométrie des lieux et les propriétés du milieu, ce qui n’est pas<br />

réalisable. Il faut donc avoir recours à des modèles statistiques afin de prédire<br />

le comportement en fonction du milieu. Ceci est d’autant plus vrais dans un<br />

environnement indoor ou le milieu est dense, chaque mur, plafond, sol et mobilier<br />

constitue un obstacle qui altère la propagation et les propriétés de l’onde<br />

transmise.<br />

2.3.2 Facteurs d’atténuation des ondes<br />

La puissance du signal reçu par un récepteur diffère de celle transmise à<br />

l’origine. Cet affaiblissement est du essentiellement à trois phénomènes[25, 23,<br />

17] :<br />

– le Path Loss<br />

– le Shadowing<br />

– le Fast Fading<br />

auquel vient s’ajouter une perturbation supplémentaire engendré par le bruit.<br />

Path Loss<br />

Fig. 2.6: Modélisation du canal de communication<br />

Le Path Loss caractérise l’affaiblissement que subit une onde électromagnétique<br />

lorsqu’elle parcourt une distance. Plus le récepteur s’éloigne de l’émetteur et plus<br />

l’affaiblissement sera important. Bien souvent il n’existe pas de chemin de visibilité<br />

directe entre l’émetteur et le récepteur, l’onde reçue est alors celle empruntée<br />

suite à de multiples réflexions, absorption et réfractions. Le chemin suivit par<br />

l’onde est alors plus long que la distance séparant l’émetteur du récepteur.<br />

Shadowing<br />

Le Path Loss ne tient compte que de certains paramètres tels que la distance<br />

entre l’émetteur et le récepteur, le gain des antennes, l’environnement de propagation.<br />

Cependant, on observe pour les mêmes valeurs de ces paramètres des


12 CHAPITRE 2. LES COMMUNICATIONS SANS FILS<br />

fluctuations importantes dans la puissance du signal reçu. Cette variation est liée<br />

aux obstacles rencontrés par le signal sur son trajet.<br />

Le Shadowing prend donc en compte cette nouvelle métrique et enrichit le<br />

Path Loss d’un affaiblissement probabiliste fonction du milieu de propagation et<br />

du type d’obstacle pouvant être rencontré.<br />

Fast Fading<br />

Enfin, le Fast Fading, ou multipath fading, est lié au fait que l’onde reçue<br />

est une superposition de plusieurs copies du signal ayant emprunté un chemin<br />

différents. Ces copies aux propriétés différentes (amplitude, phase,...) peuvent<br />

avoir un impact positif sur le signal reçu mais peuvent également le dégradé,<br />

l’affaiblissement y est donc également probabiliste. On retrouve donc une variation<br />

de la puissance supplémentaire qui peut varie très rapidement avec un<br />

déplacement de quelques centimètres.<br />

Le signal résultant de ces trois phénomènes pour un récepteur s’éloignant de<br />

l’émetteur est illustré à la figure 2.7. Les effets de ces perturbations s’additionnent<br />

ou se multiplient selon qu’on les considère à une échelle logarithmique (dB) ou<br />

linéaire (Watt).<br />

Fig. 2.7: Influences du Path Loss, Shadowing et Fast Fading sur la puissance du<br />

signal reçu par un récepteur s’éloignant de la source


2.4. MODÈLES DE PROPAGATION 13<br />

Le bruit<br />

Durant son trajet, le signal est perturbé par des signaux parasites qui viennent<br />

s’ajouter au signal initial. Ce bruit [33] peut être originaire du système électronique<br />

interne au récepteur, tels que :<br />

– le bruit thermique : Le bruit thermique est le nom donné au bruit électrique<br />

provenant du mouvement aléatoire des électrons dans un conducteur.<br />

– le bruit grenaille : il apparaît dans des composants électroniques comme la<br />

diode et le transistor à cause de la nature discrète du courant.<br />

ou de facteurs externes tels que :<br />

– le bruit d’inter-modulation : résultant du partage du média par des signaux<br />

de fréquences différentes. Il peut être provoqué par deux émetteurs trop<br />

proches ou trop puissants.<br />

– la diaphonie : il s’agit d’un couplage perturbateur de signaux voisins causé<br />

par un phénomène d’induction électromagnétique. On parle de diaphonie<br />

dans le cas de multiples canaux de communication lorsqu’un canal interfère<br />

avec le canal adjacent.<br />

– le bruit impulsif : Le bruit impulsif se présente sous forme de tensions<br />

perturbatrices aux valeurs élevées mais de courtes durées. Il peut être dû<br />

aux démarrages de moteurs, aux chocs de deux corps physique, à la foudre,...<br />

2.4 Modèles de propagation<br />

Les modèles de propagation peuvent être grossièrement classés en deux catégories[26] :<br />

1. les modèles de propagation dit ”large-scale” : Ces modèles se focalisent<br />

essentiellement sur la prédiction de la puissance moyenne du signal reçu<br />

par un récepteur pour une valeur donnée de la distance le séparant de<br />

l’émetteur. Ces modèles permettent d’estimer l’aire de couverture radio<br />

d’un émetteur.<br />

2. les modèles de propagation dit ”small-scale” : Ces modèles permettent de<br />

caractériser les rapides fluctuations de la puissance du signal reçu sur une<br />

très courte distance (quelques longueurs d’ondes) ou sur de très courte<br />

périodes (de l’ordre de quelques secondes). Ces modèles sont aussi appelés<br />

modèles de fading.<br />

Il existe de nombreux modèles de propagation, la suite de cette section ne décrira<br />

que les modèles implémentés dans le simulateur Ns2 et qui seront utilisés lors des<br />

simulations. Cette partie tire la majeure partie de ses explications et ses figures<br />

de la documentation du simulateur Ns2[17] et de [23, 26].


14 CHAPITRE 2. LES COMMUNICATIONS SANS FILS<br />

2.4.1 Free Space<br />

Le modèle en espace libre décrit le cas idéal de condition de propagation où il<br />

n’existe qu’un chemin de visibilité directe dégagé entre l’émetteur et le récepteur.<br />

Ce modèle se porte bien dans les systèmes de communication satellite mais à<br />

tendance à surévaluer les résultats lorsqu’il est utilisé pour prédire le Path Loss<br />

en outdoor.<br />

La puissance reçue par l’antenne du récepteur situé à une distance d de<br />

l’émetteur est donnée par l’équation :<br />

Pr(d) =<br />

PtGtGrλ 2<br />

(4π) 2 d 2 L<br />

(2.2)<br />

où Pt est la puissance du signal transmis, Gt et Gr sont respectivement les<br />

gains des antennes de l’émetteur et du récepteur, L(L ≥ 1) est le facteur de<br />

perte du système indépendant de la propagation (lié aux pertes du système de<br />

communication lui même tels que les pertes des filtres, les pertes des antennes,..),<br />

λ est la longueur d’onde et d la distance séparant l’émetteur du récepteur.<br />

L’équation 2.2 montre que la puissance reçue s’atténue comme le carré de<br />

la distance qui sépare l’émetteur du récepteur. Ceci implique que la perte de la<br />

puissance reçue décroît avec la distance à un rythme de 20 dB/décade. On voit<br />

également que l’équation est facteur de la longueur d’onde, ce qui implique que<br />

deux ondes de fréquences différentes ne s’atténuent pas de la même façon. Le Path<br />

Loss, qui représente l’atténuation du signal en dB, est définit comme le rapport<br />

(en dB) entre la puissance transmise et la puissance reçue :<br />

P L(dB) = 10 log Pt<br />

<br />

GtGrλ<br />

= −10 log<br />

2 <br />

(2.3)<br />

2.4.2 Two Ray Ground<br />

Pr<br />

(4π) 2 d 2<br />

Étant donné qu’une visibilité directe est rarement le seul chemin de propagation<br />

entre un émetteur et un récepteur, le modèle Two Ray Ground offre bien<br />

souvent des résultats plus pertinents pour une longue distance que ceux du Free<br />

Space. Il considère que l’onde reçue est facteur de l’onde voyageant en visibilité<br />

directe et de celle réfléchie sur le sol, ce cas est illustré à la figure 2.8.<br />

La puissance du signal reçu pour une distance d est prédite par :<br />

Pr(d) = PtGtGrh 2 t h 2 r<br />

d 4 L<br />

(2.4)<br />

où ht et hr sont respectivement la hauteur de l’antenne de l’émetteur et celle du<br />

récepteur. Notons que l’équation 2.4 montre une perte de puissance en fonction de<br />

la distance plus importante qu’en Fee Space, elle est de l’ordre de 40 dB/décade.<br />

La valeur du Path Loss pour le modèle Two Ray Ground s’exprime en dB comme :<br />

P L(dB) = 40 log d − (10 log Gt + 10 log Gr + 20 log ht + 20 log hr) (2.5)


2.4. MODÈLES DE PROPAGATION 15<br />

2.4.3 Shadowing<br />

Fig. 2.8: Modèle de propagation Two Ray Ground<br />

Le modèle Free Space et le modèle Two Ray Ground prédisent la puissance<br />

reçue comme une fonction déterministe de la distance. Ils représentent tous deux<br />

la portée radio de la communication comme un cercle parfait autour de l’émetteur.<br />

En réalité, la puissance reçue à une certaine distance est une variable aléatoire,<br />

ceci est du au effet de la propagation multi-trajet et des obstacles rencontrés par<br />

l’onde.<br />

Un modèle plus réaliste et plus largement utilisé est le modèle de Shadowing<br />

qui se décompose en deux parties. La première est connue sous le nom de modèle<br />

de Path Loss, qui prédit également la puissance moyenne reçue à une distance d,<br />

dénotée par Pr(d). Il utilise une distance rapprochée d0 comme point de référence<br />

pour le calcul. La puissance moyenne reçue Pr(d) est donc calculée de manière<br />

relative à la puissance reçue Pr(d0) par :<br />

Pr(d0)<br />

Pr(d) =<br />

β d<br />

d0<br />

(2.6)<br />

β est appelé le Path Loss exposant et est déterminer de manière empirique par des<br />

mesures sur le terrain. Les valeurs typiques pour β sont donnés à la figure 2.9. Des<br />

valeurs élevées correspondent à une plus grande obstruction et par conséquence<br />

une diminution plus rapide de la puissance moyenne reçue lorsque la distance<br />

augmente. Pr(d0) peut être calculé par l’équation 2.3 du modèle Free Space.<br />

La valeur du Path Loss (exprimé en dB) est obtenu à partir de 2.6 par :<br />

<br />

Pr(d)<br />

Pr(d0)<br />

dB<br />

<br />

d<br />

= −10β log<br />

d0<br />

(2.7)


16 CHAPITRE 2. LES COMMUNICATIONS SANS FILS<br />

Fig. 2.9: Valeurs typiques pour l’exposant du PathLoss β et la variance σdB<br />

La seconde partie du modèle Shadowing reflète la variation de la puissance<br />

reçue à une certaine distance. C’est une variable aléatoire log-normale ou une variable<br />

aléatoire Gaussienne si on convertit les unités en dB. Le modèle Shadowing<br />

dans son ensemble peut donc être représenté par :<br />

<br />

Pr(d)<br />

Pr(d0)<br />

dB<br />

<br />

d<br />

= −10β log<br />

d0<br />

<br />

+ χdB<br />

(2.8)<br />

où χdB est une variable aléatoire Gaussienne de moyenne nulle et de variance<br />

σdB. σdB est également obtenue par mesures empiriques, la figure 2.9 montre les<br />

valeurs typiques pour σdB.<br />

Le modèle Shadowing étend donc le modèle du cercle idéal définit par le Free<br />

Space en un modèle statistique plus riche qui est fonction des trajets multipath<br />

et des obstacles rencontrés (Fig. 2.10).<br />

Fig. 2.10: Zone de couverture d’un noeud : (a) Modèle FreeSpace, (b) Modèle<br />

Shadowing


Chapitre 3<br />

Les réseaux cellulaires<br />

3.1 Première Génération (1G)<br />

La première génération[30] est apparue dans le début des années 80 et était caractérisée<br />

par des communications analogiques entre les terminaux et les stations<br />

de bases.<br />

Cette génération a introduit les concepts de cellules et de réutilisation de<br />

fréquences. Afin de minimiser les interférences entre les différentes cellules, des<br />

antennes directionnelles d’une ouverture de 120 degré furent utilisées. Le facteur<br />

de réutilisation optimal afin d’assurer les 18 dB du SIR (Signal-to-Interference<br />

Ratio) se révéla être 7 (Fig. 3.1). L’AMPS (Advanced Mobile Phone System),<br />

Fig. 3.1: Architecture du réseau AMPS<br />

17


18 CHAPITRE 3. LES RÉSEAUX CELLULAIRES<br />

système populaire aux USA, fut développé par Bell Labs et rendu disponible en<br />

1983. Un total de 40 MHz du spectre fut alloué dans la bande des 800MHz offrant<br />

ainsi 832 canaux de communication et un débit de l’ordre des 2.4kbps. Les<br />

transmissions de la station de base vers les mobiles s’opéraient sur le forward<br />

channel utilisant les fréquences comprises entre 869-894 MHz tandis que les communications<br />

inverses prenaient place dans le reverse channel utilisant la bande<br />

des 824-849 MHz.<br />

L’accès au canal radio par plusieurs mobiles était rendu possible par la technologie<br />

d’accès FDMA (Frequency Division Multiple Access) qui allouait une<br />

fréquence porteuse à chacun des utilisateurs pour la durée de la communication<br />

(Fig. 3.2)<br />

Fig. 3.2: Technologie d’accès FDMA<br />

3.2 Deuxième Génération (2G)<br />

La deuxième génération[4] se caractérise par le passage à un système entièrement<br />

numérique et une attention particulière fournie au développement de standard<br />

pour assurer l’interopérabilité des équipements. Un exemple de système de deuxième<br />

génération est le système GSM (Global System for Mobile) qui fit son apparition<br />

en Belgique en 1993. Les débits sont de l’ordre de 9,6kbps et apparaît le premier<br />

service de type paquet, le SMS, qui est transporté au travers du réseau de<br />

signalisation.<br />

3.2.1 Architecture<br />

L’architecture du réseau GSM est illustré à la Fig. 3.3. Le système est techniquement<br />

divisé en trois sous-systèmes :<br />

1. le Network Sub-System (NSS) qui est chargé de l’interconnexion avec le<br />

réseau fixe et de l’acheminement du trafic<br />

2. le Base-Station Sub-system (BSS) qui assure et gère les transmissions radios


3.2. DEUXIÈME GÉNÉRATION (2G) 19<br />

3. l’ Operation and Support System (OSS) qui permet à l’opérateur d’exploité<br />

son réseau et de faire de la maintenance<br />

A ces trois sous-systèmes qui sont propres au réseau vient s’ajouter le MS (mobile<br />

Station) et sa carte SIM (Subscriber Identity Module).<br />

Le Network Sub-System (NSS)<br />

Fig. 3.3: Architecture du réseau GSM<br />

Le NSS comporte les bases de données, la signalisation et les commutateurs.<br />

Il est composé des entités fonctionnelles suivantes :<br />

• MSC (Mobile Switch Center) : Il contient notamment le commutateur proprement<br />

dit et permet l’interconnexion du réseau fixe (PSTN, ISDN,..) et<br />

du BSS (Base-Sation Subsystem) via l’interface A.<br />

• HLR (Home Location Register) : Le HLR d’un opérateur GSM contient<br />

les bases de données de ses abonnés, indiquant les services souscrits et des<br />

informations sur la localisation du mobile. Un HLR dessert généralement<br />

plusieurs MSC.<br />

• VLR (Visitor Location Register) : Le VLR quant à lui ne contient qu’un<br />

sous-ensemble des informations du HLR relatives aux mobiles présent dans<br />

l’aire du MSC qu’il dessert. Il est souvent physiquement couplé au MSC en<br />

raison du nombre important de messages entre ces deux entités.<br />

• AUC (AUthentification Center) : C’est la que son stockée les données<br />

(clés) permettant d’authentifier l’abonné et d’assurer la confidentialité (algorithme<br />

de chiffrement).


20 CHAPITRE 3. LES RÉSEAUX CELLULAIRES<br />

• EIR (Equipment Identity Register) : Cette base de données contient les<br />

caractéristiques des postes mobiles. Elle maintient des statistiques, l’IMEI<br />

(numéro de série) des postes mobiles et une liste noire des appareils volés.<br />

Le Base-Sation Sub-system (BSS)<br />

Le BSS est chargé de la communication radio avec les postes mobiles et est<br />

composée de Base Station Controller (BSC) et de Base Transceiver Station (BTS).<br />

Le BSC est l’organe intelligent du sous-système radio, il est capable de gérer<br />

plusieurs BTS et de dialoguer avec le MSC.<br />

Ses principales fonctions sont :<br />

– l’allocation des canaux de communication et de signalisation<br />

– Assurer le handover lorsqu’un mobile change de cellule.<br />

– Transmettre au MSC les informations relatives à la localisation du mobile<br />

pour mettre à jour le VLR et le HLR.<br />

– Aiguiller le trafic provenant du MSC vers les différentes BTS.<br />

– Concentrer le trafic en provenance des BTS vers le MSC.<br />

Une BTS est quant à elle chargée de :<br />

– la gestion des liaisons radio (encodage, modulation, détection et correction<br />

d’erreur,..) avec les postes mobiles.<br />

– Chiffrer/déchiffrer les communications pour assurer la confidentialité.<br />

– Mesurer la qualité du signal reçu et les transmettre au BSC pour un éventuel<br />

hand-over.<br />

– Contrôler la puissance d’émission pour limiter les interférences<br />

L’interface radio<br />

Le GSM opère dans la bande des 900 MHz et utilise deux bandes de fréquence<br />

de 25 MHz :<br />

1. La bande 890-915 MHz est utilisée dans le sens MS → BST<br />

2. La bande 935-960 MHz est utilisée dans le sens BST → MS<br />

Le spectre est divisé en 124 paires de fréquences porteuses (une pour chaque<br />

sens de la communication) espacées de 200 kHz et réparties entre les différentes<br />

cellules. Chaque porteuse est ensuite divisée dans le temps en 8 TS (Time Slot)<br />

par la méthode d’accès TDMA (Time Division Multiple Access), fournissant ainsi<br />

992 canaux physiques de communication (Fig. 3.4).<br />

3.3 Deuxième Génération et demie (2,5G)<br />

La deuxième génération et demie [18] est une extension du réseau GSM pour<br />

y incorporer les services paquets et constitue le premier pas vers les services


3.3. DEUXIÈME GÉNÉRATION ET DEMIE (2,5G) 21<br />

Fig. 3.4: Technologie d’accès TDMA<br />

de troisième génération. Le General Packet Radio Service (GPRS) et l’Enhanced<br />

Data rate Gsm Evolution (EDGE) sont des technologies issues de cette<br />

génération.<br />

GPRS est une solution basée sur la commutation de paquets IP, il fonctionne<br />

en recouvrant les 8 TS utilisés pour le GSM d’une couche logique basé sur la paquetisation.<br />

Le GPRS est un service dit always-on, dès la première connexion un<br />

circuit virtuel est établi donnant l’impression à l’utilisateur d’être en permanence<br />

connecté. Contrairement au mode circuit qui alloue une ligne dédiée à l’utilisateur<br />

pour la durée de la communication, le mode paquet n’alloue des intervalles<br />

de temps que lorsque les données sont disponibles pour la transmission. Il permet<br />

donc une facturation sur le volume de paquets transmis et non plus sur la durée.<br />

En théorie, GPRS supporte des débits de transmissions allant jusqu’à 171.2Kbps<br />

dans les conditions idéales. En pratique, les interférences et l’occupation du canal<br />

par d’autres communications ramène le débit moyen à une valeur nettement<br />

inférieure (en moyenne 40kbps).<br />

EDGE repose sur la même architecture que le GPRS, il permet un débit<br />

trois fois supérieur au GPRS en passant d’une modulation GMSK (Gaussian<br />

Minimum-Shift Keying) à une modulation 8-PSK (octogonal Phase Shift Keying).<br />

Cette nouvelle modulation permet de transporter 3 bits par symbole alors que<br />

le GMSK n’en permettait qu’un seul. Il permet ainsi par une simple mise à jour<br />

software des équipements de tripler le débit offert par GPRS et d’atteindre les<br />

473,6kbps dans le cas idéal d’un mobile au pied de la station de base.


22 CHAPITRE 3. LES RÉSEAUX CELLULAIRES<br />

3.3.1 Architecture<br />

Malgré le désir de reposer au maximum sur le réseau existant, des changements<br />

protocolaires et hardware furent nécessaires pour construire un réseau de paquet<br />

pouvant supporter de manière efficace les burst du trafic IP.<br />

GPRS NSS<br />

Fig. 3.5: Architecture du réseau GPRS<br />

Dans le coeur du réseau, les MSC existants sont des technologies à commutation<br />

de circuit et ne peuvent donc pas supporter de manière efficace le trafic IP.<br />

Deux composants ont donc été rajoutés :<br />

1. le Gateway GPRS Support Node (GGSN) : il fait office de passerelle entre<br />

le réseau GPRS et un réseau public de données tel que le réseau internet ou<br />

un réseau X.25. Il permet également de connecter différents réseaux GPRS<br />

afin d’assurer le roaming.<br />

2. le Serving GPRS Support Node (SGSN) : Il a le role d’un MSC à commutation<br />

de paquets, il assure le routage des paquets en provenance et à<br />

destination des utilisateurs de la zone de service qu’il dessert. Il est chargé<br />

de gérer la mobilité et mettre à jour les informations de localisation du<br />

HLR.<br />

Le protocole utilisé pour l’encapsulation des données entre le SGSN et le GGSN<br />

est GTP (GPRS Tunneling Protocol). Il repose sur TCP et UDP et permet le


3.4. TROISIÈME GÉNÉRATION (3G) 23<br />

transport des données, des informations de contrôle (activation session, ajustement<br />

QoS,..) et des informations de facturations.<br />

Le software des bases de données (VLR, HLR,..) a subit une mis à jour pour<br />

intégrer le nouveau format des requêtes et des fonctions introduites par le GPRS.<br />

GPRS BSS<br />

En plus des changements dans le NSS, une mise à jour des couches supérieures<br />

(software) du BSS était nécessaire pour intégrer la couche logique PDCH (Packet<br />

Data Channel) sur l’interface radio.<br />

A la sortie du BSC, une séparation entre le trafic voix et le trafic data est<br />

mise en place. Le trafic voix sera dirigé vers les MSC de la même façon que les<br />

appels GSM standards, tandis que le trafic data sera écoulé par un réseau Frame<br />

Relay vers le SGSN au moyen d’une ou plusieurs PCUs (Paquet Controller Unit).<br />

3.4 Troisième Génération (3G)<br />

Un certain nombre d’objectifs en termes de normalisation avaient été fixés<br />

initialement par l’ITU (International Telecommunication Union) dans le cadre<br />

de l’IMT-2000 pour l’élaboration de la troisième génération. Cependant, suite à<br />

de nombreuses négociations internationales, il a été décidé de ne pas élaborer une<br />

norme unique mais bien une famille de normes :<br />

• le W-CDMA (Wide-band Code Division Multiple Access) en Europe<br />

• le CDMA2000 en Amérique<br />

• le TD-SCDMA (Time Division Synchronous Code Division Multiple Access)<br />

en Chine<br />

L’ Universal Mobile Telecommunications System (UMTS) [2, 19] est une des<br />

technologies de téléphonie mobile numérique de troisième génération européenne,<br />

elle est basée sur la norme W-CDMA standardisée par le 3GPP (3rd Generation<br />

Partnership Project).<br />

3.4.1 Les services UMTS<br />

Les teleservices offert par l’UMTS sont semblables à ceux déjà présent dans<br />

les réseaux GSM et GPRS (téléphonie, visiophonie, SMS,..). Il est cependant<br />

possible de négocier les paramètres des bearer services (services de bas niveaux<br />

pour le support des teleservices) lors de l’établissement d’une connexion et de les<br />

renégocier lors d’une session en cours.<br />

Les bearer services ont différent paramètres de QoS pour le end-to-end delay,<br />

la gigue et le taux d’erreur.<br />

Les débits offerts sont :


24 CHAPITRE 3. LES RÉSEAUX CELLULAIRES<br />

• 144 kbits/s en outdoor dans une zone rurale (vitesse >120 km/h)<br />

• 384 kbits/s en outdoor dans une zone urbaine (vitesse


3.4. TROISIÈME GÉNÉRATION (3G) 25<br />

L’ATM (Asynchronous Transfer Mode) a été définit comme technologie pour<br />

la transmission au sein du Core Network. Le trafic de la commutation de circuit<br />

est pris en charge par l’ATM Adaptation Layer type 2 (AAL2) qui a été développé<br />

pour des applications à débits variables sensibles aux délais. La partie à commutation<br />

de paquets est quant à elle gérée par l’AAL5 conçu pour le transport de<br />

trames de données associées à des services orientés sans-connexion.<br />

L’accès au canal radio<br />

L’accès au canal radio est assuré par la technologie W-CDMA, il s’agit d’un<br />

système CDMA où la bande de fréquence disponible est utilisée pleinement par<br />

tous les utilisateur en même temps (Fig. 3.7). Il est incompatible avec les méthodes<br />

d’accès utilisées dans le réseau GSM (FDMA/TDMA) et nécessite donc la mise en<br />

place de nouveaux équipements dans le sous-système radio du réseau. La bande<br />

Fig. 3.7: Comparaison des technologies d’accès au canal radio<br />

de fréquence est divisé en différentes séquences de codes, les spreading code (code<br />

d’étalement), qui sont attribués aux utilisateurs lors de leur connexion avec la<br />

station de base. Lors de l’émission, les données des utilisateurs sont multipliées<br />

avec leur code d’étalement et envoyés simultanément à la même fréquence sur le<br />

canal. A la réception par la BS, le signal d’un utilisateur est noyé sous le bruit<br />

interférant et ce n’est qu’en le multipliant à nouveau par son code d’étalement<br />

(despreading) que celui ci émergera du bruit (Fig. 3.8). Après désétalement et<br />

intégration, la capacité du signal à s’élever au dessus du bruit est fonction du<br />

rapport signal-bruit et du facteur d’étalement du code utilisé, aussi appelé gain<br />

de traitement. Les codes de spreading doivent être orthogonaux entre eux pour<br />

agir indépendamment sur chaque signaux émanant d’un utilisateur distinct, ils<br />

sont donc disponibles en nombre limités dans une cellule.<br />

Comme nous venons de le voir, les spreading codes ont un impact sur le gain de<br />

traitement mais ils imposent également une limitation sur le débit d’émission. Il en<br />

résulte donc que le nombre d’utilisateur présent dans une cellule influe sur le SNR,


26 CHAPITRE 3. LES RÉSEAUX CELLULAIRES<br />

Fig. 3.8: Procédé d’étalement et de désétalement du signal<br />

le débit de transmission et le gain de traitement. Le contrôle de puissance est donc<br />

un facteur clé dans le réseau UMTS pour limiter les interférences. Cependant,<br />

lorsque le bruit devient trop important, la station de base dispose d’un mécanisme<br />

de cell breathing lui permettant de réduire sa zone de couverture. Les noeuds les<br />

plus distants qui sont la source des interférences les plus importantes seront alors<br />

éjectés de la cellule. Si ces noeuds sont à porté d’une autre cellule, un transfert<br />

s’effectuera. Dans le cas contraire, ils basculeront sous la couverture du réseau<br />

GSM et ne bénéficieront plus des services offerts par l’UMTS.<br />

Tous les abonnés émettant dans la même plage de fréquence, le motif de<br />

réutilisation cellulaire est réduit à un, ce qui facilite grandement la planification.<br />

Les différentes stations de bases sont alors distinguées par un deuxième code, le<br />

code de brouillage (scrambling). Comme toutes les stations communiquent à la<br />

même fréquence, le changement de cellule est opérable avant même d’avoir quitté<br />

la cellule en cours. C’est ce qu’on appelle le softer handover.<br />

L’UMTS Terrestrial Radio Access Network<br />

L’architecture du réseau UMTS est surtout marquée par des changements importants<br />

dans le sous-système d’accès radio, nommé UTRAN (UMTS Terrestrial<br />

Radio Access Network).<br />

L’UTRAN est constitué de Radio Network Controllers (RNC) qui ont pour rôles :<br />

– Le contrôle des ressources radio<br />

– Le contrôle d’admission


3.4. TROISIÈME GÉNÉRATION (3G) 27<br />

– L’allocation du canal<br />

– Le paramétrage du contrôle de puissance<br />

– Le contrôle du Handover<br />

– Chiffrage<br />

– La segmentation et le réassemblage<br />

– Macro diversité<br />

Un RNC contrôle un ou plusieurs NodeB qui ont pour rôles :<br />

– Transmission et réception des données sur l’interface radio<br />

– Détection et correction d’erreurs (FEC : Forward Error Correction)<br />

– Adaptation du debit<br />

– W-CDMA spreading/despreading<br />

– Codage du canal physique CDMA<br />

– Modulation et démodulation<br />

– Faire appliquer le contrôle de puissance<br />

– Envoyer les mesures au RNC pour le Handover et la macro diversité<br />

– S’occuper des Softer Handover afin de réduire le trafic entre le RNC et<br />

NodeB et assurer la micro diversité.


Chapitre 4<br />

Mobile Ad-Hoc Networks<br />

(MANETs)<br />

Dans le présent chapitre, nous allons commencer par introduire le concept de<br />

réseau ad-hoc mobile dans la section 4.1. Ensuite, en 4.2, nous présenterons la<br />

norme 802.11 et les protocoles qui la compose. Avant d’aborder les protocoles<br />

de routage pour les réseaux ad-hoc (section 4.4), nous mettrons en avant les<br />

principaux challenges pour leur élaboration (section 4.3).<br />

4.1 Définitions et propriétés<br />

Un réseau Ad-Hoc est une collection de périphériques équipés d’une technologie<br />

de transmission sans fil et dotés de protocoles permettant la mise en réseaux<br />

de ceux-ci. La particularité de ce type de réseau est que chaque noeud peut communiquer<br />

avec n’importe quel autre noeud du réseau. En effet, si un noeud A<br />

veut communiquer avec un noeud B qui n’est pas à porter radio, alors il passera<br />

par une série de noeuds intermédiaires qui joueront le rôle de relais entre la source<br />

et la destination.<br />

Un réseau Ad-Hoc est adaptatif et s’auto-organise, i.e. il se forme et se déforme<br />

à la volée sans intervention d’une entité administrative où serait centralisé la<br />

gestion, comme c’est le cas pour un access point en mode infrastructure. Par<br />

conséquence, les noeuds Ad-Hoc doivent être capables de détecter la présence des<br />

éventuels voisins et d’effectuer les négociations nécessaires pour mettre en place<br />

une communication et un partage d’informations et de services.<br />

La démocratisation des prix des technologies de transmission sans fil et l’émergence<br />

de protocoles standards (tels que 802.11, bluetooth..) ont contribué à l’expansion<br />

des réseaux Ad-Hoc. Initialement prévu pour la mise en réseau d’ordinateur, les<br />

29


30 CHAPITRE 4. MOBILE AD-HOC NETWORKS (MANETS)<br />

technologies WiFi inondent aujourd’hui le marché High-Tech et se retrouvent<br />

communément dans les téléphones cellulaires, PDA, et les consoles de jeux portables<br />

(Fig. 4.1). Il se profile alors un nouveau type de réseau, les Mobile Ad-Hoc<br />

Fig. 4.1: Exemples d’équipements intégrant le WiFi<br />

NETworks (MANETs). Ils sont caractérisés par une grande mobilité des noeuds<br />

et une hétérogénéité importante en terme de ressources CPU, de mémoire, et de<br />

durée de vie de la batterie. La question de la consommation d’énergie devient<br />

prépondérante dans le cas des réseaux Ad-Hoc ou chaque noeuds est utilisé pour<br />

écouler le trafic de ses voisins en plus du sien.<br />

Cette mobilité accrue et l’hétérogénéité des équipements ont un impact défavorable<br />

sur les performances des communications. C’est pourquoi, le design des protocoles<br />

de routage a du être adapté en conséquence..<br />

4.2 La norme 802.11<br />

En 1997, l’IEEE (Institute of Electrical and Electronics Engineers) adopta<br />

le premier standard pour les réseaux locaux sans fils (WLAN), nommé IEEE<br />

802.11 [8, 1] et pouvant atteindre des débits de l’ordre des 2 Mb/sec. Depuis lors,<br />

plusieurs groupes de travail (désigné par des lettres) ont été créés afin d’étendre<br />

le standard :<br />

– IEEE 802.11a : Ce groupe de travail développa une norme pour les WLAN<br />

dans la bande des 5 GHz avec un débit théorique de 54Mb/sec grâce à un<br />

multiplexage orthogonal en répartition de fréquence (OFDM). Son grand<br />

désavantage est d’être incompatible avec les normes 802.11 b/g.<br />

– IEEE 802.11b : Ce standard fut publié en 1999 et rencontra un énorme<br />

succès. Il offre des débits allant jusqu’à 11 Mb/sec et une portée radio sept<br />

fois supérieure à 802.11a dans un espace dégagé. Il exploite une technique<br />

de modulation par étalement de spectre (HR-DSSS) et travaille dans la<br />

bande de fréquence des 2,4 GHz. Sa plage de fréquence le rend cependant<br />

plus sensible aux interférences des appareils électroménagers qui travaillant<br />

dans la même bande (i.e, four à micro onde).


4.2. LA NORME 802.11 31<br />

– IEEE 802.11g : Publiée en 2001, elle constitue une amélioration de la norme<br />

IEEE 802.11b. Elle utilise la modulation OFDM du modèle 802.11a mais<br />

opère sur la bande plus étroite des 2,4 GHz, comme 802.11b. Ce couplage<br />

offre des débits théorique de 54 Mb/sec et une compatibilité ascendante<br />

avec 802.11b.<br />

Parmi les autres normes, il est intéressant de mentionner 802.11e qui vise à<br />

améliorer la sous-couche MAC pour y incorporer de la QoS (pour le support de<br />

la voix et de la vidéo sur les réseaux 802.11) et 802.11n, attendu pour 2008, qui<br />

offrira des débits de l’ordre de 100 Mb/sec grâce aux technologies MIMO.<br />

La norme 802.11, plus connue désormais sous l’appellation WiFi (Wireless<br />

Fidelity), définit les deux premières couches du modèle OSI, à savoir la couche<br />

physique et la couche liaison de données (Fig. 4.2).<br />

Fig. 4.2: Portions de la pile de protocoles 802.11<br />

4.2.1 La couche physique de 802.11<br />

La couche physique est chargée de la transmission des données d’un émetteur<br />

jusqu’au récepteur. La norme 802.11 définit quatre techniques de transmission<br />

qui utilisent les ondes électromagnétiques comme support physique et qui se<br />

différencie par la modulation utilisée :<br />

– FHSS (Frequency Hopping Spread Spectrum)<br />

– DSSS (Direct Sequence Spread Spectrum)<br />

– HR-DSSS (High Rate DSSS)<br />

– OFDM (Orthogonal Frequency Division Multiplexing)<br />

et une méthode de transmission par ondes infrarouges. Cette dernière ne traverse<br />

pas les murs et n’est que très peu utilisée, elle ne sera donc pas détaillée dans ce<br />

qui suit.<br />

La technique d’étalement de spectre par saut de fréquence, ou FHSS, utilise<br />

79 canaux, chacun avec une largeur de bande de 1 Mhz, en commençant<br />

à la base du spectre des 2,4 GHz. Un générateur de nombres pseudo-aléatoires<br />

permet de produire la séquence des fréquences qu’une transmission doit suivre.<br />

Deux stations partant d’une même valeur initiale du générateur et qui restent<br />

synchronisés durant la communication sauterons de fréquence simultanément.<br />

L’allocation aléatoire des fréquences permet d’obtenir une allocation équitable


32 CHAPITRE 4. MOBILE AD-HOC NETWORKS (MANETS)<br />

du spectre, prémunit la communication d’une écoute et atténue les effets néfastes<br />

de la propagation multitrajet [29].<br />

La deuxième et troisième modulation se basent sur l’étalement de spectre par<br />

séquence directe, ou DSSS. Elle divise la bande des 2,4 GHz en 13 ou 14 canaux<br />

de 22 MHz. Ces canaux fournissent un signal très bruité, car les canaux adjacents<br />

ont des bandes passantes qui se recouvrent partiellement et sont donc sujette à<br />

des perturbations mutuelles (Fig. 4.3).<br />

Fig. 4.3: Allocation du spectre de DSSS<br />

La dernière des techniques employées est le multiplexage orthogonal en répartition<br />

de fréquence, ou OFDM. Comme son nom l’indique, une transmission est répartie<br />

simultanément sur plusieurs ondes porteuse à fréquence distinctes pour offrir un<br />

débit de 54 Mb/sec. Plus précisément, 52 fréquences sont utilisées dont 48 sont<br />

affectées aux données et 4 à la synchronisation [29]. La division du signal sur<br />

plusieurs bande étroites apportent une meilleur immunité contre les interférences<br />

inter-bande que l’utilisation d’une seule bande large.<br />

4.2.2 La sous-couche MAC<br />

La norme IEEE 802.11 propose deux modes de fonctionnement selon la configuration<br />

du réseau (Fig. 4.4) :<br />

1. Le mode infrastructure : Dans ce mode, chaque noeud est connecté grâce<br />

à un AP (Access Point). L’AP fait office d’entité de contrôle et régule<br />

l’accès au canal de communication. Il invite ainsi les stations à émettre<br />

(polling) chacune à leur tour, évitant alors toutes collisions due à un accès<br />

concurrentiel au canal de communication. Une fois une station enregistrée<br />

pour émettre à un certain débit, elle est assurée de recevoir la fraction de la<br />

bande passante nécessaire, ce qui permet au système d’offrir une garantie<br />

de service.


4.2. LA NORME 802.11 33<br />

2. Le mode Ad-Hoc : Ce mode n’a pas besoin d’AP pour fonctionner, l’accès au<br />

canal de communication se fait de manière distribuée. Les communications<br />

ne transitant plus par une entité centralisée, le routage est assuré par chacun<br />

des noeuds du réseau. Chaque noeud est à la fois ”end-system” et routeur<br />

afin de relayer, saut par saut, les paquets vers leur destination. Les noeuds<br />

sont donc capables de se détecter entre eux et sont chargés de la découverte<br />

et du maintient des routes de communication entre les différentes machines.<br />

Fig. 4.4: Mode Infrastructure vs Mode Ad-Hoc<br />

Le principal avantage du mode infrastructure est la synchronisation des accès<br />

au média qui assure le bon fonctionnement des communications. Il permet également<br />

d’étendre un réseau filaire par des fonctions implémentée dans l’AP pour la<br />

conversion des trames 802.11 en trames Ethernet, . En contre partie, les noeuds<br />

du réseau sans fil ont une mobilité réduite à la couverture radio de la station de<br />

base.<br />

Les réseaux Ad-hoc, quant à eux, ne nécessitent pas d’infrastructure pour<br />

fonctionner. De ce fait, ils sont facilement mis en oeuvre et ne nécessitent aucun<br />

coût supplémentaire lié à l’installation. La mobilité des noeuds n’étant plus<br />

dépendante d’un point fixe, ces réseaux sont facilement extensibles et peuvent<br />

couvrir de longues distances. Tous ces avantages en font le mode prisé pour les<br />

applications militaires ou lors de catastrophes naturelles où il n’y a pas d’infrastructure<br />

au service des équipements.<br />

Pour chacune de ces deux architectures, l’IEEE 802.11 à définit un mode<br />

de fonctionnement de la sous-couche MAC : le mode PCF (Point Coordination<br />

Function) qui utilise la station de base pour contrôler l’activité de la cellule et<br />

le mode DCF (Distributed Coordinated Function) qui n’utilise aucune entité<br />

de gestion centralisée pour communiquer. La méthode d’accès PCF n’étant pas<br />

applicable dans les réseaux Ad-Hoc, ce qui suit se focalisera sur la méthode d’accès<br />

DCF.


34 CHAPITRE 4. MOBILE AD-HOC NETWORKS (MANETS)<br />

4.2.3 Le mode DCF<br />

Dans ce mode, le réseau 802.11 utilise le protocole CSMA/CA (Carrier Sense<br />

Multiple Access with Collision Avoidance) qui propose deux formes d’écoute,<br />

l’une pour le canal physique et l’autre pour un canal virtuel. Avant qu’une station<br />

ne commence à émettre, elle sonde le canal physique et transmet si aucune activité<br />

n’est perçue. Après la transmission d’une trame entière, si le média reste inutilisé<br />

durant un intervalle de temps plus grand que le Distributed InterFrame Space<br />

(DIFS), la station poursuivra sa transmission. Cet intervalle de temps à été mis<br />

en place pour s’assurer de l’équité de l’accès au média entre les différents noeuds.<br />

Chaque trame transmise contient des informations sur la taille des données<br />

qu’elle transporte. Sur base de ces informations, chaque station calcule la durée<br />

de la transmission et établit une sorte de canal virtuel occupé en activant un<br />

signal d’allocation de réseau, appelé Network Allocation Vector (NAV). Le signal<br />

NAV n’est pas transmis, il sert simplement d’indicateur interne qui rappelle aux<br />

stations de patienter durant une période donnée.<br />

Le protocole CSMA/CA ne permettant pas l’écoute du canal durant la transmission<br />

de données, les collisions ne sont pas détectables. Afin d’y remédier, le<br />

protocole introduit l’activation d’un timer lors de l’émission d’une trame et l’envoi<br />

d’un acquittement lors de sa réception. Le récepteur patientera cependant<br />

un temps Short InterFrame Space (SIFS) avant de pouvoir l’émettre. Cet intervalle<br />

a été introduit pour donner la priorité à la station en cours de transmission<br />

d’émettre la totalité de sa trame (en cas de fragmentation) sans être interrompue<br />

par les autres stations (soumises à un temps DIFS plus long dès la réception du<br />

premier fragment).<br />

La figure 4.5 illustre un exemple de transmission réussie et un exemple de collision.<br />

Fig. 4.5: IEEE 802.11 DCF : (a)une transmission réussie ; (b) une collision<br />

En cas de collision ou de corruption du paquet, aucun acquittement n’est<br />

renvoyé. A l’expiration de son timer, la source restera inactive durant un Ex-


4.2. LA NORME 802.11 35<br />

tended InterFrame Space (EIFS). Après quoi, elle patientera encore un temps<br />

aléatoire déterminé par l’algorithme stochastique d’attente (Binary Exponential<br />

Backoff) d’Ethernet avant de retransmettre. Ce dernier intervalle est imposé afin<br />

de réduire la probabilité que les deux stations à l’origine de la collision ne soient<br />

à nouveau concurrent pour le média après l’intervalle EIFS.<br />

4.2.4 RTS/CTS<br />

Le design des WLAN qui adoptent une protocole d’accès au canal par écoute<br />

de porteuse, tel que l’IEEE 802.11, est compliqué par la présence des stations<br />

cachées et des stations exposées.<br />

Problème de la station cachée<br />

Deux stations sont dite cachées l’une de l’autre lorsqu’elles sont trop éloignées<br />

pour se détecter mais que leurs zones de transmission ne sont pas disjointes. Si<br />

chacune d’entre elles tente d’émettre une trame vers une station située à l’intersection<br />

de leurs zones de transmission, une collision se produira malgré l’écoute<br />

du canal préalable (Fig. 4.6).<br />

Fig. 4.6: Problème de la station cachée<br />

Pour palier au problème de la station cachée, le mécanisme d’accès au canal du<br />

802.11 a été étendu grâce à l’écoute du canal virtuel et l’envoi de deux nouvelles<br />

trames de contrôle : le Request To Send (RTS) et le Clear To Send (CTS). Dans<br />

ce mécanisme d’accès, une station désirant transmettre commence par sonder le<br />

canal. Si aucune activité n’est détectée, elle envoie une trame de contrôle, le RTS,<br />

pour annoncer au destinataire son intention d’émettre. Celui ci lui répond alors<br />

par un CTS, lui indiquant ainsi qu’il est prêt à recevoir les données. Les paquets<br />

RTS et CTS contiennent tous deux la durée de la communication et permettent<br />

ainsi à tous les noeuds à portées de l’une des deux stations (récepteur et émetteur)


36 CHAPITRE 4. MOBILE AD-HOC NETWORKS (MANETS)<br />

de stocker l’intervalle de silence dans leur NAV. Une zone de protection est donc<br />

crée autour de la source et du destinataire, seuls des collisions lors de l’envoi des<br />

trames RTS et CTS peuvent encore se produire. Ce mécanisme est illustré à la<br />

figure 4.7.<br />

Problème de la station exposée<br />

Fig. 4.7: IEEE 802.11 RTS/CTS<br />

Ce problème est l’inverse du précédent, il survient lorsqu’une station désire<br />

établir une transmission avec une autres station mais doit la retarder car il détecte<br />

une transmission en cours entre deux autres stations se trouvant dans son voisinage.<br />

Dans ce cas ci, seule la zone située entre B et C est sujette à des perturbations,<br />

les deux transmissions auraient donc pu prendre place simultanément (Fig.<br />

4.8).<br />

Fig. 4.8: Problème de la station exposée


4.3. LES CHALLENGES 37<br />

4.3 Les Challenges<br />

Les protocoles de routage dans un réseau ad-hoc doivent faire face à une série<br />

de challenges spécifiques. Nous allons dans un premier temps les passer en revue<br />

et voir leur impact sur les propriétés des protocoles existants.<br />

4.3.1 La Mobilité<br />

La mobilité des noeuds est probablement le challenge le plus dur à relever. En<br />

effet, cela impacte chacune des couches du modèle TCP/IP et met en évidence<br />

l’incapacité des protocoles standards, notamment filaires, à traiter cette nouvelle<br />

contrainte.<br />

La sous-couche MAC<br />

Le modèle RTS/CTS défini par le protocole 802.11 montre ses limites lorsque<br />

qu’on fait face à des noeuds mobiles. Deux paires de noeuds qui initialement<br />

sont suffisamment distant pour avoir des portées radio sans intersection (Fig.<br />

4.9a) peuvent se retrouver, suite à un déplacement, concurrents dans une même<br />

zone (Fig. 4.9b). Ce type de scénario est fréquent et engendre de nombreuses<br />

collisions qui viennent alourdir le taux de perte des paquets des réseaux sans fil.<br />

Chaque collision, lorsqu’elle est détectée, provoque une routine de retransmission<br />

des paquets en cause avec un nouveau risque de collision.<br />

Fig. 4.9: Impacte de la mobilité sur le modèle RTS/CTS


38 CHAPITRE 4. MOBILE AD-HOC NETWORKS (MANETS)<br />

La couche réseaux<br />

Une route Ad-Hoc comprend la source, la destination, et un certain nombre<br />

de noeuds intermédiaires. Le mouvement d’un seul de ces noeuds peut affecter<br />

la validité de la route et déclencher une routine de traitement afin de réparer la<br />

route ou d’en construire une nouvelle. Le routage étant distribué, il est nécessaire<br />

de transmettre l’information à tous les autres noeuds concerné par le changement<br />

de topologie afin de maintenir la cohérence dans les tables de routage. Cependant,<br />

chacune de ces opérations nécessite le broadcast d’informations de contrôle ce qui<br />

constitue un gaspillage de la bande passante et une surcharge non négligeable du<br />

réseau.<br />

Fig. 4.10: Changement de topologie dans les réseaux Ad-Hoc<br />

La mobilité de chaque noeud étant indépendant des autres, la topologie du<br />

réseaux change constamment (Fig. 4.10). Les protocoles de routages existants à<br />

vecteur de distance ou à état de lien sont incapable de traiter des changements<br />

si fréquents, il en résulte alors une faible convergence des routes et une bande<br />

passante réduite. Cela souligne la nécessité de trouver un compromis entre la<br />

pertinence des informations de routage maintenue à chaque noeud et la surcharge<br />

du réseau engendrée par leur maintenance.<br />

Les performances de TCP<br />

TCP est un protocole orienté connexion, ce qui signifie qu’il y a une phase<br />

d’établissement de la connexion entre la source et la destination avant la transmission<br />

des données et une phase de libération lorsque l’échange prend fin.<br />

TCP fournit aux couches supérieures l’illusion d’une communication fiable<br />

de bout en bout, il assure que chaque paquet émis atteigne sa destination et


4.3. LES CHALLENGES 39<br />

fournit un contrôle de flux et de congestion dans le réseau. Pour ce faire, il<br />

mesure le round-trip time(RTT) et le taux de perte des paquets pour réguler le<br />

flux d’émission en cas de congestion. Malheureusement, TCP est incapable de<br />

faire la distinction entre des paquets retardé pour cause de mobilité et ceux dus<br />

à de la congestion dans le réseau. Lorsqu’une route est en réparation, le délai<br />

d’acheminement des paquets est retardé et TCP régulera son taux d’émission<br />

pour palier à ce qu’il croit être de la congestion. Cela a un impact négatif sur<br />

les performances de transmission. La figure 4.11 illustre le contrôle de congestion<br />

appliqué par TCP : TCP diminue son taux d’émission et repars en phase Fast<br />

Retransmit ou en Slow Start selon qu’un seul timer ait expiré ou que tous les<br />

timers ait expiré en même temps.<br />

Fig. 4.11: Contrôle de congestion de TCP<br />

Plusieurs variantes ont été proposées pour palier à ce problème, elles sont<br />

basées essentiellement sur un feedback d’informations vers la source lorsqu’une<br />

réparation à lieu afin de geler l’émission de paquets et les timers de TCP. A<br />

nouveau, cette mesure surcharge le réseau de paquets de contrôle supplémentaires<br />

et rend TCP inutilisable dans des réseaux à forte mobilité.<br />

4.3.2 La consommation d’énergie<br />

La plus part des protocoles de routage actuel ne considèrent pas la consommation<br />

d’énergie comme un critère car ils assument que les hôtes et les routeurs<br />

sont statiques et alimentés par une prise murale. Les MANETs sont cependant<br />

composé d’hôtes mobile alimenté généralement en énergie par une batterie Li-ion<br />

dont la durée de vie en régime actif est seulement de deux à trois heures (Laptop).<br />

Une telle limitation justifie le besoin d’élaborer des protocoles de routage<br />

qui minimisent la consommation énergétique, surtout que dans les réseaux Ad-<br />

Hoc chaque noeud est à la fois un hôte et un routeur pour relayer les paquets des<br />

autres.


40 CHAPITRE 4. MOBILE AD-HOC NETWORKS (MANETS)<br />

La consommation d’énergie n’est pas propre à une couche particulière, des<br />

mesures doivent être prises à chaque niveau du modèle OSI :<br />

– Au niveau physique les recherches se sont essentiellement axées sur la<br />

consommation des composants physiques (e.i, CPU, mémoire,...) alors que<br />

la consommation la plus conteuse est due à la transmission des données<br />

[11]. C’est pourquoi, certains protocoles récents adaptent la puissance de<br />

transmission des paquets selon la distance du destinataire, i.e le protocole<br />

AODVPHY (section 5.3. Il en résulte une diminution de la dissipation<br />

d’énergie et une meilleure réutilisation spatiale (Fig. 4.12).<br />

Fig. 4.12: Avantage du contrôle de puissance - la réutilisation spatiale (a) sans<br />

contrôle de puissance. (b) avec contrôle de puissance<br />

– La couche liaison de donnée, constituée de protocoles de congestion et de<br />

détection de collisions, peut être améliorée par exemple en autorisant un<br />

noeud à passer en mode sleep lorsqu’il ne transmet pas ou ne reçoit aucun<br />

paquet. C’est le cas du protocole PAMAS [28] (Power-Aware Multiple Access<br />

protocole with Signalling) qui, grâce à la mise en sommeil des noeuds<br />

inactifs, permet d’économiser entre 40 et 70% de la durée de vie de la batterie.<br />

La figure 4.13 illustre la dissipation d’énergie pour les différents modes<br />

d’une carte Lucent IEEE 802.11 WaveLan.<br />

Fig. 4.13: Consommation d’énergie (mA) dans différents modes<br />

– La couche réseau doit également être adaptée, on voit de plus en plus de<br />

protocoles [6] incorporer l’autonomie des batteries dans les métriques de<br />

routage. Cela assure une meilleur distribution de l’énergie dissipée sur le


4.3. LES CHALLENGES 41<br />

réseau. EN effet, l’utilisation massive d’un même chemin peut amener certains<br />

noeuds à leur extinction prématurée.<br />

– L’impact sur couche application est surtout liée à la compression des données<br />

et à l’encryptage, ces deux opérations sont gourmandes en ressources. Elle<br />

constituent à elles seules un domaine de recherche pour trouver le juste<br />

compromis entre la consommation d’énergie de l’opération et gain final lors<br />

de la transmission des données compressées.<br />

4.3.3 Sécurité<br />

La prolifération des équipements sans fil et la disponibilité de nouvelles applications<br />

et services accroît les besoin en termes de sécurité et de respect de la<br />

vie privée.<br />

La transmission sans fil entre les noeuds est assuré par les ondes électromagnétiques<br />

dans l’air, c’est donc un média de communication ouvert. Il peut être très facilement<br />

surveillé, capturé et analysé ce qui compromet la sécurité du réseau.<br />

De plus, le manque de gestion centralisée dans les réseaux Ad-Hoc rend difficile<br />

la mise en place d’une police de sécurité. L’accès au média se fait de manière<br />

distribué et est établie sur une relation de partage et de confiance. Par exemple,<br />

les attaques de type denial-of-service sont facile à implémenter car un noeud<br />

transmettant constamment des paquets sans attendre son tour inonde rapidement<br />

le réseau, le rendant ainsi inopérable.<br />

Afin d’assurer le fonctionnement des réseaux Ad-Hoc, les noeuds se complaise<br />

dans une relation de confiance avec leurs voisins afin d’acheminer le trafic hopby-hop<br />

d’une source vers une destination. Le trafic peut donc être détourner de<br />

sa destination réelle sans que la source n’en prenne conscience.<br />

Des solutions distribuées de monitoring sont développées pour que les décisions<br />

de routage d’un noeud soient contrôlées par ses voisins directs, et ainsi détecter<br />

les intrusions dans le réseau. De nombreux efforts sont mis en oeuvre pour trouver<br />

des solutions quant au cryptage des données, basée sur des techniques de chiffrement<br />

asymétrique par clé publique/secrète. Enfin notons qu’il faudra régler<br />

le problème de l’authentification de la source afin d’assurer la facturation des<br />

services.<br />

Dans le cadre d’une interconnexion entre les réseaux Ad-Hoc et le réseau<br />

UMTS, le point de la sécurité sera très certainement prépondérant dans les<br />

négociations. L’infrastructure mise en place pour le service téléphonique n’est<br />

accessible que par le propriétaire du matériel, se refusant même à siéger dans<br />

des pièces communes lorsque l’infrastructure est louée à l’opérateur dominant.<br />

En isolant leur matériel du monde extérieur, les opérateurs téléphoniques ont<br />

réussi le pari de la sécurité et seront intransigeants quant l’affaiblissement de leur<br />

réseau.<br />

De nombreuses solutions sont proposées en coopération avec l’IEEE pour


42 CHAPITRE 4. MOBILE AD-HOC NETWORKS (MANETS)<br />

relever le défi mais il faudra certainement attendre quelques années avant qu’une<br />

solution n’aboutisse. Le sujet sortant du cadre de ce travail, le lecteur intéressé<br />

trouvera plus d’information dans [14, 21, 16, 32].<br />

4.4 Le routage unicast dans les réseaux Ad-Hoc<br />

Depuis l’avènement des premiers réseaux mobiles, sous le nom de ”packet<br />

radio”, financés par la DARPA (Defense Advanced Research Projects Agency)<br />

dans le début des années 70, de nombreux protocoles de routage ont été développé<br />

pour les MANETs faisant face aux contraintes spécifiques de ce type de réseau.<br />

Ces protocoles peuvent être classés selon plusieurs critères qui reflètent leur gestion<br />

des tables de routages, les politiques de routages, les métriques utilisées, etc.<br />

Voici une liste des classifications les plus courantes [27] :<br />

– Les protocoles pro-actifs : Cette famille tirent ses origines des politiques de<br />

routage des réseaux filaires et ont été adapté pour les réseaux mobiles. Ils<br />

peuvent être à vecteur de distance, à état de lien ou une combinaison des<br />

deux. L’idée majeure est de conserver dans chaque noeud des informations<br />

de routage vers tous les autres noeuds du réseau pour accélérer le routage<br />

des paquets.<br />

– Les protocoles réactifs : La famille précédente requiert un grand nombre<br />

d’opération afin de maintenir les tables de routage à jour, et ce même pour<br />

des routes qui ne seront jamais exploitées. Les méthodes réactives, quant<br />

à elle, proposent de construire des routes que lorsqu’elles sont nécessaires.<br />

Cette méthode diminue la charge du réseau mais nécessite en contre partie<br />

un temps d’établissement d’une route avant de pouvoir transmettre.<br />

– Les protocoles hybrides : Ils constituent un mixe des protocoles réactif et<br />

proactifs afin de tirer avantages des deux procédés tout en réduisant leurs<br />

inconvénients.<br />

– Les protocoles hiérarchiques : Cette approche consiste à superposer à la<br />

topologie physique une topologie logique pour le routage.<br />

– Les protocoles PAR (Power-Aware Routing) : Ils regroupent les protocoles<br />

qui incorporent la durée de vie des batteries comme métrique de routage.<br />

– Les protocoles LAR (Location-Aided Routing) : Cette famille utilise la localisation<br />

d’un noeud comme critère pour le routage des paquets.<br />

4.4.1 Les protocoles proactifs<br />

Les protocoles de routage proactifs tentent de maintenir à jour dans chaque<br />

noeud les informations de routage concernant tous les autres noeuds du réseau. Il<br />

nécessite ainsi que chaque noeud maintienne une ou plusieurs tables pour stocker<br />

les informations de routage qui grandissent avec la taille du réseau. Ils répondent


4.4. LE ROUTAGE UNICAST DANS LES RÉSEAUX AD-HOC 43<br />

aux changement de topologies du réseau en propageant à chaque voisin les mises<br />

à jours des routes afin que chacun puisse maintenir une vue consistante du réseau.<br />

Cette politique de routage est proche de celle des réseaux filaires actuel basé<br />

sur des méthodes de vecteur de distance ou d’état de lien où chaque noeud maintient<br />

une vision globale de la topologie. Cette famille convient donc bien aux<br />

applications interactives mettant en scène chaque noeud du réseau.<br />

Les différences entre les protocoles membres de cette famille se situent au<br />

niveau du nombre de table nécessaire pour stocker l’information et la manière<br />

dont ils propagent les changements de topologie.<br />

Malheureusement ces protocoles atteignent rapidement leurs limites avec l’accroissement<br />

du nombre de noeuds et de leur mobilité. Les changements de topologies<br />

sont fréquents. Le réseau sera ainsi constamment inondé par les paquets<br />

de contrôle qui ne se propagent pas assez vite pour que chaque noeud soit informé<br />

à temps des changements. Il en résulte des incohérences dans les tables, un<br />

problème de convergence du réseau et une bande passante réduite par la surcharge<br />

des paquets de mise à jour.<br />

Cette famille de protocole est ainsi limitée à des réseaux de petites taille, avec<br />

une faible mobilité et où chaque noeud à besoin d’être en permanence connecté<br />

avec les autres membres du réseau.<br />

Destination Sequenced Distance Vector (DSDV)<br />

DSDV [24] est un protocole de routage basé sur l’algorithme distribué de<br />

Bellman-Ford (DBF). Chaque noeud maintient dans sa table de routage un ensemble<br />

d’information pour chaque destinataire, contenant :<br />

– l’adresse du destinataire<br />

– le nombre de sauts pour l’atteindre et<br />

– le numéro de séquence associé au noeud destinataire.<br />

La principale amélioration apportée par rapport à DBF est l’utilisation de numéros<br />

de séquence permettant aux noeuds mobiles de faire la distinction entre une nouvelle<br />

route et une ancienne. La suppression des paquets de contrôle dont l’information<br />

de routage est déjà connue permet d’éviter qu’un paquet ne tourne<br />

en boucle dans le réseau. Les mises à jour des tables de routage sont envoyées<br />

périodiquement dans le réseau afin de maintenir la consistance des tables. Ce<br />

procédé peut cependant générer un nombre important de messages de contrôle<br />

sur le réseau entraînant ainsi une utilisation inefficace des ressources. Afin de<br />

palier à ce problème DSDV définit deux types de paquet de mise à jour. Le premier<br />

est une mise à jour complète des informations de routage et consiste en<br />

l’émission de l’entièreté de sa table de routage. Durant les périodes de mouvement<br />

occasionnel, les mises à jour complètes sont rares et seul des paquets de<br />

mise à jour incrémentale sont utilisés pour refléter le dernier changement. Ce<br />

dernier procédé est illustré à la figure 4.14 pour la mise à jour des informations


44 CHAPITRE 4. MOBILE AD-HOC NETWORKS (MANETS)<br />

de routage concernant le noeud MH8.<br />

Fig. 4.14: Broadcast des informations de routage concernant le noeud MH8.<br />

Chaque tuple représente l’adresse de destination, son numéro de séquence et le<br />

nombre de sauts pour y parvenir<br />

L’actualisation des entrées de la table de routage se base sur le numéro de<br />

séquence. A la réception d’un paquet de mise à jour, une comparaison s’opère<br />

entre le numéro de séquence sauvé et celui contenu dans le paquet. Si ce dernier est<br />

plus grand, il reflète alors une information plus fraîche et l’entrée est directement<br />

remplacée par celle du paquet. En cas d’égalité des numéros de séquence, la<br />

métrique du protocole étant le nombre de saut, seul la route formée par le plus<br />

petit nombre de saut sera retenue.<br />

Cluster Switch Gateway Routing (CSGR)<br />

CSGR [5, 30] est un protocole de routage proactif où les noeuds mobiles sont<br />

groupé en clusters, possédant tous un ”cluster head”. Ce groupage en cluster introduit<br />

une forme de routage hiérarchique et permet une différentiation au sein<br />

de chaque cluster du routage, de l’accès au canal, et de l’allocation de bande<br />

passante. Un algorithme distribué est utilisé pour élire le cluster head, l’ensemble<br />

des noeud à sa portée appartienne alors même cluster. Un noeud à portée radio<br />

de plusieurs cluster head est appelé un gateway. Le cluster head est chargé<br />

du contrôle d’un groupe de noeuds mobiles, ce qui signifie qu’il est chargé du<br />

broadcast au sein du cluster, de la retransmission des paquets et du scheduling<br />

de l’accès au canal, tel un Access Point. L’allocation du canal se fait par l’utilisation<br />

d’un jeton que le cluster head se charge de remettre aux noeuds désireux<br />

de communiquer. Chaque noeud maintient deux tables :


4.4. LE ROUTAGE UNICAST DANS LES RÉSEAUX AD-HOC 45<br />

– une table des membres des clusters, qui contient l’adresse du cluster head<br />

de chaque noeud du réseau. Cette table est broadcastée périodiquement par<br />

chaque noeud par le protocole DSDV<br />

– une table de routage contenant le noeud à emprunter pour joindre une<br />

destination<br />

Lorsqu’un noeud désire envoyer un paquet, il consulte ses deux tables pour<br />

découvrir l’adresse du cluster head de ce noeud ainsi que le chemin à emprunter<br />

pour l’atteindre. Il transmet ensuite son paquet à son cluster head qui le relayera<br />

vers le bon gateway. Le paquet voyagera de gateway en cluster head jusqu’à ce<br />

qu’il ait atteint le cluster head du destinataire qui se chargera de lui remettre le<br />

paquet (Fig. 4.15).<br />

Fig. 4.15: Routage dans CSGR<br />

CSGR obtient de bien meilleures performances que DSDV dans des conditions<br />

de faible mobilité. Ceci est du essentiellement du à la réduction de la taille<br />

des table de routage par la conservation d’une seule entrée pour chacun des destinataires<br />

d’un même cluster. Ceci à pour effet de limiter le nombre de paquets<br />

broadcastés entre les différents clusters. L’accès au média par l’acquisition d’un<br />

jeton réduit aussi considérablement le taux de collision au sein d’un cluster et permet<br />

la prioritisation de flux aux contraintes temporelles fortes. En contre partie,<br />

les cluster heads et gateways sont sollicités d’avantage et constituent un goulot<br />

d’étranglement. Une mobilité accrue des noeuds entraîne de la complexité dans<br />

l’élection du cluster head et un nombre important d’échanges de messages. Cela<br />

rend CSGR instable dans un environnement à forte mobilité et le réseau en perd<br />

sa scalabilité.


46 CHAPITRE 4. MOBILE AD-HOC NETWORKS (MANETS)<br />

4.4.2 Les protocoles réactifs<br />

L’approche utilisée dans la famille des réactifs est différente de celle des proactifs.<br />

En effet, une route n’est établie que lorsqu’elle est désirée par le noeud source.<br />

Lorsque qu’un noeud désire une route vers un destinataire, il initie un processus<br />

de découverte de chemin par inondation du réseau. Le processus prend fin<br />

lorsque la route est découverte ou lorsque toutes les permutations de route ont<br />

été exploitées sans succès. Une fois la route établie, celle-ci est maintenue par<br />

une procédure de maintenance jusqu’à ce qu’elle ne soit plus désirée ou que le<br />

destinataire ne soit plus joignable.<br />

Cette technique permet une nette amélioration dans cette famille quant à la<br />

surcharge du réseau et à la consommation d’énergie. Les routes ne sont créées<br />

et maintenues que lorsqu’elles sont nécessaires et le processus d’inondation est<br />

ponctuel, il n’a lieu que lors de l’initialisation de la route. On constate également<br />

moins d’incohérences dans les tables de routage car les mises à jour des informations<br />

de routage se font localement, confinées aux voisins directs et non plus<br />

propagées dans tout le réseau par des sources distinctes.<br />

Le désavantage de cette solution est le délai engendré par l’établissement d’une<br />

route avant de pouvoir émettre les paquets de données. On notera également qu’il<br />

faudra une inondation du réseau pour s’apercevoir qu’un destinataire n’est pas<br />

joignable.<br />

Cette famille de protocoles convient donc mieux pour des scénarios à forte<br />

mobilité, où les communications entre noeuds du réseau sont plus ponctuelles et<br />

ne nécessitant pas une connexion permanente avec tous les noeuds du réseau. Ce<br />

type de protocole correspond parfaitement avec les caractéristiques requises pour<br />

l’extension d’un réseau téléphonique : les appels sont tous dirigés vers la station<br />

de base et les informations de routage vers chacun des noeuds du réseau ne sont<br />

pas nécessaires.<br />

Dynamic Source Routing (DSR)<br />

DSR [9, 15] est un protocole de routage qui est basé sur le concept de routage<br />

par la source. Chaque noeud maintient en cache l’adresse source des routes<br />

découvertes. Chaque entrée dans la cache est continuellement mise à jour lorsque<br />

de nouveaux chemins sont découverts.<br />

Le protocole consiste essentiellement en deux phases :<br />

1. la découverte d’une route, et<br />

2. la maintenance d’une route.<br />

Lorsqu’un noeud désire envoyer un paquet à un destinataire, il consulte préalablement<br />

sa cache pour déterminer s’il connait déjà une route vers la destination. Si c’est<br />

le cas, et que le timer de la route n’a pas expiré, alors il utilisera cette route<br />

pour envoyer le paquet. Dans le cas inverse, ce noeud initiera le processus de


4.4. LE ROUTAGE UNICAST DANS LES RÉSEAUX AD-HOC 47<br />

découverte de route par diffusion d’un message RREQ (Route REQuest). Ce<br />

message contient l’adresse du destinataire, l’adresse de la source et un identifiant<br />

de diffusion. Chaque noeud recevant le paquet vérifie s’il possède une route pour<br />

ce même destinataire. Si ce n’est pas le cas, il rajoutera sa propre adresse à la liste<br />

des noeuds traversés, qui est contenue dans le paquet, et transmettra à son tour<br />

le paquet. Un noeud ne retransmettra le paquet que si son adresse n’est pas déjà<br />

contenue dans la liste où s’il ne possède pas en cache un couple ¡adresse source,id<br />

diffusion¿. Ces deux cas reflètent respectivement la formation d’une boucle dans<br />

la route construite et un duplicata du paquet reçu. Le processus de découverte<br />

de route est illustré à la figure 4.16.<br />

Fig. 4.16: Découverte de routes : diffusion du RREQ<br />

Un paquet RREP (Route REPly) est généré lorsque le RREQ atteint la destination<br />

ou un noeud possédant une route vers cette destination. Dans les deux cas,<br />

la liste des noeuds à traverser pour atteindre la destination est incorporée dans le<br />

RREP qui est renvoyé à la source du RREQ. Le chemin suivit par ce paquet est le<br />

chemin inverse de celui contenu dans le RREQ (Fig. 4.17). La maintenance de la<br />

route est accomplie par l’utilisation de paquets RERR(Route Error) renvoyé vers<br />

la source lorsqu’un noeud de la route n’est plus accessible. Ce noeud sera alors<br />

supprimer des listes des chemins le traversant et la source pourra alors relancer<br />

un processus de découverte afin de découvrir un chemin alternatif.<br />

Le protocole DSR ne nécessite donc pas d’information de routage mise à jour<br />

pour les noeuds intermédiaires, le chemin à suivre étant contenu dans le paquet.<br />

Le routage par la source le prémuni de formation de boucle et permet un contrôle


48 CHAPITRE 4. MOBILE AD-HOC NETWORKS (MANETS)<br />

Fig. 4.17: Découverte de routes : propagation du RREP<br />

de la diffusion. En contre partie, la taille des paquets envoyés sur le réseau grandit<br />

avec le nombre de noeuds à traverser. DSR convient donc mieux pour des réseaux<br />

de petite taille. Aucune métrique de routage n’est définie dans ce protocole, le<br />

chemin formé le plus rapidement sera le chemin préféré pour la transmission des<br />

paquets. Il s’agira donc du chemin le plus rapide et le moins congestionné à cet<br />

instant.<br />

Associativity-Based Routing (ABR)<br />

ABR [30, 31] est un protocole de routage réactif développé spécifiquement<br />

pour tenir compte de la mobilité des noeuds. L’idée principale est d’utiliser le<br />

degré d’associativité des noeuds constituant la route comme métrique de routage.<br />

L’associativité est liée à la stabilité spatiale et temporelle d’une connexion entre<br />

deux noeuds voisins.<br />

Dans un réseau constitué de noeuds mobiles, le chemin le plus court à l’instant<br />

τ ne l’est plus forcément à l’instant τ + 1. Pire encore, le chemin le plus court<br />

est souvent constitué de lien à la limite de la portée radio des équipements de<br />

transmission et sont donc sujet à beaucoup de cassure<br />

Partant de ces constatations, l’auteur propose une solution basée sur la stabilité<br />

des routes, minimisant ainsi les procédures de maintenance des routes. Plus<br />

précisément, le degré d’associativité est mesuré sur un ensemble de paramètres<br />

tels que la puissance du signal reçu, le délai du lien, la durée de vie de la batterie<br />

et l’”associativity tick”. Ce dernier paramètre reflète la stabilité temporelle et<br />

spatiale d’un lien. Il s’agit d’un compteur incrémenté périodiquement lorsque des<br />

noeuds voisins restent à portée radio mutuelle au fil du temps.


4.4. LE ROUTAGE UNICAST DANS LES RÉSEAUX AD-HOC 49<br />

Afin de pouvoir mesurer ces paramètres, chaque noeud envoie périodiquement<br />

un message beacon et compte le nombre de beacons reçu de ses voisins pour<br />

augmenter leur ”associativity tick” dans les tables. Leur valeur est remise à 0 si<br />

aucun message beacon n’est reçu durant un certain intervalle de temps. Sur base<br />

de ces mesures, le protocole classe alors les liens entre noeuds selon leurs degrés<br />

de stabilité et utilise cette nouvelle métrique pour le routage.<br />

Le protocole couvre essentiellement trois phases :<br />

1. découverte des routes,<br />

2. reconstruction de route et<br />

3. suppression des routes<br />

La découverte se fait par diffusion d’un paquet BQ (Broadcast Query) auquel<br />

chacun des noeuds traversé ajoute son ID et ses mesures quant à la qualité de la<br />

route. A la réception du message par le destinataire, celui-ci attend un laps de<br />

temps avant de répondre afin de laisser le temps à d’autres BQ de parvenir par<br />

d’autres routes. Cela permet au noeud destinataire de sélectionner le meilleur<br />

chemin et d’envoyer alors un BQ-REPLY à la source suivant ce chemin (Fig.<br />

4.18).<br />

Fig. 4.18: Découverte des routes dans ABR<br />

La phase de réparation survient lorsqu’un noeud de la route n’est plus joignable.<br />

Contrairement à DSR, une réparation au point de cassure est mise en place afin<br />

rétablir le chemin vers la destination. Si la réparation locale échoue, la source est<br />

alertée afin qu’elle puisse initier une nouvelle recherche de route. La procédure<br />

de réparation est complexe et dépend du noeud ayant provoqué la cassure. En<br />

effet, la routine de réparation invoquée dépend du type de noeud en mouvement,


50 CHAPITRE 4. MOBILE AD-HOC NETWORKS (MANETS)<br />

il peut s’agir de la source, la destination ou un noeud intermédiaire.<br />

La suppression d’une route a lieu lorsque celle ci n’est plus désirée, la source à<br />

la base de sa construction diffuse alors un message RD (Route Delete) afin de<br />

mettre à jour les tables de routage.<br />

4.4.3 Les protocoles hybrides<br />

Les protocoles hybrides tirent avantage des méthodes actives et proactives<br />

et limitent leurs inconvénients. Ils découpent généralement le réseau en zone à<br />

l’intérieur desquelles ils appliquent une politique de routage proactive. De cette<br />

manière, le processus de routage intra-zone est accéléré. Le nombre de noeuds<br />

d’une zone est limité pour réduire l’overhead engendré par la maintenance des<br />

tables de routage.<br />

Lorsqu’un noeud souhaite communiquer avec un noeud faisant parti d’une<br />

autre zone, une politique réactive est alors mise en place pour le routage interzone.<br />

Zone Routing Protocol (ZRP)<br />

Dans ZRP [34], une zone Z(k, n) pour un noeud n avec un rayon k, est définie<br />

comme l’ensemble des noeuds à une distance inférieure ou égale à k sauts :<br />

Z(k, n) = {i | H(n, i) ≤ k}<br />

où H(i, j) est la distance en nombre de sauts entre le noeud i et le noeud j. Le<br />

noeud n est appelé le noeud central de la zone de routage, alors que le noeud b<br />

telle que H(n, b) = k est appelé le noeud frontière de n.<br />

La taille d’une zone affecte les performances de communication et doit être optimisée<br />

en fonction du degré de mobilité, de trafic, ainsi que du diamètre du réseau.<br />

La figure 4.19 illustre le concept de zone dans ZRP.<br />

L’architecture du protocole ZRP est composée de quatre sous-protocoles :<br />

1. l’IntrAzone Routing Protocol (IARP)<br />

2. l’IntErzone Routing Protocol (IERP)<br />

3. le Bordercast Resolution Protocol (BRP) et<br />

4. le Neighbor Discovery/Maintenance Protocole (NDP) qui se situe au Layer<br />

2.<br />

IARP fournit de manière proactive les routes aux noeuds situés dans la même<br />

zone que la source. IARP repose sur NDP pour découvrir ses voisins, son rôle<br />

principal est d’assurer que chaque noeud au sein d’une zone possède une table<br />

de routage à jour reflétant la route à emprunter pour chaque noeud de la même<br />

zone.<br />

IERP, quant à lui, repose sur les noeuds frontières afin de découvrir de manière<br />

réactive les routes interzones lors d’une communication entre deux noeuds d’une


4.4. LE ROUTAGE UNICAST DANS LES RÉSEAUX AD-HOC 51<br />

Fig. 4.19: Un exemple de zone dans ZRP<br />

zone différente. De manière plus précise, IERP émet des paquets de requête aux<br />

noeuds frontières via BRP, une sorte d’algorithme multicast, afin qu’ils vérifient si<br />

le noeud destinataire fait parti de leur zone respective. Si c’est le cas, ils généreront<br />

un paquet de réponse vers la source, dans le cas contraire ils propageront la<br />

requête vers leurs noeuds frontières. Ce procédé est illustré à la figure 4.20.<br />

Fig. 4.20: Exemple de propagation de requêtes par bordercasting


52 CHAPITRE 4. MOBILE AD-HOC NETWORKS (MANETS)<br />

Le problème de ce protocole est qu’il n’y a pas de coordination entre les noeuds,<br />

il en résulte que les zones se chevauchent et un noeud peut être à la fois membre<br />

d’une zone et noeud frontière de plusieurs zones. Dans ces conditions, l’algorithme<br />

de recherche peut conduire à des résultats moins bons qu’une diffusion standard.<br />

Des solutions ont été proposées dans la littérature pour contrôler et stopper la<br />

diffusion redondante des paquets de requête. Afin de palier au problèmes de ZRP,<br />

une amélioration fut proposée : le Distributed Dynamic Routing algorithm (DDR)<br />

[22]. Ce protocole est basé sur la construction d’une forêt de zones dynamiques<br />

qui ne se chevauchent pas.<br />

4.4.4 Location-Aided Routing (LAR)<br />

La nouveauté introduite par les protocoles assistés par un système de localisation<br />

(tel que GPS) est l’utilisation d’une estimation de la position afin d’accroître<br />

l’efficacité de la procédure de découverte. LAR définit deux concepts (Fig. 4.21) :<br />

– expected zone : Elle est définie comme la zone où devrait se trouver le noeud<br />

du point de vue de la source. L’expected zone à l’instant τ1 est calculée sur<br />

base de sa position antérieure connue par la source à l’instant τ0 et de sa<br />

vitesse moyenne.<br />

– request zone : Elle est définie comme étant le plus petit rectangle comprenant<br />

la position actuelle de la source et de l’expected zone.<br />

Fig. 4.21: Concept de request zone et expected zone dans LAR<br />

Durant la phase de découverte d’une route, les informations concernant la request<br />

zone sont jointes à la requête et seuls les noeuds appartenant à cette zone la<br />

diffuseront. Cela permet de diminuer la charge des paquets de contrôle diffusés<br />

sur le réseau. A la réception du paquet, le destinataire générera une réponse qui


4.4. LE ROUTAGE UNICAST DANS LES RÉSEAUX AD-HOC 53<br />

inclura sa position actuelle, l’heure et sa vitesse moyenne.<br />

Les résultats des simulations ont montré que l’utilisation des informations de<br />

localisation dans les réseaux Ad-Hoc résulte en une diminution significative de<br />

la surcharge engendrée par les paquets de contrôle. Cependant, l’utilisation du<br />

GPS est actuellement limitée aux voitures et aux opérations militaires, ce type<br />

de protocole est donc limité quant aux applications exploitables actuellement.


Deuxième partie<br />

Contribution personnelle<br />

55


4.4. LE ROUTAGE UNICAST DANS LES RÉSEAUX AD-HOC 57<br />

Introduction<br />

L’issue de ce travail est l’élaboration d’un protocole de routage se nourrissant<br />

de concepts empruntés aux travaux de Jean-Michel Dricot et de Bayani Carbone.<br />

Pour cette raison, la suite de ce travail sera divisée en deux parties. La première<br />

partie sera consacrée aux apports de Mr Dricot au protocole AODV (5.1) afin<br />

d’améliorer ses performances en indoor. Le protocole résultant est AODVϕ, il<br />

s’agit d’un protocole cross-layer qui minimise le Bit Error Rate (BER) des paquets<br />

le long des routes. Les concepts qui le régissent seront énoncés et seront suivit<br />

par l’évaluation de ses performances vis-à-vis du protocole AODV. La deuxième<br />

partie sera consacrée à l’hybridation entre les réseaux Ad-Hoc et l’UMTS, le<br />

protocole GWAODV de Mr Carbone sera détaillé et sera évalué en comparaison<br />

au protocole issu de ce travail : iAODVϕ.<br />

Simulations<br />

Les paramètres de simulations étant similaires pour les deux parties, ils seront<br />

discutés ici.<br />

Les simulations réalisées lors de cette étude font évoluer 50 noeuds sur une<br />

surface de 1500x300 mètres. Le nombre de sources simultanées variera parmi 10,<br />

20, 30 et 40 et seront modélisées par des générateurs de trafic CBR (Constant Bit<br />

Rate) émettant 4 paquets UDP par seconde. Afin de couvrir un maximum de cas<br />

possible, chacun des scénarios faisant varier le nombre de sources sera évalué selon<br />

5 scripts qui alterneront le choix des noeuds sources et l’instant de la première<br />

émission de paquets. Chaque script de trafic sera également couplé à 6 scénarios<br />

de mobilité faisant varier le temps de pause parmi 0, 30, 60, 120, 300 et 600<br />

secondes. Un temps de pause de 0 correspondant à une mobilité constante tandis<br />

que 600 secondes représente un état immobile tout au long de la simulation. Un<br />

total de 120 simulations seront donc réalisées pour chacun des deux modèles de<br />

propagation (FreeSpace et Shadowing), et ce pour chacun des protocoles analysés.<br />

Lorsque les 120 résultats sont obtenus, la moyenne marginale est calculée pour les<br />

différents paramètres analysés en fonction des 5 scénarios d’élection de sources<br />

(pour les même temps de pauses et le même nombre de sources actives).<br />

Lors des simulations pour l’hybridation entre le mode Ad-Hoc et UMTS, la<br />

NodeB sera placé au centre de la topologie.<br />

Les résultats seront évalués essentiellement en terme de :<br />

1. Packet Delivery Fraction (PDF) [%] : nombre de paquets envoyés dans le<br />

réseau sur le nombre de paquets arrivés<br />

2. Normalized Routing Load [%] : nombre de paquets de routage envoyés sur<br />

le nombre de paquets de données envoyés<br />

3. Average End-To-End delay [s] : temps moyen séparant l’émission d’un paquet<br />

par la source et sa réception par le destinataire. Dans le cas des si-


58 CHAPITRE 4. MOBILE AD-HOC NETWORKS (MANETS)<br />

mulations portant sur l’hybridation entre Ad-Hoc et UMTS, le délai sera<br />

stoppé une fois le paquet reçu correctement par la NodeB.<br />

Afin de mieux comprendre les valeurs qui seront présentée, nous compléterons<br />

l’analyse par de nombreux schémas quantifiant les pertes de paquets au sein de<br />

la Mac et de la couche Réseau. L’ensemble des schémas discutés dans l’analyse<br />

se trouve en annexe.<br />

Les résultats seront présentés selon les deux modèles de propagation, pour<br />

chacun d’entre eux nous présenterons l’impact de la mobilité et du nombre de<br />

sources actives sur les différents critères énoncés précédemment. Lorsque les graphiques<br />

indiquent un temps de pause ou un nombre de sources pris à la moyenne<br />

marginale, il s’agit en fait de la moyenne du résultat présenté pour les différents<br />

scénarios de mobilité et sources. Le schéma illustre alors une tendance générale<br />

de la métrique analysée qui se confirme pour tous les scénarios mais à des échelles<br />

différentes. Seule la valeur moyenne sera alors illustrée.


Chapitre 5<br />

AODV vs AODVϕ<br />

5.1 AODV<br />

Ad-hoc On-demand Distance Vector (AODV)[7] est un protocole de routage<br />

réactif ce qui signifie qu’une route vers une destination n’est construite que lorsqu’elle<br />

est nécessaire.<br />

AODV emprunte l’utilisation des numéros de séquence de DSDV pour actualiser<br />

ses informations de routage et se prémunir des boucles, tandis que sa<br />

procédure de découverte des routes est dérivée de celle adoptée par DSR. La<br />

principale différence avec DSR est que la route découverte est stockée à chaque<br />

noeud plutôt que dans l’entête du paquet. Tout comme ABR, AODV possède des<br />

procédures de réparation locale de la route à son point de cassure. Par conséquent,<br />

il est capable de s’adapter aux changements de topologie du réseau en trouvant<br />

très rapidement un chemin alternatif sans devoir reconstruire la route dans son<br />

entièreté.<br />

AODV propose deux méthodes pour détecter la présence des noeuds voisins<br />

et donc pour détecter la cassure d’un lien de communication. La première est<br />

basée sur l’envoie de messages beacon à intervalle régulier tandis que la seconde<br />

repose sur les informations émanant directement de la sous couche MAC.<br />

5.1.1 Gestion des numéros de séquence<br />

Les numéros de séquence sont un moyen simple et efficace de se prémunir de<br />

la formation de boucle dans le réseau. Ils permettent de palier au problème de<br />

la valeur infinie qu’on retrouve dans les algorithmes dérivés de Bellman-Ford et<br />

offrent ainsi une convergence rapide lors des changements de topologies.<br />

Chaque noeud du réseau est chargé de maintenir à jour son numéro de séquence<br />

en l’incrémentant dans deux circonstances :<br />

59


60 CHAPITRE 5. AODV VS AODVϕ<br />

– Avant d’initier un processus de découverte de route, ce qui permet d’éviter<br />

les conflits avec les routes précédemment construites par ce même noeud.<br />

– Avant l’émission d’un RREP par le destinataire, ce qui permet de mettre<br />

à jour les informations de routage des noeuds traversés par le paquet.<br />

Chaque noeud maintient également un numéro de séquence dans sa table de<br />

routage pour chaque destinataire d’une route active. Ce numéro de séquence est<br />

mis à jour dans deux situations :<br />

– Lors de l’expiration d’une route ou d’une cassure sur le chemin. Un noeud<br />

peut alors incrémenter le numéro de séquence du destinataire et invalider<br />

la route au prêt des autres noeuds.<br />

– A la réception d’un message contenant un numéro de séquence plus élevé<br />

pour le même destinataire, le paquet contient alors des informations plus<br />

fraîches quant à la route.<br />

5.1.2 Table de routage<br />

Une entrée dans la table de routage est crée lorsqu’un noeud reçoit un message<br />

pour une destination inconnue. Chaque entrée comporte :<br />

• Adresse IP de la destination<br />

• Numéro de séquence de la destination : Il permet de faire la distinction<br />

entre une ancienne information de routage se propageant dans le réseau et<br />

une nouvelle due par exemple à un changement de topologie.<br />

• Next Hop : Adresse IP du prochain noeud en direction de la destination.<br />

• Hop count : Le nombre de saut nécessaire pour atteindre la destination.<br />

• Flags : Indique l’état de la route. Elle peut être valide (en cours d’utilisation),<br />

invalide (le timer a expiré, elle sera bientôt supprimée) ou en cours<br />

de réparation (la route a été brisée, une réparation est en cours afin de la<br />

rétablir).<br />

• Liste des précurseurs : Cette liste est constituée des adresses IP des noeuds<br />

précédents qui utilisent le noeud courant pour atteindre la destination. Ils<br />

font office de ”Previous Hops” et permettent, lors d’une cassure, d’informer<br />

les noeuds de sa réparation.<br />

• Lifetime : Durée de vie d’une route. Pour une route active ce champ indique<br />

l’instant ou elle deviendra invalide. Pour une route invalide, ce champ indique<br />

l’instant de suppression de la route.<br />

Une entrée de la table est mise à jour lorsque le noeud reçoit un message<br />

contenant :<br />

– un numéro de séquence plus élevé pour la destination.<br />

– le même numéro de séquence mais un Hop Count plus petit.<br />

– le même numéro de séquence mais que la route avait été marquée comme<br />

invalide ou en cours de réparation.


5.1. AODV 61<br />

5.1.3 Opérations et messages<br />

Le protocole AODV définit deux types d’opération : la découverte de routes<br />

et la maintenance des routes. La première opération permet d’établir une route<br />

vers une nouvelle destination. Pour ce faire, elle utilise deux types de message de<br />

contrôle : les RREQ (Route REQuest) et les RREP (Route REPly). La seconde<br />

opération permet de réparer une route lorsque celle ci est brisée (i.e, suite à<br />

un changement de topologie), elle utilise les messages : RERR (Route ERRor),<br />

RREQ et RREP.<br />

Découverte d’une route<br />

Un noeud initie un processus de découverte de route lorsqu’il a besoin d’une<br />

route pour une nouvelle destination ou pour une destination pour laquelle la<br />

route est devenue invalide dans sa table. Le noeud source génère alors un paquet<br />

RREQ contenant :<br />

• Broadcast ID : Cet identifiant permet à chaque noeud recevant le paquet<br />

de faire la distinction entre un nouveau RREQ et un RREQ déjà reçu par<br />

un autre chemin. Le noeud source incrémente l’identifiant avant l’émission<br />

d’une nouvelle requête.<br />

• L’adresse IP et le numéro de séquence du destinataire.<br />

• L’adresse IP et le numéro de séquence de la source.<br />

• Un Hop Count initialisé à 0.<br />

Le paquet généré est ensuite envoyé en broadcast sur le canal. Lorsqu’un noeud<br />

le reçoit, il commence par créer ou mettre à jour l’entrée de sa table de routage<br />

pour le noeud d’où lui provient le paquet.<br />

Il vérifie ensuite s’il n’a pas déjà reçu un RREQ avec la même adresse source et<br />

le même ID. Si c’est le cas, il s’agit d’un doublon et le supprimera. Dans le cas<br />

contraire il effectuera une série d’opérations :<br />

1. Incrémenter de un le Hop Count contenu dans le paquet.<br />

2. Extraire l’adresse source et son numéro de séquence et créer si nécessaire<br />

une nouvelle entrée dans sa table vers la source. Cette route sera nécessaire<br />

pour établir la route inverse lors de l’émission du RREP par le destinataire.<br />

3. Broadcaster à son tour le RREQ sur chacune de ses interfaces.<br />

Lorsque le paquet atteint la destination ou un noeud intermédiaire possédant<br />

une route active vers la destination, celui ci génère un message RREP contenant :<br />

• Adresse IP et numéro de séquence du destinataire (qui est la source du<br />

RREQ)<br />

• Adresse IP et numéro de séquence de la source (qui est le destinataire du<br />

RREQ)<br />

• le Hop Count : nombre de saut séparant le noeud courant de la destination<br />

du RREQ.


62 CHAPITRE 5. AODV VS AODVϕ<br />

Fig. 5.1: Broadcast du paquet RREQ<br />

• le Lifetime : les noeuds recevant le RREP doivent considérer la route comme<br />

étant valide à partir de cet instant.<br />

Ce message est envoyé de manière unicast à la source du RREQ en suivant le<br />

chemin inverse de celui emprunté par le RREQ (technique du reverse poisoning).<br />

Ceci est rendu possible car chaque noeud intermédiaire a construit lors de la<br />

première phase un chemin inverse menant à la source. Chaque noeud recevant<br />

le paquet le transmet au Next Hop en direction de la source et incrémentent à<br />

chaque saut le Hop count de un. Une fois que le paquet atteint sa destination<br />

( la source du RREQ), celle ci mettra à jour sa table de routage. Elle possède<br />

à présent une route vers la destination qui minimise le nombre de saut pour<br />

l’atteindre.<br />

Les routes formées durant ce processus et qui ne sont pas exploitées seront<br />

invalidée lors de l’expiration du timer dans la table. Si une cassure survient avant<br />

l’expiration du timer, les informations recueillies pourraient alors aider à accélérer<br />

le processus de réparation.<br />

Maintenance d’une route<br />

Lorsqu’un lien se brise le long d’une route active, le noeud précédant la cassure<br />

peut choisir d’effectuer une réparation locale s’il se trouve au moins à mis chemin<br />

entre la source et la destination. Pour réparer la route, le noeud incrémente le<br />

numéro de séquence de la destination et initie un processus de découverte de


5.1. AODV 63<br />

Fig. 5.2: Émission en unicast du RREP<br />

route. La dissémination du RREQ se fera cependant à une plus petite échelle en<br />

limitant le champ TTL (Time To Live) du paquet.<br />

Si le noeud reçoit un RREP (ou un autre message de contrôle mettant à jour<br />

la route vers la destination), il pourra mettre à jour ses information de routage.<br />

Si la nouvelle route est plus longue que la précédente, le noeud ayant initié la<br />

réparation prévient alors la source qui pourra choisir de continuer sur cette route<br />

ou d’initier une nouvelle recherche.<br />

En contre partie, si le noeud de reçoit pas de RREP dans les délais autorisés<br />

pour la réparation, il effectue les opérations suivantes :<br />

1. Invalider la route dans sa table<br />

2. Lister l’ensemble des destinataires qui ne sont plus joignables<br />

3. Déterminer quels voisins sont affectés (contenus dans les listes des précurseurs<br />

pour chaque destination)<br />

4. Délivrer un message RERR à ces voisins.<br />

Chaque noeud recevant le message RERR exécutera le même ensemble d’opération<br />

et continuera de le propager vers les différentes sources.<br />

5.1.4 Détection d’un lien brisé<br />

Le protocole AODV propose deux méthodes pour détecter la présence des<br />

noeuds voisins :


64 CHAPITRE 5. AODV VS AODVϕ<br />

1. L’ emission de message Hello (beaconing)<br />

2. La prise en compte d’informations émanant directement de la sous-couche<br />

MAC<br />

Dans la première approche, le protocole définit un nouveau type de message de<br />

contrôle et une nouvelle table à chaque noeud. Chaque noeud envoie en broadcast<br />

à intervalles réguliers un message Hello et recueillent les réponses des noeuds voisins.<br />

Ces informations sont stockées dans la Neighbor Table (Table des voisins)<br />

permettant ainsi à un noeud de savoir à chaque instant qui sont ses voisins. Si<br />

aucun message Hello, ou tout autre message, n’est reçu de la part d’un voisin<br />

durant un certain intervalle de temps, le voisin en question est supprimé de la<br />

table. L’intervalle de temps est fonction du nombre de message Hello perdu (dût<br />

à des collisions) tolérés et de l’intervalle de temps séparant deux émissions successives.<br />

Ce facteur est donc paramétrable mais doit être choisis en prenant en<br />

considération que :<br />

– le beaconing à fréquence élevée est une source importante de consommation<br />

d’énergie et de surcharge pour le réseau[30]<br />

– le beaconing à basse fréquence est source d’incohérence dans les tables de<br />

routage.<br />

Plus la densité des noeuds est importante et plus le beaconing à un impacte<br />

défavorable sur le réseau. Chaque noeud devant traiter chaque beacon de chacun<br />

de ses voisins, il en résulte un gaspillage important des ressources (bande passante,<br />

énergie, CPU, buffer) et peut entraîner de la congestion dans le réseau ce<br />

qui accroît les délais de transmission. Les message beacon interfèrent également<br />

avec les paquets de données, augmentant ainsi le nombre de collisions et de retransmissions<br />

qui en découlent [20].<br />

La seconde méthode se base sur les informations émanant directement de<br />

la sous-couche MAC de 802.11 pour détecter un lien brisé. Un noeud considère<br />

un lien comme brisé lorsqu’il ne reçoit pas de CTS en réponse à un RTS ou<br />

bien d’ACK en réponse à un paquet de données. La sous-couche MAC de 802.11<br />

permet de définir le nombre de retransmission de ses paquets de contrôle avant<br />

l’abandon de la transmission. Dans les MANETs où les changements de topologie<br />

sont fréquents, le temps que prend chaque noeud à détecter des signes de mobilité<br />

est primordial. Cette méthode offre une meilleure convergence que la précédente<br />

et ne requiert pas de messages supplémentaires.


5.2. MOTIVATIONS 65<br />

5.2 Motivations<br />

Afin de réduire la complexité de conception, le design des réseaux a été<br />

découpé en couche, chacune étant placée au dessus de la précédente. Le rôle de<br />

chaque couche est de fournir des services à la couche immédiatement supérieure<br />

sans que cette dernière n’ait à connaître le détail de son état ou de son implémentation.<br />

Ce principe, dans les réseaux, est appelé l’indépendance des couches. Chaque<br />

couche offre un certain niveau d’abstraction à la couche directement supérieure en<br />

lui proposant un accès à ses services via des interfaces standards, et ce indépendamment<br />

des protocoles ou du matériel utilisé. Le modèle de référence utilisé dans les<br />

réseaux est le modèle OSI (Open System Interconnection) et son implémentation<br />

plus concrète est le modèle TCP/IP, tous deux reposent sur le concept de pile de<br />

protocoles indépendants.<br />

Fig. 5.3: Modèles de références : OSI et TCP/IP<br />

Le principe d’indépendance des couches a très bien fonctionné jusqu’à présent<br />

dans les réseaux filaires. La couche réseau se contente de trouver le plus court<br />

chemin ou le moins congestionné au travers d’une infrastructure statique. L’accès<br />

au média est relativement simple à gérer, le matériel d’interconnexion (routeur,<br />

switch) permet de limiter ou d’évincer le domaine de collision. Le support physique<br />

est fermé et permet d’atteindre de très haut débit, les interférences sont<br />

minimes et les retransmissions sont peux coûteuses. Toutes ces caractéristiques<br />

permettent à chaque couche de se focaliser sur leurs rôles, indépendamment les<br />

une des autres.<br />

Dans les réseaux Ad-Hoc mobiles, les noeuds sont soumis à des conditions<br />

extrêmes, les contraintes physiques sont nombreuses : des ressources d’énergie<br />

limitées, une grande mobilité des noeuds, un faible débit, le média est ouvert<br />

et perturbé par nombreux signaux interférant entre eux. L’accès au canal de<br />

communication se fait de manière distribuée et nécessite de nombreux messages


66 CHAPITRE 5. AODV VS AODVϕ<br />

de contrôle pour limiter les collisions. Celle ci n’en demeure pas moins fréquentes,<br />

les retransmissions sont nombreuses et introduisent une surcharge non négligeable<br />

sur le réseau.<br />

Dès lors, une politique de routage indépendante de l’environnement de déploiement<br />

et des ressources disponibles n’est plus suffisante. L’impacte du milieu et de son<br />

accès est tel qu’il se répercute sur les performances de l’algorithme de routage.<br />

Dans [10], l’auteur démontre qu’il existe une corrélation entre le protocole<br />

d’accès au média et l’algorithme de routage. Les performances de plusieurs protocoles<br />

de routage ont été évaluées en fonction de différents protocoles MAC.<br />

Il en ressort que le protocole de routage AODV est sensible aux fonctionnalités<br />

offertes par la couche liaison de donnée, ses performances relatives varient<br />

considérablement selon le protocole MAC auquel il est couplé. Ceci est du au fait<br />

qu’AODV nécessite l’envoie de messages Hello périodiques lorsqu’il est couplé à<br />

un protocole MAC ne fournissant pas de feedback sur l’état des lien de communications.<br />

Il en résulte alors que la quantité de message de contrôle généré par<br />

AODV est nettement supérieure à celle produite lorsqu’il est couplé avec le protocole<br />

802.11 DCF, entraînant ainsi plus de congestion et de délai dans le réseau.<br />

La figure 5.4 montre qu’AODV double son taux de paquet bien transmis lorsqu’il<br />

est couplé à 802.11 DCF.<br />

Fig. 5.4: Impact de la sous-couche MAC sur le nombre de paquets délivrés<br />

Dans [13], grâce à une méthode statistique connue sous le nom de ANalysis<br />

Of VAriance (ANOVA), l’auteur met en avant le lien étroit qu’il existe entre le<br />

modèle de propagation et les performances du réseau (en terme de end-to-end<br />

delay, de Packet Delivery Fraction et de routing overhead). La figure 5.5 illustre<br />

l’impact des conditions de propagation sur le pourcentage de paquets transmis<br />

pour quatre algorithmes de routage. Cet exemple illustre bien qu’un protocole tel<br />

qu’AODV se retrouve d’avantage affecté lorsqu’il est déployé en indoor (modèle


5.2. MOTIVATIONS 67<br />

de propagation Shadowing). Ce résultat est du au fait qu’AODV ne tient pas<br />

compte des conditions de propagation dans le choix des routes qu’il établit.<br />

Fig. 5.5: PDF de quatre algorithmes de routage en variant les conditions de<br />

propagation<br />

L’approche traditionnelle du modèle OSI vise à optimiser chaque couche<br />

indépendamment les une des autres, ce qui conduit à l’élaboration d’architectures<br />

largement sous optimale dans les réseaux Ad-Hoc mobiles. Une nouvelle<br />

approche fut donc entamée, sous le nom de cross-layer design, qui consiste à optimiser<br />

les couches physique, MAC et réseau de manière jointe et à augmenter<br />

l’interaction entre les différentes couches.<br />

Cette nouvelle philosophie offre de nouvelles perspectives pour la construction<br />

de protocoles de routage dans les réseaux Ad-Hoc. Les performances des réseaux<br />

sans fils étant liées aux conditions de propagation et aux ressources disponibles,<br />

la communication entre la couche physique et la couche réseau permet d’adapter<br />

la politique de routage à l’environnement de déploiement.<br />

Des exemples d’architecture cross-layer ont déjà été mentionnés dans la première<br />

partie de ce travail, c’est le cas des protocoles de routage qui incorpore par<br />

exemple la durée de vie de la batterie comme métrique pour le routage. ABR<br />

en est un autre exemple, le routage se faisait selon une métrique d’associativité<br />

qui était fonction de la mobilité des noeuds et de la puissance du signal reçu.<br />

C’est donc sur base de ces constatations que le protocole AODVϕ opère afin<br />

d’améliorer les performances d’AODV dans un milieu de déploiement indoor.


68 CHAPITRE 5. AODV VS AODVϕ<br />

5.3 AODVϕ<br />

Le protocole AODVϕ [12] est un protocole dérivé de AODV qui prend en<br />

compte les caractéristiques physique du canal de communication sans fils afin<br />

d’optimiser les transmissions dans un environnement indoor.<br />

Le protocole AODV construit ses routes de manière à minimiser le nombre de<br />

sauts intermédiaires entre la source et la destination. Afin d’y parvenir, AODV<br />

choisit donc les noeuds les plus distants les un des autres. Lorsque les noeuds<br />

évoluent dans un milieu à fading fort, tel qu’en indoor, la probabilité que le<br />

signal émis rencontre des obstacles est fonction de la distance qu’il parcourt. Les<br />

données transportées sont donc sujette à de nombreuses perturbations et le taux<br />

d’erreur des paquets y est important.<br />

AODVϕ se base se base donc sur cette nouvelle métrique, le Bit Error Rate<br />

(BER), pour la construction de ses routes. Nous verrons que le BER est fonction<br />

de la distance qui sépare les noeuds communiquant et qu’il convient donc de la<br />

minimiser. La distance entre noeuds étant plus courte, un mécanisme de contrôle<br />

de puissance sera incorporé pour obtenir une meilleure réutilisation spatiale du<br />

canal et réduire les interférences. La figure 5.6 illustre la différence de stratégie<br />

de routage entre AODV et AODVϕ.<br />

Fig. 5.6: Comparaison entre la stratégie de routage de AODV et celle de AODVϕ


5.3. AODVϕ 69<br />

5.3.1 Le Bit Error Rate<br />

Nous considérons que les erreurs engendrées par un lien ne sont pas réparables<br />

par le lien suivant, le nombre de bits altérés étant trop important. Nous notons par<br />

BER (i)<br />

link le BER au bout du ième lien de la route, qui dépend du rapport signalbruit<br />

(SNR) et des caractéristiques du canal de communication. Afin d’assurer<br />

un BER acceptable et une transmission réussie à la fin de la route, il est évident<br />

que le BER de chaque lien doit être très bas, i.e., BER (i)<br />

link ≪ 1, ∀i. Le BER<br />

d’une route constituée de nhops sauts peut alors être exprimé comme suit :<br />

BERroute = 1 −<br />

=<br />

+<br />

<br />

nhops<br />

i=1<br />

nhops <br />

i=1<br />

n−1 <br />

i=1<br />

<br />

1 − BER (i)<br />

<br />

link<br />

BER (i)<br />

link −<br />

nhops <br />

nhops <br />

i=1<br />

nhops <br />

j=0,j=i z=1,z=i,z=j<br />

nhops <br />

j=0,j=i<br />

BER (i)<br />

link BER(j)<br />

link<br />

BER (i)<br />

link BER(j)<br />

link BER(z)<br />

link<br />

− ... (5.1)<br />

La première somme de l’équation 5.1 est le terme qui contribue le plus au BER<br />

final. C’est pourquoi, le BER de la route peut être approximé par :<br />

Communications outdoor<br />

BERroute <br />

nhops <br />

i=1<br />

BER (i)<br />

link<br />

(5.2)<br />

Dans le cas de communications avec une forte visibilité directe et une modulation<br />

BPSK (Binary Phase Shift Keyed) sur un canal avec un bruit blanc Gaussien<br />

(AWGN : Additive White Gaussian Noise), le BER d’un lien peut s’écrire comme<br />

suit :<br />

BER (i)<br />

<br />

link = Q 2SNR (i)<br />

<br />

link<br />

avec Q(x) qui est la fonction standard d’erreur et vaut :<br />

et où SNR (i)<br />

link<br />

Q(x) 1<br />

√ 2π<br />

(5.3)<br />

+∞<br />

e<br />

x<br />

−t2 /2<br />

dt. (5.4)<br />

est le rapport signal bruit au bout du ième lien et qui peut être<br />

exprimé comme :<br />

SNR (i)<br />

link =<br />

P (i)<br />

r<br />

Pthermal + P (i)<br />

int<br />

où P (i)<br />

r<br />

bruit thermique au bout du ième lien, tandis que P (i)<br />

int<br />

(5.5)<br />

et Pthermal sont respectivement la puissance reçue et la puissance du<br />

est la puissance totale


70 CHAPITRE 5. AODV VS AODVϕ<br />

des interférences captées au noeud récepteur du ième lien. Il est à noté que le<br />

bruit thermique est identique pour tous les noeuds car il est présent dans tous<br />

les appareils électroniques.<br />

D’après le modèle de propagation Two Ray Ground discuté à la section 2.4.2,<br />

la puissance reçue peut s’écrire comme suit :<br />

Pr(d) = GtGrh2 t h2 r Pt αPt<br />

=<br />

L dn dn d ≥ 4πhthr/λ (5.6)<br />

et donc la puissance reçue au ième lien peut s’exprimer comme :<br />

P (i)<br />

r = αPt<br />

r n i<br />

n ≥ 2 (5.7)<br />

où α est donc une constante de propagation (qui dépend des gains des antennes,<br />

de leurs hauteurs et de la fréquence) et où ri est la longueur du ième lien. Il en<br />

résulte donc que :<br />

BERroute <br />

nhops <br />

i=1<br />

Q<br />

<br />

1<br />

r n/2<br />

i<br />

<br />

2<br />

αPt<br />

Pthermal + P (i)<br />

int<br />

<br />

(5.8)<br />

Dans un scénario de communications en ligne de visibilité directe, il n’y a pas<br />

d’atténuation aléatoire de la puissance reçue ni de la puissance d’interférence.<br />

Si le protocole MAC est suffisamment robuste∗ <br />

, il est raisonnable d’assumer que<br />

le rapport Pt/ Pthermal + P (i)<br />

<br />

int n’est que très légèrement dépendant de i. Par<br />

conséquence, afin de minimiser le BER de la route, il est nécessaire de minimiser<br />

ri, ∀i. Etant donné que Q(x) est une fonction rapidement décroissante de x, si la<br />

longueur d’un lien est suffisamment plus grande que celle des autres, le BER du<br />

lien correspondant serait alors le plus élevé possible. Le BER de la route pourrait<br />

alors être exprimé comme :<br />

<br />

nhops 1<br />

BERroute Q<br />

i=1 r n/2<br />

<br />

αPt<br />

2<br />

Pthermal + P imax<br />

(imax)<br />

<br />

(5.9)<br />

int<br />

où imax maxi{ri}. On comprend donc par cette dernière équation qu’il est<br />

essentiel de trouver un chemin qui minimise la plus longue distance entre deux<br />

noeuds consécutifs d’une route.<br />

Communications indoor<br />

Dans un scénario avec des communications qui subissent un phénomène de<br />

fading et qui utilisent une modulation BPSK, le BER au bout du ième lien est :<br />

⎛ <br />

<br />

<br />

⎝1 − SNR(i)<br />

⎞<br />

link ⎠ (5.10)<br />

BER (i) 1<br />

link =<br />

2<br />

1 + SNR (i)<br />

link<br />

∗ (i)<br />

La puissance d’interférence P int dépend de la topologie des noeuds et du protocole MAC.<br />

Si la topologie est homogène, on peut assumer que P (i)<br />

int est identique pour tous les noeuds de la<br />

route.


5.3. AODVϕ 71<br />

Et donc, le BER de la route devient :<br />

⎛<br />

nhops 1<br />

BERroute ⎝1 −<br />

2<br />

i=1<br />

<br />

<br />

<br />

SNR(i)<br />

link<br />

1 + SNR (i)<br />

link<br />

⎞<br />

⎠ (5.11)<br />

En introduisant le modèle 5.7 dans la partie droite de 5.10, on obtient alors :<br />

⎛<br />

<br />

nhops 1<br />

<br />

⎜ <br />

αPt<br />

BERroute ⎝1 − <br />

2<br />

i=1<br />

Pthermal + P (i)<br />

<br />

int rn ⎞<br />

⎟<br />

⎠ (5.12)<br />

i + αPt<br />

Cette dernière expression nous indique bien que pour minimiser le BER de la<br />

route il faut maintenir la distance ri de chaque lien la plus courte possible. La<br />

même politique de routage peut donc être appliquée dans les deux environnements<br />

de déploiement (outdoor et indoor). Cependant, la somme de l’expression 5.12<br />

décroît moins rapidement que celle obtenue en 5.9 pour de plus grandes valeurs<br />

de ri. Le BER de la route ne peut donc plus être approximé par le BER du lien<br />

le plus long. Il en résulte que le protocole est moins sensible à une construction<br />

irrégulière (en termes de longueur des liens) de la route.<br />

5.3.2 Le contrôle de puissance<br />

Dans le protocole AODV, la sélection des routes se faisait de manière à minimiser<br />

le nombre de sauts séparant la source de la destination. Cette politique<br />

de routage se traduit par la sélection du noeud le plus distant possible afin de<br />

minimiser le nombre de noeuds intermédiaire. Par opposition, AODVϕ minimise<br />

la distance séparant deux noeuds successifs d’une route afin de minimiser le BER<br />

de chaque lien. Dés lors, la transmission des paquets à puissance maximale est<br />

source de nombreuses interférences inutiles et d’un gaspillage d’énergie.<br />

Un mécanisme de contrôle de puissance a donc été couplé à la sous-couche<br />

MAC afin de réduire l’aire de la zone de protection créé par l’émission de RTS-<br />

CTS, réduisant ainsi le problème de la station exposée. Il en résulte alors une<br />

meilleure réutilisation spatiale du canal permettant à plus de communications de<br />

se dérouler simultanément. La figure 5.7 illustre une telle situation, sans contrôle<br />

de puissance seules les stations A et B peuvent communiquer, les stations C<br />

et D étant mis en silence par le CTS de B. Lorsqu’on applique un contrôle de<br />

puissance, les deux communications peuvent se dérouler en parallèle sans que<br />

celles ci n’interfèrent.<br />

Ajustement du contrôle de puissance<br />

Si aucune précaution n’est prise, le contrôle de puissance peut se révéler une<br />

source importante de collisions. Considérons le cas d’un contrôle de puissance<br />

qui se limite à réduire la portée d’émission au noeud suivant sur la route, cet


72 CHAPITRE 5. AODV VS AODVϕ<br />

Fig. 5.7: Utilisation spatiale : (a)sans contrôle de puissance, (b)avec contrôle de<br />

puissance<br />

exemple est illustré à la figure 5.8(a) pour une route constituée de quatre noeuds.<br />

A la figure 5.8(b), la source initie une transmission avec le noeud A, les noeuds<br />

B et C se trouvant dans la zone décrite par le mécanisme de RTS/CTS sont alors<br />

mis en silence. Une fois la transmission terminée, le noeud A le fait suivre au<br />

noeud suivant sur la route. Il initie donc un échange RTS/CTS avec le noeud<br />

B en appliquant son contrôle de puissance. La zone de protection autour des<br />

noeuds A et B est à présent bien plus petite que lors du premier transfert et la<br />

source n’est pas mise en silence. Ceci est illustré à la figure 5.8(c). La source,<br />

ne détectant pas la communication entre A et B, entame alors la transmission<br />

du second RTS pour l’émission du prochain paquet comme illustré à la figure<br />

5.8(d). De cette dernière transmission résultera une collision qui mènera à une<br />

retransmission entre le noeud A et B.<br />

Afin de palier à ce problème, il est important que chaque noeud pouvant<br />

interférer avec une transmission soit inclus dans la zone de protection créée par<br />

le mécanisme RTS/CTS. Pour se faire, il faut :<br />

1. Identifier les noeuds voisins faisant partis d’une route active et pouvant<br />

donc interférer avec la communication en cours<br />

2. Calculer la distance nous séparant du voisin le plus éloigné<br />

3. Ajuster la puissance d’émission afin de couvrir la distance minimale requise<br />

pour le bon déroulement de l’opération.<br />

Cependant, la sous-couche MAC effectuant le contrôle de puissance ne dispose pas<br />

des informations relatives aux routes actives ni celles concernant les noeuds voisins.<br />

Ces informations sont maintenue par la couche réseau, il est donc nécessaire<br />

d’implémenter une solution cross-layer qui ferait interagir la couche réseau et la<br />

sous-couche MAC


5.3. AODVϕ 73<br />

Fig. 5.8: Exemple de collision survenant lors d’un contrôle de puissance mal<br />

adapté<br />

A chaque transmission, la distance les séparant est calculée et enregistrée dans<br />

la table. Lorsqu’un paquet doit être transmis, la source commence par ajuster<br />

la puissance d’émission à la valeur sauvée pour le noeud voisin. Elle parcourt<br />

ensuite sa table de routage, contenant les routes actives qui transitent par elle,<br />

et identifie le prochain noeud (et le précédant) sur chacune d’entre elles. Si un de<br />

ces noeuds se trouve à une distance plus grande que la valeur d’émission, celle ci<br />

est ajustée en conséquence. La plus grande valeur sauvée sera alors transmise à<br />

la sous-couche MAC qui adaptera la puissance d’émission du paquet RTS.


Chapitre 6<br />

Evaluation des performances<br />

6.1 Average Route Lenght<br />

Une première constatation qui s’impose d’elle même est que la longueur des<br />

routes en terme de saut est plus importante pour AODVϕ que pour AODV.<br />

Dans un environnement outdoor (Figure 1), cette valeur tend à se stabiliser<br />

autour du minimum pour AODV et de son maximum pour AODVϕ et ce<br />

indépendamment de la mobilité des noeuds. Ce comportement s’explique par le<br />

fait que les alternatives de routes sont abondantes pour AODVϕ et qu’il choisit<br />

donc le plus court parmi les plus longs chemins comme expliqué au chapitre<br />

précédent. A l’inverse, une portée radio plus importante en outdoor permet à<br />

AODV de minimiser le nombre de saut pour atteindre sa destination.<br />

En indoor (Figure 2), les phénomènes de fading sont plus important et se<br />

traduisent par une diminution importante de la portée radio. Cette réduction<br />

entraîne inévitablement une chute du nombre de noeuds joignables et donc du<br />

nombre d’alternatives de route possibles. On voit donc le phénomène inverse se<br />

produire, les routes s’allongent quelque peux pour AODV et se raccourcisse pour<br />

AODVϕ. Lorsque la mobilité des noeuds tend vers l’inertie (pause 600 sec), les<br />

alternatives sont figées tout au long de la simulation et les routes empruntées par<br />

AODVϕ et AODV sont quasiment identiques. Il résulte alors une convergence<br />

pour les deux protocoles du nombre de saut séparant la source de sa destination.<br />

Pour AODVϕ, augmenter le nombre de saut est un facteur essentiel afin de<br />

minimiser la distance inter-noeuds, et donc le Bit Error Rate (BER) de la route.<br />

Bien que ce comportement soit voulu afin d’améliorer le Packet Delivery Fraction<br />

(PDF), nous verrons qu’il aura également des impactes négatifs sur certains<br />

paramètres, entre autres le taux de collisions.<br />

75


76 CHAPITRE 6. EVALUATION DES PERFORMANCES<br />

6.2 Packet Delivery Fraction (PDF)<br />

6.2.1 Impacte du nombre de sources<br />

FreeSpace<br />

Comme l’illustre les Figure 3 et 4, le PDF en outdoor est meilleur pour<br />

AODVϕ tant que le nombre de sources actives ne dépasse pas 10 sur les 50<br />

noeuds présents. Un bon élément pour comprendre ce qui se passe se trouve à la<br />

Figure 25. La Figure 25 nous montre le nombre de collisions qui se produisent<br />

à la sous-couche MAC en fonction du nombre de sources actives. Comme chacun<br />

peut le voir, lorsque 10 sources sont actives simultanément, les valeurs sont<br />

relativement proches pour les deux protocoles. Lorsque que le nombre de source<br />

passe à 20, un écart important se creuse dans le nombre de collisions et entraîne<br />

la chute du PDF. En comparant les deux schémas, on constate aisément que<br />

pour AODVϕ la décroissance du PDF (Figure 3 et 4) est proportionnelle à la<br />

croissance du nombre de collisions (Figure 25). Le taux élevé de collision se justifie<br />

par le nombre de saut des routes formées par AODVϕ, celui ci était quatre<br />

fois supérieur à AODV (Figure 1). Dans le modèle FreeSpace, le signal émis se<br />

propage sur une longue distance. Lorsque beaucoup de noeuds communiquent<br />

simultanément, les perturbations causées sont importantes. Chaque saut en plus<br />

imposé par le protocole est donc un risque supplémentaire de collisions.<br />

AODV quant à lui maintient le nombre de saut proche de sa valeur minimale<br />

(Figure 1) et le nombre de collisions qui se produisent (Figure 25) restent relativement<br />

bas comparée à AODVϕ. Il en résulte alors une meilleur scalabilité du<br />

protocole vis-à-vis du nombre de sources actives. Le PDF se maintient au dessus<br />

des 80% aussi bien dans un environnement mobile (Figure 3) que statique (Figure<br />

4).<br />

Shadowing<br />

Dans un milieu plus dense, où les perturbations des noeuds distantes sont<br />

moins importantes, les collisions sont moins fréquentes. Elle maintienne un taux<br />

de croissance proportionnelle au nombre de sources (Figure 26) mais les valeurs<br />

sont relativement faible en comparaison de celle obtenue en FreeSpace (Figure<br />

25). AODVϕ tire donc un meilleur avantage de sa stratégie de routage, il affiche<br />

un gain de 40% de paquets bien reçus vis-à-vis de AODV pour 10 sources actives<br />

(Figure 5).<br />

Lorsque les noeuds sont statiques (Figure 6), les routes empruntées par AODVϕ<br />

se rapprochent de celles choisies par AODV. On voit donc une décroissance semblable<br />

pour les deux protocoles. Lorsque le nombre de sources reste bas (10-20), le<br />

scénario statique offre de meilleurs résultats pour les deux protocoles. On constate


6.3. ROUTING OVERHEAD 77<br />

en revanche une valeur légèrement plus élevée dans le milieu mobile lorsque le<br />

nombre de sources est élevé (30-40)<br />

6.2.2 Impacte de la mobilité<br />

Fixons à présent le nombre de sources à 10 et analysons l’impacte de la mobilité<br />

des noeuds sur le PDF. On observe alors (Figures 7 et 8) un comportement<br />

différent selon le modèle de propagation.<br />

En outdoor (Figure 7), le PDF n’est que très peux impacté par la mobilité<br />

des noeuds. On constate une légère préférence d’AODVϕ pour les scénarios à<br />

mobilité réduite tandis qu’AODV atteint son maximum dans des scénarios à<br />

mobilité constante.<br />

En indoor (Figure 8), tous deux obtiennent de meilleurs résultats lorsque<br />

les noeuds sont immobiles. La forme en U de la courbe est semblable à celle<br />

obtenue en prenant la moyenne marginale pour tous les scénarios faisant varier<br />

le nombre de sources (non représenté ici). Elle relève un meilleur PDF soit à<br />

mobilité constante, soit lorsque les noeuds sont inertes, avec une préférence pour<br />

cette dernière (gain de 15%).<br />

6.3 Routing Overhead<br />

6.3.1 Impacte du nombre de sources<br />

FreeSpace<br />

On constate sur les Figures 15 et 16 que le nombre de paquets de contrôle<br />

(RREQ, REP, RERR) nécessaires pour construire les routes est relativement<br />

constant pour AODV. En contre partie, AODVϕ présente une croissance constante<br />

en fonction du nombre de sources actives.<br />

Ces résultats sont ceux escomptés et sont le prix à payer pour un meilleur PDF :<br />

– les routes formées par AODV minimisent le nombre de noeuds intermédiaires,<br />

les messages nécessaires lors de la phase de construction des routes sont<br />

donc minimes. En espace libre, les routes construites ont une durée de vie<br />

suffisamment longue pour ne pas nécessiter trop de maintenance.<br />

– Pour AODVϕ, la phase de construction des routes est plus délicate et<br />

implique plus de noeuds, elle nécessite donc d’avantage de paquets de<br />

contrôles.<br />

Shadowing<br />

Lorsqu’on jette un coup d’oeil à l’overhead (Figure 17 et 18), on s’aperçoit<br />

que dans un milieu à fading fort, la courbe du protocole AODV se rapproche de<br />

celle obtenue pour AODVϕ.


78 CHAPITRE 6. EVALUATION DES PERFORMANCES<br />

Cette soudaine hausse s’explique par la stratégie de routage d’AODV. En minimisant<br />

le nombre de saut entre la source et la destination, le protocole maximise<br />

la distance parcourue à chaque saut. Les noeuds se situent souvent à la limite<br />

de la portée radio et la variation induite par le Shadowing entraîne un nombre<br />

important de ruptures des liens. A chaque rupture, une procédure de maintenance<br />

est invoquée et de nombreux messages sont nécessaires pour rétablir le lien<br />

brisé. En contre partie, les routes formées par AODVϕ ont une durée de vie plus<br />

longue, elles nécessitent moins de maintenances et permettent en Shadowing de<br />

compenser le nombre de paquets émis lors de la phase de construction.<br />

La quantité de message de contrôle joue un rôle important sur le nombre<br />

de collisions au sein de la MAC. Bien que le nombre de collisions reste supérieur<br />

pour AODVϕ, l’atténuation de sa valeur est plus importante que pour AODV lors<br />

du passage du modèle FreeSpace (Figure 25) au modèle Shadowing (Figure 26).<br />

Cette atténuation moins importante pour AODV s’explique par l’accroissement<br />

du nombre de message de contrôle nécessaire au protocole pour maintenir ses<br />

routes.<br />

6.3.2 Impacte de la mobilité<br />

La réduction de la mobilité en Freespace profite d’avantage à AODVϕ. Lorsque<br />

les noeuds se stabilisent, les routes établies se maintiennent plus longtemps, il en<br />

résulte une meilleure réutilisation des chemins préalablement établis et la phase<br />

de construction de nouvelles routes devient alors moins gourmande.<br />

En Shadowing l’atténuation semble identique pour les deux protocoles. On<br />

retrouve un comportement similaire pour le nombre de collisions présent sur le<br />

média (Figure 28).<br />

6.4 Average End-To-End Delay (EED)<br />

6.4.1 Impacte du nombre de sources<br />

FreeSpace<br />

La croissance du délai en fonction du nombre de sources actives (Figures 9<br />

et 10) n’est pas sans nous rappeler la chute du PDF dans les même conditions<br />

(Figures 3 et 4). Ces deux phénomènes sont liés à la croissance du nombre de<br />

messages de contrôle nécessaires pour la construction des routes (Figure 15) et<br />

du nombre de collisions qui en résulte à la MAC (Figure 25). Chaque fois qu’une<br />

collision se produit, l’émission de la trame est différée par l’algorithme d’attente<br />

stochastique de 802.11. Lorsque cette attente arrive à son terme, la retransmission<br />

est sujette à la même probabilité de collisions que la précédente et grandit avec le<br />

nombre de sources actives. A partir de 20 sources, le nombre de noeuds participant<br />

aux routes est important et le délai passe la barre des 300 ms.


6.4. AVERAGE END-TO-END DELAY (EED) 79<br />

Un autre facteur qui impacte sur le délai total est le délai d’attente dans les<br />

buffers avant que le paquet ne soit traité.<br />

Dans l’implémentation d’un noeud mobile dans Ns, chaque noeud possède deux<br />

Queue :<br />

1. la première est située au niveau de la couche réseau : elle permet de stocker<br />

les paquets contenant des données le temps de trouver une route pour les<br />

acheminer.<br />

2. la seconde se situe entre la couche réseau et la sous-couche MAC : elle<br />

permet de conserver les paquets devant être transmis par la MAC et porte<br />

le nom d’InterFace Queue (IFQueue).<br />

La Figure 35 illustre le taux de perte des paquets de la Queue Réseaux. Les<br />

pertes sont dues soit à une surcharge soit au délai d’expiration du paquet dans<br />

la queue. La Queue gère les suppressions selon une politique de FIFO (First In<br />

First Out) tandis que l’extraction des paquets de la queue se fait selon l’adresse<br />

du destinataire. Plus le nombre de sources actives grandit, et plus le nombre de<br />

paquets devant être relayés par les noeuds intermédiaires est important. AODVϕ<br />

construit des routes constituées de plus de noeuds que AODV, il est donc normal<br />

que la probabilité de congestion de la route soit plus importante.<br />

L’impacte majeure des files d’attentes sur le protocole AODVϕ se situe avant<br />

tout au niveau de l’IFQueue. Elle utilise une gestion de Priority Queue donnant<br />

la priorité aux paquets de contrôles du protocole (RREQ, RREP, RERR).<br />

L’overhead étant supérieur pour AODVϕ, celui ci se retrouve d’avantage affecté.<br />

Chacun des paquets de contrôle est traité avant de commencer l’émission des<br />

paquets contenant des données. Cette gestion bien que nécessaire constitue une<br />

source importante de l’accroissement du délai.<br />

AODV quant à lui ne démontre qu’une légère hausse du délai tout comme il<br />

ne présentait qu’une légère hausse de l’overhead (Fig. 15 et 16).<br />

Shadowing<br />

Dans un environnement indoor constitué de noeuds mobiles (Figure 11), la<br />

donne change complètement. AODV ne parvient pas à descendre en dessous des<br />

100 ms tandis AODVϕ présente un délai raisonnable de 60 ms pour 10 sources<br />

actives. Lorsque le nombre de sources augmente, le nombre de collisions augmente<br />

proportionnellement et il en va de même pour le délai qui est impacté par les<br />

retransmissions nécessaires pour acheminer les paquets d’un noeud à l’autre.<br />

La subite hausse du délai pour AODV peut s’expliquer à nouveau par sa<br />

politique de routage. De nombreux lien sont brisés lors de chaque transmission<br />

et des procédures de maintenance sont constamment invoquées. En revanche,<br />

AODVϕ travaille sur des routes plus longue à établir mais avec un durée de<br />

vie plus importante. En phase de régime, les routes préalablement établies se


80 CHAPITRE 6. EVALUATION DES PERFORMANCES<br />

maintiennent plus longtemps, elles raccourcissent le délai de construction des<br />

nouvelles routes et nécessitent moins de maintenance. Une fois les routes établies,<br />

les paquets de données sont donc transmis plus rapidement le long des routes<br />

formées par AODVϕ. Ceci n’est cependant vrais que lorsque le nombre de sources<br />

reste modéré, dans le cas contraire le nombre de noeuds entrant en jeux provoque<br />

de nombreuses collisions qui alourdissent le délai des transmissions.<br />

6.4.2 Impacte de la mobilité<br />

Les Figures 13 et 14 montrent l’impacte de la mobilité sur le end-to-end delay<br />

pour 10 sources actives. En FreeSpace la décroissance de la courbe est moins<br />

importante qu’en Shadowing. Lorsqu’on compare cette décroissance à celle de<br />

l’overhead (Figures 20 et 21) et à celle des collisions (Figures 27 et 28) on se<br />

rend bien compte que le phénomène est justifié. Le end-to-end delay est une<br />

métrique qui varie selon la charge du réseau, le nombre de noeuds intermédiaires<br />

et le nombre de collisions. La mobilité des noeuds se répercutant sur chacun de<br />

ces paramètres, elle se répercute forcément sur le end-to-end delay de manière<br />

proportionnelle.<br />

6.5 Pertes de paquets<br />

6.5.1 La sous-couche MAC<br />

Shadowing<br />

Les Figures 21 et 22 illustrent les proportions des pertes de paquets de la<br />

sous-couche MAC pour les deux protocoles. La répartition est fort semblable,<br />

avec un léger surplus de collisions pour AODVϕ. La Figure 23 compare les deux<br />

protocoles et quantifie chacune des raisons des pertes de paquets. Excepté pour<br />

le nombre de collisions, les autres valeurs restent relativement proches pour les<br />

deux protocoles.<br />

FreeSpace<br />

Lorsqu’on passe à un environnement FreeSpace, le nombre de collision est<br />

tellement important qu’il occupe 99% des pertes de paquets de la MAC. Ce<br />

phénomène est encore plus important pour AODVϕ et est quantifié sur la Figure<br />

24.


6.5. PERTES DE PAQUETS 81<br />

6.5.2 La couche réseau<br />

Shadowing<br />

Les Figures 30 et 32 illustrent le rapport des pertes de paquet de lacouche<br />

Réseau. On remarque à un nouveau une répartition similaire entre les deux protocoles.<br />

Bien que la stratégie de routage ait quelque peu changée, AODVϕ repose<br />

en grande partie sur AODV. Il est donc normal de voir des valeurs assez proches<br />

pour les deux protocoles qui partagent une grande partie de leurs codes. La Figure<br />

34 quantifie le rapport qu’il existe entre les deux protocoles, on remarque à<br />

présent qu’au niveau de la couche réseau (en Shadowing) la différence entre les<br />

deux protocoles est moins évidente que pour la sous-couche MAC.<br />

FreeSpace<br />

En FreeSpace par contre (Figure 29 et 31), la différence est plus marquée<br />

entre les deux. Le nombre de paquet qui bouclent pour AODVϕ est inquiétant<br />

et met en avant une moins bonne dissémination des paquets de contrôle dans le<br />

réseau. Ce comportement nécessite de plus amples investigations afin de mesurer<br />

son impacte sur le routage des paquets de données. Des paquets bouclant dans le<br />

réseau pourraient être une source importantes de collisions supplémentaires qui<br />

viennent entacher les performances peux glorieuses du protocole en FreeSpace.


Chapitre 7<br />

GWAODV vs iAODVϕ<br />

7.1 GWAODV<br />

GateWay AODV (GWAODV)[3] fut développé par Carbone Bayani lors de<br />

son MFE, son but est d’étendre la couverture d’un réseau cellulaire en utilisant<br />

les réseaux Ad-Hoc. Le protocole repose sur le fait que chaque noeud maintient<br />

une table de Gateway qui lui permet de communiquer avec le réseau cellulaire.<br />

Ce protocole emprunte des concepts liés aux protocoles AODV et ABR.<br />

GWAODV est un protocole hybride, les informations concernant les gateways<br />

sont diffusées dans le réseau grâce aux messages Hello du protocole AODV et ce<br />

afin de maintenir continuellement ces informations à jours. Le routage vers les<br />

autres noeuds du réseau s’établit de manière réactive et est pris en charge par les<br />

procédures standards d’AODV.<br />

Lorsqu’un noeud nécessite un accès au réseau cellulaire et qu’aucune station<br />

de base n’est à portée, il choisit alors une entrée dans sa table des gateways<br />

et envoie ses paquets le long de cette route. Le gateway se chargera alors de<br />

transmettre ces messages au réseau cellulaire. Le choix du gateway repose sur<br />

plusieurs métriques qui sont fonctions des besoins de l’application source.<br />

7.1.1 Les messages Hello<br />

Les messages Hello sont des messages de contrôle envoyés à intervalles réguliers<br />

entre les voisins. Deux types de messages Hello sont utilisés dans GWAODV : les<br />

messages Hello standards utilisés par AODV et les Gateway Hello qui ajoutent<br />

au standard des informations sur les gateways.<br />

83


84 CHAPITRE 7. GWAODV VS IAODVϕ<br />

7.1.2 Table des voisins et Associativité<br />

Chaque noeud maintient une table des voisins contenant les champs suivants :<br />

• Adresse IP du voisin<br />

• Niveau d’associativité<br />

• Compteur de Messages Hello perdus<br />

• Active Time<br />

• Expire Time<br />

Tant qu’un noeud reçoit régulièrement des messages Hello de la part d’un voisin,<br />

le niveau d’associativité entre les deux noeuds continuera de grandir jusqu’à ce<br />

que la valeur maximale permise soit atteinte. Ce procédé est illustré à la figure<br />

7.2. Si un noeud ne reçoit pas de message Hello de la part d’un voisin durant la<br />

Fig. 7.1: Augmentation du niveau d’associativité entre deux noeuds<br />

période définie par l’Active Time, le niveau d’associativité est décrémenté de un<br />

et le compteur de messages Hello perdus est incrémenté de un. Si ce compteur<br />

dépasse cinq, la valeur du compteur est soustraite à celle du niveau d’associativité.<br />

Le compteur de messages perdu sera réinitialisé à zéro lorsque le noeud recevra<br />

à nouveau un message du voisin. Ce processus est illustré à la figure ?? où le<br />

noeud 2 s’éloigne du noeud 1 entraînant la chute du niveau d’associativité entre<br />

les deux noeuds.<br />

Fig. 7.2: Chute du niveau d’associativité entre deux noeuds


7.1. GWAODV 85<br />

Si aucun message Hello n’est reçu de la part d’un voisin durant l’intervalle<br />

Expire Time, l’entrée correspondante est supprimée de la table des voisins.<br />

Les gateways reposent sur le même principe, ils sont chargés de maintenir le<br />

niveau d’associativité entre eux et la NodeB du réseau cellulaire.<br />

7.1.3 Métriques et sélection du gateway<br />

Dans GWAODV, les noeuds se basent sur plusieurs métriques pour l’élection<br />

du gateway. Ils utilisent les informations recueillies dans les messages Gateway<br />

Hello reçu de leurs voisins pour calculer :<br />

– Le nombre de saut pour atteindre le gateway<br />

– Le niveau d’associativité moyen le long de la route<br />

– La variance du niveau d’associativité le long de la route<br />

– Le niveau d’associativité entre le gateway et la station de base<br />

Un poids peut être donné à ce dernier paramètre afin de lui accorder plus d’importance<br />

dans le calcul du niveau d’associativité de la route.<br />

Une procédure de sélection du gateway est invoquée chaque fois qu’une route<br />

vers un gateway est désirée. Le choix du gateway dépend des paramètres d’entrées<br />

de l’algorithme. Caque métrique d’entrée est analysée séquentiellement ordonnançant<br />

ainsi les gateways différemment selon leurs ordres d’évaluation. Une fois<br />

toutes les métriques analysée, le premier gateway de la liste des résultats sera<br />

choisi pour acheminer le trafic.<br />

L’algorithme prend également un paramètre de tolérance en entrée afin de<br />

trouver le gateway se rapprochant le plus possible des métriques d’entrées.<br />

7.1.4 Table des Gateways<br />

Chaque noeud garde une trace dans la table Gateway de chaque gateway<br />

découvert grâce aux messages Hello Gatway. Une entrée est également rajoutée<br />

si le noeud a une connexion directe avec la station de base.<br />

Une entrée dans la table est constituée des champs suivants :<br />

– ID de l’entrée<br />

– Adresse IP du gateway<br />

– La moyenne du niveau d’associativité de la route<br />

– La variance du niveau d’associativité de la route<br />

– Le niveau d’associativité entre le gateway et la station de base<br />

– L’adresse IP du prochain noeud sur la route<br />

– L’ID de l’entrée dans le prochain noeud<br />

– Une Associativity Path List<br />

– Un bit de mise à jour<br />

– Expire Time<br />

L’ID de l’entrée est un simple compteur incrémenté avant chaque insertion dans


86 CHAPITRE 7. GWAODV VS IAODVϕ<br />

la table. L’ID de l’entrée du prochain noeud est utilisé pour sélectionner le même<br />

gateway dans la table du noeud suivant sur la route. Cet ID est nécessaire car<br />

il peut exister plusieurs chemins vers un même gateway, cet identifiant permet<br />

alors de les distinguer.<br />

L’Associativity Path List contient les paires (Adresse du noeud, Associativité<br />

avec le prochain noeud). Elle est nécessaire pour calculer la variance du niveau<br />

d’associativité de la route et pour éviter la formation de boucle dans le réseau. A<br />

la réception d’un paquet Hello gateway, le noeud vérifiera s’il ne fait pas partie<br />

de la liste des noeuds parcourus par la route. Si c’est le cas, il supprimera le<br />

paquet pour éviter la formation de boucles dans le réseau. Dans le cas contraire,<br />

il copiera dans sa table l’Associativity Path List contenue dans le message Hello<br />

Gateway.<br />

Le bit de mise à jour indique à un noeud qu’une entrée à été mise à jour<br />

depuis qu’il a envoyé son dernier message Hello Gateway. Si le bit est mis à un,<br />

le prochain message Hello sera un message Gateway, dans le cas contraire un<br />

message Hello standard sera envoyé.<br />

7.1.5 Création des messages Hello Gateway<br />

Un message Hello Gateway est généré à la place d’un message Hello standard<br />

lorsqu’un noeud possède au moins une nouvelle entrée dans table des gateways<br />

(Bit de mise à jour mis à un). Ce message comporte les champs suivants :<br />

– Adresse IP du gateway<br />

– ID de l’entrée dans la table<br />

– Associativity Path List<br />

– Un vecteur de 5 gateways obsolètes<br />

Lors de l’émission le bit de mise à jour est remis à zéro et le message Hello est<br />

envoyé en broadcast aux noeuds voisins. La liste des gateways obsolètes contient<br />

une liste des routes qui ont expirées, elle permet aux autres noeuds de supprimer<br />

les entrées dans leurs table plus rapidement qu’en attendant l’expiration du timer.


7.2. MOTIVATIONS 87<br />

7.2 Motivations<br />

Le protocole GWAODV fut la première tentative pour l’hybridation entre<br />

les réseaux Ad-Hoc et les réseaux cellulaires. Bien qu’elle soit une réussite dans<br />

l’implémentation d’un noeud à double interface, elle présente quelques lacunes<br />

dans le domaine du routage.<br />

Tout d’abord, afin de mesurer l’associativité qu’il existe entre les noeuds<br />

voisins, chaque poste mobile émet des messages Hello à intervalles réguliers.<br />

Cette pratique, bien que nécessaire pour les mesures entreprises, est une charge<br />

supplémentaire pour le réseau et une source de dissipation d’énergie. De plus, la<br />

détection d’une cassure d’un lien de communication est plus lente qu’un système<br />

reposant sur un feedback de la sous-couche MAC.<br />

Ensuite, la gestion des informations de routage pour les gateways se fait de<br />

manière proactive par inondation du réseau de message Gateway HELLO en<br />

provenance des gateways. Pour rappel, les méthodes proactives sont réputées<br />

pour introduire des incohérences dans les tables de routage. Ceci est du au temps<br />

que mettent les informations émises à se propager dans le réseau.<br />

Par manque de temps lors de sa conception, GWAODV est dépourvu de routines<br />

de maintenances et de reconstructions de routes lorsqu’un lien est brisé. Si le<br />

noeud détectant la cassure de possède pas de routes alternatives vers un gateway<br />

quelconque, tous les paquets arrivant seront perdus. Il en va de même pour les<br />

paquets qui arrivent à un gateway qui a perdu sa connectivité avec la station de<br />

base et qui ne possède pas d’autres routes dans ses tables vers un confrère.


88 CHAPITRE 7. GWAODV VS IAODVϕ<br />

7.3 iAODVϕ<br />

Le protocole iAODVϕ (internet AODVϕ) regroupe de nombreux concepts<br />

issus de chacun des protocoles que nous venons de présenter, il est le sujet de ce<br />

travail. Les changements majeurs qui furent apportés résident dans :<br />

1. l’intégration du protocole de routage iAODVϕ et de son contrôle de puissance<br />

dans la pile de protocoles du noeud à double interface<br />

2. l’élaboration d’une méthode réactive de gestion des gateways ainsi que le<br />

développement de méthodes de maintenances et de réparations de routes.<br />

3. le rétablissement des fonctions de traces ∗ conforme à celles du Network Simulator<br />

afin de permettre l’analyse détaillée des performances du protocole.<br />

La figure 7.3 illustre le schéma d’un noeud à double interface dans le simulateur<br />

Ns2. Deux piles de protocoles coexistent au sein d’un même noeud pour lui<br />

permettre de switcher entre une communication UMTS avec une NodeB et une<br />

communication Wifi avec les noeuds du réseau Ad-Hoc. L’agent de routage NOAH<br />

fait office d’aiguilleur, il redirige les paquets vers le bon stack selon leurs types et<br />

selon que le noeud soit gateway ou non. Les zones en rouge sur le schéma indiquent<br />

l’emplacement des modifications pour l’implémentation du protocole iAODVϕ.<br />

Toutes ont été sujettes à des modifications pour l’implémentation des traces, la<br />

sous-couche MAC intègre le contrôle de puissance et le reste des changements est<br />

centralisé au sein la couche réseau iAODVϕ.<br />

7.3.1 Gestion des gateways<br />

La gestion des routes internes au réseau Ad-Hoc est assurée par le mécanisme<br />

de création et de maintenance des routes du protocole AODV. La seule différence<br />

se situe dans le critère de sélection de la route qui minimise la distance internoeuds<br />

pour répondre aux exigences du protocole AODVϕ.<br />

Lorsqu’un chemin vers un gateway est requis pour écouler du trafic, un RREQ<br />

est envoyé en broadcast vers une adresse factice. A la réception d’un tel message,<br />

chaque noeud intermédiaire établit une reverse route vers la source du RREQ. Si<br />

un de ces noeuds est actuellement gateway, il émettra un RREP en unicast vers<br />

la source en y incluant sont adresse. Dans le cas contraire, il se contentera de<br />

forwarder la demande. Le RREP continent un champ spécial permettant de faire<br />

la distinction entre un RREP émis pour une requête de route interne ou pour<br />

une requête vers le monde extérieur. Dans ce dernier cas, chaque noeud traversé<br />

par le message enregistrera le gateway dans ses tables et le prochain noeud pour<br />

l’atteindre.<br />

Lorsque le protocole est en phase de régime, les noeuds intermédiaires qui<br />

possèdent une ou plusieurs routes vers des gateways sont autorisés à répondre<br />

∗ Celles ci avaient été perdues lors de l’implémentation du noeud à double interface


7.3. IAODVϕ 89<br />

en incluant l’adresse du meilleur gateway qu’ils possèdent. Le choix du meilleur<br />

gateway repose sur l’associativité de ce dernier avec la NodeB, ces informations<br />

sont donc également véhiculées dans les messages RREP émanant des gateways.<br />

Bien que les paquets soient écoulés vers un gateway en particulier, ceux ci<br />

pourront être transmis à la NodeB par n’importe quel gateway se trouvant sur<br />

le chemin. Ce choix d’implémentation s’explique par le fait que l’élection d’un<br />

gateway ayant une bonne associativité avec une station de base détermine une<br />

zone de bonne couverture plutôt qu’un point précis. Etant donné qu’il y aura<br />

toujours un gateway dont l’associativité sera plus importante que celle des autres,<br />

cette pratique permet de le décharger de bons nombres de paquets et d’éviter<br />

ainsi la formation d’un goulot d’étranglement. Si le gateway intermédiaire perd<br />

la connexion avec la NodeB, il reprend alors son rôle initial et forward les paquets<br />

vers le gateway de prédilection.<br />

Lorsqu’une route est brisée, le noeud qui la détecte commence par vérifier<br />

s’il ne possède pas une route vers un autre gateway. Si c’est le cas, il redirige<br />

alors le trafic vers le nouveau chemin. Dans le cas contraire, il initie à son tour<br />

une procédure de découverte de route vers un gateway. Les noeuds entre le point<br />

de cassure et la source ne sont pas informés du changement de route. Le noeud<br />

ayant effectué la redirection est alors chargé de faire le mapping entre l’adresse<br />

initiale incluse dans le paquet et la nouvelle adresse du gateway. Chaque noeud<br />

maintient donc des informations quant au prochain noeud vers la sortie plutôt<br />

qu’une information stricte vers un gateway précis. Dans les MANETs, une cassure<br />

de lien est un évènement fréquent, cette solution permet donc d’alléger la charge<br />

du réseau en paquets de mises à jours qui n’impacte pas le choix du prochain<br />

saut pour la source.


90 CHAPITRE 7. GWAODV VS IAODVϕ<br />

Fig. 7.3: Schémas d’un noeud à double interface dans Ns


Chapitre 8<br />

Evaluation des performances<br />

8.1 Average Route Lenght<br />

Commençons par analyser la valeur moyenne du nombre de saut en considérant<br />

l’ensemble des sources actives. Avant de débuter, il semble bon de rappeler<br />

quelques points afin que le lecteur ne soit pas dérouté par les valeurs présentées.<br />

Tout d’abord, le jeu des 120 simulations effectuées à été réduit à 24 en prenant<br />

la moyenne des résultats obtenus pour les 5 scénarios faisant varier le choix des<br />

sources et l’instant de la première émission des paquets. Le but étant bien sur<br />

l’analyse de l’impacte de la mobilité et du nombre de sources sur les différents<br />

paramètres tout en gardant un maximum d’indépendance vis-à-vis de la position<br />

des noeuds. Il est donc normal de trouver des valeurs qui présentent des<br />

décimales pour certains paramètres où l’on ne s’y attend pas (par exemple le<br />

nombre maximum de sauts séparant la source du gateway).<br />

Ensuite, l’analyse à été effectuée de manière à considérer le réseau dans son<br />

ensemble. De ce fait, les paquets dont la source est un gateway seront également<br />

considérés dans le calcul des différents paramètres. Il est donc normal que des<br />

valeurs se chiffrent entre 0 et 1, elles résultent du fait que les noeuds ayant une<br />

connexion avec la NodeB sont capables d’écouler un nombre important de paquets<br />

avec un minimum de ressources.<br />

8.1.1 FreeSpace<br />

Dans le modèle FreeSpace (Figures 1), la longueur moyenne des routes pour<br />

atteindre un gateway est plus grande pour GWAODV que iAODVϕ. La longueur<br />

des routes construites par GWAODV ne semble pas être impactée par la mobilité<br />

des noeuds, sa valeur reste quasiment constante et présente une variance<br />

très faible par rapport à la moyenne (Figure 2). En revanche, iAODVϕ voit la<br />

91


92 CHAPITRE 8. EVALUATION DES PERFORMANCES<br />

longueur moyenne de ses routes diminuer lorsque les noeuds restent immobiles<br />

plus longtemps. La variance par rapport à cette moyenne est plus importante<br />

que pour AODV mais reste relativement faible. Comme le montre la Figure 5, la<br />

longueur maximale des routes est relativement similaire pour les deux protocoles<br />

et correspondent à des scénarios ou les noeuds sources sont distants du centre de<br />

la topologie (emplacement de la NodeB).<br />

8.1.2 Shadowing<br />

Lorsque l’on passe à un environnement plus dense en obstacles (Figure 3),<br />

la longueur des routes formées par iAODVϕ à tendance à se raccourcir. Ce<br />

phénomène est similaire à celui discuté pour AODVϕ et résulte de la baisse<br />

d’alternatives possibles pour la construction des routes minimisant les distances<br />

inter-noeuds. En revanche, GWAODV subit une augmentation de la longueur<br />

des routes par le passage au Shadowing et sa variance par rapport à la longueur<br />

moyenne est d’autant plus grande (Figure 4).<br />

La différence qu’il existe entre les deux protocoles n’est pas une surprise, elle<br />

est essentiellement le résultat des lacunes du protocole GWAODV quant à la<br />

gestion des gateways et la maintenance des routes. Tout d’abord, le protocole<br />

choisit un gateway selon plusieurs critères. Une fois déterminé, tout le trafic est<br />

acheminé vers cet unique point. Tant que les noeuds intermédiaires possèdent une<br />

route vers ce destinataire, ils se contentent de forwarder les paquets et ce même<br />

s’ils sont eux même devenu le meilleur gateway suite à un déplacement. De plus,<br />

lorsqu’un lien se brise (ce qui est fréquent en Shadowing), le noeud au point de<br />

cassure élit un nouveau meilleur gateway parmi les informations qu’il possède.<br />

Si une information d’un gateway plus proche n’a pas encore eu le temps de se<br />

propager ∗ , les paquets seront alors redirigés vers un noeud pouvant se trouver<br />

à une position diamétralement opposée par rapport à la NodeB. Cette théorie<br />

semble se confirmer par l’analyse de la Figure 6, le nombre de saut maximum<br />

parcouru par certains paquets dans GWAODV dépassent les 20 sauts et les valeurs<br />

moyennes restent très supérieures (Figure 3) à celles obtenues par iAODVϕ pour<br />

les mêmes simulations.<br />

∗ Pour rappel, l’émission des informations se fait à intervalles réguliers par encapsulation<br />

dans un message Gateway Hello. Il faut donc attendre un délai qui croit avec le nombre de<br />

noeuds intermédiaires pour recevoir l’information


8.2. PACKET DELIVERY FRACTION 93<br />

8.2 Packet Delivery Fraction<br />

8.2.1 Impact du nombre de sources<br />

FreeSpace<br />

Lorsqu’on regarde la Figure 7, on se rend compte que les deux protocoles<br />

ne jouent pas dans la même catégorie. Le protocole iAODVϕ plafonne à des<br />

valeurs proche de 100% tandis que GWAODV peine à franchir la barre des 40%.<br />

Lorsqu’on se penche sur la Figure 35, on se rend compte que 13% des paquets<br />

sont supprimés pour cause d’un TTL trop élevé (fixé à 30 par défaut). A ces<br />

13% viennent s’ajouter 28% de pertes pour cause de paquets qui repassent par<br />

la source.<br />

La figure relève essentiellement une majorité écrasante de paquets pour lesquels<br />

l’ARP (Address Resolution Protocole) n’a pas eu le temps de trouver<br />

l’adresse MAC du correspondant. Cet élément devrait être analysé plus en profondeur,<br />

il peut être révélateur d’un disfonctionnement de la gestion des adresses<br />

ou tout simplement d’un débit trop rapide des paquets en provenance de la couche<br />

réseau. L’implémentation de l’ARP dans Ns ne permet de traiter qu’une seule<br />

requête à la fois, si l’émission des paquets par la couche réseau n’est pas retardée<br />

correctement pour aider l’ARP, celui ci peut vite se retrouver déborder<br />

et abandonne la résolution précédemment entamée. Les problèmes liés à l’ARP<br />

sont également présent pour iAODVϕ (Figure 36) qui sont l’unique cause de ses<br />

pertes de paquets en FreeSpace. Cependant, les pertes de paquets pour iAODVϕ<br />

sont presque nulles et le phénomène n’est pas de la même ampleur pour les deux<br />

protocoles. On retrouve l’impacte de l’ARP sur les Figures 31 et 32 des pertes<br />

de la MAC. Les taux élevés de 29% et de 15%, respectivement pour GWAODV<br />

et iAODVϕ, sont liés à un Invalid State de la MAC. Ce cas se présente lorsqu’un<br />

noeud reçoit un CTS ou un ACK qui lui est adressé alors qu’il n’a pas émis de<br />

RTS ou de DATA (ou que le paquet ait expiré pour cause de Max Retry). Ces<br />

valeurs nécessitent d’avantage de tests afin de mieux comprendre le problème qui<br />

pourrait être lié à l’implémentation du noeud à double interface.<br />

Le nombre de collisions à la MAC reste la cause majeure de perturbation<br />

pour le protocole iAODVϕ. Bien que le protocole GWAODV forme des routes<br />

composées d’avantage de noeuds intermédiaires, il ne possède pas de contrôle de<br />

puissance et forme donc une zone de protection faisant taire d’avantage de noeuds<br />

simultanément. Si un noeud en mouvement vient créer une perturbation lors d’une<br />

transmission, il se produira alors une seule collision dans cette zone. En contre<br />

partie, iAODVϕ permet une meilleure réutilisation du canal de communication<br />

grâce à son contrôle de puissance. Dès lors, le même noeud en mouvement pourrait<br />

perturber plusieurs transmissions en cours pour la même zone. Le nombre de<br />

collisions à la MAC reste donc plus important pour iAODVϕ que pour GWAODV


94 CHAPITRE 8. EVALUATION DES PERFORMANCES<br />

tel qu’il l’était pour AODVϕ vis-à-vis de AODV.<br />

Shadowing<br />

Le passage au Shadowing (Figure 8) impacte les deux protocoles. GWAODV<br />

subit une perte de l’ordre de 20% tandis que iAODVϕ ne baisse que de 12%<br />

environ. Le score impressionnant iAODVϕ témoigne de l’amélioration apportée<br />

par AODVϕ, pour rappel celui-ci offrait un gain allant jusqu’à 40% par rapport<br />

à AODV. La différence entre les deux protocoles par le passage au Shadowing<br />

est moins marqué que pour AODV-AODVϕ. Ceci s’explique par le fait<br />

que GWAODV se base sur l’associativité des noeuds, ce qui constitue également<br />

une forme de minimisation du BER de la route. La croissance du nombre de<br />

sources actives améliore quelques peux les résultats de GWAODV, offrant une<br />

probabilité plus importante qu’une source soit gateway ou quelle n’en soit pas<br />

loin. Par contre, iAODVϕ ne semble pas y prêter attention et fait preuve d’une<br />

bonne scalabilité. La Figure 10, en revanche, nous montre le même scénario mais<br />

dans une situation statique. L’augmentation du nombre de sources dans cette<br />

situation semble affecter GWAODV et les deux protocoles subissent une perte<br />

qui sera discutée au point suivant traitant de la mobilité.<br />

Les Figures 33et 34 révèlent une découpe similaire des pertes de la MAC<br />

avec une diminution importante du nombre de collisions pour iAODVϕ. La très<br />

grande valeur du nombre de pertes liées à des retransmissions sans succès (MAX<br />

RETRY) nous montre l’importance de la détection des signes de mobilité. Il<br />

serait intéressant de faire varier la valeur maximale de ce paramètre en fonction<br />

de la mobilité et de trouver une valeur qui optimise la valeur du nombre de<br />

retransmissions avant l’abandon.<br />

Les Figures 37 et 38 illustrent les raisons des pertes de paquets à la couche<br />

Réseau. On observe pour GWAODV une perte de 29% des paquets par manque<br />

de procédures de maintenances des routes qui l’obligent à supprimer tous les<br />

paquets lorsqu’il ne possède pas d’entrée dans sa table des gateways. On relève<br />

également les mêmes problèmes que pour les scénarios FreeSpace : Une émission<br />

trop rapide des paquets par la couche réseau (ARP FULL), des boucles et des<br />

routes trop longues.<br />

iAODVϕ en revanche présente une majorité écrasante des pertes liées à la<br />

découverte des routes. Lorsque trois RREQ sont envoyés pour une destination<br />

sans que de RREP ne soit émis, tous les paquets pour la destination sont supprimés.<br />

Les timers des RREQ ont été expressément modifiés pour ne pas impacter<br />

sur le End-To-End delay. Un meilleur PDF aurait donc pu être obtenu si un délai<br />

de plus de 180 ms avait été toléré.


8.3. ROUTING OVERHEAD 95<br />

8.2.2 Impacte de la mobilité<br />

Les Figures 11 et 12 illustrent l’impacte de la mobilité sur le PDF pour les<br />

deux protocoles en FreeSpace et en Shadowing. A l’exception de iAODVϕ en<br />

FreeSpace, l’inertie des noeuds semble avoir un impacte négatif sur le PDF. Ceci<br />

s’explique par le fait qu’un noeud en mouvement peut passer à son tour à portée<br />

de la NodeB et ne plus nécessiter du réseau Ad-Hoc pour transmettre ses paquets.<br />

Lorsqu’un noeud est immobile et qu’il n’existe aucune route envisageable vers un<br />

gateway, un nombre important de paquets est alors perdu ce qui contribue à faire<br />

chuter le PDF.<br />

8.3 Routing Overhead<br />

Si il y a une métrique sur laquelle les deux protocoles ne sont pas comparable<br />

c’est bien l’overhead. Comme nous pouvons le voir sur les Figures 19 et<br />

20, l’overhead engendré par l’émission des informations de gateway du protocole<br />

GWAODV est au minimum vingt fois supérieure à la gestion réactive de<br />

iAODVϕ. Le meilleur des cas pour le protocole GWAODV étant lorsque le nombre<br />

de sources qu’il alimente est important. Dans le cas contraire, l’overhead passe<br />

la barre des 600% ce qui représente une source de congestion et une consommation<br />

d’énergie disproportionnées par rapport au nombre de paquets de donnée<br />

transmis.<br />

En FreeSpace le protocole iAODVϕ ne dépasse pas les 5%. Ce chiffre est le<br />

résultat d’une gestion simplifiée du reroutage des paquets au point de cassure de<br />

la route. Si un chemin alternatif est connu, aucun message supplémentaire n’est<br />

nécessaire ni pour la reconstruction, ni pour avertir la source du changement de<br />

route. Le noeud se charge seul du mapping entre l’ancienne adresse du gateway<br />

et celle de la nouvelle route.<br />

En Shadowing (Figure 25 et 26), le protocole se stabilise entre 25 et 40%. Le<br />

70% de la Figure 26 peut s’expliquer par le fait que lorsque le nombre de sources<br />

est faible et qu’ils sont immobiles, la probabilité que ces noeuds n’ai aucun chemin<br />

possible vers un gateway est important. Le délai d’expiration des RREQ ayant<br />

été modifié pour minimiser le end-to-end delay, ces noeuds sont alors des sources<br />

importantes de RREQ qui viennent entacher le résultat. De manière générale,<br />

lorsque les noeuds sont statiques ont voit une croissance importante du nombre<br />

de RREQ qui restent sans réponses (Figure 38 et 39). L’overhead subit alors une<br />

croissance importante comme en témoigne la Figure 30.


96 CHAPITRE 8. EVALUATION DES PERFORMANCES<br />

8.4 Average End-To-End Delay<br />

Le end-to-end delay est présenté de la Figure 13 à 18 en fonction de la mobilité<br />

et du nombre de sources. Il se situe entre 15 et 35 ms pour un environnement<br />

FreeSpace ou les noeuds sont mobiles. Le passage au Shadowing repositionne sa<br />

moyenne entre 25 et 40 ms ce qui reste amplement suffisent pour envisager le<br />

passage d’un trafic voix sur le réseau.<br />

GWAODV quant à lui ne se défend pas trop mal en FreeSpace mais ne parvient<br />

pas à descendre en dessous des 100 ms lorsqu’il passe en Shadowing. On<br />

constate donc à nouveau que le protocole GWAODV paye le prix de son manque<br />

de procédure de maintenance de route. Certaine route formée par GWAODV<br />

dépassait les 20 noeuds intermédiaires ce qui impacte négativement sur la valeur<br />

moyenne du délai.


Chapitre 9<br />

Conclusions<br />

L’objectif premier de ce travail est l’élaboration d’un protocole de routage<br />

permettant l’extension des réseaux cellulaires au travers des réseaux Ad-Hoc. Les<br />

problèmes de couverture apparaissent essentiellement en indoor où la propagation<br />

des ondes est sujette à de nombreuse perturbations. Le deuxième objectif de ce<br />

travail est donc de fournir une solution viable dans un tel milieu.<br />

Afin de mieux comprendre les problèmes qui surviennent en indoor, le premier<br />

chapitre était consacré à la propagation des ondes et aux facteurs d’atténuations.<br />

Le problème étant posé, le second chapitre se focalisait sur l’évolution architecturale<br />

et protocolaire des réseaux cellulaires. L’évolution est actuellement<br />

au stade de la troisième génération qui couple les services traditionnels de la<br />

téléphonie à ceux de l’Internet haut débit. Les exigences en termes de ressources<br />

sont importantes, la QoS des réseaux cellulaire impose des contraintes fortes en<br />

termes de délai, de gigue et de pertes de paquets. Il est essentiel que la solution<br />

proposée puisse se rapprocher un maximum de ces contraintes afin d’être<br />

considérée comme une solution envisageable.<br />

Bien qu’a première vue idéal par la facilité de leurs mises en place, les réseaux<br />

Ad-Hoc ont également leurs lots de limitations. Le chapitre 3 était donc consacré<br />

tant aux aspects théorique qu’à la mise en avant des problématiques du routage<br />

dans de tels réseaux, surtout lorsqu’ils sont déployé dans un environnement à<br />

fading fort.<br />

Le contexte et les challenges énoncés, la deuxième partie de ce travail présentait<br />

une solution regroupant des concepts issus des travaux antérieurs dans le domaine.<br />

Le premier apport est issu du protocole AODVϕ, il s’agit d’une solution basée<br />

sur un design cross-layer qui vise à minimiser le BER de la route. Il permet dans<br />

un environnement indoor d’afficher un gain en termes de transmission sans erreurs<br />

allant jusqu’à 40<br />

97


98 CHAPITRE 9. CONCLUSIONS<br />

Le second apport de la solution proposée est issu du protocole GWAODV. Il<br />

présente une solution au développement d’un noeud à double interface permettant<br />

de switcher rapidement entre le réseau Ad-Hoc et le réseau UMTS lorsque celui-ci<br />

est disponible. Le protocole présente malheureusement quelques lacunes en termes<br />

de routage et de maintenance des routes. Il en résulte alors que de nombreux<br />

paquets n’aboutissent pas jusqu’à destination et on constate un faible taux du<br />

Packet Delivery Fraction. De plus, la gestion des gateways était faite de manière<br />

proactive ce qui avait pour conséquence d’accroitre les délais de propagation des<br />

informations de routage. Une telle gestion venait pâlir les résultats du PDF, du<br />

end-to-end delay et engendrait surtout un overhead considérable sur le réseau.<br />

Afin de combler ces lacunes, le protocole iAODVϕ fut développé dans le cadre<br />

de ce travail. Il change de manière radicale la gestion des gateways en repassant<br />

à une solution réactive où les gateways ne sont sollicités que lorsqu’ils sont<br />

nécessaires.<br />

Des procédures de maintenances des routes ont été développées et permettent<br />

de rapidement rediriger rapidement le trafic vers un autre point de sortie. Ces<br />

procédures de réparation minimisent les échangent d’informations au stricte minimum<br />

et limitent ainsi la charge imposée au réseau.<br />

Afin de bénéficier du même gain qu’AODVvarphi en indoor, le protocole<br />

intègre ses procédures de gestions de routes ainsi que son contrôle de puissance.<br />

La multiplication des chemins possibles vers la NodeB couplé à une gestion<br />

du routage indépendante du gateway emprunté offre des résultats probants. En<br />

indoor, les délais ne dépassent pas les 30 ms et le protocole offre un taux de<br />

avoisinant les 90% de paquets bien transmis grâce au couplage avec AODVvarphi.<br />

La minimisation des paquets de contrôles nécessaire pour la gestion des gateways<br />

vient compenser le surplus généré par AODVvarphi lors de la création des routes.<br />

La charge reste donc restreinte ce qui fait chuter le nombre de collisions.<br />

La solution proposée semble à première vue offrir une possibilité réelle pour<br />

l’hybridation entre les réseaux Ad-hoc et UMTS. Cependant de nombreuses simulations<br />

doivent encore être réalisées afin de mesurer par exemple l’impact de<br />

l’intégration de procédures de sécurité. Il serait également intéressant d’introduire<br />

des aspects de QoS au protocole et d’analyser leur impact sur les résultats. Une<br />

différentiation de trafic par exemple permettrait dans l’absolu de décharger les<br />

routes rapides du trafic data (aux contraintes temporelles faibles) et ce au profils<br />

des flux voice et vidéo.


Bibliographie<br />

[1] Ieee std. 802.11, part 11 : Wireless lan medium access control (mac) and physical<br />

layer (phy) specifications, amendment 8 : Medium access control (mac) quality of<br />

service enhancements. Technical report.<br />

[2] Overview of the universal mobile telecommunication system. Internet Draft, July<br />

2002.<br />

[3] Carbone Bayani. Routing protocols for interconnecting cellular and ad-hocnetworks.<br />

Master’s thesis, Université Libre de Bruxelles, 2005-2006.<br />

[4] Ghislain Bocq. Elec 321, public networks. Technical report, ULB, 2007.<br />

[5] W. Liu C.-C. Chiang, H.-K. Wu and M. Gerla. Routing in clustered multihop mobile<br />

wirelless networks with fading channel. 1997.<br />

[6] Hee Yong Youn Chansu Yu, Ben Lee. Energy Efficient Routing Protocols for Mobile<br />

Ad Hoc Networks. 2001.<br />

[7] Elizabeth M. Belding-Royer Charles E. Perkins and Samir R. Das. Ad hoc ondemand<br />

distance vector (aodv) routing, draft-ietf-manet-aodv-13.txt. Technical report,<br />

Mobile Ad Hoc Networking Working Group, http ://www.ietf.org/internetdrafts/draft-ietf-manet-aodv-13.txt.<br />

[8] Marco Conti. The Handbook of Ad Hoc Wireless Networks : Body, Personal, and<br />

Local Ad Hoc Wireless Networks. CRC PRESS, 2002.<br />

[9] David A. Maltz David B. Johnson and Josh Broch. DSR : The Dynamic Source<br />

Routing Protocol for Multi-Hop Wireless Ad Hoc Networks in Ad Hoc Networking.<br />

Addison-Wesley, 2001.<br />

[10] Sung-Ju Lee Elizabeth M. Royer and Charles E. Perkins. The effects of mac protocols<br />

on ad hoc network communication.<br />

[11] Mounir FRIKHA and Jamila BEN SLIMANE. A Performance Comparison of<br />

Energy Consumption for Mobile Ad Hoc Networks Routing Protocols. GRES 2006,<br />

7˚Colloque Francophone de Gestions de Réseaux et de Services, 2006.<br />

[12] Gianluigi Ferrari Jean-Michel Dricot. Physical layer-constrained routing in indoor<br />

ad-hoc wireless networks. Sbmitted to Springer Wireless Networks (WINET), 2007.<br />

99


100 BIBLIOGRAPHIE<br />

[13] Philippe De Doncker Jean-Michel Dricot and Esteban Zimànyi. Multivariate analysis<br />

of the cross-layer interaction in wireless networks simulations.<br />

[14] L. Buttyan Jean-Pierre Hubaux and S. Capkun. The Quest for Security in Mobile<br />

Ad Hoc Networks. October 2001.<br />

[15] Hu Johnson, Maltz. The Dynamic Source Routing Protocol for Mobile Ad Hoc Networks<br />

(DSR). Draft IETF, http ://www.cs.cmu.edu/ dmaltz/internet-drafts/draftietf-manet-dsr-09.txt,<br />

April 2003.<br />

[16] Antonakakis E. Karygiannis A. and Apostolopoulos A. Detecting Critical Nodes for<br />

MANET Intrusion Detection Systems. June 2006.<br />

[17] Kannan Varadhan Kevin Fall. The ns manual (formerly ns notes and documentation).<br />

Technical report, http ://www.isi.edu/nsnam/ns/doc/index.html.<br />

[18] Kitty Wilson Jarrett Lillian Goleniewski. Telecommunications Essentials : The<br />

Complete Global Source, volume Second Edition. Addison Wesley Professional, October<br />

2006.<br />

[19] M. Dohler M. J. Nawrocki and A. Hamid Aghvami. Understanding UMTS Radio<br />

Network Modelling Planning and Automated Optimisation. John Wiley and Sons<br />

Ltd, July 2006.<br />

[20] Markus Waalchli Marc Heissenbauttel, Torsten Braun and Thomas Bernoulli. Evaluating<br />

the limitations of and alternatives in beaconing. Institute of Computer<br />

Science and Applied Mathematics, University of Bern, Switzerland.<br />

[21] M. Mohan and L. L. Joiner. Solving billing issues in ad hoc networks. April 2004.<br />

[22] H. Labiod N. Nikaein and C. Bonnet. Distributed Dynamic Routing Algorithm for<br />

Mobile Ad Hoc Networks. Proceedings of ACM MobiHoc 2000, 2000.<br />

[23] J.D. Parsons. The Mobile Radio Propagation Channel. Jhon Wiley and Sons Ltd,<br />

second edition edition, 2000.<br />

[24] C.E. Perkins and P. Bhagwat. Highly dynamic destination-sequenced distancevector<br />

routing (dsdv) fo r mobile computers. Computer Communications Review,<br />

October 1994.<br />

[25] Saunders Simon R. Antennas and propagation for wireless communication systems.<br />

Wiley, 1999.<br />

[26] Theodore Rappaport. Wireless Communications : Principles and Practice. Prentice<br />

Hall, 2nd edition edition, 2001.<br />

[27] Roberto Baldoni Roberto Beraldi. The Handbook of Ad Hoc Wireless Networks :<br />

Unicast Routing Techniques for Mobile Ad Hoc Networks. CRC PRESS, 2002.<br />

[28] Suresh Singh and C.S. Raghavendra. PAMAS Power Aware Multi-Access protocol<br />

with Signalling for Ad Hoc Networks. 1999.<br />

[29] Andrew Tanenbaum. Réseaux. Pearson Education, 4th édition edition, 2003.<br />

[30] C.K. Toh. Ad Hoc Mobile Wireless Networks : Protocols and Systems. Prentice Hall.


[31] C.K. Toh. draft-ietf-manet-longlived-adhoc-routing-00. IETF,<br />

http ://tools.ietf.org/html/draft-ietf-manet-longlived-adhoc-routing-00.<br />

[32] Karygiannis A. Tsiounis Y., Kiayias A. A Solution for Wireless Privacy and Payments<br />

based on E-cash. September 2005.<br />

[33] L. Vandendorpe. ELEC2795, Télécommunications. Universit´e catholique de Louvain,<br />

http ://www.tele.ucl.ac.be/EDU/ELEC2795/ELEC2795.pdf.<br />

101<br />

[34] Z.Haas and M. Pearlman. The Zone Routing Protocole (ZRP) for Ad Hoc Networks.<br />

IETF MANET Draft, http ://tools.ietf.org/id/draft-ietf-manet-zone-zrp-<br />

04.txt, June 1999.


Appendices<br />

103


Annexe A<br />

Résultats des simulations<br />

AODV-AODVϕ<br />

105


Figure 1<br />

Titre Average Route Lenght vs Mobility<br />

Modèle FreeSpace<br />

Sources 10<br />

Figure 3<br />

Titre Packet Delivery Fraction vs Sources Actives<br />

Modèle FreeSpace<br />

Pause 30 secondes<br />

Figure 5<br />

Titre Packet Delivery Fraction vs Sources Actives<br />

Modèle Shadowing<br />

Pause 30 secondes<br />

Figure 2<br />

Titre Average Route Lenght vs Mobility<br />

Modèle Shadowing<br />

Sources 10<br />

Figure 4<br />

Titre Packet Delivery Fraction vs Sources Actives<br />

Modèle FreeSpace<br />

Pause 600 secondes<br />

Figure 6<br />

Titre Packet Delivery Fraction vs Sources Actives<br />

Modèle Shadowing<br />

Pause 600 secondes


Figure 7<br />

Titre Packet Delivery Fraction vs Mobility<br />

Modèle FreeSpace<br />

Sources 10<br />

Figure 9<br />

Titre End-To-End Delay vs Sources Actives<br />

Modèle FreeSpace<br />

Pause 30<br />

Figure 11<br />

Titre End-To-End Delay vs Sources Actives<br />

Modèle Shadowing<br />

Pause 30<br />

Figure 8<br />

Titre Packet Delivery Fraction vs Mobility<br />

Modèle Shadowing<br />

Sources 10<br />

Figure 10<br />

Titre End-To-End Delay vs Sources Actives<br />

Modèle FreeSpace<br />

Pause 600<br />

Figure 12<br />

Titre End-To-End Delay vs Sources Actives<br />

Modèle Shadowing<br />

Pause 600


Figure 13<br />

Titre End-To-End Delay vs Mobility<br />

Modèle FreeSpace<br />

Sources 10<br />

Figure 15<br />

Titre Normalized Routing Load vs Sources<br />

Actives<br />

Modèle FreeSpace<br />

Pause 30<br />

Figure 17<br />

Titre Normalized Routing Load vs Sources<br />

Actives<br />

Modèle Shadowing<br />

Pause 30<br />

Figure 14<br />

Titre End-To-End Delay vs Mobility<br />

Modèle Shadowing<br />

Sources 10<br />

Figure 16<br />

Titre Normalized Routing Load vs Sources<br />

Actives<br />

Modèle FreeSpace<br />

Pause 600<br />

Figure 18<br />

Titre Normalized Routing Load vs Sources<br />

Actives<br />

Modèle Shadowing<br />

Pause 600


Figure 19<br />

Titre Normalized Routing Load vs Mobility<br />

Modèle FreeSpace<br />

Sources 10<br />

2%<br />

3%<br />

Figure 21<br />

AODV - Shadowing<br />

11%<br />

19%<br />

0%<br />

65%<br />

Drop END OF<br />

SIMULATION<br />

Drop COLLISION<br />

Drop DUPLICATE<br />

Drop MAX RETRY<br />

Drop INVALID STATE<br />

Drop BUSY<br />

Titre Dropped Packet @ MAC LAYER<br />

Modèle Shadowing<br />

Sources 10<br />

Figure 23<br />

Titre Dropped Packet @ MAC LAYER<br />

Modèle Shadowing<br />

Sources 10<br />

Figure 20<br />

Titre Normalized Routing Load vs Mobility<br />

Modèle Shadowing<br />

Sources 10<br />

3%<br />

<strong>AODVφ</strong> - Shadowing<br />

3%<br />

8%<br />

Figure 22<br />

15%<br />

0%<br />

71%<br />

Drop END OF<br />

SI M ULATI ON<br />

Drop COLLISION<br />

Drop DUPLICATE<br />

Drop MAX RETRY<br />

Drop INVALID STATE<br />

Drop BUSY<br />

Titre Dropped Packet @ MAC LAYER<br />

Modèle Shadowing<br />

Sources 10<br />

Figure 24<br />

Titre Dropped Packet @ MAC LAYER<br />

Modèle FreeSpace<br />

Sources 10


Figure 25<br />

Titre Collisions vs Sources Actives<br />

Modèle FreeSpace<br />

Pause Moyenne marginale<br />

Figure 27<br />

Titre Collisions vs Mobility<br />

Modèle FreeSpace<br />

Sources Moyenne marginale<br />

Figure 29<br />

Titre Dropped Packets @ Routing Layery<br />

Modèle FreeSpace<br />

Sources 10<br />

Figure 26<br />

Titre Collisions vs Sources Actives<br />

Modèle Shadowing<br />

Pause Moyenne marginale<br />

Figure 28<br />

Titre Collisions vs Mobility<br />

Modèle Shadowing<br />

Sources Moyenne marginale<br />

Figure 30<br />

Titre Dropped Packets @ Routing Layery<br />

Modèle Shadowing<br />

Sources 10


Figure 31<br />

Titre Dropped Packets @ Routing Layery<br />

Modèle FreeSpace<br />

Sources 10<br />

Figure 33<br />

Titre Dropped Packets @ Routing Layery<br />

Modèle FreeSpace<br />

Sources 10<br />

Figure 35<br />

Titre Drop RTR Queue vs Sources<br />

Modèle FreeSpace<br />

Pauses Moyenne marginale<br />

Figure 32<br />

Titre Dropped Packets @ Routing Layery<br />

Modèle Shadowing<br />

Sources 10<br />

Figure 34<br />

Titre Dropped Packets @ Routing Layery<br />

Modèle Shadowing<br />

Sources 10


Annexe B<br />

Résultats des simulations<br />

GWAODV-iAODVϕ<br />

107


Figure 1<br />

Titre Average Route Lenght vs Mobility<br />

Modèle FreeSpace<br />

Sources Moyenne marginale<br />

Figure 3<br />

Titre Variance Route Lenght vs Mobility<br />

Modèle Shadowing<br />

Sources Moyenne marginale<br />

Figure 5<br />

Titre Map Hop Count vs Mobility<br />

Modèle FreeSpace<br />

Sources 10, 20, 30 et 40<br />

Figure 2<br />

Titre Variance Route Lenght vs Mobility<br />

Modèle FreeSpace<br />

Sources Moyenne marginale<br />

Figure 4<br />

Titre Variance Route Length vs Mobility<br />

Modèle Shadowing<br />

Sources Moyenne marginale<br />

Figure 6<br />

Titre Map Hop Count vs Mobility<br />

Modèle Shadowing<br />

Sources 10, 20, 30 et 40


Figure 7<br />

Titre Packet Delivery Fraction vs Sources Actives<br />

Modèle FreeSpace<br />

Pause 30 secondes<br />

Figure 9<br />

Titre Packet Delivery Fraction vs Sources Actives<br />

Modèle FreeSpace<br />

Pause 600 secondes<br />

Figure 11<br />

Titre Packet Delivery Fraction vs Mobility<br />

Modèle FreeSpace<br />

Sources Moyenne marginale<br />

Figure 8<br />

Titre Packet Delivery Fraction vs Sources Actives<br />

Modèle Shadowing<br />

Pause 30 secondes<br />

Figure 10<br />

Titre Packet Delivery Fraction vs Sources<br />

Modèle Shadowing<br />

Pause 600 secondes<br />

Figure 12<br />

Titre Packet Delivery Fraction vs Mobility<br />

Modèle Shadowing<br />

Sources Moyenne marginale


Figure 13<br />

Titre End to end delay vs Sources<br />

Modèle FreeSpace<br />

Pause 30 secondes<br />

Figure 15<br />

Titre End to end delay vs Sources<br />

Modèle FreeSpace<br />

Pause 600 secondes<br />

Figure 17<br />

Titre End to end delay vs Mobility<br />

Modèle FreeSpace<br />

Sources Moyenne marginale<br />

Figure 14<br />

Titre End to end delay vs Sources<br />

Modèle Shadowing<br />

Pause 30 secondes<br />

Figure 16<br />

Titre End to end delay vs Sources<br />

Modèle Shadowing<br />

Pause 600 secondes<br />

Figure 18<br />

Titre End to end delay vs Mobility<br />

Modèle Shadowing<br />

Sources Moyenne marginale


Figure 19<br />

Titre Routing Load vs Sources Actives<br />

Modèle FreeSpace<br />

Pause 30 secondes<br />

Figure 21<br />

Titre Routing Load vs Sources Actives<br />

Modèle FreeSpace<br />

Pause 30 secondes<br />

Figure 23<br />

Titre Routing Load vs Sources Actives<br />

Modèle Shadowing<br />

Pause 30 secondes<br />

Figure 20<br />

Titre Routing Load vs Sources Actives<br />

Modèle FreeSpace<br />

Pause 600 secondes<br />

Figure 22<br />

Titre Routing Load vs Sources Actives<br />

Modèle FreeSpace<br />

Pause 600 secondes<br />

Figure 24<br />

Titre Routing Load vs Sources Actives<br />

Modèle Shadowing<br />

Pause 600 secondes


Figure 25<br />

Titre Routing Load vs Sources Actives<br />

Modèle Shadowing<br />

Pause 30 secondes<br />

Figure 27<br />

Titre Routing Load vs Mobility<br />

Modèle FreeSpace<br />

Sources Moyenne marginale<br />

Figure 29<br />

Titre Normalized Routing Load vs Mobility<br />

Modèle Shadowing<br />

Sources Moyenne marginale<br />

Figure 26<br />

Titre Routing Load vs Sources Actives<br />

Modèle Shadowing<br />

Pause 600 secondes<br />

Figure 28<br />

Titre Routing Load vs Mobility<br />

Modèle FreeSpace<br />

Sources Moyenne marginale<br />

Figure 30<br />

Titre Normalized Routing Load vs Mobility<br />

Modèle Shadowing<br />

Sources Moyenne marginale


Figure 31<br />

Titre Dropped Packets @ MAC LAYER<br />

Modèle FreeSpace<br />

Sources 10<br />

Figure 33<br />

Titre Dropped Packets @ MAC LAYER<br />

Modèle Shadowing<br />

Sources 10<br />

Figure 35<br />

Titre Dropped Packets @ Routing Layery<br />

Modèle FreeSpace<br />

Sources 10<br />

Figure 32<br />

Titre Dropped Packets @ MAC LAYER<br />

Modèle FreeSpace<br />

Sources 10<br />

Figure 34<br />

Titre Dropped Packets @ MAC LAYER<br />

Modèle Shadowing<br />

Sources 10<br />

Figure 36<br />

Titre Dropped Packets @ Routing Layery<br />

Modèle FreeSpace<br />

Sources 10


Figure 37<br />

Titre Dropped Packets @ Routing Layery<br />

Modèle Shadowing<br />

Sources 10<br />

Figure 38<br />

Titre Route Request vs Route Reply<br />

Modèle Shadowing<br />

Pause 30<br />

Figure 38<br />

Titre Dropped Packets @ Routing Layery<br />

Modèle Shadowing<br />

Sources 10<br />

Figure 39<br />

Titre Dropped Packets @ Routing Layery<br />

Modèle Shadowing<br />

Pause 600


Table des figures<br />

2.1 Couplage d’un champ électrique et d’un champ magnétique . . . . . . 8<br />

2.2 Phénomène de réflexion . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

2.3 Phénomène de réfraction . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

2.4 Phénomènes de réflexion, réfraction et absorption . . . . . . . . . . . . 10<br />

2.5 Phénomène de diffusion . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

2.6 Modélisation du canal de communication . . . . . . . . . . . . . . . . 11<br />

2.7 Influences du Path Loss, Shadowing et Fast Fading . . . . . . . . . . . 12<br />

2.8 Modèle de propagation Two Ray Ground . . . . . . . . . . . . . . . . 15<br />

2.9 Valeurs typiques pour l’exposant du PathLoss β et la variance σdB . . 16<br />

2.10 Couverture d’un noeud : (a)FreeSpace, (b)Shadowing . . . . . . . . . . 16<br />

3.1 Architecture du réseau AMPS . . . . . . . . . . . . . . . . . . . . . . . 17<br />

3.2 Technologie d’accès FDMA . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

3.3 Architecture du réseau GSM . . . . . . . . . . . . . . . . . . . . . . . 19<br />

3.4 Technologie d’accès TDMA . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

3.5 Architecture du réseau GPRS . . . . . . . . . . . . . . . . . . . . . . . 22<br />

3.6 Architecture du réseau UMTS . . . . . . . . . . . . . . . . . . . . . . . 24<br />

3.7 Comparaison des technologies d’accès au canal radio . . . . . . . . . . 25<br />

3.8 Procédé d’étalement et de désétalement du signal . . . . . . . . . . . . 26<br />

4.1 Exemples d’équipements intégrant le WiFi . . . . . . . . . . . . . . . . 30<br />

4.2 Portions de la pile de protocoles 802.11 . . . . . . . . . . . . . . . . . 31<br />

4.3 Allocation du spectre de DSSS . . . . . . . . . . . . . . . . . . . . . . 32<br />

4.4 Mode Infrastructure vs Mode Ad-Hoc . . . . . . . . . . . . . . . . . . 33<br />

4.5 IEEE 802.11 DCF : (a)une transmission réussie ; (b) une collision . . . 34<br />

4.6 Problème de la station cachée . . . . . . . . . . . . . . . . . . . . . . . 35<br />

4.7 IEEE 802.11 RTS/CTS . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />

4.8 Problème de la station exposée . . . . . . . . . . . . . . . . . . . . . . 36<br />

4.9 Impacte de la mobilité sur le modèle RTS/CTS . . . . . . . . . . . . . 37<br />

4.10 Changement de topologie dans les réseaux Ad-Hoc . . . . . . . . . . . 38<br />

109


110 TABLE DES FIGURES<br />

4.11 Contrôle de congestion de TCP . . . . . . . . . . . . . . . . . . . . . . 39<br />

4.12 Réutilisation spatiale : (a)sans, (b)avec contrôle de puissance . . . . . 40<br />

4.13 Consommation d’énergie (mA) dans différents modes . . . . . . . . . . 40<br />

4.14 Broadcast des informations de routage . . . . . . . . . . . . . . . . . . 44<br />

4.15 Routage dans CSGR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

4.16 Découverte de routes : diffusion du RREQ . . . . . . . . . . . . . . . . 47<br />

4.17 Découverte de routes : propagation du RREP . . . . . . . . . . . . . . 48<br />

4.18 Découverte des routes dans ABR . . . . . . . . . . . . . . . . . . . . . 49<br />

4.19 Un exemple de zone dans ZRP . . . . . . . . . . . . . . . . . . . . . . 51<br />

4.20 Exemple de propagation de requêtes par bordercasting . . . . . . . . . 51<br />

4.21 Concept de request zone et expected zone dans LAR . . . . . . . . . . 52<br />

5.1 Broadcast du paquet RREQ . . . . . . . . . . . . . . . . . . . . . . . . 62<br />

5.2 Émission en unicast du RREP . . . . . . . . . . . . . . . . . . . . . . 63<br />

5.3 Modèles de références : OSI et TCP/IP . . . . . . . . . . . . . . . . . 65<br />

5.4 Impact de la sous-couche MAC sur le nombre de paquets délivrés . . . 66<br />

5.5 PDF de quatre protocoles de routage . . . . . . . . . . . . . . . . . . . 67<br />

5.6 Comparaison entre les stratégies de routage de AODV et de AODVϕ . 68<br />

5.7 Utilisation spatiale : (a)sans, (b)avec contrôle de puissance . . . . . . 72<br />

5.8 Collisions lors d’un contrôle de puissance mal adapté . . . . . . . . . . 73<br />

7.1 Augmentation du niveau d’associativité entre deux noeuds . . . . . . . 84<br />

7.2 Chute du niveau d’associativité entre deux noeuds . . . . . . . . . . . 84<br />

7.3 Schémas d’un noeud à double interface dans Ns . . . . . . . . . . . . . 90

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!