Tải bản đầy đủ (.pdf) (40 trang)

Coexistence intelligente entre les flux dans les réseaux radio multisauts

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (539.48 KB, 40 trang )

Institut de la Francophonie pour l'Informatique

Coexistence intelligente entre les flux
dans les réseaux radio multisauts
Rapport de stage de fin d’études

Réalisé par :
NGO Quang Minh
Promotion XIII - IFI
Sous la direction de :
Isabelle GUERIN LASSOUS
Professeur de l'Université Lyon 1

Hanoï, 2009

1


Table des matières
Remerciements .........................................................................................................................3
Résumé......................................................................................................................................4
Abstract.....................................................................................................................................5
Introduction...............................................................................................................................7
Problématique.......................................................................................................................7
Objectifs................................................................................................................................7
Contribution..........................................................................................................................8
Environnement de stage........................................................................................................8
I. Introduction et état de l'art...................................................................................................10
1.1. Généralités sur les réseaux ad hoc...............................................................................10
1.2. Généralités sur 802.11.................................................................................................13
1.2.1. Accès au médium radio........................................................................................14


1.2.2. La méthode d'accès au médium radio CSMA/CA...............................................15
1.2.3. Point Coordination Function (PCF).....................................................................16
1.3. Travaux concerné à la cohabitation de trafics QoS et Best Effort...............................16
II. Méthode proposée...............................................................................................................21
2.1. Idées utilisées...............................................................................................................21
2.2. Estimation de la bande passante résiduelle..................................................................21
2.3. Algorithme d'allocation du débit des flux Best Effort.................................................22
2.2. Régulation du débit des flux Best Effort ....................................................................23
2.2.1. Réduction du débit des flux Best Effort ..............................................................23
2.2.2. Augmentation du débit des flux Best Effort ........................................................26
III. Implémentation et analyse des résultats............................................................................27
3.1. Difficultés d'implémentation.......................................................................................27
3.2. Résultats de simulation................................................................................................27
3.2.1. Scénario simple de 2 paires..................................................................................28
3.2.2. Scénario de trois paires........................................................................................30
3.2.3. Topologies aléatoires............................................................................................31
3.2.4. Taux d'acceptation des flux QoS..........................................................................35
3.2.5. Evaluation de partage de la bande passante entre les flux Best Effort ...............36
Conclusion...............................................................................................................................38
Références...............................................................................................................................39

2


Remerciements
Je tiens a remercier Mme. Isabelle GUERIN LASSOUS, professeur à l'Université Lyon 1,
qui est mon superviseur et c'est un honneur pour moi d'être son étudiant. C'est avec un réel
plaisir que je repense aux moments durant lesquels nos incessantes réunions ont fait
progresser pas a pas mon stage. Même s'il n'apprécie pas particulièrement les grandes
phrases et les égoles, je souhaite le remercier pour ses conseils, sa disponibilité et surtout son

amitié. Elle m'a toujours aidé dans les moments difficiles et m'a guidé dans la bonne
direction dans mon travail.
Ma reconnaissance s’adresse aussi aux professeurs à l’Institut de la Francophonie pour
l’Informatique (IFI). Leurs cours m’ont apporté des connaissances et des suggestions qui
sont utiles pour mon mémoire.
Finalement, j’exprime mon entière reconnaissance à ma famille et mes amis pour leur
soutien, leur aide et leurs encouragements. Sans leur aide, je n’aurais pas pu achever ce
mémoire.

3


Résumé
De manière native, les réseaux ad hoc ne fournissent pas de mécanismes afin de garantir une
certaine qualité de service. Par conséquent, les recherches dans ce domaine ont suscité un
intérêt particulier ces dernières années. Cependant, quelques protocoles de qualité de service
ont été proposés pour ces réseaux. La majeure partie de ces solutions considèrent que le
réseau ne contient que des flux qui ont besoin de garanties. Très peu de solutions
s’intéressent à la coexistence des flux garantis avec des flux best effort. Or assurer une telle
coexistence a de nombreux avantages, comme par exemple, un meilleur taux d’acceptation
des flux garantis ou une meilleure utilisation du réseau. Dans ce rapport, nous proposons une
solution qui permet à un partage relativement équitable entre les flux best effort tout en
n’ayant pas d’impact sur les flux nécessitant une certaine qualité de service dans des réseaux
ad hoc basés sur la norme IEEE 802.11. A travers les simulations, nous comparons notre
solution avec d’autres techniques d’estimation comme AODV, ABE et DRBT.
Mots-clés : Coexistence des flux, Réseaux ad hoc, IEEE 802.11, Qualité de service

4



Abstract
Natively, ad hoc networks do not provide mechanisms to ensure a certain quality of service.
Therefore, research in this area have attracted interest in recent years. However, some
protocols quality of service have been proposed for these networks. Most of these solutions
consider that the network contains only flows that require guaranteed. Very few solutions are
interested in the coexistence of guaranteed flows with best effort flows. But providing such
coexistence has many advantages, for example, a better acceptance rate of guaranteed flow
or a better network utilization. In this report we propose a solution that allows a relatively
equitable sharing between best effort flows without impact on flows which require a certain
quality of service in ad hoc networks based on IEEE 802.11. Through simulations, we
compare our solution with other estimation techniques such as AODV, ABE and DRBT.
Keywords: Coexistence des flux, Réseaux ad hoc, IEEE 802.11, Qualité de service.

5


Liste des figures et des tableaux
Figure 1: Mécanisme d'esquive de collission du CSMA/CA..................................................13
Figure 2: Scénario simple de deux flux (source [9])...............................................................26
Figure 3: La somme totale des débits des flux Best Effort......................................................31
Figure 4: La somme totale des débits des flux Best Effort......................................................33
Table 1: Paramètres d'expériences...........................................................................................26
Table 2: Résultat de scénario de deux paires...........................................................................27
Table 3: Résultat de scénario de trois paires...........................................................................28
Table 4: Paramètres des flux CBR pour le test aléatoire.........................................................29
Table 5: Résultat de scénario aléatoire....................................................................................30
Table 6: Paramètres des flux pour le test aléatoire avec les flux BE TCP..............................31
Table 7: Résultat de scénarios aléatoire avec les flux BE TCP...............................................32
Table 8: Taux d'acceptation des flux QoS pour les tests aléatoires.........................................34
Table 9: Tableau de l'indice de Jain pour le test aléatoire avec flux BE CBR.........................35


6


Introduction
Problématique
Un réseau ad hoc est un réseau d'appareils mobiles sans fil. Au contraire des réseaux
cellulaires bien connus comme le GSM [1], les réseaux ad hoc sont des réseaux autonomes
ne possédant aucune infrastructure fixe. Les recherches actuelles sur les réseaux ad hoc
concernent essentiellement le routage, la gestion de l'énergie, les protocoles MAC, la
sécurité, la qualité de service. L'absence d'une gestion centralisée des communications dans
ce contexte ad hoc rend difficile le partage des ressources entre les différents flux. Etant
données les performances de ces réseaux, il semble utile de différencier les applications :
celles qui exigent des garanties en terme de bande passante, de délai ou d'une métrique
quelconque, communément appelés flux QoS, et d'autres qui sont beaucoup plus tolérantes à
la dégradation de leurs ressources appelées applications Best Effort.
Pour les réseaux ad hoc, beaucoup de travaux se sont essentiellement concentrés sur la
garantie de ressources pour les applications QoS sans se soucier de la présence des flux Best
Effort ou sans optimiser la gestion des flux Best Effort. Quelques protocoles de qualité de
service ont été proposés pour ces réseaux. La majeure partie de ces solutions considèrent que
le réseau ne contient que des flux qui ont besoin de garanties. Très peu de solutions
s'intéressent à la coexistence des flux garantis avec des flux best effort. Or assurer une telle
coexistence a de nombreux avantages, comme par exemple, un meilleur taux d'acceptation
des flux garantis ou une meilleure utilisation du réseau.
Les solutions actuelles qui s'intéressent à ce type de problème sont peu satisfaisantes. Soit
elles ne sont pas en mesure d'offrir de bonnes garanties pour les flux ayant besoin de QoS,
soit elles ont une approche trop conservative pour les flux best effort qui pourraient avoir des
débits meilleurs sans toutefois gêner les flux garantis.

Objectifs

Le but de ce stage est d'améliorer la coexistence entre les flux garantis et les flux best effort
en mettant au point une solution capable de garantir un partage relativement équitable entre
les flux best effort tout en n'ayant pas d'impact sur les flux nécessitant une certaine qualité de
service. Nous supposerons que les réseaux radio multisauts utilisent la technologie sans fil
IEEE 802.11 [2].

7


Contribution
Dans ce contexte mon travail a compris des tâches suivantes :
– Recherche bibliographique sur les travaux antérieurs.
– Portage des programmes des protocoles ABE [10], DRBT [9] de NS 2.27 à NS 2.33 [12]
– Proposition de nouvelles stratégies entre les flux Best Effort et les flux QoS.
– Implémentation de la nouvelle solution sur le simulation NS2.33.
– Expérimentation et test du programme.
– Analyse des résultats.
Nous avons proposé une nouvelle solution d'améliorer la coexistence entre les flux garantis
et les flux best effort, cette solution permet de garantir un partage relativement équitable
entre les flux best effort tout en n'ayant pas d'impact sur les flux QoS. Nous avons intégré
l'allocation de débit utilisant un algorithme de Lagrangienne dans le protocole DRBT pour
avoir les débits optimales des flux Best Effort. Ce nouveau protocole est implémenté dans
NS 2 et donne de bons résultats par rapport aux protocoles AODV, ABE et DRBT.

Environnement de stage
Mon stage a été réalisé au Département d’Ingénierie Informatique d'Université Claude
Bernard Lyon 1 et au laboratoire LIP (Laboratoire de l'Informatique du Parallélisme) d'ENS
à Lyon en France du 4 Mars 2009 au 31 Novembre 2009. Tout au long de mon stage, je
travaille sous la direction de Mme Isabelle Guérin-Lassous. J'ai aussi participé aux activités
de recherche comme les séminaires.

Le reste du document est organisé de la manière suivante. Le premier chapitre présente
brièvement les réseaux ad hoc ansi que les principaux problèmes généralement rencontrés
dans ce type de réseau. Nous discutons aussi des différents techniques utilisées dans les
protocoles de qualité de service pour les réseaux ad hoc.
Dans le deuxième chapitre nous proposons notre protocole capable de mieux dégrader le
débit des flux non privilégiés afin d'augmenter le taux d'acceptation des flux avec qualité de
service. Cette dégradation est une combinaison de la méthode utilisée pour le protocole
DRBT et la technique d'allocation de débit utilisée dans Profiterole [11].
Le troisième chapitre a pour but de présenter nos expérimentations et les résultats obtenus
par cette nouvelle solution comparée aux approches existants. Enfin, le dernier chapitre
conclut ce stage en donnant des perspectives à ce travail. Avant de rentrer dans le cœur du
8


document, il est important de noter que toutes les solutions proposées dans cette thèse
reposent sur une version de 802.11 non modifiée.

9


I. Introduction et état de l'art
Dans ce chapitre, nous présentons les réseaux ad hoc pour comprendre les phénomènes
susceptibles de perturber les solutions de QoS. Ensuite nous présentons les mécanismes et les
problèmes liés au routage et enfin nous discutons brièvement des travaux antérieurs pour
mettre en place de la qualité de service dans un contexte ad hoc.

1.1. Généralités sur les réseaux ad hoc
Dans les réseaux ad hoc, chaque nœud peut aussi bien jouer le rôle d'émetteur (initiateur de
la communication), de routeur (relayage des informations vers d'autres mobiles) que de
destinataire (réception et traitement des informations). La connectivité doit être préservée

autant que possible en cas de changement de topologie (suite à l'apparition, la disparition ou
aux mouvements de certains nœuds) sans intervention humaine.
Le médium ou canal radio, partagé par tous les nœuds, est une ressource rare qui constitue un
des points critiques des réseaux ad hoc :
– Une atténuation rapide du signal en fonction de la distance qui induit l'impossibilité
pour l'émetteur de détecter une collision au moment de l'émission. L'environnement
peut aussi détériorer un signal à cause des phénomènes d'atténuation et de réflexion
ou de chemins multiples.
– Les interférences : les liens radio n'étant pas isolés, une communication entre deux
mobiles peut interférer sur d'autres communications rendant le décodage des
informations parfois impossible.
– Liens bidirectionnels : les liens radio ne sont pas toujours bidirectionnels. Ainsi un
mobile peut recevoir des données de la part d'un autre mobile sans que la réciproque
soit vraie. Ce phénomène pose un problème dans le processus de découverte de route
car lorsqu'un chemin est créé, les informations de réponse ne peuvent pas toujours
emprunter le chemin inverse, nécessitant la construction d'une nouvelle route. Ce
phénomène pose aussi un problème dès lors qu'on utilise des échanges point-à-point
avec 802.11 puisque ces échanges ne peuvent fonctionner que sur des liens
bidirectionnels.
– La puissance du signal est réglementée par l'ART (Autorité de régulation des
télécommunications) et donc limitée.
– Un faible débit par rapport à un équivalent filaire.

10


– L'énergie : les applications relatives aux réseaux sans fil tirent leur autonomie des
batteries et les différentes opérations (émettre, recevoir des données, écouter le
support radio) consomment de l'énergie non négligeable.
– Une faible sécurité : le canal radio n'étant pas isolé, il est très facile à l'aide d'une

antenne espionne d'écouter les informations qui circulent sur le canal d'autant plus
qu'il est partagé. Les solutions se trouvent donc au niveau d'un cryptage par
l'émetteur.
– La mobilité des utilisateurs inhérente à ces réseaux peut se révéler un facteur
contraignant car générant des modifications de topologies.
– La versatilité du médium physique qui change rapidement entraîne une instabilité des
transmissions radio.
Une des grandes problématiques des réseaux ad hoc est la mise en place de politiques de
routage. Afin de permettre ces communications, les mobiles d'un réseau ad hoc doivent être
capable d'acheminer les informations vers leur destinataire, relayé par des mobiles
intermédiaires, c'est-à-dire d'effectuer un routage des données. La gestion de l'acheminement
de données ou le routage consiste à assurer une stratégie qui doit permettre à n'importe quel
moment, la connexion entre n'importe quelle paire de nœuds appartenant à un réseau. La
diffusion est utilisée afin d'inonder le réseau et les informations sont alors relayées de proche
en proche par les mobiles intermédiaires. Evidemment, ce mode de fonctionnement
consomme une quantité non négligeable de bande passante. La plupart des protocoles de
routage utilisés ont été conçus afin d'optimiser cette diffusion.
Le but de ce stage n'est pas consacrée aux protocoles de routage ad hoc, mais pour
implémenter et puis tester les techniques d'évaluation de ressources proposées, il nous a
semblé pertinent de les intégrer dans des protocoles de routage avec qualité de service,
comme nous le verrons par la suite. C'est pourquoi je les présente ici.
Concernant les protocoles de routage dans les réseaux ad hoc, il y a quatre grandes catégories
: les protocoles proactifs, réactifs, hybrides et géographiques. Premièrement, les protocoles
de routage proactifs maintiennent à jour une table de routage, de sorte que lorsqu'une
application désire envoyer des données, la route est immédiatement connue. Ces protocoles
ont l'avantage de la disponibilité immédiate des routes vers tous les nœuds du réseau. Au
niveau de la table de routage, chaque nœud stocke pour chaque destination, l'identité du
mobile à contacter. La mise à jour de cette table de routage nécessite l'échange régulier de
messages de contrôle, consommant une part non négligeable des ressources radio même en
11



l'absence de trafic. L'inconvénient des protocoles proactifs est que le coût du maintien des
informations de topologie et de routage même en absence de trafic de données ce qui
implique une consommation continue de la bande passante.
Deuxièmement, les protocoles de routage réactifs restent inactifs tant qu'aucune application
ne sollicite l'envoi de données. Ceci permet d'économiser de la bande passante et de
l'énergie. La procédure de découverte de route n'est enclenchée que lorsqu'un nœud souhaite
envoyer des paquets vers un destinataire pour lequel aucune route n'est connue. Une
demande de route explicite vers ce destinataire est alors propagée à travers le réseau. Cette
inondation surcharge localement le réseau puisque tous les nœuds atteints doivent répéter la
requête. Si le réseau est mobile, le processus de reconstruction de route engendre de
nouvelles inondations. En conséquence, le délai des paquets peut augmenter très rapidement.
Le principal avantage est de ne générer du trafic que si nécessaire mais cela implique une
inondation du réseau coûteuse en ressources. Le protocole AODV [4] fait partie de la famille
des protocoles réactifs. C'est le protocole que nous avons utilisé pour implémenter notre
approche. Pour trouver une route vers un destinataire, AODV inonde le réseau avec des
paquets Route Request (RREQ). Chaque nœud traversé par un paquet de RREQ stocke des
informations sur le numéro de séquence du paquet, l'adresse des nœuds source et destination
ainsi que l'adresse du nœud précédent. Lorsque ces paquets de RREQ arrivent à la
destination, un paquet de réponse Route Reply (RREP) est envoyé suivant le chemin inverse
vers le nœud émetteur. Ce paquet permet, au niveau de chaque nœud, de mettre à jour le saut
suivant pour la route construite.
Troisièmement, les protocoles de routage hybrides combinent les approches réactive et
proactive. Le principe est de connaître le voisinage de manière proactive jusqu'à une certaine
distance, et une recherche réactive est enclenchée lorsqu'une application cherche à envoyer
des données à un nœud hors de cette zone. Grâce à cette combinaison, le réseau est partagé
en plusieurs zones et la recherche de route en mode réactif est améliorée. A la réception d'une
requête de recherche réactive, un nœud a la possibilité d'indiquer immédiatement si la
destination est dans son voisinage ou non.

Quatrièmement, les protocoles de routage géographiques se basent sur des informations
concernant la position des mobiles afin d'améliorer le processus de routage. Un système de
localisation est donc mis en place afin de connaître à un instant donné la position des
mobiles. Le GPS est actuellement le système de localisation le plus utilisé même si d'autres
algorithmes proposent de calculer la position des mobiles à l'aide d'autres paramètres comme
12


par exemple la puissance du signal. Une fois que la position du mobile destinataire est
évaluée, la diffusion des messages de recherche de route peut être orientée vers une direction
précise, réduisant considérablement le trafic de découverte de route. Un exemple de
protocole géographique est le protocole LAR (Location-Aided Routing).
Tous ces protocoles cités précédemment sont sans qualité de service, c'est-à-dire que leur
objectif est de trouver une route vers un mobile destinataire sans tenir compte de l'état des
ressources à travers le réseau. Pour certaines applications qui voient le jour, comme par
exemple la diffusion de vidéo ou la téléphonie sur IP, les protocoles de routage précédents ne
sont pas toujours en mesure d'assurer les contraintes demandées par ces applications. Il
semble donc nécessaire de s'orienter vers d'autres approches, comme par exemple la mise en
place de qualité de service.

1.2. Généralités sur 802.11
IEEE 802.11 est un standard qui a été développé en 1997 pour les réseaux locaux sans fil
(Wireless local area networks - WLANs - y compris les réseaux « infrastructure-based » et
« infrastructure-less »). Ce standard définit une couche physique et une couche d'accès au
médium pour les réseaux locaux sans fil. Originellement, 802.11 opère dans la bande de
fréquences des 900MHz et offre un débit jusqu'à 2Mb/s. En 1999, 802.11 passe dans la
bande des 2.4GHz avec des débit allant toujours jusqu'à 2Mb/s. Deux autre extensions sont
venues compléter cette norme en 1999 : 802.11b qui fonctionne dans la bande de fréquences
des 2,4GHz et offre des débits jusqu'à 11Mb/s et 802.11a qui fonctionne dans la bande de
fréquences des 5GHz et qui offre des débits allant jusqu'à 54Mb/s. Tout récemment, en 2003,

l'extension 802.11g a été proposée. Elle fonctionne dans la bande des fréquences des 2,4
GHz et offre des débits allant jusqu'à 54Mb/s. Deux modes d'opérations sont définis dans ce
standard : le mode infrastructure qui requiert la présence de stations de base et le mode ad
hoc qui ne nécessite aucune infrastructure préalable. Il faut noter que le terme ad hoc utilisé
ici ne signifie pas que ce mode permet de mettre en place un réseau radio multisaut, puisque
la communication dans ce mode ne permet un échange de données qu'entre mobiles à portée
de communication mais aucunement entre mobiles distants. Pour faire communiquer des
mobiles distants dans un réseau radio multisaut, il est nécessaire de mettre en place un
protocole e routage au-dessus de ce mode fourni par 802.11.

13


1.2.1. Accès au médium radio
802.11 propose aussi deux mode d'accès au médium radio : un mode centralisé (ou PCF pour
Point Coordination Function) qui nécessite l'utilisation de stations de base pour gérer les
accès et un mode distribué (ou DCF pour Distributed Coordination Function) où chaque
terminal prend seul la décision d'accéder au canal ou de retarder sa transmission. Ces deux
modes d'accès au médium peuvent être utilisés dans le mode infrastructure alors que seul le
mode distribué est possible dans le mode ad hoc. Actuellement, le mode centralisé est peu
implanté dans les cartes sans fil du marché et l'accès distribué est l'accès par défaut quel que
soit le mode d’utilisation (infrastructure ou ad hoc).
Dans le mode DCF, les transmissions s'effectuent en mode diffusion ou broadcast, d'une
station vers plusieurs récepteurs ou en mode point à point ou unicast, d'une station vers un
unique récepteur. Dans ce dernier cas, en cas de transmission réussie, le récepteur renvoie à
l'émetteur une tram d'acquittement (ACK) afin d'indiquer à ce dernier que la trame de
données a été reçue correctement. Les trames envoyées en mode diffusion ne sont pas
acquittés, du fait de la génération de plusieurs acquittements simultanés, ce qui entraînera
des collisions potentielles sur les acquittements ainsi qu’une surcharge du réseau.
La norme définit également trois variables temporelles ou IFS (Inter Frame Space) qui

caractérisent le temps s'écoulant entre l’envoi des trames.
– Le SIFS pour Short Inter Frame Space est utilisé pour séparer l'instant de réception
des données et d'envoi d'un acquittement correspondant. C'est le plus petit écart entre
deux trames et il y a toujours, au plus, une seule station pour transmettre à cet instant.
Cette valeur est fixée par la couche physique et est calculée de façon à laisser le
temps à la station émettrice de commuter en mode réception pour pouvoir décoder le
paquet entrant. Sa valeur est de 10 μs dans 802.11b.
– Le DIFS (DCF Inter Frame Space) est le temps d'attente d'une station voulant
commencer une nouvelle transmission. Sa valeur est de 50 μs.
– Enfin, l'EIFS (Extended Inter Frame Space) est défini par la norme de la manière
suivante : « L'EIFS doit être utilisé par la DCF à chaque fois que la couche physique
indique à la couche MAC qu'une transmission a commencé et qu'elle ne résulte pas
en une réception correcte de la trame MAC avec une valeur FCS correcte ». Il n'est
actuellement pas clair si cette partie de la norme est correctement implantée dans les
14


cartes sans fil du marché et très souvent, la communauté considère que l'EIFS est
utilisé quand une station perçoit un signal qu'elle ne peut décoder. Elle diffère alors sa
transmission d'un temps égal à EIFS, afin de ne pas provoquer de collision avec cette
communication en cours. Sa valeur est de 364 μs.

1.2.2. La méthode d'accès au médium radio CSMA/CA
Dans un réseau local Ethernet classique, la méthode d'accès utilisée par les machines est le
CSMA/CD (Carrier Sense Multiple Access with Collision Detect), pour lequel chaque
machine est libre de communiquer à n'importe quel moment. Chaque machine envoyant un
message vérifie qu'aucun autre message n'a été envoyé en même temps par une autre
machine. Si c'est le cas, les deux machines patientent pendant un temps aléatoire avant de
recommencer à émettre.
Dans un environnement sans fil ce procédé n'est pas possible dans la mesure où deux stations

communiquant avec un récepteur ne s'entendent pas forcément mutuellement en raison de
leur rayon de portée. Ainsi la norme 802.11 propose un protocole similaire appelé CSMA/CA
(Carrier Sense Multiple Access with Collision Avoidance).
Le protocole CSMA/CA utilise un mécanisme d'esquive de collision basé sur un principe
d'accusé de réceptions réciproques entre l'émetteur et le récepteur :

Figure 1: Mécanisme d'esquive de
collission du CSMA/CA.
(source )
La station voulant émettre écoute le réseau. Si le réseau est encombré, la transmission est
différée. Dans le cas contraire, si le média est libre pendant un temps donné (appelé DIFS
15


pour Distributed Inter Frame Space), alors la station peut émettre. La station transmet un
message appelé Ready To Send (noté RTS signifiant prêt à émettre) contenant des
informations sur le volume des données qu'elle souhaite émettre et sa vitesse de
transmission. Le récepteur (généralement un point d'accès) répond un Clear To Send (CTS,
signifiant Le champ est libre pour émettre), puis la station commence l'émission des données.
A réception de toutes les données émises par la station, le récepteur envoie un accusé de
réception (ACK). Toutes les stations avoisinantes patientent alors pendant un temps qu'elle
considère être celui nécessaire à la transmission du volume d'information à émettre à la
vitesse annoncée. Ces types de protocoles sont très efficaces quand le support n'est pas
surchargé, puisqu'il autorise les stations à ́mettre avec un minimum de délai. Cependant il y
a toujours un risque pour que des stations émettent en même temps et engendrent des
collisions. Il est donc nécessaire de pouvoir éviter au maximum ces collisions. Le mécanisme
du backoff est utilisé dans ce but. Il repose sur le tirage aléatoire, dans un intervalle appelé
fenêtre de contention, d'un nombre appelé backoff, par une station désirant accéder au
médium. Ce nombre est compris entre 0 et une valeur maximale correspondant à la taille de
la fenêtre de contention et notée initialement CWmin . La station devra ainsi attendre en plus

du DIFS, une durée supplémentaire équivalente au backoff multiplié par la durée d'un slot, le
slot correspondant à l'unité de temps du standard. Dans le mode DSSS de 802.11b, le slot
correspond à une durée de 20μs. Lorsque le support est libre, les nœuds décrémentent leur
backoff d’une unité à chaque slot. La première station atteignant la valeur 0 émet ses
informations sur le canal radio.

1.2.3. Point Coordination Function (PCF)
La Point Coordination Function (PCF) appelée mode d'accès contrôlé. Elle est fondée sur
l'interrogation à tour de rôle des stations, ou polling, contrôlée par le point d'accès. Une
station ne peut émettre que si elle est autorisée et elle ne peut recevoir que si elle est
sélectionnée. Cette méthode est conçue pour les applications temps réel (vidéo, voix)
nécessitant une gestion du délai lors des transmissions de données.

1.3. Travaux concerné à la cohabitation de trafics QoS et Best
Effort
Pour garantir les débits des applications QoS, la plupart des approches se basent sur une
estimation de la bande de passante libre afin de réguler le débit des applications. Les
mécanismes de régulation consistent généralement à accepter ou refuser les flux QoS et/ou à
16


adapter le débit des flux Best Effort.
Le protocole SWAN [4] est un protocole distribué qui n’utilise aucun messages de contrôle
pour garantir dynamiquement la bande passante des flux QoS. Il utilise trois mécanismes. Un
mécanisme de contrôle d’admission à la source des flux QoS et deux mécanismes de
régulation dynamique de trafic, l’un pour les flux QoS et l’autre pour les flux Best Effort. Le
contrôle d’admission à la source utilise une approche intrusive pour estimer la bande
passante résiduelle. Avant chaque transmission d’un flux QoS, une sonde est envoyée de la
source vers la destination pour évaluer la bande passante résiduelle le long de ce chemin. En
fonction de cette valeur, le contrôle d’admission à la source décide de l’envoi ou non du flux

QoS concerné. Il n’y a pas de routage car le chemin entre la source et la destination est
supposé connu. Dans le cas où il y a une congestion sur le réseau, SWAN déclenche une
régulation. Dans cette régulation, la source du flux QoS est d'abord informé et diminue le
débit du flux QoS. Pour les flux Best Effort, le délai des paquets d'acquittements sur un lien
est mesuré et utilisé afin de diminuer le débit des flux Best Effort.
SWAN utilise une estimation de la bande passante résiduelle à l’aide d’une sonde envoyée de
bout-en-bout. Ceci consomme une part non négligeable de la bande passante. Pour le premier
mécanisme de régulation, c'est-à-dire la régulation pour les trafics QoS, la bande passante
résiduelle est obtenue à partir de la modélisation de la DCF de 802.11 faite par Bianchi.
Cependant, les travaux de Bianchi ne sont applicables que dans une cellule où tous les
mobiles sont à porté de communication et dans un environnement à saturation ce qui n’est
pas toujours le cas. Par conséquent, le protocole SWAN est très imprécis dans l'évaluation de
bande passante restante sur un lien ce qui rend plus complexe la décision de réguler le débit
des trafics Best Effort. De plus le protocole SWAN s’intéresse aussi à la métrique délai.
Cependant, déterminer la valeur du délai désiré pour les applications Best Effort est une
tâche difficile.
Le protocole QPART [10] se base sur une estimation passive de la bande passante et un
mécanisme de régulation dynamique du débit des flux Best Effort. Il classifie les trafics avec
qualité de service en fonction de deux métriques : le délai et la bande passante. L’estimation
de la bande passante restante effectué dans QPART se base sur la théorie des files d’attente et
plus précisément sur le protocole RED [6] qui est utilisé dans les réseaux filaires, inadapté
dans un contexte ad hoc. L’algorithme RED démontre que pour maintenir un débit constant
sur un chemin multi-saut, la taille des files d’attentes doit être maintenue en dessous d’un
certain seuil prédéterminé. Si ce seuil est dépassé alors les mécanismes de régulation sont
17


automatiquement démarrés afin de résorber le surplus de trafic. Cependant, ce n'est pas
toujours vérifiée dans les réseaux ad hoc. En cas de congestion, pour réguler dynamique du
trafic Best Effort, la taille de la fenêtre de contention des flux QoS et Best Effort est mise à

jour de manière à rendre la transmission des flux QoS prioritaire. Parallèlement, l’algorithme
de QPART sélectionne des flux susceptibles d’être rejetés en se basant sur une priorité des
flux. Toutefois, cette variation de la taille de la fênetre de contention ne permet pas de
prédire avec précision quel sera la variation de la bande passante associée. C'est pourquoi
QPART ne peut garantir avec précision la bande passante des flux QoS ni garantir une
utilisation au mieux du médium pour les flux Best Effort.
Des protocoles étudiés ci-dessus, il apparaît clairement que les mécanismes de régulation du
débit des flux Best Effort doivent être combinés à une estimation très précise de la bande
passante résiduelle, sous peine de ne pouvoir assurer des garanties strictes aux flux QoS. Les
protocoles tels que SWAN et QPART sont des protocoles de type passif, ils ne conservent
localement aucune information sur l’état du réseau. Une congestion est détectée lorsque des
seuils prédéfinis sont dépassés et la décision de réguler les flux Best Effort ne s’effectue que
dans ce cas précis. Le principal avantage de ce type d’approche est le passage à l’échelle car
aucune information n’est véhiculée à travers le réseau. Cependant, il est difficile de fixer au
préalable des valeurs de seuils qui puissent s’adapter à toutes les topologies multi-sauts.
Ainsi, il arrive très souvent que les mécanismes de régulation soient activés alors que le
réseau n’est pas congestionné ou dans le cas contraire qu’il ne soient pas activés en cas de
congestion.
Nous discutons ensuite le protocole ABE dont le but est l'estimation de la bande passante
résiduelle des lien radio. Cette estimation permanente et distribuée facilite aux applications
le choix des routes pouvant satisfaire leurs contraintes en terme de bande passante. ABE
adopte une approche proactive pour l'estimation des ressources qui est mise à jour
périodiquement et une approche réactive pour la recherche de route. Ainsi à partir des
informations collectées le long d'une route, ABE est en mesure de prédire si une route est
capable de fournir assez de bande passante pour une application donnée. Il est identifié
quatre phénomènes pouvant avoir un impact sur l'estimation de la bande passante résiduelle :
– Le mécanisme de détection de porteuse empêche à deux mobiles, se trouvant dans
cette zone, d'émettre simultanément. Par conséquent, un mobile partage de la bande
passante avec l'ensemble des émetteurs se trouvant dans sa zone de détection de
porteuse.

18


– Pour qu'une transmission s'établisse correctement, le canal doit être libre aux
alentours des mobiles émetteur et récepteur. La valeur de la bande passante résiduelle
dépend donc de la synchronisation des périodes de temps libre entre ces deux entités.
– A chaque collision, les paquets de données concernés sont retransmis, réduisant ainsi
la bande passante de disponible.
– Finalement, en cas de collision, le mécanisme du backoff exponentiel double la taille
de la fenêtre de contention. Ce surplus de temps a un impact sur la valeur de la bande
passante résiduelle.
Le protocole ABE possède quelques limitations qui sont essentiellement liées à la précision
de l'estimation de la bande passante résiduelle. Il existe de nombreuses situations
imprévisibles, liées à des topologies particulières pouvant conduire à une estimation erronée
de la bande passante résiduelle. La mise en place d'un mécanisme extrêmement précis,
véhiculant toutes les informations nécessaires pour apporter une précision très fine à
l'estimation, nécessiterait un volume d'informations trop coûteux au détriment des données et
n'est peut-être pas toujours réalisable.
Le protocole DRBT permet de réguler si possible le débit des flux Best Effort afin
d'augmenter le taux d'acceptation des flux QoS et d'utiliser efficacement des liens radio pour
les flux BE de façon à maximiser la bande passante du réseau lorsque cela est possible. Ce
protocole réutilise l’estimation de la bande passante résiduelle déjà mise en place par le
protocole ABE présenté ci-dessus. En rajoutant une estimation différenciée de la bande
passante résiduelle en fonction du type de trafic (QoS ou Best Effort), ceci permet
d’instaurer une bonne cohabitation entre les flux QoS et les flux Best Effort. Cette
différenciation est réalisée au niveau MAC et ne mesure que l'occupation médium des
paquets QoS durant la phase d'écoute du support radio.
Dans DRBT, la régulation du débit des flux Best Effort se déroule en deux étapes :
– Réduire le débit des flux Best Effort lorsqu’un nouveau flux QoS désire transmettre
et ne trouve pas assez de bande passante résiduelle car une partie de celle-ci est

occupée par ces flux Best Effort.
– Augmenter le débit de ces flux Best Effort lorsqu’un flux QoS libère de la bande
passante ou se déplace dans une autre zone de transmission.
DRBT s’inspire du protocole RED, la régulation du débit des flux Best Effort s’effectue en
adaptant dynamiquement la taille de la file d’attente des nœuds émetteurs Best Effort.

19


Contrairement aux méthodes consistant à réduire la taille de la fenêtre de contention, cette
approche permet de mieux contrôler le débit des flux Best Effort. Cependant, il y a des cas
où DRBT n'offert pas de bonnes garanties pour les flux ayant besoin de QoS ou les flux Best
Effort ne partagent pas équitablement la bande passante restante. Le but de ce stage est
d'améliorer ce problème dans le protocole DRBT en intégrant un algorithme d'allocation
équitable du débit des flux.
Les approches étudiés précédemment comme par exemple ABE, QPART se concentrent
essentiellement sur les flux QoS et ne considèrent pas la cohabitation entre flux QoS et Best
Effort. L'approche récemment proposé dans le DRBT s'intéresse à la coexistence des flux
garantis avec des flux Best Effort. Toutefois l'allocation des débits des flux Best Effort très
conservative car DRBT suppose que tous les flux Best Effort voisins d'un flux QoS partagent
le médium radio. Or ce n'est pas toujours le cas et les flux Best Effort pouvaient obtenir des
débits plus élevés sans dégrader les flux QoS.

20


II. Méthode proposée
Dans cette section nous présentons en détail les mécanismes mis en place afin de réguler si
nécessaire et de manière totalement distribué le débit des flux Best Effort. Une telle approche
permet de maximiser le taux d’acceptation des flux QoS. Le but de mon travail a été

d'améliorer le partage du médium au sein des flux Best Effort sans la contrainte d'existence
de flux QoS. Nous présentons d’abord les idées utilisées au niveau de la solution avant de
décrire l’estimation différenciée de la bande passante résiduelle et le mécanisme de
régulation dynamique du débit des flux Best Effort.

2.1. Idées utilisées
Pour garantir les flux QoS dans un environnement où co-existe le trafic QoS et Best Effort, il
faut d'abord diminuer le débit des flux Best Effort si nécessaire. Cette réduction doit être la
meilleure possible pour pouvoir accepter plus de flux QoS. Et lorsque de la bande passante
devient disponible, les flux Best Effort doivent pouvoir augmenter leur débit. Pour la
régulation du débit des flux Best Effort nous gardons la méthode utilisée dans DRBT, c'est-àdire la solution reposant sur deux file d'attente virtuelles en s'inspirant du protocole RED et
cela, ajoutons un algorithme qui permet de partager équitablement la bande passante
disponible entre les flux Best Effort. Cet algorithme est implémenté au niveau de la couche
IP. Comme le protocole DRBT, il faut faire communiquer les couches entre elles, c'est-à-dire
les informations nécessaires doivent transiter à contrôle travers les couches par des paquets
de contrôle.
Pour les paquets de contrôle, nous utilisons les paquets de contrôle classiques dans la plupart
des protocoles de routage : HELLO, RREQ, RREP. Nous utilisons également le paquet de
contrôle DRP (Dynamique Regulation Paquet) de DRBT et deux nouveaux types de paquet
unicast price message et broadcast price message.

2.2. Estimation de la bande passante résiduelle
La première étape pour garantir le débit des flux QoS, consiste à estimer la bande passante
résiduelle sur l’ensemble de liens du réseau. Cette estimation va nous permettre de quantifier
la proportion de bande passante libre pour les flux QoS, et qui est occupée par les flux Best
Effort. Nous utilisons l'estimation utilisé par DRBT. Cette estimation doit être distribuée et
prendre en compte les différents phénomènes propres aux réseaux ad hoc (interférences,
21



collisions, etc.). Ainsi, DRBT réutilise l’estimation de la bande passante résiduelle effectué
par le protocole ABE, auquel nous rajoutons un nouveau mécanisme correspondant à la
différenciation entre les paquets QoS et les paquets Best Effort.
Une différenciation entre les flux QoS et Best Effort doit permettre une meilleure utilisation
de la bande passante pour les flux QoS. Cette différenciation s’effectue au niveau MAC et
consiste à ne mesurer que l’occupation médium des paquets QoS durant la phase d’écoute du
support radio et à ne pas prendre en compte les flux Best Effort dans cette occupation. Elle
n’est donc possible que si les mobiles peuvent décoder les informations sur les paquets. En
effet, lorsqu’un paquet est transmis sur le médium radio, les nœuds qui écoutent le support
ne pourront identifier la nature du paquet (QoS ou Best Effort) en analysant les champs ToS
de l’en-tête IP, que s’ils sont en mesure de décoder le paquet. Les paquets émis dans la zone
de détection de porteuse ne peuvent être décodés parce que la puissance du signal perçue est
faible. En conséquence, le protocole considère ces paquets comme des paquets QoS. En
d’autres mots, les flux Best Effort se trouvant dans la zone de détection de porteuse sont
considérés comme des flux QoS dans l’évaluation de l’occupation du médium.

2.3. Algorithme d'allocation du débit des flux Best Effort
Lorsque la bande passante est disponible, les flux Best Effort devrait augmenter leur débit.
Comment le faire de façon équitable ? Pour répondre à cette question on va utiliser
l'algorithme proposé dans [11]. Pour cet algorithme, il faut résoudre le problème qui consiste
à maximiser le produit

∏ débit flux BE

, sous les contraintes que pour chaque nœud dans le

réseau, le débit total des nœuds voisin est inférieur à la bande passante disponible. Une
méthode pour résoudre ce problème est d'utiliser l'optimisation lagrangienne. A chaque nœud
n est associée à une valeur λn qui représente le taux d'utilisation de la bande passante
disponible de ce nœud-là pour un flux. Alors, un flux f qui traverse plusieurs nœuds d'une

route doit payer une valeur

où :
– N est l'ensemble de nœuds du réseau
– rnf est nombre de nœuds transmettant les paquets du flux f
Cette valeur va être diffusée à tous les nœuds utilisés par ce flux pour que chaque nœud

22


puisse re-calculer la valeur λn grâce à la formule suivante :

où :
– σ est le gradient qui détermine la vitesse de convergence.
– C est la capacité du médium radio.
– Φ est l'ensemble de flux Best Effort.
Le débit pour un flux Best Effort va être calculé par la formule suivante :
débit flux BE =∑ λ∗C
Le débit des flux BE est calculé sur le sommes des lamda de tous les nœuds de ce flux BE
(rappelons que lamda est le taux d'utilisation de la bande passante disponible).

2.2. Régulation du débit des flux Best Effort
Comme expliqué précédemment, le contrôle d’admission de certains flux QoS peut échouer
car une partie de la bande passante est consommée par des flux Best Effort. Par conséquent,
il est nécessaire de réguler leur débit en fonction de l’estimation de la bande passante
résiduelle présenté ci-dessus. Comme DRBT, cette régulation ne concerne que les flux Best
Effort et se déroule en deux étapes :

2.2.1. Réduction du débit des flux Best Effort
Dans cette partie, nous expliquons la méthode utilisée pour réduire le débit des flux Best

Effort si nécessaire. On n’utilise que les paquets classiques tels que les RREQ et RREP que
l’on retrouve dans la plupart des protocoles de routage réactifs.
Ainsi, pour chaque nouvelle transmission d’un flux QoS, un paquet de RREQ est envoyé au
préalable afin de réserver les ressources ainsi que le paquet de réponse RREP correspondant.
Les informations stockés dans ces paquets sont :
– L’adresse du nœud émetteur.
– L’adresse du nœud récepteur.
– Un numéro de séquence unique.
– Le débit désiré par le nouveau flux QoS (ThroughputQoS).
– Le nombre total de flux Best Effort se trouvant dans le voisinage du flux QoS
concerné (nbBE). En effet, chaque flux Best Effort possède un identifiant unique
23


propagé à travers les paquets Hello. En conséquence, chaque nœud peut estimer le
nombre total de flux Best Effort dans son voisinage et analysant ces identifiants.
– La bande passante résiduelle différenciée (qui ne prend en compte que les
transmissions QoS et noté DiffBandwith). Si la bande passante résiduelle différenciée
indiquée par le paquet de RREQ est inférieure à la valeur stockée sur le lien par
lequel le paquet de RREQ a été reçu, alors elle est mise à jour au niveau de ce paquet
de RREQ.
Nous utilisons un routage réactif proche de celui d’AODV. La source d’un flux QoS envoie
un paquet de RREQ à l’ensemble de ses voisins. Tout nœud recevant ce paquet de RREQ
effectue un simple contrôle d’admission en vérifiant si la bande passante désirée et
transportée par le paquet de RREQ est inférieure à la valeur de la bande passante résiduelle
différenciée sur ce lien. Si c’est le cas, le nœud ajoute son adresse dans la route et retransmet
ce paquet de RREQ. Ce processus continue jusqu’au nœud destinataire qui après avoir
effectué le dernier contrôle d’admission, envoie le paquet de RREP en unicast, par le chemin
inverse afin de réserver les ressources si le contrôle d’admission a été positif sur tout le
chemin.

A chaque réception d’un paquet de RREQ ou de RREP par un émetteur d’un flux Best Effort,
ce dernier estime s’il y a assez de bande passante résiduelle pour transporter ce flux QoS
sans dégrader son débit. Si ce n’est pas le cas, il est en mesure d’intercepter ces paquets
Hello indiquant qu’il faut diminuer le débit du flux Best Effort. Les nœuds de ce flux vont
ensuite calculer la valeur Πf du flux Best Effort. Cette valeur va être envoyée à la source du
flux par les paquets unicast price message. Chaque nœuds de la route va mettre à jours la
valeur λn. Les nouvelles informations vont être utilisées pour re-calculer Πf et cette valeur est
diffusée à tous les nœuds du flux par les messages broadcast price message. Grâce aux
valeurs calculées on détermine des débits des flux Best Effort. Après l'allocation des débits
pour les flux Best Effort, il réduit son débit en envoyant un paquet appelé DRP pour
Dynamic Regulation Packet. Ce paquet, envoyé depuis la couche IP vers la couche LL du
même nœud, ne circule pas à travers le réseau. Les informations stockées dans ce paquet
DRP sont :
– La valeur de la bande passante désirée par le nouveau flux QoS (ThroughputQoS) et
extraite du paquet de RREQ ou RREP.
– La valeur de débit du flux Best Effort (ThroughputBE) après d'allocation.
– Le nombre total de flux Best Effort rencontrés le long du chemin (nbBE).
– La valeur de la bande passante résiduelle différenciée stockée le long du chemin dans
24


la variable DiffBandwith.
– Un numéro de séquence unique permettant d’identifier le paquet RREQ et RREP.
Il est important de remarquer que seule la source du flux Best Effort est en mesure de
dégrader son débit pour des topologies où la source du flux Best Effort n’est pas dans le
voisinage du flux QoS qu’il gêne, une solution aurait pu être d’informer la source à l’aide de
nouveaux paquets de contrôle. Cependant nous n’avons pas retenu cette solution notamment
à cause de la part non négligeable de ressources qu’elle consommerait.
En pratique, deux files d’attentes virtuelles sont utilisées. La première sert à transporter les
paquets QoS et la seconde les paquets Best Effort. Nous pouvons donc contrôler

dynamiquement la taille de chacune des files. Pour diminuer de manière précise le débit du
trafic Best Effort, nous réduisons la taille de la file Best Effort jusqu’à une valeur seuil. Cette
valeur seuil, noté Threshold varie à chaque réception d’un nouveau paquet DRP. Elle est
obtenue grâce à la formule :

avec

et
ThroughputBE=∑ λ∗C capacité du médiumradio
Cette équation représente la nouvelle bande passante résiduelle que l’on pourra allouer au
flux Best Effort, si le nouveau flux QoS est accepté. Si la valeur du seuil est supérieure à un,
alors le débit du trafic Best Effort doit être diminué.
Une fois que le seuil est déterminé, la taille de la file d’attente sizeBE est donnée par la
formule :

La variable NbpacketsBE représente le nombre de paquets Best Effort entrés dans la file
d’attente durant une période de mesure d’une seconde. Nous avons choisi de fixer cette
période de temps à une seconde car au niveau du protocole ABE, les débits de l’ensemble
des liens du réseau sont mis à jour toutes les secondes.

25


×