Techniques et technologies de localisation avancées pour terminaux mobiles dans les environnements indoor

Corpus:
Scientext 2010 (E)
Nom de fichier:
Techniques et technologies de localisation avancées pour terminaux mobiles dans les environnements indoor
Contact:
Agnès TUTIN et Francis GROSSMANN
Niveaux d'annotation:
Annotation automatique
Statut de l'annotation:
automatique
Type:
écrit scientifique
Sous-type de texte:
thèse
Modalité:
écrit
Sample address:
/annis-sample/scientext/these_9_elec_evennou.html
Texte:
Techniques et technologies de localisation avancées pour terminaux mobiles dans les environnements indoor Frédéric Evennou 22 Janvier 2007 Je remercie France Télécom R & D et particulièrement Mr . Patrice Senn qui a été à l' initiative de cette thèse sur la localisation , Mme Marylin Arndt qui m' a accueilli dans son URD ( Unité de Recherche et Développement ) ainsi que M. Dominique Barthel responsable du pôle de recherche auquel mes travaux de recherche ont été rattachés . Je tiens à exprimer toute ma reconnaissance à M. François Marx pour son encadrement de très grande qualité , ses nombreux conseils et son soutien constant tout au long de ma thèse . Travailler sous sa responsabilité m' a énormément apporté sur le plan scientifique . Sa rigueur ainsi que son esprit critique m' ont toujours permis d' avancer dans les bonnes directions ( qui parfois sont si nombreuses ) pour mener à bien ses travaux de recherche sur la localisation . Je remercie M. Emil Novakov pour avoir suivi l' avancement de mes travaux de thèse en tant que directeur de thèse . Je remercie les rapporteurs de cette thèse M. Bertrand Merminod et M. Alain Sibille pour le grand intérêt qu' ils ont accordé à mes travaux , ainsi que pour leurs corrections . Merci également à M. Joel Liénard pour avoir présidé mon jury de thèse . Je tiens à montrer toute ma gratitude à tous les membres du laboratoire TECH / IDEA . Je remercie tout particulièrement Jean-Paul Laval pour sa grande expérience en électronique et qui m' a toujours accordé de son temps et de son expérience pour mettre en place les différentes plate-formes nécessitant une expertise en électronique . Mes remerciements vont également à tous mes collègues du laboratoire TECH / IDEA / iROC pour avoir rendu ces années de thèse les plus agréables possibles . Je n' oublie pas Mohamed avec qui j' ai eu grand plaisir à partager le bureau au cours de ma thèse et qui a supporté sans rien dire toutes les frappes sur le clavier lors de la rédaction de ce mémoire . Merci aussi au petit groupe de sportifs ( Leila , Patricia , Benoît , Christian , ... ) qui a toujours été là pour me changer les idées durant les pauses de midi . Ces remerciements ne seraient pas complets sans une petite pensée pour les deux stagiaires que j' ai eu l' honneur d' encadrer au cours de ma thèse et avec qui j' ai eu grand plaisir de travailler . Ce mémoire n' aurait pas été possible sans les travaux de très grande qualité menés par Simon Nacivet sur la localisation par ULB , et ceux de Julie Astier sur les suites à donner à ces travaux de thèse . Que la petite communauté Insalienne Rennaise délocalisée sur Grenoble ne soit pas oubliée car elle a toujours été là pour me montrer qu' il y a bien une vie à côté de la thèse , avec les quelques soirées et aussi pour son soutien pendant les quelques moments difficiles qui me sont arrivés au cours de ces dernières années sur Grenoble . Je n' oublie pas ceux qui sont restés en terre natale ( sur Rennes ) ni ceux qui ont été obligés de s' expatrier sur Caen , Paris , Toulouse et parfois même en Irlande . Je veux adresser tous mes remerciements à ma famille pour avoir toujours été à mes côté durant cette thèse et qui a participé pour une grande part à la réussite de cette thèse . Je tiens tout particulièrement à remercier ma maman qui a accepté de relire mon mémoire , et pour qui une grande partie des grandes théories présentées ici est restée très hermétique , mais qui malgré ce petit détail , a accepté de relire très attentivement " ce roman " pour en chasser un grand nombre de fautes d' orthographe . Je n' oublie pas mes grands-parents qui malgré l' éloignement ont toujours été là pour me soutenir durant ces quatre années . Un grand merci à mes " parents Irlandais " ( Margaret et Noel Shaughnessy ) sans qui je n' aurai jamais été capable de publier autant durant la thèse , s' ils n' avaient pas été là pour me faire apprécier la langue de Shakespeare . Merci pour m' avoir enseigné si patiemment toutes les subtilités de l' anglais ( parlé ) . Je souhaite enfin remercier ma très chère amie Azadeh qui a toujours été là pour me soutenir au cours de ces années de thèse , me redonner du moral dans les moments difficiles en me permettant de sortir de tous mes travaux de thèse afin que je reparte toujours mieux le lendemain . Je te remercie aussi pour ta très grande gentillesse et ta grande patience pour essayer de m' enseigner un peu de Persan même si je ne suis pas très rapide pour retenir tous les nouveaux mots . J' espère que tu continueras encore à m' encourager maintenant que ma thèse s' achève ... mn tO raa hyly dUset daaram , Azaadeh jaan . 66666666666666 nq^s hr n . gmh kh zd raah bh jaaEy daard . haaf . z ^syraazy 66666666666666 Contents Remerciements ? ? 1 État de l' art ? ? 1 Introduction : l' évolution des besoins de localisation ? ? 2 La localisation : objectifs , moyens et performances ? ? 2.1 Une grande diversité pour les applications de localisation ? ? 2.2 Le cadre juridique encadrant ces avancées en localisation ? ? 2.2.1 Des organismes imposant de nouvelles normes ? ? 3 Les moyens de localisation actuels à grande échelle ? ? 3.1 Les systèmes satellitaires ? ? 3.1.1 Le système de navigation GPS ? ? 3.1.2 Les améliorations du système GPS ? ? 3.1.3 Les alternatives au système GPS ? ? 3.2 Les systèmes de localisation par réseaux terrestres ? ? 3.2.1 Le système LORAN C ? ? 3.2.2 La localisation par la Télévision Numérique Terrestre ? ? 3.2.3 La localisation via les réseaux de téléphonie ? ? 3.3 La navigation par mesures inertielles ? ? 4 Les moyens de localisation ? ? 4.1 La localisation par ultrason ? ? 4.2 La localisation par infrarouge ? ? 4.3 La localisation par vidéo ? ? 4.4 La localisation par mesure de champ magnétique ( boucles dans le sol ) ? ? 4.5 La localisation par mesure de phase des composantes du champ électromagnétique ? ? 4.6 La localisation par onde radio ( WiFi , Bluetooth , RFID , ULB ) ? ? 5 Objectifs de la thèse ? ? 2 La localisation indoor par ondes radio WiFi ? ? 1 Le standard WiFi ? ? 2 Mesures d' informations et recherche dans une base de données ( Fingerprinting ) ? ? 2.1 Choix de l' information ( RSS , signature du canal ) ? ? 2.2 La technique de ? ? 2.3 La méthode probabiliste ? ? 2.4 La méthode du plus proche voisin ( RADAR de Microsoft ) ? ? 3 Exploitation de modèles de propagation ? ? 3.1 Formulation des modèles indoor et application à la localisation ? ? 4 Techniques de traitement de l' information associées à la poursuite de mobile ? ? 4.1 Le filtrage de Kalman ? ? 4.1.1 Modélisation du filtrage de Kalman ? ? 4.2 Le filtrage particulaire ? ? 4.2.1 Description du filtrage particulaire ? ? 4.2.2 Étapes du déroulement d' un filtre particulaire ? ? 4.3 Quelques variantes et leurs intérêts ? ? 4.3.1 Sur le re-échantillonnage ? ? 4.4 Adaptation du filtrage particulaire au cas de la localisation indoor ? ? 5 Adaptation du filtrage particulaire au cas des terminaux mobiles ? ? 5.1 L' obtention du diagramme de Voronoï associé à un bâtiment ? ? 5.2 Application du filtrage particulaire sur un diagramme de Voronoï ? ? 6 Performances de la localisation indoor par WiFi ? ? 6.1 Les informations de puissance ? ? 6.2 Exploitation d' un modèle de propagation ? ? 6.3 Application de la méthode du Fingerprinting au WiFi ? ? 6.3.1 Résultats de localisation brute ? ? 6.3.2 Influence du nombre de points d' accès dans l' environnement ? ? 6.4 Apports des techniques de tracking à la localisation par WiFi ? ? 6.4.1 Application du filtrage de Kalman ? ? 6.4.2 Application du filtrage particulaire ? ? 6.4.3 Application de performances du filtrage particulaire sur un diagramme de Voronoï ? ? 6.5 Comparaison de ces différentes techniques ? ? 6.5.1 Performances temporelles ? ? 3 La localisation par signaux impulsionnels à large bande ? ? 1 Rappels sur les signaux impulsionnels large bande ? ? 1.1 Qu' est ce que l' ULB ? ? 1.2 L' intérêt de l' ULB pour la localisation ? ? 1.2.1 Les techniques de modulation pour l' ULB ? ? 1.3 Les caractéristiques du canal radio Ultra Large Bande ? ? 1.4 La réception d' un signal ULB ? ? 1.5 ULB et localisation ? ? 2 Le système de localisation par ULB envisagé ? ? 2.1 Présentation de l' architecture du système retenu ? ? 2.2 L' utilisation des codes pseudo-aléatoires ? ? 2.3 Conception d' une chaîne d' émission-réception ? ? 2.3.1 Le FPGA ? ? 2.3.2 Le générateur d' impulsions ULB ? ? 2.3.3 L' étage d' amplification : l' amplificateur ZX60 - 5916M ? ? 2.3.4 Les antennes ULB ? ? 2.3.5 Les autres éléments du système de mesure / localisation ? ? 2.3.6 Le bilan de liaison de la chaîne de localisation ? ? 2.3.7 La densité spectrale de puissance du signal ? ? 2.4 Le traitement numérique des signaux en réception ? ? 2.4.1 L' algorithme de détection du premier trajet ? ? 3 Les techniques temporelles ( TDOA pour ULB ) ? ? 3.1 Description de la méthode TDOA ? ? 3.1.1 Formulation mathématique ? ? 3.1.2 Les résultats de simulation ? ? 4 Application de la localisation dans un démonstrateur réel ? ? 4.1 La mesure de distance émetteur / récepteur ou ranging ? ? 4.2 La localisation ? ? 4.2.1 Description du démonstrateur conçu et utilisé pour les mesures ? ? 4.2.2 Analyse des mesures ? ? 4.2.3 La dilution de précision géométrique en TDOA ? ? 4 Techniques de fusion d' informations de localisation ? ? 1 Localisation WiFi et ULB ? ? 2 La localisation par navigation inertielle ( INS ) ? ? 2.1 Exploitation des données de navigation inertielle ? ? 2.1.1 Les différents capteurs disponibles pour la navigation inertielle piétonne ? ? 2.1.2 Bilan sur la localisation par navigation inertielle ? ? 2.2 Description du système de fusion WiFi / INS ? ? 3 Démonstrateurs et publications scientifiques ? ? 3.1 Le démonstrateur pour la localisation par WiFi ? ? 3.2 Le démonstrateur pour la localisation par ULB ? ? 3.3 Le démonstrateur pour la localisation par navigation inertielle ? ? 3.4 Des publications scientifiques , des brevets et des projets ? ? 4 Perspectives et nouveaux défis ? ? 4.1 En localisation par WiFi ? ? 4.2 En localisation par UWB ? ? 4.3 La fusion multi-capteurs ? ? Introduction De même qu' aujourd'hui personne ne peut ignorer l' heure , personne à l' avenir ne pourra se passer de connaître l' endroit exact où il se trouve . Anonyme De plus en plus de services nécessitent des informations de localisation pour satisfaire les besoins des utilisateurs . Lorsque l' objet à localiser se trouve dans un environnement à ciel ouvert , le système GPS est utilisé . Il permet d' atteindre des précisions de l' ordre de quelques mètres . L' inconvénient de ce système est que les différents éléments ( satellites et terminal ) nécessitent d' être en visibilité directe . Dans les environnements urbains et indoor , cette contrainte n' est pas respectée . Le système GPS fonctionne alors en mode dégradé , ou ne fonctionne plus . De nouveaux standards comme le IEEE 802 . 15.4a ou Zigbee , orientés vers les réseaux déployés à l' intérieur , intègrent des fonctionnalités de localisation . Cependant , les capacités et performances de ces système , en terme de localisation , restent à démontrer . Le large déploiement des réseaux WiFi , à des fins de communication , doit permettre aussi de se localiser . Cette fonctionnalité n' est pas prévue à l' origine pour ces réseaux . Cependant , des informations de puissance du signal sont disponibles au niveau des équipements déjà installés . La notion de puissance du signal est liée à la distance émetteur / récepteur puisque la puissance d' un signal diminue avec la distance . Ce type de réseau est donc un candidat potentiel et séduisant car il permet de communiquer en haut débit ( transfert de données , téléphonie sur IP , etc. ) , et maintenant de localiser le terminal . Une étude approfondie de ces différentes approches est nécessaire pour prévoir la meilleure solution à déployer . Cette solution peut aussi être issue de la fusion de plusieurs technologies . Les technologies " indoor " , prises individuellement , connaissent des limitations comme une portée limitée , ou une dérive au cours du temps . Il est alors nécessaire de combiner plusieurs technologies de localisation à l' aide d' une infrastructure les faisant coopérer entre elles . Une telle solution doit conduire à une meilleure estimation de la position de l' équipement . Ce mémoire apporte une contribution sur les techniques de localisation et de navigation piétonne à l' intérieur des bâtiments . L' exploitation des technologies radio WiFi et l' ULB y est abordée . Les performances et limites de chacune de ces technologies sont détaillées par la suite . La fusion des informations de localisation et le gain apporté suivant le type de fusion seront aussi analysés . Le premier chapitre présente l' ensemble des technologies de localisation existantes . Certaines techniques et technologies ont été largement étudiées comme le GPS , tandis que d' autres apparaissent grâce à l' évolution des technologies . Ce chapitre montre que l' environnement indoor ( à l' intérieur des bâtiments ) ne possède pas encore de technologie dominante ( contrairement au GPS pour l' outdoor ) pour proposer un service de localisation . C' est donc sur cet axe de recherche que ce sont orientés ces travaux . Ce chapitre présente aussi quelques pistes intéressantes pour le futur , avec l' exploitation des nouveaux réseaux de communication ( réseau de télévision numérique notamment ) . Le second chapitre propose une étude sur les capacités de localisation des réseaux WiFi . L' approche proposée est basée sur la technique du fingerprinting avec les puissances du signal radio WiFi . L' introduction d' informations supplémentaires comme le plan du bâtiment est nécessaire pour limiter l' impact du bruit des mesures . L' utilisation d' estimateurs combinant ces informations est proposée dans ce chapitre . Cependant , la technique du fingerprinting présente quelques limitations dues à l' étape de création de la base de données , et l' exploitation de mesures temporelles semble plus intéressante sur le plan de la mise en place du système . Le troisième chapitre aborde la localisation indoor sous un angle différent en exploitant des mesures temporelles . Le standard IEEE 802 . 15.4a , prévu pour la mise en place de réseaux de capteurs à l' intérieur des bâtiments , introduit la notion de localisation pour les produits issus de cette norme . Les communications par radio impulsionnelle large bande doivent permettre de séparer les différents trajets lors de l' analyse de la réponse impulsionnelle du canal . L' accès à cette information de premier trajet est primordiale pour ce type de localisation . La mise en place d' algorithmes de recherche de ce premier trajet est nécessaire . Ce chapitre propose une étude sur les capacités en terme de localisation de cette nouvelle technologie . Le quatrième chapitre présente une architectures de fusion d' informations de localisation . Les deux chapitres précédents ont présenté les performances mais aussi les limites des systèmes de localisation par WiFi et ULB . La fusion d' informations devient nécessaire car bien souvent l' amélioration des performances passe par la collaboration intelligente de différents systèmes se corrigeant mutuellement . Une première étude porte sur la fusion d' informations de localisation issues de deux capteurs radio ( WiFi et ULB ) . Une seconde approche s' attache à exploiter des capteurs de natures hétérogènes ( WiFi et de la navigation inertielle ) . Différentes architectures de fusion sont proposées avec les performances et améliorations obtenues en exploitant chacune des approches . Ce chapitre s' attache aussi à présenter les différentes réalisations issues de ce travail de thèse , avec des démonstrateurs réels permettant de vérifier le réalisme de chacun de ces systèmes , des publications scientifiques et des brevets d' invention . 1 État de l' art On ne connaît pas complètement une science tant qu' on n' en sait pas l' histoire . Auguste COMTE De nos jours , les techniques de localisation sont multiples . Une bonne maîtrise et connaissance de ces diverses méthodes sont nécessaires afin de judicieusement dimensionner sa propre solution de localisation . Cette solution ne doit pas être surdimensionnée , sinon elle entraîne un surcoût soit au niveau de l' infrastructure soit au niveau du terminal de localisation . Les évolutions des performances des systèmes de localisation doivent aussi être accompagnées d' une législation réglementant les usages de la localisation qui peut devenir un outil d' usurpation de la vie privée des utilisateurs , en cas d' utilisation abusive . Ainsi la phrase de Georges Orwell " Big Brother is watching you " dans " 1984 " [ ? ] prend tout son sens . Si ces techniques s' avèrent nécessaires dans les situations d' urgence pour dépêcher des secours et porter assistance aux personnes en danger , dans le cadre du travail , cela permet à un patron de connaître en permanence où se trouvent ses employés et conduire à certaines dérives . Un cadre juridique clair et structuré est nécessaire pour faire la part des choses entre ces diverses situations et contenir les excès futurs qui pourraient apparaître . Ce premier chapitre introductif , a pour but d' effectuer un panorama des solutions de localisation disponibles , en mettant en avant les performances et les contraintes qui leurs sont liées . 1 Introduction : l' évolution des besoins de localisation Les hommes ont toujours eu besoin de localiser les objets et de se situer dans l' environnement . Pour répondre à cette nécessité , plusieurs techniques ont été utilisées . Au début de l' Humanité , l' homme utilise les pierres ( ou montagnes ) pour se repérer . Les particularités du relief lui servent de repère pour retrouver son chemin à travers la jungle et les déserts . Les précurseurs de la navigation ont laissé des traces sur leur passage comme des marques sur des pierres ou des arbres . Le concept de base à toute localisation est donc la " référence " . C' est sur cette notion que reposent tous les systèmes de localisation qui se succèdent pour fournir la position d' un objet ou d' une personne . Ensuite les techniques de localisation à l' aide des " corps célestes " sont utilisées . Ce moyen est bien connu des navigateurs qui très tôt l' ont utilisé pour traverser les océans . Les éléments naturels utilisés comme points de référence sont bien sûr le soleil , la lune et les étoiles . La position relative des étoiles les unes par rapport aux autres ainsi que leur arrangement géométrique , différent d' une position de la Terre à une autre , ont permis à ses navigateurs de se situer sur les océans ( détermination de la latitude ) , la longitude étant déterminée par la mesure du temps . Ces éléments naturels ont défini le cap à suivre pour rejoindre leur point de destination . Plus tard , l' arrivée d' appareils de mesures comme les sextants , ont permis de connaître plus précisément les configurations géométriques des astres . Ces informations combinées à des cartes pré calculées ont permis d' améliorer la précision de ce type de localisation . La navigation à l' estime a aussi été utilisée . Connaissant la vitesse , le point de départ et les angles dans la trajectoire , les navigateurs réussissaient à déterminer plus ou moins précisément leur position sur l' océan . La seconde guerre mondiale a permis de tester de nouvelles technologies de localisation , puisque les militaires ont compris très tôt l' avantage tactique de connaître sa propre position et aussi celle de l' ennemi . Des techniques de triangulation radar ont été testées à cette époque . Dans les années 1950 , les premières techniques de localisation par onde radio sont apparues . Le concept était de mesurer le temps de vol d' une onde radio entre un émetteur et un récepteur . Le défi est d' estimer le plus précisément ce temps de vol , car une erreur d' une microseconde conduit à une erreur de sur l' estimation de cette distance . LORAN a été véritablement le premier système de localisation par onde radio . Il a été déployé dans plusieurs régions du monde mais n' était disponible que sur seulement de la planète . De plus , il n' était déployé que sur les côtes et était la propriété des différents gouvernements . Afin d' offrir une couverture totale de la planète par ce type de service , l' idée d' un système de localisation par satellite s' est imposée . Le principe de localisation mis en place est en tout point similaire à celui des techniques terrestres à savoir la triangulation . Hormis l' aspect de couverture étendue , un basculement de complexité a été effectué . Avec LORAN , toute la complexité réside dans le terminal tandis qu' ici toute la complexité du système est embarquée dans les satellites . Avec l' ère des satellites , les hommes se remettent à scruter les cieux pour obtenir des informations quant à leur position sur Terre . Mais cette fois , ce sont des astres artificiels qui sont employés . Une fois ces moyens de localisation à grande échelle maîtrisés , d' autres besoins sont apparus . Les objectifs en terme de localisation ont donc peu à peu changé . Auparavant , l' objectif était ( mais reste toujours au goût du jour ) de fournir un service de localisation sur le plus grand territoire possible . Les techniques précédemment évoquées ont permis de le faire plus ou moins bien , avec la plus grande couverture possible grâce au système GPS . Cependant certaines zones restent privées de ce service de localisation . Typiquement , les environnements urbains denses ainsi que l' intérieur des bâtiments restent mal couverts . Si la localisation se fait dans ces endroits , elle se trouve entachée d' erreurs importantes à cause des faibles niveaux de signaux GPS reçus . Ainsi , le mobile se retrouve comme au temps de l' utilisation du sextant par temps nuageux . Les performances de ce système de localisation à grande échelle sont de l' ordre de la dizaine de mètres près . Certaines applications nécessitent une localisation plus fine car localiser une personne à 10 mètres près dans un bâtiment est bien souvent inacceptable compte tenu de la dimension des pièces constituant cet environnement . Auparavant , la localisation était utilisée par les professionnels , comme les marins , ou les équipages sur des rallyes , qui avaient besoin de connaître leurs positions . Ces utilisateurs se trouvaient généralement dans des espaces bien desservis par le GPS . Aujourd'hui , les applications grand public comme la localisation de son propre véhicule en ville , la localisation d' une personne dans un bâtiment , s' effectuent dans des environnements moins favorables au GPS . Les réseaux locaux basés sur des tags RFID , des Ultra-Sons , de l' infra rouge , le WiFi ou bien encore de la vidéo peuvent être exploités pour prendre le relais du système GPS et permettent de se localiser dans un rayon limité pouvant aller jusqu'à quelques dizaines de mètres . Mais certaines de ces technologies ne sont pas adaptées à la localisation d' une personne car elles nécessitent un geste volontaire devenant vite contraignant pour un utilisateur . D' autres technologies imposent des contraintes quant à leur déploiement . Une grande densité d' équipements est nécessaire pour fournir en permanence la localisation tout en conservant des performances raisonnables de l' ordre du mètre . Dans le cadre de l' indoor , les technologies radio semblent bien indiquées grâce à leur capacité de traverser les obstacles qui sont nombreux à l' intérieur des bâtiments ( murs , mobilier , etc. ) . La réutilisation des réseaux radio permet d' avoir un support de localisation peu coûteux . Les interfaces WiFi permettent d' accéder à des informations ayant un lien avec la distance mobile / point d' accès . Cette information est la puissance du signal . L' exploitation cette information n' est pas simple , car même si elle est reliée à la distance émetteur / récepteur , il n' existe pas de formule mathématique simple conduisant à cette distance . L' exploitation de la technique dite " fingerprinting " est une approche qui permet de traduire un ensemble de puissances collectées en une position . Les mesures effectuées sont souvent bruitées ce qui complique encore la tâche . L' utilisation d' outils de filtrage et d' estimation est nécessaire pour prendre en compte ce bruit de mesure et minimiser son impact sur la localisation . Tout comme par le passé , les informations cartographiques sont très importantes car la connaissance de l' architecture aide souvent le système radio qui peut devenir défaillant . L' intérieur de nos bâtiments intègre de plus en plus de capteurs qui aujourd'hui sont distincts et ne communiquent pas encore entre-eux mais ceci change peu à peu . L' émergence de nouveaux standards comme le TG IEEE802 . 15.4a vise à faire communiquer les capteurs . Ce standard prévoit que les communications entre les capteurs soient large bande sans pour autant parasiter les autres systèmes . Une approche est d' utiliser des signaux radio impulsionnels . Tout comme dans le domaine du radar , où des impulsions très brèves sont utilisées pour leur fort pouvoir séparateur des multi-trajets en réception , il est intéressant d' étudier si ce principe est transposable pour ces nouveaux réseaux de communication , puisque les impulsions sont beaucoup moins puissantes , et la maîtrise de génération d' impulsions est beaucoup moins grande . Les dégradations successives des éléments des chaînes de communication peuvent altérer ces impulsions , en les élargissant par exemple , et rendre ainsi toute localisation inutile , du fait que l' environnement indoor présente un grand nombre de multi-trajets en réception . La mise en place d' algorithmes permettant de déterminer l' instant d' arrivée d' une onde est nécessaire , mais des traitements plus complexes que ceux mis en oe uvre pour le GPS sont nécessaires . À chaque situation , il est possible de dimensionner une solution de localisation permettant d' atteindre des performances définies dans un cahier des charges . Très souvent une technologie de localisation prise individuellement ne peut pas répondre à l' ensemble des critères . Par contre , différentes technologies et techniques permettent de satisfaire localement à une partie de ce cahier des charges . La complémentarité des différentes techniques de localisation est utile et nécessaire pour mettre en place un système de localisation indoor répondant à des performances similaires en toute position dans un bâtiment . L' interaction de différentes solutions conduit à transformer cet ensemble de techniques en un système de mutuelle auto-correction minimisant les défauts de localisation de chacune des technologies employées à l' aide des autres technologies de localisation . Ce type de complémentarité existe déjà pour le GPS dans le domaine de l' automobile . La navigation inertielle étant naturellement disponible dans une automobile , elle est souvent couplée à la navigation par GPS . En navigation piétonne , il est possible d' employer des capteurs mesurant l' attitude d' une personne les portant et d' intégrer ces informations dans l' architecture en combinant ces informations avec l' une ou l' autre des technologies . Cet aspect de complémentarité est très certainement la clé du succès pour fournir un service de localisation en toute position . 2 La localisation : objectifs , moyens et performances 2.1 Une grande diversité pour les applications de localisation Les besoins des hommes de savoir où ils se trouvent , ou alors où se trouvent leurs familles , amis , ou bien encore un service ( médecin , bouche de métro , ... ) sont de plus en plus marqués . Ces exigences deviennent de plus en plus pointues , pour toujours gagner en confort d' utilisation et qualité de vie . On distingue plusieurs catégories d' applications . Il y a d' un côté les applications de sécurité liée aux personnes et de protection des personnes fragiles . Les récents événements de société avec les séries d' enlèvements d' enfants , ont suscité une prise de conscience des pouvoirs publics et des parents . Plusieurs entreprises se sont lancées sur ce marché , à savoir la sécurité des personnes à risques comme les enfants ou bien les personnes âgées . Des entreprises comme Alcatel [ 70 ] ou Ouketi.com [ 87 ] permettent déjà d' effectuer une telle localisation pour les enfants [ 108 ] . Ce service d' Ouketi est en place depuis 2005 avec comme première zone de couverture Paris et sa région , mais à terme ce type de service sera disponible dans toutes les grandes villes . La surveillance des personnes âgées est tout autre . Cette catégorie de la population est souvent sujette à des ennuis de santé parfois fatals . La présence de systèmes d' alerte sur elles devient indispensable , ou alors certains éléments permettant de surveiller leur présence ou pas sont nécessaires pour éviter de telles situations d' urgence . La société Blue Eye [ 100 ] propose un système de détection / localisation de personnes par vidéo " Blue Behaviour " . Un système de localisation par vidéo est installé dans leur habitation et si au bout d' un certain délai , la personne âgée n' est pas entrée dans l' environnement surveillé , une équipe médicale est alertée de la non présence de la personne . Le monde professionnel nécessite aussi des solutions de localisation adaptées . La surveillance de personnes dans le milieu carcéral est une de ces applications . C' est le cas du suivi des délinquants à l' aide des technologies de localisation actuelles . Certains projets de lois aux États Unis et en Europe prévoient d' équiper ces personnes à risques avec des bracelets permettant de savoir en permanence où elles se trouvent [ 99 , 110 ] . Les pompiers , travaillant dans des milieux à risques tels les incendies , sont un autre débouché pour les applications de localisation . Leur guidage à travers les flammes est bien évidemment très intéressant afin de les empêcher de s' engouffrer dans des voies dangereuses lors d' interventions dans des bâtiment inconnus [ 113 , 105 ] . En logistique , la connaissance du lieu où se trouvent les marchandises ( soit dans un entrepôt , soit sur la route ) est assez importante afin d' optimiser le coût d' acheminement des marchandises ( gestion d' une flotte de camions ) [ 104 ] , ou de réduire le temps nécessaire à la recherche d' une petite pièce dans un très grand entrepôt . L' entreprise Américaine True Position collabore avec les militaires pour des applications de ce type [ 112 ] . Le monde grand public n' est pas en reste . Avec l' accroissement du nombre de téléphones portables , il existe des applications créant des tribus et pour lesquelles il est nécessaire de connaître la position des autres membres de la tribu . Ces applications sont souvent connues sous l' anglicisme " buddy finder " ou " services de communauté " en français [ 117 ] . D' autres services comme le renseignement sur les points d' intérêts à proximité de sa propre position ( bouche de métro , cinéma , ... ) sont autant de renseignements qui faciliteront la vie des usagers . Ces petits services du quotidiens permettront aux opérateurs de retirer des bénéfices avec leur vulgarisation auprès du public . Ce dernier point montre l' intérêt des applications de guidage des personnes qui sont amenées à se développer [ 118 , 71 , 107 ] . Il existe aussi un aspect plus ludique à toutes ces technologies . Des expérimentations ont été réalisées sur l' exploitation de la localisation de joueurs évoluant dans un milieu comme une ville afin de recréer des situations de jeux d' actions . Des expérimentations ont déjà été menées à ce sujet par France Telecom R & D [ 101 ] sur un jeu de piste en collaboration avec Ludigames et infra games . On voit par là que la localisation peut être nécessaire dans de nombreuses situations de la vie quotidienne , tant sur le plan personnel , que professionnel . Aujourd'hui certains services de localisation sont disponibles . Le GPS étant en place depuis 1978 , des applications ont alors trouvé une réponse adéquate à leurs besoins de localisation . Certaines entreprises proposent à leurs clients des services de localisation à partir des techniques et technologies existantes . Le tableau 1 donnent quelques indications sur les possibilités en matière de localisation . Avec l' arrivée de nouveaux standards comme l' UMTSUMTSL'Universal Mobile Telecommunications System [ ? ] , de nouvelles applications trouveront naturellement une solution à leur besoin de localisation étant donné la forte connotation de multimédia associée à ce standard . Le nombre de projets de recherche dans ce domaine va considérablement augmenter dans les années à venir . Table 1 : Comparaison de quelques techniques de localisation et offres associées . Prestataire rmations ) 2.2 Le cadre juridique encadrant ces avancées en localisation L' émergence de tous ces nouveaux services est généralement due à des organismes et à une évolution des technologies qui permettent aux clients de disposer de ces nouvelles fonctionnalités . Aux États-Unis , la FCC ( Communications CommissionFCCThe Federal Communications Commission ) [ ? ] est à l' origine du service d' urgence E 911 E 911 Enhanced 911 pour déterminer la position des téléphones mobiles passant des appels d' urgence . En Europe , le service E 112 E 112 Enhanced 112 , similaire au service E911 , a été mis en place par les pays de l' Union Européenne . Une arrivée massive de services de localisation pour un mobile , peut conduire à un certain nombre de débordements qu' il convient de prévenir en mettant en place des législations adaptées aux situations . Aujourd'hui , si les activités de recherche sur la localisation s' intensifient , c' est principalement du à la mise en place de règles strictes en la matière concernant la localisation des postes de téléphonie mobile . En effet , aux États-Unis l' instauration d' un système de localisation des appels d' urgence existe depuis 1969 . L' évolution technologique nous a permis de passer du téléphone filaire au téléphone sans fil qui lui devient plus difficile à localiser puisqu' il peut se déplacer dans l' environnement . La suite de ce chapitre aborde les différents systèmes de localisation existant aux États-Unis et en Europe , afin de mettre en valeur les raisons de de cette activité de recherche en géolocalisation . 2.2.1 Des organismes imposant de nouvelles normes La FCC et le service E911 Dès 1968 , le gouvernement Américain a décidé de mettre en place un numéro unique pour les appels d' urgence . L' objectif était de mettre en place un numéro universel d' urgence . Ceci n' a pu se faire sans l' aide des opérateurs téléphoniques . Le 911 a été choisi comme numéro d' appel d' urgence . Ce numéro permet encore aujourd'hui d' appeler et de déclencher les urgences ( soit les pompiers , soit la police ou alors une ambulance ) . Ce numéro a été retenu pour sa simplicité à être composé , même dans des conditions extrêmes de non visibilité du clavier téléphonique puisqu' il s' agit d' appuyer sur des touches extrêmes du téléphone . De plus ce numéro est rapide à composer . Actuellement ce numéro d' appel d' urgence est en place dans tous les états Américains ainsi qu' au Canada . Le passage du téléphone filaire au téléphone mobile a diminué peu à peu l' intérêt du service 911 mis en place en 1968 . L' évolution du nombre de téléphones mobiles a été fulgurante durant les dernières années . Le téléphone mobile remplace peu à peu le téléphone filaire . Aujourd'hui , beaucoup d' appels d' urgence sont composés à partir d' un téléphone mobile . Ceci devient problématique , car le système mis en place en 1968 permet de connaître la position du poste téléphonique filaire qui a passé l' appel ( connaissance du numéro qui est affecté à une ligne ) , tandis qu' avec le téléphone portable tous ces systèmes sont inutilisables . Il a donc été nécessaire de repenser totalement l' architecture pour qu' elle puisse connaître la position du mobile à partir duquel duquel est passé l' appel d' urgence . Partant de ce constat , la FCC a imposé , aux opérateurs de téléphonie mobile , la mise en place d' une solution de localisation permettant de localiser les équipements mobiles passant ces types d' appel . Ainsi l' ère du E- 911 ( Enhanced- 911 ) a succédé à celle du 911 . Ceci s' est fait lors de l' approbation du " Wireless Communications and Public Safety Act " de 1999 [ 111 ] . Les événements du 11 Septembre 2001 ont amplifié ce réel besoin de localiser les mobiles . Ces évènements ont montré l' importance prise par les réseaux cellulaires sans fil dans notre vie de tous les jours [ 82 ] . Une description du système 9 - 1-1 est proposée dans [ 92 ] . En observant la structure prise par le système E- 911 , on s' aperçoit que d' un côté on a le réseau ( pour les ligne téléphoniques filaires , et pour les terminaux mobiles ) , de l' autre on a les terminaux mobiles eux mêmes . La FCC [ 79 ] a mis en place deux catégories de localisation . D' un côté , une localisation effectuée par le réseau lui même , et de l' autre une localisation effectuée par le terminal mobile lui même . Les performances attendues par chacun de ces moyens de localisation sont données dans le tableau 2 . Table 2 : Performances attendues en localisation dans le cadre du E- 911 Un tel écart de performances se comprend par le fait que les signaux reçus par le terminal mobile sont généralement de meilleure qualité ( rapport signal à bruit plus élevé ) que ceux reçus par les stations de base . Les stations de base n' étant pas limitées en énergie , elles peuvent émettre des signaux plus fortement de temps en temps , tandis qu' un terminal mobile , s' il émet des signaux plus fortement , son autonomie se trouve diminuée . Le critère de performance retenu pour l' homologation d' un système de localisation est basé sur la fonction de répartition des performances en localisation ( précision ) des équipements et de la technologie retenue . La mise en place de ce système E911 a été planifiée . À chaque échéance , la FCC juge de l' avancement de chacun des opérateurs sur la mise en place du service E- 911 . Ces opérateurs remettent à la FCC un rapport de leurs activités contenant les évolutions concernant leur réseau , ainsi que les résultats sur les performances . Si des opérateurs n' atteignent pas les performances escomptées , un système de pénalité a été mis en place . Ainsi certains opérateurs comme AT & T se sont vus infliger de fortes amendes pour ne pas avoir fourni un système de localisation suffisamment performant à la fin de certaines phases . Les performances des systèmes de localisation fluctuent d' un opérateur à l' autre . La FCC a laissé aux opérateurs le choix de leur technique de localisation . Certains opérateurs ont opté pour des stratégies basées sur une localisation par le réseau , tandis que d' autres ont opté pour la localisation par le terminal mobile . Dans chacune de ces deux catégories , plusieurs techniques de localisation existent . Le tableau 3 donnent quelques indications concernant les choix des opérateurs en matière de localisation pour le E- 911 . Table 3 : Solutions de localisation retenues par les opérateurs Nom de l' opérateur La mise en place de ces systèmes de localisation se fait en deux phases . Lors de la première phase , les opérateurs téléphoniques Américains ont du fournir une localisation à la cellule ( Cell ID ) avec le numéro de l' appelant . La date limite de mise en place de cette première solution a été Octobre 1998 . Lors de la seconde phase commencée après cette première phase , de nouvelles contraintes sont apparues . Celles -ci sont présentées dans le tableau 2 . Cette phase est souvent notée Phase II . En 2006 , tous les Américains possédant un téléphone mobile doivent être localisés assez précisément lorsqu' ils émettent un appel d' urgence . Cependant , ce déploiement a connu quelques anicroches . À la fin de certaines échéances , AT & T n' a pas atteint les performances attendues . Leur solution basée sur la technique E-OTD n' a pas été mise en place pour des raisons de non livraison de quantités suffisantes de terminaux aux échéances ( retard du aux contres performances de la méthode E-OTD lors des sessions de test ) . Ils ont du opter pour une nouvelle solution de localisation . Dans leur cas , ils se sont réorientés vers la solution A-GPS . Aujourd'hui , avec le déploiement de nouvelles technologies comme celle des WLANWLANWireless Local Area Network ( Wireless Local Area Network ) , certaines personnes envisagent d' imposer de nouvelles performances à atteindre pour localiser les mobiles . L' émergence de ces nouveaux réseaux ouvre des portes vers une localisation plus fine dans les environnements dans lesquels ils sont déployés . Selon le rapport Hatfield , les techniques de localisation prévues par les opérateurs dans le cadre du E- 911 ne permettent pas de couvrir l' intégralité du territoire . Des zones d' ombre subsistent comme dans des canyons urbains par exemple . Le nombre de signaux de satellites GPS captés GPSGlobal Positioning System n' est plus suffisant pour garantir la localisation du mobile . De telles situations sont aussi rencontrées dans les bâtiments , ou les souterrains des lignes de métro par exemple [ 54 ] . Une proposition d' hybridation entre différents systèmes de localisation a été envisagée avec des solutions proposant une solution de localisation à grande échelle et une solution de localisation locale ( à faible portée ) . Le rapport Hatfield met aussi l' accent sur la nécessité de localiser des appels passés via les réseaux sans fil en voix sur IP " The issues become even more tightly intertwined with the rapidly growing popularity of wireless LANs ( e.g. , WiFi / 802.11b ) . While the range of these systems is typically much less than the range of a single cellular base station , they do add additional uncertainty as to the exact physical location of the end user making an emergency call . " . Cependant la prise en compte de ce type d' information en supplément de l' infrastructure existante apporte une complexité supplémentaire . Ainsi ces réseaux émergents sont plutôt une solution parmi d' autres pour résoudre le problème de la localisation en indoor . Le rapport Pulver de décembre 2002 [ 55 ] , préconise de lancer des études plus approfondies sur ces réseaux et de les intégrer dans une phase III . Un répertoire des hot spot est nécessaire afin que ce nouveau moyen de localisation devienne utilisable à grande échelle . En ce qui concerne la protection des données liées aux personnes , c' est le amendement de la constitution Américaine qui est appliqué . Mais suite aux événements du 11 Septembre 2001 , et la mise en place inévitable du service E911 par la FCC , une réelle prise de conscience de la nécessité d' un tel service est apparue au détriment de la protection de la vie privée des utilisateurs . Un complément à ce nouvel amendement stipule notamment la mise en place de systèmes permettant à l' utilisateur de désactiver ce type de service [ 98 , 94 ] . L' Europe et le service d' urgence E112 En Europe , un service similaire commence à être mis en place . Il émane de l' Union Européenne , et non pas d' un organisme de régulation comme c' est le cas avec le FCC aux États-Unis . Ce service a été lancé en 1991 , par une décision du Conseil le 29 Juin 1991 [ 74 ] . C' est en Juillet 2000 que le parlement Européen et son Conseil proposent une nouvelle régulation des télécommunications réglementant les données de localisation [ 77 ] . Dans les réseaux de communications mobiles actuels , les données de localisation sont déjà présentes . Cette information de la cellule dans laquelle le mobile se trouve est nécessaire pour acheminer les communications entre ce poste mobile et un second équipement distant . Pour les réseaux cellulaires , cette donnée de localisation est relativement imprécise , et dépend de la superficie de la cellule dans laquelle se trouve l' utilisateur mobile . L' exploitation de cette information de localisation liée à la cellule de rattachement du mobile est en fait un " sous-produit " du service de transmission de communications , et elle est déjà couverte par la directive existante , dans le cadre des données relatives au trafic . Bien que l' information de localisation rend de grands services à l' Homme , il est nécessaire de veiller à mettre en place des garanties appropriées pour la protection des données et de la vie privée . La disponibilité d' informations de localisation très précises sur la position d' un utilisateur ne doit pas aboutir à une situation où les utilisateurs seraient sous surveillance permanente , sans aucun moyen de protéger leur vie privée si ce n' est en renonçant totalement à utiliser des services de communications mobiles . Un nouvel article concernant les données de localisation non couvertes par l' article 6 sur les données relatives au trafic est proposé . Il stipule que ces données ne peuvent être utilisées qu' avec le consentement de l' abonné , et en offrant aux abonnés et aux utilisateurs un moyen simple d' interdire temporairement le traitement de leurs données de localisation à l' instar de ce qui est prévu à l' article 10 pour l' identification de la ligne appelante . Les seules exceptions au principe du consentement préalable sont l' utilisation des données de localisation par les services d' urgence et les dérogations existantes dont bénéficient les États membres à des fins de sécurité publique , de sûreté de l' État , et pour les recherches d' infractions pénales . L' article 11 prévoit la possibilité d' empêcher la suppression du traitement des données de localisation , selon les principes des dispositions existantes permettant aux services d' urgence d' outrepasser la suppression de l' identification de la ligne appelante . Tout comme aux États-Unis , la commission Européenne impose aux opérateurs de télécommunications de fournir lors d' appels d' urgence , la position des utilisateurs ( directive 2002 / 22 / EC ) . À la différence des États-Unis , où la FCC impose aux opérateurs de télécommunications certaines performances concernant la précision de la localisation , la Commission Européenne demande aux opérateurs exploitant un réseau de radiocommunication cellulaire ( de type GSM ) sur l' un des différents territoires de l' union , de faire du mieux possible pour fournir la localisation des terminaux passant ces appels d' urgence . Ainsi , il n' y a aucune contrainte quant aux performances des systèmes à mettre en place . La seule raison que les opérateurs ont à mettre en place des systèmes de localisation performant est la possibilité de tirer de nouveaux revenus des nouveaux services engendrés par la localisation . Jusqu'à aujourd'hui , la principale méthode , mise en place par les différents opérateurs de télécommunications pour satisfaire cette directive , est la méthode d' identification de la cellule ( Cell ID ) à partir de laquelle l' appel est passé . Cette méthode de localisation très peu coûteuse à mettre en place leur permet de satisfaire cette directive européenne . Cependant , la qualité de la localisation retournée dépend de l' environnement , et donc de la densité de stations de base . Cette technique fournit une localisation assez précise dans des environnements urbains , où les réseaux sont dits micro cellulaires , tandis que dans des environnements ruraux , la taille des cellules est de plusieurs dizaines de kilomètres ce qui dégrade fortement la précision de la localisation [ 85 ] . Avec la mise en place du système de navigation par satellite Galileo , la communauté Européenne imposera aux différentes collectivités territoriales ( pompiers , police ) d' utiliser ce nouveau service de navigation . Ainsi , ce nouveau système de navigation s' imposera dans les années à venir , et sera probablement intégré aux différents équipements mobiles se trouvant en Europe , à l' image du GPS aux États-Unis . Plusieurs projets de recherche sur la localisation ont été lancés par l' Union Européenne . Le projet EMILY [ ? ] terminé en 2004 a visé à introduire la localisation à partir du réseau GSMGSMGlobal System for Mobile Communications et du GPS . Le projet LIAISON [ ? ] se termine en 2008 et vise à mettre en place une architecture intégrant différentes technologies de localisation et à introduire des services autour du système de localisation GALILEO . 3 Les moyens de localisation actuels à grande échelle 3.1 Les systèmes satellitaires La navigation par satellites a commencé à partir des années 1970 . Trois systèmes satellitaires ont été explorés avant la mise en place du système GPS ( Global Positioning System ) . Il y a eu le système U.S. Navy Navigation Satellite System aussi connu sous le nom de Transit , puis le système U.S . Navy's TIMATION ( TIMe navigATION - 1964 ) et enfin le projet U.S. Air Force 621B. Le programme TRANSIT a été le premier à utiliser les émissions continues d' ondes à partir de satellites . À l' origine il était prévu qu' il soit utilisé pour détecter la position des missiles , des sous-marins et autres navires . Il a été mis à disposition des applications civiles à partir de 1967 . L' apport de cette technique est qu' elle permet de mesurer l' effet Doppler du au déplacement des satellites . Son principal inconvénient est sa lenteur d' acquisition . De plus ce système composé de sept satellites était insuffisant pour offrir un service de localisation sans interruption . Il arrivait que le service de localisation reste indisponible pendant plusieurs heures . Le système TRANSIT était donc inadapté à la localisation d' objets à grande mobilité comme les avions par exemple . De son côté , le projet TIMATION a exploré l' utilisation des horloges atomiques afin d' améliorer la prédiction des orbites des satellites et de réduire le taux de rafraîchissement des corrections à apporter à partir des stations de contrôle terrestre . Pour cette expérimentation , seulement deux satellites ont été mis en orbite ( le premier en 1967 ) . À leur bord , des oscillateurs très stables ont été embarqués , puis des horloges au césium et rubidium ont été testées . Ces deux satellites du programme TIMATION ont été utilisés comme prototypes pour la mise en place du GPS . Le programme 621B a exploité l' émission de codes PNPNPseudo Noise ( Pseudo Noise ) pour moduler une porteuse ( 1972 ) . Les travaux menés lors de ce projet devaient délivrer la position dans l' espace ( longitude , latitude et altitude ) d' un équipement tout en ayant une couverture du service la plus continue possible . Afin de juger de l' efficacité des code PN , une expérimentation grandeur nature a été mise en place à White Sands Proving Ground ( Nouveau Mexique ) avec des ballons embarquant des transmetteurs afin de reproduire le plus fidèlement possible les satellites . Le résultat de cette expérimentation ont été très positifs , puisqu' ils ont démontré la possibilité de localiser un avion au centième de miles près [ 106 ] . Le système NAVSTAR GPS a vu le jour en décembre 1973 . Les deux derniers systèmes présentés ont été développés de manière concurrentielle par l' US NAVY pour TIMATION et par l' US AIR FORCE pour le projet 621B. Chacun de ces organismes a recherché à améliorer les performances de son propre système satellitaire . Le département de la défense Américain ( Department Of Defense - DODDODDepartment Of Defense ) a décidé d' unir les avantages des deux parties pour donner naissance au système actuel connu sous l' acronyme GPS . La structure des signaux et les fréquences retenues viennent du système 621B , tandis que système d' orbite des satellites vient du système proposé par TIMATION ( avec une altitude supérieure , car leur temps de révolution autour de la Terre est de 12h contre 8h initialement prévu dans le système de l' US NAVY ) . L' utilisation d' horloges atomiques était commune aux deux systèmes . On voit par là l' importance qu' ont joué les militaires Américains dans la mise en place d' un système de navigation par satellite . Aujourd'hui , c' est le DOD qui contrôle le système GPS et dispose du droit de dégrader les performances du système . Jusqu'en Mai 2000 , sous la présidence de Clinton , deux systèmes GPS ont cohabité . L' un a été utilisé pour les applications militaires , et l' autre pour les applications civiles . Les performances de ces deux systèmes ne sont pas les mêmes . Les militaires Américains ont dégradé volontairement les signaux GPS afin que l' erreur d' estimation de positionnement soit plus importante pour les terminaux civils . On comprend bien que ces autorités militaires peuvent supprimer la disponibilité du service à tout moment . Toutes ces menaces qui peuvent paralyser un pays si le service de localisation n' est plus disponible ont conduit certains pays à mettre en place leur propre système de localisation . Les Soviétiques ont alors lancé un programme concurrent au GPS et qui se nomme GLONASSGLONASSGLObal NAvigation Satellite System ( GLObal NAvigation Satellite System ) . Depuis , les Chinois essaient aussi de mettre en place leur propre système avec Beidou [ ? ] , et maintenant avec la mise en place de l' Union Européenne , Galileo sera disponible à partir de 2008 - 2010 . Ces différents systèmes de navigation par satellites sont abordés par la suite afin d' étudier les performances atteignables par chacun de ces systèmes en terme de localisation . 3.1.1 Le système de navigation GPS Aujourd'hui , le système GPS est contraint par plusieurs paramètres qui sont les suivants : 1 . L' erreur quadratique moyenne sur l' estimation de la position doit être comprise entre 10 et 30m . 2 . La possibilité de localiser des objets se déplaçant très rapidement comme des avions par exemple . 3 . Une disponibilité du service sur tout le globe . L' inclinaison des plans orbitaux des satellites ont été choisis de manière à optimiser la qualité de la constellation au dessus des Etats-Unis . Par contre dans les zones polaires les satellites sont très bas sur l' horizon , ce qui rend le positionnement plus difficile . 4 . Les signaux transmis par les satellites doivent être robustes aux interférences intentionnelles comme non-intentionnelles ( point critique pour les applications militaires ) . 5 . Les récepteurs GPS ne doivent pas avoir besoin d' une horloge atomique pour avoir une localisation qui soit précise ( problème du coût du terminal ) . 6 . Le " cold start " d' un récepteur doit être de quelques minutes en non pas de quelques heures . 7 . La taille de l' antenne de réception doit être relativement petite . 8 . L' atténuation en espace libre des signaux doit être raisonnablement petite . 9 . Une longue vie pour les satellites de la constellation Les quelques points précédemment cités concernent le cahier des charges imposé pour la mise en place du système GPS . La bande de fréquences retenue pour les signaux GPS est la bande L ( bande de 1 à 2 GHz et plus particulièrement celle autour de 1.5 GHz ) . Principe de la localisation par GPS : la trilatération Naturellement , il est possible de connaître la position d' un point de l' espace , si on a toutes les distances séparant cette position avec d' autres positions connues de l' espace . La figure 1 illustre ce principe . Figure 1 : Principe du GPS dans un espace 1-D Si un des équipement U ( satellite ou mobile ) effectue une mesure et détermine que la distance le séparant du satellite , dans ce cas , il existe deux positions possibles pour U , soit à la gauche de , soit à sa droite . Afin de lever cette ambiguïté en position , il est nécessaire d' utiliser un second satellite . Ici c' est qui permet de lever cette ambiguïté . estime que la distance le séparant de l' équipement U est , dans ce cas la seule position possible est celle indiquée par U sur la figure 1 . Tout comme pour la localisation dans un espace à une dimension , il est possible de procéder de la même manière pour déterminer la position d' un équipement dans un espace à deux ou trois dimensions . Figure 2 : Principe du GPS dans un espace 2-D Dans cette configuration , il est nécessaire de disposer de trois satellites à partir desquels desquels on mesure trois distances . Le lieu géométrique correspondant au lieu se trouvant à une distance donnée d' un point fixe est un cercle dans le cas bidimensionnel . La figure 2 montre que deux satellites conduisent à l' estimation de deux positions dans l' espace . Un troisième cercle est nécessaire pour déterminer la position unique qu' occupe l' utilisateur . De la même manière , on aboutit au fait qu' il est nécessaire de disposer de quatre satellites pour avoir un positionnement dans un espace à trois dimensions . Dans cet espace le lieu géométrique correspondant est une sphère de rayon la distance satellite / utilisateur . On sait que l' intersection de deux sphères est un cercle . L' intersection de ce cercle avec un sphère donne deux points de l' espace et la dernière sphère détermine laquelle des positions est occupée par le mobile . Ce principe de base à la localisation est tout à fait transposable au système GPS . Les satellites GPS émettent en permanence des données d' éphéméride . Ces données contiennent diverses informations comme l' état du satellite , ou sa position dans le repère WGS84 . Un utilisateur recherchant à se localiser mesure la distance qui le sépare du satellite en question grâce à ce signal . En effectuant des mesures de ce type avec d' autres satellites , l' utilisateur recueille un nombre suffisant d' informations pour se localiser . Dans le raisonnement qui précède , on prend comme hypothèse que l' estimation des distances se fait très précisément et qu' aucun biais n' existe entre les horloges des satellites et du récepteur . Ceci n' est pas réalisé , car il existe toujours un biais constant entre les horloges des satellites , et celle du terminal . Les horloges présentent dans les satellites sont des horloges atomiques , donc très chères tandis que celle du terminal est une horloge peu chère , afin de réduire le coût d' achat des équipements de localisation par GPS . Pour lever cette ambiguïté sur le biais entre les horloges , un satellite supplémentaire est nécessaire . Pour obtenir une localisation à trois dimensions , un cinquième satellite doit être utilisé . Il arrive que cinq satellites ne soient pas disponibles en une position sur la Terre . Dans ce cas , la position du mobile peut quand même être estimée car une des solutions retournée par le système de localisation se trouve proche de la Terre , tandis que l' autre se retrouve projetée dans l' espace à une distance lointaine de la Terre . Formulation mathématique de la position du terminal mobile Pour déterminer la position d' un mobile , il faut connaître les distances le séparant de chacun des satellites visibles de sa position [ 116 ] . Dans le cas où cette mesure de distance est précise ( voir figure 2 ) , les satellites se trouvent à la distance avec les coordonnées du satellite avec et le mobile est à une distance où est la position de l' équipement à localiser . Si chacune de ces distances est connue , il est possible d' écrire le système suivant : ( 1 ) On dispose d' un système de trois équations à trois inconnues . La détermination de la position du mobile se fait en résolvant ce système d' équations . Théoriquement , il existe deux ensembles de solution puisque ces équations sont du second ordre . Les méthodes de résolutions employées effectuent une linéarisation des équations et résolvent le système itérativement . L' obtention de la position des satellites se fait par la réception d' un message provenant du satellite et contenant cette information de position . Une description des informations contenues dans ces trames est fournie dans [ 116 ] . L' estimation de la distance satellite / mobile est faite par la mesure des pseudoranges . Chaque satellite émet un message à l' instant . Le mobile reçoit le message à un instant plus tard noté . Dans ce cas la distance séparant le mobile de chaque satellite est donnée par : ( 2 ) avec c la célérité des ondes dans le milieu considéré ( ici c' est la vitesse de la lumière qui est prise ) , la valeur exacte de la distance séparant le mobile du satellite i , la valeur exacte de l' instant de départ d' émission du message et la valeur exacte de l' instant de réception de ce message . Cependant , mesurer précisément ce temp n' est pas simple . Généralement , les valeurs qui sont mesurées sont de la forme suivante : ( 3 ) ( 4 ) avec un biais sur l' estimation de l' horloge du satellite i et un biais sur l' estimation de l' horloge du récepteur . En tenant compte de l' ensemble des sources de dégradation des pseudoranges , il est possible de les réécrire d' une manière plus réaliste : ( 5 ) où est l' erreur due à l' estimation de la position du satellite , le retard introduit sur la propagation des ondes lors de la traversée de la troposphère , le retard introduit sur la propagation des ondes lors de la traversée de la ionosphère , l' erreur de mesure due au bruit du récepteur et la correction relativiste du temps . Le terminal peut corriger certaines de ces erreurs comme celles introduites par la troposphère ou la ionosphère ( à condition de disposer d' un récepteur fonctionnant à deux fréquences différentes . Le retard obtenu entre ces deux fréquences permet d' estimer l' erreur introduite par la propagation dans l' atmosphère ) . Par contre , d' autres erreurs ne peuvent pas être corrigées grâce aux données reçues . C' est le cas pour le défaut de synchronisation entre l' horloge du récepteur et celles des satellites . Les pseudo ranges s' écrivent alors de la manière suivante : ( 6 ) où est le biais sur l' horloge du récepteur ici exprimé en distance . Afin de résoudre ce système d' équations , une équation supplémentaire est nécessaire . La réception du signal d' un quatrième satellite est nécessaire pour localiser le mobile . Lorsque chacune de ces pseudoranges est estimée , on obtient un système d' équations non linéaires . Après une étape de linéarisation , le système se résout par la méthode itérative des moindres carrés . Une méthode de résolution est proposée dans [ 116 ] . Influence de la géométrie du problème Parfois moins de quatre satellites sont disponibles . Cela semble suffisant au premier abord pour déterminer la position du mobile puisque cela correspond au nombre d' indéterminées . Cependant les résultats retournés par les algorithmes ne sont pas satisfaisants . La géométrie du problème entre en jeu quant à la solution finale retournée par l' algorithme . La figure 2 présente une géométrie idéale car tous les cercles s' intersectent en un seul point facilement repérable à l' oe il nu . Dans cette configuration , l' algorithme n' a aucun problème pour déterminer la solution du système qui se trouve être très proche de la solution réelle . La figure 3 présente une situation dans laquelle suffisamment d' équations sont disponibles à la résolution du système , mais une grosse erreur sur l' estimation de la position du mobile est quand même observée . Figure 3 : Satellites et utilisateur alignés Les cercles noirs représentent la distance mesurée entre chacun des satellites et le mobile sans tenir compte du biais existant entre les horloges , tandis que les cercles rouges représentent les mêmes distances mais en tenant compte cette fois du bais existant entre les deux horloges . Cette configuration montre que la détermination de la position précise du mobile peut être difficile . L' erreur d' estimation commise est plus grande dans cette configuration géométrique du fait que les cercles sont tangents les uns aux autres . Or il est difficile de déterminer précisément la position du point de tangente de plusieurs cercles . Un critère pour déterminer si la configuration est favorable à une bonne estimation de la position du mobile , est celui du calcul de l' aire du triangle que forme ces satellites . Plus cette aire est proche de zéro , plus la situation géométrique conduit à une situation où les cercles sont tangents et plus l' erreur d' estimation est importante tandis que dans la configuration présentée par la figure 2 , la valeur de l' aire est importante et conduit à une bonne estimation de la position du mobile . Un paramètre permettant d' estimer la précision obtenue à partir de la configuration géométrique des satellites et du mobile permet d' évaluer la confiance à apporter à une mesure . Ce paramètre est la dilution de précision géométrique ( Geometric Dilution Of Precision ) aussi noté GDOPGDOPGeometric Dilution Of Precision . Ce paramètre dépend uniquement de la géométrie de la configuration de mesure [ 114 ] . La définition mathématique associée à ce paramètre est : ( 7 ) où est l' erreur moyenne commise sur chaque pseudorange . La dilution de précision en position ( Position Dilution Of Precision ou PDOPPDOPPosition Dilution Of Precision ) est donnée par : ( 8 ) La dilution de précision horizontale est définie par : ( 9 ) La dilution de précision verticale est définie par : ( 10 ) et enfin la dilution de précision temporelle par : ( 11 ) Plus la dilution de précision est faible plus la situation est favorable à la localisation du mobile . Dans les situations optimales , le volume engendré par les quatre satellites est maximal . Les valeurs de dilution de la précision sont quantifiée dans le tableau 4 . Table 4 : Valeurs de dilution de précision DOP Le problème de la géométrie de la configuration dans laquelle les mesures sont effectuées est transposable aux autres méthodes de localisation temporelles comme celui de la différence de temps d' arrivée qui sera présenté plus tard . Les satellites La constellation de satellites est composées de 24 satellites tournant autour de la Terre suivant six orbites différentes . Chaque orbite est à 55 ° par rapport à l' équateur . Les orbites sont séparées d' un angle de 60 ° afin de pouvoir couvrir les 260 °. Le rayon de chacune des orbites est de 26560 km . Cette orbite est telle que les satellites effectuent un tour de la Terre en un jour sidéral . Les quatre satellites se trouvant sur une orbite ne se trouvent pas à équidistance sur cette dernière . Deux des satellites sont séparés d' un angle de 30.0 à 32.1 degrés . Les deux autres satellites font un angle de 92.28 - 130.98 degrés avec les trois autres satellites . Cet espacement a été mis en place afin de minimiser les effets de non fonctionnement d' un des satellites . Théoriquement un récepteur GPS doit en tout point de la Terre capter entre 4 et 11 satellites . En tenant compte des caractéristiques de la Terre ( forme ellipsoïdale ) , le temps de parcours des ondes entre un satellite et un point sur la Terre doit être compris entre 67 ms ( 20192 km / c ) et 86 ms ( 25785 km / c ) où c est la vitesse de la lumière . Il est aussi nécessaire que l' angle d' ouverture des antennes embarquées à bord des satellites soit de 13.87 degrés . Les antennes fonctionnent dans la bande et disposent d' un angle d' ouverture de 21.3 °. Celles de la bande ont angle d' ouverture de 23.4 °. La puissance d' émission des satellites est de 478.63 watts ( soit 56.8 dBm ) en sortie de l' antenne . Le bilan de liaison montre que la puissance en réception est de la forme : ( 12 ) avec l' aire effective de l' antenne de réception , la distance séparant le satellite de l' utilisateur et la longueur d' onde émise . Or cette distance varie suivant la position occupée par l' utilisateur sur la Terre . En effet , on a : ( 13 ) En considérant que la puissance d' émission du satellite est de et que la longueur d' onde émise est dans ces conditions , la puissance en réception est donnée par : ( 14 ) ( 15 ) La puissance minimale détectable par un récepteur GPS doit être de si l' on tient compte des pertes introduites par l' atmosphère . Trois fréquences sont utilisées pour l' émission de ces signaux . Ces fréquences sont de multiples de la fréquence 10.23 MHz . Les fréquences retenues pour ce système sont : & 226;& 128;& 162; L 1 = 1575.42 MHz = 15410.23 MHz & 226;& 128;& 162; L 2 = 1227.6 MHz = 12010.23 MHz & 226;& 128;& 162; L 5 = 1176.45 MHz = 11510.23 MHz Deux types de signaux sont transmis par ces satellites . Il y a le signal basé sur le code dit coarse / acquisition ( C / A ) et celui sur le code de précision ( P ) . Ce code de précision n' est pas transmis directement par le satellite . Il est modifié par le code Y pour donner le code final transmis qui est souvent noté . Ce dernier code n' est pas accessible pour les applications civiles . Il est en place pour les applications militaires . Le tableau 5 résume les codes disponibles sur chacune des fréquences d' émission . Table 5 : Fréquences d' émission et codes disponibles [ ? ] Type de code - Fréquence Le signal émis s' écrit de la manière suivante : ( 16 ) avec l' amplitude du bit de code du code P , la phase du bit courant du code P et l' information . De la même manière , défini l' amplitude du code C / A et la phase du bit courant du code C / A . Afin de garantir la localisation du terminal , les niveaux des signaux en réception sont donnés par le tableau 6 . Table 6 : Niveau du signal GPS minimum en réception Comme la Terre n' est pas parfaitement ronde , mais plutôt elliptique , et qu' il est préférable que la puissance reçue provenant de chaque satellite soit sensiblement identique en tout point de la Terre , il est nécessaire d' agir sur le diagramme de rayonnement des antennes d' émission des satellites . Le diagramme de rayonnement des antennes des satellites retenu est présenté sur la figure 4 . Figure 4 : Diagramme de rayonnement des antennes des satellites Performances et fournisseurs de GPS Les performances du systèmes GPS sont assez variées , car elles dépendent d' une part de la géométrie de la configuration de mesure ( voir ) , mais aussi de l' environnement dans lequel se trouve le récepteur GPS ( visibilité directe avec les satellites , canyons urbains , etc ) . La qualité des récepteurs GPS peut aussi limiter les performances du système . En effet , les récepteurs travaillant sur les bandes L1 et L2 peuvent diminuer l' erreur d' estimation due à la traversée de la ionosphère , tandis que les récepteurs monofréquence ( sur la bande L1 ) ne peuvent pas effectuer cette correction . Cette erreur sur l' estimation de la distance satellite / récepteur peut aller jusque 30 m ( voir tableau 7 ) . Table 7 : Erreurs de localisation introduites par les erreurs Source d' erreur 3.1.2 Les améliorations du système GPS Plusieurs éléments contribuent à détériorer les performances du système GPS , comme la traversée de l' atmosphère par les ondes , ou la traversée de certains matériaux entourant le récepteur GPS ( comme des bâtiments par exemple ) . Certaines applications nécessitent que ces dégradations soient minimisées , comme dans l' aviation où la position exacte d' un avion par rapport à la piste est nécessaire , ou en agriculture lors de l' épandage de pesticides par les airs . Différentes approches sont proposées afin de minimiser l' effet des dégradations naturelles ou imputables à l' homme . Le GPS assisté Le système de GPS assisté ( Assisted GPS ou A-GPS ) cherche à améliorer le rapport signal a bruit des signaux en réception . Aujourd'hui , le niveau de signal détectable par les récepteurs GPS est de . Ce niveau est insuffisant lorsque les signaux traversent certains matériaux ( cas de la localisation dans les bâtiments ) . L' idée consiste à améliorer le rapport signal à bruit . Ce système effectue des corrélations sur un temps plus important afin d' avoir un pic de corrélation plus élevé pour les faibles rapports signal à bruit . Pour cela , des informations supplémentaires , comme les satellites en visibilité , sont transmises au terminal . Des stations de bases terrestres transmettent ces informations au terminal [ 115 ] . Le terminal se focalise sur le traitement pour les satellites en visibilité . Comme le terminal n' a plus besoin de scanner tous les satellites pour savoir s' ils sont visibles de sa position , il peut effectuer des acquisitions plus longues pour les satellites intéressants . Le terminal ne doit plus rechercher les satellites en visibilité comme dans le GPS traditionnel . La structure du réseau A-GPS est donnée par la figure 5 . Figure 5 : Principe du fonctionnement de l' A-GPS Le récepteur GPS n' a donc plus besoin de décoder les trames d' information provenant des satellites ( le décodage pouvant être source d' erreur dans certaines situations à cause de la faible puissance des niveaux de signal ) . La figure 8 illustre la différence existante au niveau de la recherche des codes présents dans le signal entre un récepteur GPS classique et un récepteur A-GPS . Table 8 : Représentation Fréquence / Code de la recherche du pic de corrélation en GPS ( figure de gauche ) et AGPS ( figure de droite ) La recherche du pic de corrélation n' est effectuée que sur une petite partie du résultat par rapport à celui du système GPS . Cette limitation du domaine de recherche ( ici représenté par la boite ) diminue considérablement le temps de recherche et d' accrochage des satellites ( diminution du cold start ) . Le GPS assisté donne quelques résultats dans les environnements indoor qui ne sont pas couverts par le GPS standard . Le temps économisé lors de la recherche des satellites en visibilité est réutilisé pour intégrer plus longuement les codes présents dans le signal capté . Ce temps d' intégration peut être plus de dix fois plus long que celui consacré par un récepteur GPS standard . Cet accroissement du temps de traitement engendre un gain en sensibilité d' une dizaine de dB. Le GPS assisté permet ainsi de se localiser dans certains environnements qui ne sont pas couverts par le GPS standard . La figure 6 présente le niveau du signal détectable en fonction du temps de traitement . Figure 6 : Niveau de signal détectable en fonction du temps de traitement Cependant ces informations supplémentaires aidant le terminal GPS ne sont pas toujours suffisantes pour permettre de se localiser à l' intérieur des bâtiments [ 103 , 102 ] . Pour remédier à cela , la société Global Locate propose d' effectuer de nombreuses corrélations en parallèle dans le récepteur . Leur récepteur intègre 16000 corrélateurs en parallèle . Ce grand nombre de corrélateurs permet de rechercher en parallèle tous les retards possibles et d' accroître le temps d' acquisition pour la recherche d' un signal ayant un niveau encore plus faible que celui détectable par un récepteur A-GPS . Ce récepteur effectue des recherches de codes sur plusieurs millisecondes . En accroissant la durée de recherche , le gain de traitement se retrouve encore augmenté . La figure 6 montre que pour détecter un signal GPS atténué d' une trentaine de dB , il faut plus d' une trentaine de secondes de traitement . Si un récepteur GPS passe 10 secondes , pour chaque retard , à explorer chaque sous bande de fréquence ( drift dû à l' effet Doppler [ ? ] ) , dans ces conditions , la vérification des 1023 retards possibles se fait en . Or si une telle période de temps est nécessaire , le satellite aura très certainement bougé , et le doppler qui lui sera associé à ce nouveau moment sera très certainement différent ( variation de 5 Hz possible ) . Dans un tel cas , la corrélation massive devient nécessaire pour explorer beaucoup plus rapidement tous les retards possibles pour chacun des codes identifiant les satellites , et ceci pour plusieurs satellites . Si le temps d' acquisition nécessaire pour détecter un satellite en indoor est de 10 secondes , il est possible de rechercher tous les retards possibles en parallèle . Le chipset GL-HSRF couplé au GL- 16000 ( produit par Global Locate ) dispose de 16000 corrélateurs en parallèle . Dans ce cas , la recherche des déphasages entre les codes est effectuée en même temps pour les 1023 retards possibles , et simultanément pour 15 satellites ( ) . Avec ce système , des durées traitement plus longues sont envisageables sans réellement nuire à la condition de temps réel de la position délivrée par l' équipement ( voir tableau 9 ) . Table 9 : Performances des systèmes A-GPS 23 cmNom de la compagnie Le système DGPS Le système DGPSDGPSDifferential GPS ( Differential GPS ) améliore les performances du système GPS en transmettant au terminal des informations sur l' écart entre les positions indiquées par les satellites et les positions réelles connues de stations de base terrestres . Le récepteur reçoit la différence entre les pseudo-distances mesurées par les satellites et les véritables pseudo-distances et corrige ainsi ses mesures de positions . Le service de navigation DGPS complète le système mondial de localisation GPS NAVSTAR en fournissant des facteurs de correction pour les pseudo-distances et des informations auxiliaires . Ces informations sont diffusées à l' aide d' un réseau de stations terrestres implantées à des emplacements stratégiques . Ce service permet d' offrir une précision horizontale de 10 mètres ( ou mieux ) 95 % du temps dans toutes les zones couvertes . Contrairement au système A-GPS dans lequel les stations de bases terrestres fournissent les informations concernant les satellites en visibilité , ici aucune information de ce type n' est fournie au récepteur . Un récepteur doit scanner tous les codes et fréquences possibles afin de déterminer les satellites en visibilité . Un tel système n' est vraiment efficace que dans des environnements sans contrainte de masquage et contenant peu de multi-trajets . Le GPS différentiel est souvent utilisé dans des espaces maritimes , pour fournir précisément aux navires leur position et leur permettre d' éviter les récifs ou haut fonds , ou lors de l' approche des avions sur les pistes d' atterrissage par exemple , ou bien encore en agriculture pour la pulvérisation sur de grandes parcelles [ ? ] . Comme pour le système A-GPS , un réseau de stations de bases terrestres est mis en place pour couvrir une zone . Les stations terrestres connaissent très précisément leur position sur la Terre . Elles effectuent en permanence une localisation pas GPS , et extraient des informations provenant des satellites en visibilité afin d' obtenir une estimation de leur position via le système GPS . Souvent la position connue de la station terrestre ( qui est immobile ) est différente de celle qui est obtenue par les mesures GPS . La station de base détermine précisément les corrections à affecter à chacune des pseudo distances mesurées afin que la position réelle de la station et celle retournée par GPS coïncident [ ? ] . Cette méthode supprime toutes les erreurs provenant de la traversée des couches atmosphériques ( Ionosphère et troposphère ) car ces éléments sont spatialement corrélés . Pour que ce type de localisation soit efficace , l' équipement mobile doit se trouver à proximité de la station effectuant les corrections . Généralement la zone de couverture est de l' ordre de 50 kilomètres pour des zones terrestres . En dehors de cette zone de couverture , les données reçues en provenance des stations de base du système DGPS ne peuvent plus être prises en compte car leur utilisation risque de conduire à une plus grande erreur de positionnement . Le tableau 10 propose une comparaison des performances entre un récepteur DGPS et un récepteur GPS standard . Table 10 : Comparaison des variances d' erreur Type d' appareil Actuellement , les dégradations intentionnelles des signaux GPS pour les applications civiles ( SA - Selective Availibility ) ne sont plus actives mais ce système permet de lutter efficacement contre les autres sources de dégradation des pseudo distances [ ? ] . Cependant , les erreurs introduites par le phénomène de multi-trajets ne peuvent être corrigées par ce système [ ? ] . Le système GPS par mesure de différence de phase ou aussi Real Time Kinematic ( RTK ) Dans les techniques précédentes , c' est le déphasage de code qui est utilisé ( techniques de corrélation de code ) . Une autre manière d' aborder le problème d' estimation de la distance satellites / récepteur , est de mesurer le déphasage des ondes électromagnétiques . Les ondes émises sont des sinusoïdes ( ou porteuses ) . Il est possible de déterminer la phase de cette onde à chaque instant . Connaissant la phase à l' émission , on détermine le déphasage de l' onde émise par rapport à l' instant d' émission . La mesure différentielle de phase repose sur le principe du phénomène Doppler . Ici , les satellites sont mobiles et l' utilisateur est immobile . Si la distance séparant le satellite de l' utilisateur est constante , dans ce cas la phase reste identique au cours du temps . Dans le cas où le satellite a une trajectoire rectiligne et qu' il s' approche du récepteur puis s' en éloigne alors le déphasage augmente dans un premier temps puis décroît lorsque le satellite s' éloigne du récepteur . Or la variation de la fréquence à laquelle le récepteur reçoit le signal du satellite dépend de la position du satellite , de sa vitesse et de la précision de l' information temporelle ( éphémérides ) . À partir une série d' au moins quatre valeurs de changement de fréquence ( ou de phase ) , on extrait des facteurs de correction similaires à ceux obtenus lorsque l' on corrige les pseudo distances en DGPS . Ces facteurs de correction sont exploités pour corriger les mesures conduisant à l' estimation de la position fixe du mobile . La différence entre cette technique et le DGPS est que dans le système DGPS , les facteurs de correction sont obtenus par des corrélation de codes PN , tandis qu' ici c' est la mesure Doppler qui permet de corriger les distances . La figure 7 illustre la différence entre les informations utilisées pour la localisation à savoir la différence entre déphasage de code et déphasage de la porteuse . Figure 7 : Comparaison DGPS / mesure du déphasage La société Real Time Kinematics ( RTKRTKReal Time Kinematics ) produit des récepteurs GPS à très haute sensibilité basés sur ce principe de mesure . Le GPS centimétrique utilise une particularité des signaux GPS : ceux -ci sont transmis sur deux fréquences différentes , notées L1 et L2 . ( L 1 = 1.57542 GHz , L2 = 1.22760 GHz ) . L1 ayant une longueur d' onde de , il est possible , en mesurant les décalages de phases , d' obtenir un positionnement précis à quelques millimètres près , modulo 19 cm . La résolution de l' ambiguïté se fait soit en initialisant le GPS en un point dont la position est connue avec une très grande précision ( clou IGNIGNInstitut géographique national ) , soit par des algorithmes d' initialisation . Dans les modèles récents de GPS centimétriques , cette phase d' initialisation dure environ une minute et peut s' effectuer pendant le déplacement du véhicule , contrairement aux premiers modèles dont la phase d' initialisation était bien plus longue et exigeait un arrêt du véhicule , rendant leur utilisation dans des applications automobiles peu pratique . La principale limitation technique des GPS centimétriques à l' heure actuelle est que les récepteurs doivent disposer de leur propre base de référence pour les corrections d' erreurs , sachant que le récepteur RTK ne doit pas s' éloigner de plus de de cette base , contrairement aux GPS différentiels qui utilisent des signaux de correction plus accessibles , par radio ou par satellites . La figure 8 présente le fonctionnement de ce système GPS . Figure 8 : Principe du système GPS par mesure de différence de phase Pour se localiser précisément , il est nécessaire de lever l' ambiguïté sur la phase de l' onde reçue . [ ? ] propose des techniques de filtrage ou méthodes géométriques pour lever cette ambiguïté . Pour déterminer la distance séparant le satellite du terminal , une première estimation de la position est effectuée en utilisant les codes PN puis la mesure de déphasage permet peu à peu d' affiner cette estimation grossière . Le système Wide Area Augmentation System ( WAAS ) Ce système a été mis au point aux États-Unis par l' Administration Fédérale de l' Aviation ( FAAFAAFederal Aviation Administration ) pour corriger les erreurs du système GPS en temps réel et arriver à une meilleure précision ( ) . Un réseau d' une trentaine de stations de bases terrestres servent de référence . Les signaux GPS provenant de différentes satellites sont captés par ces stations de base ( WRSsWRSsWide Area Ground Reference stations - Wide Area Ground Reference stations ) . Chacune des stations terrestres détermine les facteurs de correction à affecter pour chacun des satellites afin d' obtenir une localisation plus précise . Ces WRSs sont liées entre elles pour former le réseau WAASWAASWide Area Augmentation System . Chaque station esclave fournit ses résultats à une station maître ( WMSWMSWide Area Master Station - Wide Area Master Station ) qui calcule les facteurs correctifs . Ce WMS détermine des facteurs de correction et vérifie l' intégrité du système . Un message est préparé et expédié vers des satellites géosynchrones via des stations dédiées ( GUSGUSGround Uplink System - Ground Uplink System ) . Ensuite ce message est diffusé par les satellites géosynchrones vers des avions par exemple , en utilisant la fréquence GPS L1 ( L 1 = 1575.42 MHz ) . Pour que ces données soient utilisables , les avions doivent se trouver dans la zone de couverture ( ou zone de validité de la correction ) des stations WAAS [ ? ] . Ces corrections réduisent l' effet des dégradations introduites par la traversée des couches atmosphériques ainsi que les erreurs dues aux éphémérides . La figure 9 présente la zone où le système WAAS est disponible . Figure 9 : Principe de l' estimation de la distance récepteur / satellite GPS Les corrections sont disponibles en Amérique du Nord gratuitement et peuvent être captées par tous les GPS compatibles WAAS , sans équipement supplémentaire . En Europe un système identique est en construction et commence à être disponible depuis 2004 sous le nom d' EGNOS ( Geostationary Navigation Overlay Service ) . La correction est reçue gratuitement par les GPS compatibles WAAS . En Asie , il y aura un système similaire avec le MSASMSASJapanese Multi-Function Satellite Augmentation System ( Japanese Multi-Function Satellite Augmentation System ) . Par la suite , les utilisateurs de GPS des autres régions disposeront certainement de ce système de correction des positions GPS . Actuellement , deux satellites géostationnaires couvrent des zones WAAS . Les satellites Inmarsat IIIs couvrent les régions Pacifique ( PORPORPacific Ocean Region - Pacific Ocean Region ) , et Atlantique ( AOR-WAOR-WAtlantic Ocean Region-West - Atlantic Ocean Region-West Region-West ) . La partie Européenne est couverte par Inmarsat ( AOR-EAOR-EAtlantic Ocean region-East - Atlantic Ocean region-East ) tout comme la région de l' ocean Indien ( IORIORIndian Ocean Region - Indian Ocean Region ) . Le satellite ARTEMIS , lancé par l' ESAESAEuropean Space Agency ( European Space Agency ) , est aussi utilisé pour l' extension de la zone WAAS . 3.1.3 Les alternatives au système GPS Le système de localisation GPS n' est pas le seul à être en activité actuellement . Les militaires Russes ont mis en place un système similaire pour rivaliser avec les États-Unis durant les années 1980 . De plus , les militaires Américains ont dégradé volontairement les signaux GPS jusqu'en 2000 afin que les autres utilisateurs ne disposent pas de la précision la plus importante disponible avec ce système . Le système de navigation Russe est le système GLONASS . Actuellement , l' Union Européenne met en place Galileo qui permettra de concurrencer ces deux systèmes en place et qui sera la propriété intégrale de l' Union Européenne et de l' ESA . GLONASS Le système GLONASS utilise 24 satellites évoluant sur 3 plans à une altitude de 19 100 kilomètres . Le programme GLONASS a débuté en 1982 et a été déclaré complètement opérationnel en 1993 par les autorités russes . Les difficultés financières qu' a connu l' Union Soviétique et la faible durée de vie des satellites ( 2 à 3 ans ) ont entraîné une lente dégradation de la constellation . Actuellement le système fonctionne en mode dégradé avec sept satellites opérationnels . Ce système est utilisé en géodésie en effectuant des mesures de phase . Un programme de redéploiement du système GLONASS est en cours . De nouveaux satellites de type " GLONASS-M " , bénéficiant d' une durée de vie plus longue ( 7 à 8 ans ) et de meilleures caractéristiques de transmission , vont être lancés prochainement . La reconstitution complète de la constellation devrait intervenir en 2006 . Le système GLONASS n' est pas interopérable avec le système GPS mais le sera avec le futur système européen GALILEO . Une comparaison entre les systèmes GPS et GLONASS est proposée dans [ ? , ? ] . L' intérêt de ce système de navigation réside en sa robustesse aux interférences . Chaque satellite émet sur sa propre fréquence ( FDMAFDMAFrequency Division Multiple Access ) . Les satellites balaient une plus grande région du globe notamment les regions nord du fait des caractéristiques de la constellation de satellites et du plan d' inclinaison . Le principal défaut du système est qu' il n' est guère entretenu . L' entretien des satellites est très onéreux et du fait que les autorités russes manquent de moyens financiers , aujourd'hui seulement sept satellites sur les vingt quatre sont opérationnels . Galileo Après une longue période d' incertitude , le programme GALILEO voit le jour . Il est mené conjointement par l' Union Européenne et l' ESA ( Agence Spatiale Européenne ) . Son but est de doter l' Europe d' une alternative civile fiable face au système de positionnement militaire américain , le GPS . De conception plus récente , GALILEO sera un peu plus perfectionné que le GPS et délivrera un message d' intégrité de l' information fournie . GALILEO ne sera pas fondamentalement différent de GPS . Il utilisera une constellation de 30 satellites de 700 kg chacun , disposés sur trois plans inclinés à 56 ° par rapport à l' équateur et gravitant à 23 500 km d' altitude . Chaque rotation durera 14 heures environ . La constellation sera gérée par un réseau mondial de stations terrestres . Les satellites émettront sur plusieurs fréquences allant de 1164 à 1591 MHz , y compris certaines fréquences utilisées par le système GPS , comme la fréquence L1 . La puissance d' émission sera de 50 Watts environ . Certains signaux émis seront réservés aux services commerciaux et aux services publics . Parmi les services proposés par GALILEO , on trouve un " service ouvert " gratuit à l' usage du grand public . Ce service permettra un positionnement plus précis que celui proposé actuellement par le GPS , sans fournir toutefois de message d' intégrité . Dans le cadre de ce service ouvert , deux types de récepteurs verront le jour : des appareils mono fréquence économiques et des appareils hybrides plus précis combinant la réception des signaux GALILEO et GPS . Le programme EGNOS sera intégré au service GALILEO , ce qui permettra d' accroître les performances de ce dernier . La précision annoncée du service grand public de GALILEO est de " quelques mètres " , qualificatif qui demande à être précisé . Le calendrier du programme GALILEO passe par une phase de développement et de validation qui s' est étendue jusqu'en 2005 , avec le lancement de deux satellites et la mise en place d' une infrastructure terrestre minimale . Ensuite vient la phase de déploiement qui doit être assez rapide ( deux ans ) car il est prévu de mettre en orbite jusqu'à huit satellites à chaque lancement . GALILEO devrait être opérationnel en 2008 - 2010 pour un coût de 3.5 milliards d' Euros environ [ ? ] . Le système Galileo émettra dix signaux différents répartis de la manière suivante : & 226;& 128;& 162; 6 pour les services gratuits & 226;& 128;& 162; 2 pour les services commerciaux & 226;& 128;& 162; 2 pour le service public réglementé Les services prévus dans le cadre de Galileo sont : & 226;& 128;& 162; le service ouvert ( ou OSOSOpen Service pour Open Service ) : comme le service gratuit offert par le GPS , mais la précision est plus grande ( de l' ordre d' un mètre ) . Aucune information d' intégrité n' est assurée . C' est ce service qui sera principalement utilisé par les particuliers ; & 226;& 128;& 162; le service commercial ( ou CSCSCommercial Service pour Commercial Service ) : le service est payant , la précision est améliorée par rapport au service ouvert , il est également possible de diffuser des informations cryptées à l' aide de 2 signaux supplémentaires . Ce sont principalement les abonnements à ce service qui assureront le financement de Galileo ; & 226;& 128;& 162; le service de sécurité des personnes ( ou SOLSOLSafety Of Life pour Safety Of Life service ) : identique au service ouvert , mais avec la fourniture de l' information d' intégrité . Ce service sera utilisé pour toutes les applications où des vies humaines seront en danger si la qualité du signal s' affaiblit ; & 226;& 128;& 162; le service public réglementé ( ou PRSPRSPublic Regulated Service pour Public Regulated Service ) : la fiabilité du service est améliorée . Ce service sera réservé aux administrations comme les pompiers , la protection civile ou encore la police . Il devra être disponible en tout temps , utilise deux signaux à part et dispose de plusieurs systèmes prévenant un brouillage ou un leurrage du signal ; & 226;& 128;& 162; le service de recherche et secours ( ou SARSARSearch And Rescue Service pour Search And Rescue service ) : destiné à la recherche des émetteurs d' alerte , possibilité d' avoir un accusé de réception sur une alerte . La réglementation et la définition des fonctions sont sous la charge de l' Organisation Maritime Internationale ( OMIOMIOrganisation Maritime Internationale ) et de l' Organisation de l' Aviation Civile Internationale ( OACIOACIOrganisation de l' Aviation Civile Internationale ) GALILEO présente plusieurs avantages par rapport au GPS : & 226;& 128;& 162; Il est conçu et élaboré sur une base civile tout en intégrant dûment les protections nécessaires en matière de sécurité . À la différence du GPS à vocation essentiellement militaire , GALILEO offre , pour certains services , des garanties juridiques de fonctionnement exigées par les sociétés modernes , en particulier en matière de responsabilité contractuelle & 226;& 128;& 162; Il est basé sur la même technologie que le GPS et offre un degré de précision similaire , voire supérieur en raison de la structure de la constellation de satellites et des systèmes terrestres de contrôle et de gestion prévus ; & 226;& 128;& 162; Il possède une fiabilité supérieure car il comprend un " message d' intégrité " informant immédiatement l' utilisateur des erreurs qui apparaissent . À la différence du GPS , GALILEO sera reçu dans les régions situées à des latitudes extrêmes ; & 226;& 128;& 162; Il constitue un véritable service public et offre à ce titre une garantie de continuité de services pour certaines applications . Au contraire , il existe au cours des dernières années plusieurs exemples d' indisponibilité involontaire ou intentionnelle des signaux GPS , parfois sans préavis . Toutefois , GALILEO est aussi complémentaire au système GPS dans la mesure où : & 226;& 128;& 162; L' utilisation harmonieuse des deux infrastructures ( double source ) apporte un réel avantage en terme de précision et de sécurité en cas de défaillance de l' un des deux systèmes ; & 226;& 128;& 162; L' existence de deux systèmes indépendants est bénéfique pour tous les utilisateurs qui pourront recevoir les signaux GPS et GALILEO sur un seul et même récepteur . La Commission Européenne et l' ESA tiennent beaucoup à la relation complémentaire et interopérable entre Galileo et GPS pour fournir aux utilisateurs dans le monde entier des services améliorés et plus sûrs . Le programme EGNOSEGNOSEuropean Geostationary Navigation Overlay Service améliore sensiblement les services offerts en Europe par les constellations de satellites GPS et GLONASS . Développé depuis 1993 , EGNOS augmente le nombre des signaux GPS , leur apporte une correction différentielle et leur confie un message d' intégrité . EGNOS est aussi appelé à être intégré dans GALILEO . La complémentarité entre le GPS et GALILEO permet à l' Europe d' apparaître comme un partenaire crédible pour les États-Unis . La localisation par des réseaux de satellites est très utilisée de nos jours , surtout avec la mise en place du réseau GPS . Depuis la suppression des dégradations S / A , l' intégration de puces GPS dans de plus en plus d' objets courants s' est intensifiée ces dernières années . Ceci permet de réduire les prix de production de ces chipsets . Le système GPS appartient à part entière aux États-Unis qui peuvent décider de dégrader les performances de ce système temporairement et/ou localement afin que d' autres utilisateurs ne bénéficient plus des meilleures performances . Le système GLONASS apparu au début des années 1980 , et plus récemment , le système Galileo dont la la mise en place se poursuit permettent aux différents utilisateurs de ces deux services de ne plus craindre cette menace de dégradation temporaire . L' augmentation du nombre de systèmes de navigation permettra d' améliorer les performances d' un système plus général qui utilisera chacune de ces constellations de satellites . Dans les années à venir , les terminaux pourront exploiter plusieurs systèmes GNSS . Dans certaines situations critiques , lorsque trois ou quatre satellites GPS sont en visibilité , le système qui captera aussi les signaux émis par le système Galileo délivrera une position plus précise . 3.2 Les systèmes de localisation par réseaux terrestres Aujourd'hui , de nombreux réseaux cellulaires ou sans fil existent . Ces réseaux communiquent avec les équipements mobiles par radio . Le premier système de ce type est le système LORAN C dans les années 1960 . Ensuite les réseaux comme le GSM et l' UMTS ou le réseau de TNTTNTTélédiffusion Numérique Terrestre ( Télédiffusion Numérique Terrestre ) sont apparus pour relayer le système LORAN CLORANLOng RAnge Navigation . L' exploitation de ces différents réseaux terrestres est une nouvelle source potentielle de revenus pour les propriétaires de ces réseaux ( opérateurs de télécommunication par exemple ) . Un désavantage de ces systèmes de localisation est que la portée de chacune de ces stations terrestres est limitée . Pour les réseaux de télécommunication , le réseau est construit de manière à ce que les cellules se juxtaposent les unes à côté des autres en évitant autant que possible les recouvrements entre cellules ( optimisation des réseaux cellulaires ) afin de couvrir le plus grand territoire avec le minimum de stations terrestres . Comme pour le système GPS , un certain nombre d' informations provenant de plusieurs stations terrestres est nécessaire pour localiser un équipement mobile . La portée de chacune des stations de base est limitée à une zone bien précise , plus ou moins grande suivant l' environnement , et la disponibilité de plusieurs stations de base pour une position n' est pas garantie surtout dans des situations de visibilité directe ( très grand éloignement entre les stations de base ) . Des systèmes de localisation exploitent ces réseaux terrestres et sont abordés par la suite avec les techniques de localisation qui leurs sont associées . 3.2.1 Le système LORAN C LORAN est le premier réseau terrestre utilisé pour la localisation . Ce système de navigation a été développé pour fournir un service de radio navigation aux gardes côtes Américains , le long de leur littoral . Ce système de navigation a été utilisé pour la première fois sous une forme archaïque durant la seconde guerre mondiale . Loran C est basé sur la mesure de la différence de temps d' arrivée des ondes provenant de deux stations terrestres différentes . Le lieu géométrique représenté par cette différence de temps est une hyperbole ( ligne de position ( LOPLOPLine Of POsition ) hyperbolique - figure 10 ) . Pour fonctionner , il est nécessaire de connaître la position de chacune des stations terrestres et les stations terrestres doivent être synchronisées entre elles ( référence de temps commune ) afin de comparer les instants d' arrivée des différents signaux . Dans le cadre de LORAN , il y a une des stations qui sert de référence à toutes les autres ( la station maître , les autres stations sont dites esclaves ) . Figure 10 : LOP pour une station de base LORAN ( Baie de New-York ) L' opération de localisation se déroule de la manière suivante : le mobile calcule la différence de temps d' arrivée entre la station maître et une station esclave , ce qui fournit une LOP . Une seconde LOP est obtenue en mesurant une seconde différence de temps entre la station maître et une seconde station esclave . L' intersection de ces deux LOP conduit à la position du mobile . La navigation se fait à l' aide de cartes pré-établies . Le récepteur LORAN n' effectue pas de calculs de positionnement . Des cartes marines comme celle exposée 10 décrivent les différents retards observables . L' intersection des différentes LOP conduit à une estimation de la position du navire . Dans les récepteurs modernes , ce ne sont plus les différences de temps qui sont affichées , mais la latitude et la longitude correspondante . Ce système relativement ancien souffre des dégradations dues aux conditions climatiques ( effet électrique du temps ) et aux particules ionisées de l' air ( à l' aube et au crépuscule ) . Les multi-trajets perturbent aussi ces mesures . Normalement , c' est l' onde terrestre qui est la plus importante ( onde suivant la surface de la Terre ) . Cependant , la nuit , l' onde se réfléchissant sur la ionosphère peut devenir prépondérante . Or cette onde est en retard par rapport à l' onde terrestre et introduit une erreur au niveau de la mesure de la différence de temps . Plusieurs versions de LORAN ont été mises en place . La première version ( et la moins précise ) est LORAN A. Ce système a été utilisé pendant longtemps pour le faible coût de ses récepteurs et sa grande popularité auprès du public . Mais il est peu à peu remplacé par le système LORAN C qui est plus précis . Ce système mis en place dans les années 1970 , a eu des applications civiles et a été utilisé par les gardes côtes Américains . La couverture prévue pour ce système était l' intégralité des États-Unis , les côtes Européennes , et une partie de l' Asie de l' est . L' US Air Force a travaillé aussi sur un système tout à fait comparable à LORAN C et appelé LORAN D , avec pour but des applications militaires . Il est possible de se localiser par ce système de navigation mais la précision de ce système est moins bonne que celle obtenue avec le système GPS . Les précisions données pour ce système de navigation sont de l' ordre de . Pour des applications de navigation maritime , cette précision était suffisante avant l' arrivée du GPS . Ce programme LORAN devait se terminer à la fin des années 1990 , mais sera opérationnel durant la première décennie du 21 siècle du fait du faible coût des récepteurs [ ? ] . De nombreuses applications misent plutôt sur la combinaison du système GPS avec LORAN pour obtenir une localisation assez précise surtout dans les environnements difficilement couverts par le GPS [ ? ] . 3.2.2 La localisation par la Télévision Numérique Terrestre L' émergence de nouveaux réseaux de communication permet de délivrer une localisation dans les endroits non couverts par le système GPS . Les réseaux terrestres permettent généralement de disposer de signaux , au niveau du récepteur , dont le niveau est plus important que ceux provenant des satellites GPS . L' apparition de nouvelles techniques ( modulations numériques par rapport aux modulations analogiques ) sont autant de nouvelles pistes à suivre pour évaluer les performances en terme de localisation de ces nouveaux systèmes . La télédiffusion numérique terrestre ( TNT ) est une bonne candidate pour la localisation . L' entreprise Américaine ( ROSUM [ ? ] ) a débuté des travaux sur l' évaluation des performances de la localisation par la TNT . Le signal de télévision numérique , défini aux États-Unis suivant le standard American Television Standard Committee ( ATSCATSCAmerican Television Standard Committee ) , comporte des signaux de synchronisation utilisables en localisation . Dans les environnements difficiles , le niveau des signaux de télévision numérique est supérieur à ceux du GPS d' une quarantaine de décibels . Par rapport au GPS , les signaux ne sont pas affectés par l' effet Doppler de l' émetteur ( les stations de base étant fixes et donc de position connue ) et les effets dus à la traversée de la ionosphère sont inexistants . Ces signaux de synchronisation ne subissent pas autant de perturbations que les signaux GPS . Enfin , les signaux TV sont à de faibles fréquences 470 - 870 MHz . Leur propagation est bien adaptée aux environnements urbains . Le système proposé par ROSUM [ ? , ? ] repose sur l' utilisation des signaux de synchronisation présents dans chaque segment ( quatre symboles de synchronisation par segment , et 626 segments par trame ) . Dans les trames transmises , certains segments sont spécialement dédiés à la synchronisation [ ? ] . Les avantages de ce moyen de localisation par rapport au GPS sont : & 226;& 128;& 162; Les signaux sont émis à partir d' antennes de position connue & 226;& 128;& 162; Les signaux émis sont dimensionnés pour qu' une antenne TV se trouvant à l' intérieur d' un bâtiment puisse les recevoir & 226;& 128;& 162; La distance séparant un récepteur d' un émetteur comprise entre 25 à 75 km & 226;& 128;& 162; Le positionnement peut-être effectué avec un seul des signaux TV parmi les nombreux signaux disponibles émis par une station de base . & 226;& 128;& 162; La bande des signaux est de 6 à 8 MHz et toute cette bande est disponible pour faire de la localisation . De ce fait , la précision temporelle est plus importante que celle du GPS . ROSUM exploite les mesures du temps d' arrivée des signaux , analogue à celle du GPS ( Dr Spilker , un des fondateur de ROSUM , a aussi participé à la mise en place du GPS ) . Des pseudo-ranges sont extraites des signaux en employant des données temporelles relatives à l' instant d' émission des données . Les bursts de synchronisation sont les instants servant de référence pour le calcul des différences de temps . Il est nécessaire que des signaux soient captés d' au moins trois émetteurs TV différents . ROSUM emploie des unités de contrôle récupérant aussi ces signaux TV dans le voisinage du mobile à localiser , afin d' extraire des informations sur la dérive de chacune des horloges des émetteurs . Ces données collectées sont transmises à une centrale de localisation qui effectue le calcul de la position de l' équipement . Pour rendre le système disponible sur tout le territoire Américain , un réseau d' unités de contrôle est déployé et leur nombre s' élèverait à 200 environ [ ? ] . Le principe de fonctionnement du système est illustré 11 . Figure 11 : Principe de fonctionnement de la mesure des pseudo ranges Les développements liés à cette technique de localisation sont présentés dans [ ? ] . Actuellement , le système proposé par ROSUM est intégré dans des terminaux mobiles comportant d' un côté un GPS et de l' autre un tuner TV numérique [ ? ] afin de recevoir les signaux de télédiffusion numérique . 11 illustre les situations dans lesquelles ces systèmes deviennent complémentaires . Table 11 : Principe de fonctionnement du système de localisation de ROSUM Les précisions annoncées pour ce système de localisation vont de 3 à 25 m . Cette localisation est intéressante car avec l' apparition du service de télévision sur les téléphones mobiles et avec la mise en place de réglementation E911 pour la VoIPVoIPVoice over IP , la solution proposée par ROSUM est un candidat très sérieux pour remplir le cahier des charges de la localisation des terminaux mobiles . 3.2.3 La localisation via les réseaux de téléphonie Les réseaux de télécommunications ont connu un essor important au cours des années 1990 . De nombreuses stations de base transmettant des signaux de téléphonie mobile ont été installées . À l' origine , bon nombre de ces réseaux cellulaires n' étaient pas destinés à d' autres applications que de communiquer et transmettre des informations . L' arrivée de réglementations , comme celle imposée par la FCC ( voir 2.2 ) , et les avancées technologiques ont permis à de nombreux opérateurs de télécommunications de mettre en place de nouveaux services pouvant rapportant des revenus supplémentaires . Cependant , un certain nombre de difficultés subsistent quant à l' utilisation de ces réseaux et notamment le réseau GSM dont l' aspect localisation des équipements mobiles ne fait pas partie de la norme . Leur réadaptation n' est pas toujours très simple et est souvent très coûteuse . Les précisions attendues de ces réseaux ne sont pas toujours suffisantes pour certaines applications comme notamment la localisation précise à la rue près pour des applications de sécurité des personnes ( E911 ) . La localisation par réseau GSM Les applications de localisation à l' aide du réseau GSM sont apparues au début des années 2000 . C' est d' abord au Japon et aux États-Unis avec le E- 911 que ces besoins de localisation ont apparu . L' exploitation du réseau GSM à des fins de localisation a été proposée . Des études ont montré que des revenus peuvent être générés par les services de localisation [ ? , ? , ? ] et de plus en plus d' opérateurs de téléphonie s' y sont intéressés . Ces revenus pourraient s' élever à quelques 7 ou 8 milliards de dollars . Figure 12 : Structure du réseau GSM pour les applications de localisation Plusieurs techniques de localisation existent . On trouve des méthodes d' identification de la cellule dans laquelle se trouve le mobile ( méthode de Cell ID ou Cell Identification ) , puis des méthodes plus complexes basées sur des mesures temporelles ( estimation de la distance entre chacune des stations de base et le mobile ) comme TOATOATime Of Arrival ( Time Of Arrival ) ou TDOATDOATime Difference Of Arrival ( Time difference Of Arrival ) . Enfin , l' utilisation des directions d' arrivée avec la méthode AOAAOAAngle Of Arrival ( Angle Of Arrival ) conduit aussi à l' identification de la position occupée par le mobile . Chacune de ces méthodes est développée par la suite car elles sont aussi proposées pour les réseaux de nouvelle génération de type UMTS . Comme le montre la figure 12 , il est nécessaire d' ajouter des éléments de synchronisation dans le réseau afin d' employer certaines des techniques de localisation citées précédemment . Dans le réseau GSM tel qu' il était prévu initialement , les stations de base ne sont pas synchronisées entre elles , or les méthodes de localisation temporelles nécessitent que les stations de base soient synchrones . Des éléments notés LMULMULocation Measurement Unit ( Location Measurement Unit ) sont installés pour fournir une synchronisation entre ces différentes stations de base . Ce type de réseau n' est pas nécessairement adapté pour les applications actuelles recherchant parfois une localisation à quelques mètres près ( application de E112 ) . Dans certains environnements , comme en rural , très peu de stations de base sont disponibles . Ceci rend très difficile une localisation très précise . Si une seule station de base est disponible , la meilleure localisation que l' on peut attendre , est celle à la cellule ou voir au secteur lié à cette station de base . Afin de répondre à ces situations , de nouveaux réseaux sont nécessaires . L' UMTS offre des performances supérieures en qualité de transmission d' informations ( débits supérieurs ) , mais aussi en terme de localisation car ce service fait partie intégrante de la norme associée aux réseaux de troisième génération . La localisation par le réseau UMTS Depuis fin 2004 , les opérateurs commencent à proposer à leurs clients en France un service de téléphonie de troisième génération ou UMTS . Des fonctionnalités de localisation sont prévues dans la norme UMTS comme présenté par le 3GPP [ ? ] . Cependant , le type de service de géolocalisation pour l' usager n' est pas imposé dans les spécifications techniques de l' UMTS . Le 3GPP défini un ensemble de méthodes permettant d' estimer la position géographique du terminal à l' aide de l' infrastructure du réseau . Les opérateurs de télécommunications et les fournisseurs de services doivent exploiter la valeur estimée de la position de l' équipement mobile ( UEUEUser Equipment ) pour développer et personnaliser eux-mêmes leur offre . Les services de localisation dans la terminologie du 3 GPP 3 GPP 3 rd Generation Partnership Project sont désignés par le sigle LCSLCSLoCation Services pour LoCation Services . Contrairement au réseau GSM , la notion de localisation est prévue dans ce standard . La structure du réseau mise en place comporte obligatoirement des éléments permettant d' effectuer ces opérations de localisation . La structure typique pour le réseau UMTS est donnée par la figure 13 . Figure 13 : Structure du réseau UMTS pour les applications de localisation SASStand Alone SMLC Les éléments du réseau participant à la localisation sont : & 226;& 128;& 162; Le centre de localisation du mobile ( SRNCSRNCServing Radio Network Controller - Serving Radio Network Controller ) qui a la charge d' estimer la position de l' UE , c' est à dire ses coordonnées géographiques en deux ou trois dimensions . À la différence du réseau GSM où le SMLCSMLCServing Mobile Location Centre peut être un élément à part , dans un réseau UMTS régi par la Release 99 , les fonctions du SMLC sont directement intégrées dans le SRNC de l' UTRANUTRANUniversal Terrestrial Radio Access Network . & 226;& 128;& 162; Le routeur du centre de localisation du mobile ( GMLCGMLCGateway Mobile Location Center - Gateway Mobile Location Center ) représente le noe ud d' entrée au PLMNPLMNPublic Land Mobile Network ( Public Land Mobile Network ) qui fournit le service d' estimation de la position des terminaux . En collaboration avec le HLRHLRHome Location Register ( Home Location Register ) , il effectue les tâches d' autorisation et d' authentification des serveurs externes qui sollicitent des informations liées à la position géographique de l' abonné . Les serveurs externes à l' origine de ces requêtes sont appelés " clients LCS " . Le GMLC est aussi chargé de transmettre aux éléments du réseau concernés la QoSQoSQuality of Service ( Quality Of Service ) requise par le client LCS . En fonction de la QoS , le SMLC choisit la technique la plus adaptée parmi celles supportées par le réseau et suivant les capacités matérielles et logicielles de l' UE . & 226;& 128;& 162; L' unité de prélèvement de mesures de localisation ( Location Measurement Unit ou LMU ) sert de support au SMLC en effectuant les mesures radio requises par la technique de localisation mise en oe uvre. Ces mesures concernent principalement les paramètres RTDRTDRound Time Difference ( Round Time Difference ) et RTTRTTRound Trip Time ( Round Time Trip ) présentés par la suite lors de la description des méthodes de localisation associées à ce type de réseaux . Lorsque cette unité est intégrée dans le Node B , elle est appelée " LMU type B " sinon elle est appelée " LMU type A " . Ceci permet d' avoir une vue d' ensemble sur la configuration des entités fonctionnelles impliquées dans l' offre de service de géolocalisation dans les réseaux GSM et UMTS . Cependant , il est nécessaire d' associer des techniques de localisation permettant de prédire la position d' un équipement mobile en fonction des données mesurées disponibles . Les techniques de localisation associées aux réseaux GSM et UMTS La localisation à la cellule ou " Cell ID " Cette méthode dite " à la cellule près " est la plus simple et la moins onéreuse à mettre en place car elle est compatible avec tous les terminaux existants . Elle ne nécessite que l' émission d' un signal aller-retour de signalisation avec l' utilisateur . Le téléphone mobile est localisé par l' identification de la cellule à laquelle appartient l' antenne à travers laquelle la communication est transmise . Figure 14 : Principe de la localisation à la cellule et ses variantes Le temps de calcul de la position est très court . Il s' agit seulement du temps de recherche dans la base de données de la position à partir de l' identifiant de la cellule . Cette technique n' est toutefois pas très précise . Elle situe une personne à 250 mètres près en zone urbaine où le réseau est dense contre une dizaine de kilomètres en milieu rural [ ? ] , ce qui correspond à la plus grande taille de cellule . Des raffinements sont possibles lorsque les antennes de ces stations de base sont sectorisées . En général , les antennes des stations de base sont constituées de plusieurs antennes dites sectorielles ( secteur de 60 ° ) . Il est possible de remonter au secteur dans lequel se trouve le mobile afin de réduire la zone d' incertitude . Cette méthode n' est donc pas très précise dans les zones où une simple BTS couvre un grand territoire . Dans les villes où les opérateurs ont installé plusieurs BTS pour mieux desservir les utilisateurs , les cellules couvrent une zone longue de quelques centaines de mètres , ce qui accroît la précision du système . Malgré son manque de précision , la majorité des opérateurs l' ont toutefois choisie pour le E- 112 en raison de son faible coût de mise en place . La localisation par temps d' arrivée ou trilatération L' amélioration de la localisation passe par l' obtention d' informations plus précises que le secteur de la station de base à partir duquel duquel les communications transitent . Il est nécessaire de disposer d' informations directement liées à la distance séparant l' équipement mobile de la BTS . Des informations temporelles sont utilisables , comme c' est le cas pour le GPS ( voir 3.1.1 ) . Ce mode de localisation par trilatération est applicable aux réseaux de type GSM et UMTS . Cette technique nécessite une assez bonne synchronisation entre les BTSBTSBase Transceiver Station et les mobiles , ce qui n' est généralement pas le cas . À la place de travailler avec des temps d' arrivée , le système travaille avec des différences de temps qui sont équivalentes à des différences de marche . En procédant de cette manière , le problème de synchronisation équipement mobile / BTS est résolu . Pour que la localisation soit possible , il est nécessaire de capter une BTS supplémentaire par rapport à la technique TOA . Cette station supplémentaire sert de référence temporelle . Ces techniques de localisation par différence de temps sont nommées TDOA ( Time Difference Of Arrival ) et EOTD ( Enhanced Observed Time Difference ) . La technique de localisation Uplink Time Difference of Arrival ( U-TDOAU-TDOAUplink TDOA ) Cette méthode de localisation est utilisée car elle permet de s' affranchir de l' étape de synchronisation entre l' équipement mobile et les stations de base . Ici , c' est l' équipement mobile qui émet des trames contenant des slots pour la localisation . Ce type de localisation n' est applicable qu' aux mobiles se trouvant à proximité des stations de base . La localisation s' effectue en deux étapes . Dans un premier temps , on estime les différences de temps . L' équipement mobile émet un signal qui arrive à des instants différents au niveau de chacune des BTS . Un serveur central récupère ces différents signaux en provenance des BTS et détermine la différence de temps d' arrivée entre les signaux . Deux techniques différentes existent pour l' estimation de ces différences de temps : & 226;& 128;& 162; Soustraction des temps d' arrivée ( TOA ) de chacune des BTS & 226;& 128;& 162; Corrélation des deux signaux provenant des BTS La seconde méthode est plus généralement connue sous le nom de Cross-Corrélation Généralisée ( GCCGCCGeneralized Cross-Correlation ) [ ? ] . Elle est considérée comme plus robuste . La figure 15 décrit le principe de fonctionnement de ce détecteur . Figure 15 : Détecteur TDOA La résolution du problème mathématique lié à cette situation , n' est pas aussi simple que celle du problème de TOA . Une méthode consiste à minimiser une fonction d' erreur entre le temps d' arrivée réel et le temps d' arrivée associé à la position estimée . D' autres méthodes de résolution sont présentées dans [ ? , ? , ? , ? ] . L' avantage de cette méthode est que l' équipement mobile ne nécessite aucun changement . Toute la complexité du système est placée au niveau du réseau , et la mise en place de cette méthode de localisation dépend uniquement de l' opérateur . Si des améliorations de la technique de localisation sont à effectuer , dans ce cas , l' opérateur n' a pas besoin de rappeler tous les terminaux distribués à ses abonnés pour effectuer une mise à jour . Une telle contrainte n' est pas à négliger pour un opérateur de télécommunications . La technique Enhanced Observed Time Difference ( E-OTD ) Dans la méthode U-TDOA , c' est l' équipement mobile qui émet des trames , et c' est le réseau qui effectue la différence de temps afin de déterminer la position de cet équipement . Ici , l' équipement mobile détermine lui même sa position à partir des signaux reçus de différentes BTS , tout en employant des mesures de différences de temps d' arrivée . La méthode E-OTD nécessite une remise à niveau du réseau GSM déjà en place avec l' ajout de LMU ( Location Measurements Units ) pour compenser le fait que les BTS du réseau GSM ne sont pas synchronisées . Ces unités de mesures représentent un coût supplémentaire pour l' opérateur lors de la mise en place du service . Les LMU sont des éléments hardware supplémentaires rajoutés au réseau GSM pour réaliser des mesures précises de différences de temps entre les signaux provenant des différentes BTS . Le LMU mesure les différences de temps relatives entre chacune des BTS à partir des burst émis périodiquement et de façon prévisible . Les données remontant des LMU sont utilisées par le système pour déterminer la position du mobile . Le standard GSM définit deux modes de fonctionnement pour ces LMU . Il existe deux types de LMU ( figure 12 ) : & 226;& 128;& 162; Les LMU de type A : les LMU de type A sont des LMU dont les échanges avec le réseau GSM s' effectuent par l' intermédiaire d' une interface radio sans fils [ ? ] & 226;& 128;& 162; Les LMU de type B : les LMU de type B sont des LMU interrogeables par le BSCBSCBase Station Controller ( Base Station Controller ) à travers l' interface Abis Ces deux types de LMU sont supportés par le standard GSM . Table 12 : Classes de LMU [ ? ] décrit les autres éléments du réseau . L' architecture centrée BSSBSSBase Station Sub-system a comme avantage de ne pas avoir besoin de remonter des informations vers le MSCMSCMobile Services Switching Center / VLRVLRVisitor Location Register ni le HLR . Ceci réduit les flux de signalisation dans le réseau sous système ( NSSNSSNetwork Sub-System ) . Cette configuration nécessite des échanges radio qui sont souvent difficiles . Pour la solution basée sur les LMU de type B , il faut générer des flots de trafic de signalisation entre le LMU et le réseau BTS . Cette solution permet de réduire le nombre d' éléments supplémentaires à introduire dans l' application LCS . Des tests effectués par Nokia sur cette architecture , montrent que les flots de signalisation engendrés sont 50 fois plus importants que pour un réseau normal . Des études de coût sur la mise en place des différentes architectures réseau montrent que plusieurs BSC peuvent être mis à jour dans une architecture BSS centrée pour le prix de la mise à jour d' un SMLC dans une architecture NSS centrée [ ? ] . De plus l' architecture BSS est l' architecture retenue pour l' UMTS . La figure 16 illustre une situation de localisation par E-OTD . Figure 16 : Schéma de description de la technique E-OTD [ ? ] présente les développements associés à cette technique de localisation . Ces développements prennent en compte les différences de synchronisation existantes entre les BTS du réseau . La détermination de la position du mobile s' effectue par un algorithme minimisant l' erreur entre chacune des différences de temps mesurées et les différences de temps associées à la position estimée du mobile . Le processus se déroule itérativement . De nombreux ouvrages traitent des méthodes de résolution de ces problèmes [ ? , ? ] . On peut citer la méthode des moindres carrés , ou alors la méthode de Newton par exemple . Les principales sources d' erreurs sont généralement les multi-trajets . Ces multi-trajets rendent plus difficile l' estimation de l' instant d' arrivée du premier trajet . D' un autre côté , le défaut de synchronisation des stations de base conduit aussi à une erreur sur l' estimation exacte de ces différences de temps . Cette erreur peut aller de à si la synchronisation n' est pas correcte . Les LMU permettent de corriger cette erreur . La dérive de l' horloge des BTS conduit à des erreurs de localisation . En GSM , l' horloge commune à la génération des deux fréquences est précise à ( génération des fréquences et de l' horloge servant de base de temps ) . Cette même horloge est utilisable pour toutes les BTS . La désynchronisation des stations de base influence la valeur de différence de temps géométrique . Il est généralement pris comme hypothèse que la dérive des horloges est linéaire et affecte de la même manière toutes les BTS . Dans ce cas , cet effet est considéré comme négligeable . Cette méthode de localisation est proposée par Cambridge Positioning Systems [ ? ] . Elle est déjà mise en place sur certains réseaux GSM . Dans le cadre de la norme UMTS , la même technique de localisation existe , mais elle se retrouve sous le sigle OTDOA ( Observed Time Difference Of Arrival ) OTDOAObserved Time Difference Of Arrival . La localisation par direction d' arrivée La technique de localisation par direction d' arrivée ne repose pas sur des mesures de temps d' arrivée mais sur des mesures de directions d' arrivée des ondes au niveau des BTS . Pour effectuer ces mesures , il est nécessaire de disposer de réseaux d' antennes estimant les directions d' arrivée . Le réseau d' antennes placé sur une BTS permet de déterminer une ligne de l' espace sur laquelle se trouve l' équipement mobile . Si au moins deux BTS délivrent chacune une droite dans l' espace sur laquelle se trouve le mobile , alors l' intersection de ces deux lignes est unique et correspond à la position occupée par l' équipement mobile . À cause des fortes dégradations des signaux radio , il faut exploiter les données provenant de deux BTS au moins . La figure 17 illustre ce principe de localisation . Figure 17 : Principe de la localisation AOA Les algorithmes ESPRIT [ ? ] et MUSIC [ ? ] sont utilisés pour extraire ces directions d' arrivée . Cependant , cette localisation est très imprécise dans les situations d' alignement . La localisation par fingerprinting La technique de fingerprinting est utilisée pour déterminer la localisation d' un équipement mobile à partir de données brutes provenant de rapports disponibles au niveau du BSC . À la différence des techniques précédentes , cette technique requiert une étape de calibration . Le mot fingerprinting vient du terme " fingerprint " qui signifie empreinte digitale . Pour fonctionner , cette technique nécessite une base de données qui à certaines positions de l' environnement considéré associe un ensemble d' éléments caractérisant cette position . Ces éléments doivent permettre de différencier chacune des positions par rapport aux autres positions de l' environnement . Si cette condition n' est pas réalisée dans ce cas les éléments considérés pour composer cette " emprunte " ne sont pas significatifs . Les éléments pouvant être considérés pour composer ces empreintes sont la puissance du signal , la réponse impulsionnelle du canal , les directions d' arrivées , le temps d' arrivée par exemple . Une composition de plusieurs de ces éléments est acceptable . Une précaution est nécessaire . L' environnement radio doit rester stable durant la période au cours de laquelle on veut proposer le service de localisation . L' exploitation de cette technique de localisation pour les environnements indoor est courante [ 1 , 5 ] . Par la suite , les signatures seront composées des puissances du signal reçu . Au niveau du terminal mobile , la puissance du signal reçu possède comme caractéristiques de s' atténuer en fonction de la distance , et de subir des atténuations successives suivants les phénomènes radio ( réflexion , diffraction , transmission , scattering ) auxquels elle est soumise . Une forme simple de la puissance du signal reçu en une position de l' espace est donnée par : ( 17 ) avec la longueur d' onde , la position de l' antenne émettrice , un terme caractérisant la propagation dans le milieu ( dans le cas de la propagation en espace libre [ ? ] ) , et la distance séparant l' émetteur du récepteur . En prenant le logarithme de cette expression , puis en soustrayant cette équation à une mesure effectuée à une distance connue ( ) , on supprime les données relatives au système ( , et ) . On aboutit à l' équation suivante : ( 18 ) correspond à la distance associée à la position . La monotonie de cette dernière équation est illustrée par la figure 18 . Figure 18 : Illustration du modèle de propagation On observe une décroissance de la puissance du signal en fonction de la distance . D' autres modèles de propagation sont utilisables . Ils tiennent compte de l' environnement de propagation comme par exemple des murs à l' intérieur des bâtiments [ 41 , 1 ] . Ces modèles introduisent des coefficients liés à l' atténuation du signal lorsqu' il traverse des murs . Ces coefficients sont estimés à partir de mesures d' étalonnage car l' atténuation varie d' un matériau à l' autre . Ces modèles montrent que la puissance du signal est un bon élément pour la constitution de la base de données de fingerprinting [ 2 ] , puisqu' elle varie en fonction de la distance . Idéalement , cette décroissante se fait suivant une ligne de niveau ressemblant à un cercle ( dans un espace 2D ) mais elle est déformée suivant les obstacles présents dans l' environnement . Plusieurs positions de l' espace possèdent la même valeur de puissance captée . Il est nécessaire de prendre en compte plusieurs puissances provenant d' émetteurs distincts , chacun générant une ligne de niveau . Ces lignes de niveau sont corrélées entre elles , et doivent s' intercepter en un point du plan qui est la position occupée par l' équipement . Comme ces lignes de niveau sont plus ou moins concentriques , deux de ces lignes de niveau vont avoir au moins deux intersections . Il est nécessaire de considérer au moins trois de ces lignes de niveau pour obtenir la position . Le tableau 13 présente la forme prise par la base de données . Table 13 : Exemple de bases de données La base de données est une table de correspondance entre l' espace des puissances et l' espace des positions . À une position correspond un n-uplet de puissances de signal reçu . L' étape de localisation consiste à effectuer l' opération inverse , à savoir , mesurant un n-uplet d' informations , on cherche dans la table le n-uplet correspondant le mieux à celui mesuré suivant un critère . Une fois qu' un n-uplet est détecté dans la base de données , on considère que le mobile occupe la position retournée par la position extraite de la base de données . Les techniques pour détecter ce n-uplet sont multiples . Il existe des techniques simples consistant à rechercher le plus proche voisin du n-uplet mesuré suivant le critère de la distance euclidienne minimum entre les n-uplets [ 1 ] ( closest neighbor algorithm ) , ou alors en moyennant sur les k plus proches voisins ( k-nearest neighbor averaging ) ou alors des méthodes probabilistes [ 36 , 37 ] . L' algorithme des k plus proches voisins Cet algorithme est basé sur la recherche des k plus proches voisins et fournit la position de l' équipement en fonction de la similarité de la mesure avec ces k plus proches voisins . Ce nombre k est défini au préalable par l' utilisateur du système de localisation . L' algorithme utilise les k mesures de la base de données possédant le plus de similitudes avec la mesure instantanée . Le critère retenu pour déterminer le degré de similitude entre la mesure instantanée et celles contenues dans la base de données est la distance euclidienne . Si est le vecteur mesure instantanée et le vecteur contenu dans la base de données sous la forme suivante pour la position : , dans ce cas l' information de distance euclidienne entre ces deux vecteurs est donnée par la formule suivante : ( 19 ) Plus cette distance est faible , plus le degré de similarité entre ces deux entités est grande . Dans le cas de l' algorithme des plus proches voisins , il faut retrouver dans un premier temps dans la base de données , les k plus proches voisins du vecteur mesure : ( 20 ) représente cet ensemble de k éléments des positions dont les éléments RSS sont les plus proches dans la base de données de ceux obtenus lors de la mesure . Lorsque ces positions de la base de données sont obtenues , on les moyenne . Il faut garder à l' esprit que ce nombre k ne doit pas être trop important . Cet algorithme conduit à estimer la position du mobile à une position plus proche de la réalité que celle délivrée par l' algorithme retournant comme position estimée celle occupée par le n-uplet le plus proche . La position du mobile s' écrit sous la forme suivante : ( 21 ) La position obtenue est pondérée par l' inverse des erreurs [ 5 ] . Le cas particulier de correspond à l' algorithme du plus proche voisin . Estimation probabiliste de la position Les modèles probabilistes pour la détermination de la position du mobile exploitent des informations plus riches que de simples valeurs comme présenté dans la méthode précédente . Ici , les densités de probabilités des différents processus aléatoires sont utilisées . L' inférence bayésienne est utilisée pour déterminer cette position en fonction de la base de données disponible . Dans la suite , est la variable aléatoire représentant la position du mobile , et celle de l' observation ( ou de la mesure ) . L' application de la loi de Bayes permet d' écrire : ( 22 ) Or on sait d' après le théorème des probabilités totales que : ( 23 ) Il est nécessaire de connaître la densité de probabilité a priori que le mobile se trouve à la position . Dans notre cas , on se place dans un cas discret , car la base de données ne contient qu' un nombre discret d' éléments . L' intégrale se discrétise de la manière suivante : ( 24 ) où est l' ensemble des positions présentes dans la base de données pour lesquelles une information est disponible . L' équation de la probabilité de la présence du mobile sachant la mesure est donnée par : ( 25 ) Une probabilité de présence est associée à chacune des positions de la base de données . La distribution a posteriori définie ci-dessus permet de déterminer la position la plus probable du mobile . Une fonction de coût relative à cette densité de probabilité est utilisée . L' erreur quadratique est utilisée pour définir cette fonction de coût . Elle permet de pénaliser fortement les grandes valeurs et d' une manière moindre les faibles erreurs . L' estimateur minimisant cette fonction est donnée par [ ? ] : ( 26 ) ( 27 ) ( 28 ) où est une fonction minimisant l' erreur moyenne comme présenté ci-dessus . Comme toutes les quantités sont positives , il découle que est minimum si l' erreur moyenne conditionnelle est minimum . On a donc : ( 29 ) où est la densité conditionnelle de la variable aléatoire pour la réalisation . Dans les intégrales précédentes , est constant . Dans ces conditions , l' intégrale est minimum si est donné par : ( 30 ) Comme on se trouve dans un cas discret , avec un nombre fini de point de mesures dans la base de données , l' équation précédente s' écrit [ 37 ] : ( 31 ) La détermination de la probabilité qu' une mesure relevée se trouve à la position de la base de données , nécessite de prendre comme hypothèse que la densité de probabilité est connue . [ 36 ] propose deux méthodes pour modéliser cette densité de probabilité . Une des méthodes consiste à prendre une densité de probabilité " théorique " comme une gaussienne par exemple ( modèle par kernel ) dont les propriétés sont extraites d' une série de mesures ( modèle par histogramme [ 42 ] ) ou d' un modèle de propagation . Par la suite , seul le modèle par kernel est exposé . Dans cette méthode , seule une masse probabiliste est affectée à un kernel auprès de chaque observation de la base de données . La densité de probabilité résultante pour une observation en une position , avec une base de données composée de M éléments et un vecteur observation de N éléments , s' exprime sous la forme suivante : ( 32 ) où est la fonction définissant ce noyau . Le fonction noyau la plus couramment utilisée est celle du noyau Gaussien : ( 33 ) où est un paramètre ajustable . Plus cette valeur est importante , plus l' estimation est lissée . La figure 19 représente l' effet de ce paramètre sur l' estimation . Figure 19 : Influence du paramètre sigma sur l' estimation de la position Ici , on a un problème multidimensionnel où le vecteur observation contient plusieurs composantes . Pour tenir compte que l' observation est un vecteur , il faut multiplier ces distributions . On prend comme hypothèse que les composantes de ce vecteur observations sont indépendantes . Cette hypothèse est recevable si on considère que les observations sont localement indépendantes suivant les positions de mesures [ 36 ] . Le cas du plus proche voisin décrit précédemment est un cas particulier de la méthode probabiliste exploitant le noyau gaussien . Ce cas correspond à tendant vers 0 . La figure 20 présente de façon imagée le déroulement de l' estimation de la position d' un mobile . Figure 20 : Estimation de la position de l' utilisateur par méthode probabiliste La situation ( a ) représente le cas où la position du mobile est inconnue . En ( b ) un capteur a détecté le passage du mobile devant une porte . La densité de probabilité de présence est la gaussienne équiprobable devant chacune des portes . En ( c ) la personne se déplace , et donc les densités de probabilités se déplacent au cours du temps avec le mobile . En ( d ) , un nouveau passage devant une porte est détecté , ce qui conduit à une nouvelle mise à jour des densités de probabilités . On voit alors une gaussienne réellement émerger par rapport aux autres . En ( e ) la personne poursuit son déplacement . En ( e ) , la densité de probabilité de présence de l' utilisateur et obtenue et l' endroit où il se trouve est détecté . 3.3 La navigation par mesures inertielles Ce système de navigation utilise un ou plusieurs capteurs délivrant des informations quant au comportement de l' utilisateur . Ces capteurs sont embarqués sur le mobile lui même . L' exploitation des équations de la mécanique , comme l' équation du mouvement , permet de déterminer la position du mobile à partir des informations délivrées par les différents capteurs . Généralement , les capteurs utilisés sont des accéléromètres mesurant l' accélération , des gyroscopes mesurant des vitesses angulaires , des compas mesurant une direction par rapport au nord magnétique , des sondes barométriques , ... Ce type de navigation est souvent utilisé dans des applications militaires [ ? ] . Les données issues des capteurs sont disponibles en permanence ( pas de problème de couverture radio comme pour les technologies précédentes ) . Les traitements des données provenant de ces capteurs se font localement , c' est à dire sur l' objet mobile , ce qui garantit un élément de sécurité . L' autonomie de ce système de navigation est très importante . Cette navigation à l' estime est utilisée pour le guidage de missiles balistiques par exemple . Des applications civiles utilisent ce type d' éléments pour obtenir une localisation . Des domaines comme l' aéronautique civile ou l' automobile utilisent ces capteurs afin d' affiner la localisation GPS , ou alors en substitution de la navigation par GPS si celle ci est indisponible . Pour fonctionner , le système doit connaître au préalable sa position de départ . À cause de l' intégration des données au cours du temps , le bruit entachant les mesures conduit à une dérive de la position estimée . Plusieurs système de navigation cherchent à combiner cette navigation inertielle avec d' autres technologies de navigation comme GPS par exemple . Le service GPS est parfois momentanément indisponible quand un véhicule circule dans un tunnel . L' application de localisation ne dispose alors plus d' informations de localisation par GPS . En exploitant les informations de navigation inertielle ( mesure de la vitesse de chacune des roues du véhicule ) , on peut fournir à l' application de navigation une estimation de la position issue du traitement des mesures relevées par des capteurs de navigation inertielle , tant que le service de navigation GPS reste indisponible . On obtient une bonne précision sur la localisation d' un véhicule sur une vingtaine de kilomètres sans que le GPS soit disponible . Cette technique est couramment utilisé pour guider des véhicules dans des environnements urbains . La disponibilité du GPS permet d' initialiser de nouveau la navigation inertielle et de supprimer les effets de dérive dus au bruit des capteurs . Les équations suivantes illustrent la manière dont les données provenant de capteurs de navigation inertielle sont utilisées : ( 34 ) où représente la vitesse angulaire délivrée par la sonde , l' angle duquel a tourné le mobile depuis la mise en fonctionnement du capteur , est le temps écoulé entre deux mesures successives , est l' accélération et la vitesse du mobile . Si les mesures des capteurs n' étaient pas entachées de bruit , on connaîtrait précisément la position du mobile à tout instant . L' effet de ce bruit est amplifié par les intégrations au cours du temps effectuées sur les données . Certains capteurs utilisés pour des applications militaires notamment , possèdent un faible bruit et permettent de localiser un objet pendant une durée plus importante . Cette section a présenté les différents réseaux terrestres comme ceux du GSM et de l' UMTS dans un but de localisation d' un équipement mobile . Les performances sont généralement de quelques dizaines de mètres au minimum , et peuvent aller jusqu'à plusieurs kilomètres . Certaines techniques de localisation ne peuvent pas être mises en place simplement sur certains réseaux , soit parce que le service de localisation n' était pas prévu lors de l' élaboration du standard , soit parce que la mise en oe uvre de ce service nécessite un investissement important . Certains environnements restent toujours difficiles à couvrir , notamment les espaces confinés ( indoor , urbain ) . La forte dégradation des signaux réduit la précision . Les environnements indoor nécessitent une précision de l' ordre de quelques mètres pour localiser un équipement mobile dans une pièce notamment . Pour les systèmes précédents , la précision dans ces types d' environnements est généralement de l' ordre de plusieurs dizaines de mètres . il est nécessaire de dimensionner des solutions spécifiques à ces environnements indoor . Sur des échelles plus petites , de l' ordre du bâtiment ou d' une étage , il est possible d' identifier des technologies de communication dont l' usage peut être détourné afin de fournir une information de localisation . La section suivante présente ces technologies déployées dans des environnements indoor avec leur caractéristiques en terme de déploiement et leurs performances en localisation . 4 Les moyens de localisation indoor Afin d' obtenir des précisions de l' ordre du mètre ou voire meilleures , plusieurs technologies de proximité ont été explorées . La proximité de tous les éléments du système ( mobile , stations de bases du réseau ) permettent d' atteindre une précision métrique . L' émergence des nouveaux réseaux sans fil est une des solutions à envisager pour se localiser à l' intérieur des bâtiments . D' autres technologies comme celles par tags actifs / passifs ou de vision sont autant de moyens pour se localiser . Cependant , ces technologies présentent des points faibles qui peuvent devenir des freins quant à leur déploiement , notamment le coût et la complexité d' installation ( synchronisation des éléments entre eux , conditions particulières d' installation ( angle de vue ) ) . Le prix des éléments d' un système gêne parfois le déploiement d' une technologie , et particulièrement lorsque de très nombreux éléments relativement onéreux doivent être installés . 4.1 La localisation par ultrason Les systèmes à ultrason sont utilisés pour déterminer la position d' un mobile . La plupart des systèmes de localisation par ultrason sont combinés avec une autre technologie afin d' obtenir une estimation de la distance émetteur / récepteur . Dans le système Cricket [ 60 , 52 , 53 ] , les informations provenant d' une interface ultrason sont combinées avec celles provenant d' une interface RF . Cette combinaison permet d' estimer la distance émetteur / récepteur puis la position occupée par le mobile . Des émetteurs sont placés au plafond du bâtiment et émettent des signaux RF contenant des informations de localisation . En même temps que ces signaux RF sont émis , une onde ultrasonore est émise à partir de ce même émetteur . Le récepteur reçoit successivement l' onde RF et l' onde ultrasonore . Il effectue une corrélation de ces deux signaux reçus pour extraire la différence des temps d' arrivée entre chacune de ces ondes . Ceci permet d' estimer la distance le séparant de l' émetteur qui a émis ces deux signaux . En réitérant cette même mesure avec plusieurs émetteur , on détermine précisément la position du mobile ( ici le récepteur ) dans l' environnement . Ceci est basé sur le fait que l' onde sonore , et l' onde radio possèdent des vitesses de propagation différentes . ( 35 ) avec d la distance séparant l' émetteur du récepteur , et les vitesses des ondes RF et ultrasonore dans le milieu de propagation et et les temps mis par les ondes RF et ultrasonores pour atteindre le récepteur . Le récepteur mesure la différence de temps existante entre les instants d' arrivée de ces deux ondes au niveaux du récepteur . On a : ( 36 ) ( 37 ) ( 38 ) ( 39 ) On obtient au final ( 40 ) Cette technique mesure la distance séparant un émetteur d' un récepteur . Un certain nombre de traitements est nécessaire car les objets se trouvent dans des environnements générant beaucoup de multi-trajets et la situation de visibilité directe ( LOS - Line Of Sight ) n' est pas toujours garantie . Dans une situation de non visibilité directe ( NLOS - Non Line Of Sight ) , le trajet le plus fort au niveau des réponses impulsionnelles n' est pas le trajet le plus court . Il est nécessaire de mettre en place des algorithmes pour estimer cet instant d' arrivée du premier trajet afin de minimiser les erreurs sur l' estimation de la distance émetteur / récepteur . Un mécanisme d' accession au medium est en place dans le système Cricket pour minimiser les risques d' interférence . Ces interférences rendent la détection de cet instant d' arrivée pour chacun des émetteurs encore plus difficile [ 52 ] . Le système de localisation Active Bat repose sur les mêmes principes que ceux présentés ci-dessus . La principale différence entre ces deux systèmes est que l' un est basé sur une architecture centralisée ( Active Bat ) , tandis que pour le système Cricket , les traitements sont effectués par l' équipement mobile . Dans le système Active Bat , dès qu' un émetteur est détecté , le contrôleur général ( Master qui se trouve sur le réseau ) envoie un signal RF à l' équipement mobile ( Bat ) . Le Bat transmet alors une série d' impulsions ultrasonores . Toutes les , un message radio contenant uniquement les 16 bits d' adressage d' un des tag est émis par un contrôleur relié à un PC . Le PC décide de l' adresse qui doit émettre . Les équipements mobile reçoivent ce message et le décodent . Le mobile qui reconnaît son adresse dans le message reçu passe dans un mode d' émission et émet un message par ultrason durant . Une fois la série de pulses émise , le tag se remet en mode économie d' énergie , et scrute le canal plus tard . Le PC servant de centre nerveux au système de récepteurs situés au plafond émet vers chacun des récepteurs via la liaison série un signal de reset lorsqu' il émet en même temps que le signal RF à destination des tag à localiser . Durant à partir de ce moment , le dispositif électronique associé à chacun des récepteurs cherche à détecter un signal ultrason . De multiples détections se produisent à cause des multi-trajets [ 65 ] . Ensuite , le PC central interroge chacun des récepteurs composant le réseau en récupérant les intervalles de temps entre le signal de reset et celui de la détection du pic de signal ultrason . La position du tag est obtenue par trilatération . Figure 21 : Principe de fonctionnement du système Active Bat 4.2 La localisation par infrarouge Le système Active Badge est l' un des premiers systèmes de localisation . AT & T l' a élaboré entre 1989 et 1992 [ 46 ] . Ce système exploite la technologie infrarouge . Le mobile à localiser est équipé d' un tag infrarouge émettant un signal infrarouge toutes les 10 secondes . Les récepteurs sont installés au plafond dans chaque pièce de l' environnement . Ces récepteurs sont reliés entre eux pour former un réseau permettant de détecter le tag actif . Comme dans le système Active Bat / Cricket , le système infrarouge émet une série de pulses . Cette technologie a été retenue à cette période car elle est peu coûteuse . De plus , la portée des capteurs utilisés est de . Pour des utilisations dans de petites pièces , de nombreuses réflexions sont présentes et facilitent la détection . Le désavantage par rapport aux technologies radio , c' est que les signaux ne traversent pas les murs , ce qui réduit la portée du système . Les émissions infra rouge se font toutes les ( durant ) afin d' économiser l' énergie , mais aussi pour permettre à plusieurs tags d' être localisés et éviter ainsi les problèmes d' interférence . Une période de répétition de est rédhibitoire , car en une personne peut effectuer un déplacement important . Pour des environnements indoor , ceci n' est pas totalement justifié , et lors de l' exploitation du système , une bonne précision a été obtenue [ 46 ] . La présence de la lumière du jour est un frein au développement de cette technologie car cette lumière perturbe la transmission infra rouge entre l' émetteur et le récepteur . Ainsi cette technique de localisation est orientée vers une détection de présence du mobile dans l' environnement ( ou une de ses parties ) . On parle de localisation par zone . On retrouvera ce même type d' information binaire lors de l' exploitation des données remontant de capteurs RFID ( Radio Frequency Identifier ) . 4.3 La localisation par vidéo La vidéo et les dispositifs recevant des images d' une scène permettent d' effectuer d' une part une détection de présence d' un élément dans une scène , mais aussi de localiser cet élément dans la scène . La localisation est effectuée grâce à des transformations entre l' image de la scène et les angles de vues de la caméra [ 96 , 100 ] . Une utilisation possible de cette technique est de détecter les intrusions dans une zone . Grâce aux techniques de reconnaissance de contours , un objet est repérable sur une image . Il est possible de suivre le déplacement de ce contour tant qu' il reste dans le champ de vision de la caméra . [ 97 ] présente une technique de poursuite de cible grâce à la vidéo . Ce système est aussi utilisé en robotique . Les nouveaux robots arrivant sur le marché commencent à gagner en autonomie grâce aux systèmes de vision . Ces robots peuvent se repérer dans l' espace et donc se déplacer . Cette technique possède comme faiblesse la portée limitée du système . Dans les environnements indoor , la portée se trouve restreinte à une seule pièce ( emplacement de la caméra ) . Des problèmes d' identification se posent . Ce problème n' est pas négligeable car les applications requièrent , en plus de la position d' un mobile , un identifiant permettant de distinguer un mobile par rapport aux autres . Or avec cette technologie , différentier deux objets mobiles n' est pas simple . Lorsque deux objets se croisent et sont assez proches , l' un des objets masque l' autre pendant un bref instant . Ce masquage est suffisant pour que le système de détection par vidéo conclut qu' il n' y a qu' un seul objet dans la scène . Si un instant suivant , ces deux objets se séparent , ces deux cibles sont vues comme de nouvelles cibles pour le dispositif par vidéo . Le problème du système est de déterminer quel était le nom affecté à chacune des cibles précédentes et de redonner à chacune le bon nom suite à cet événement de fusion / séparation . 4.4 La localisation par mesure de champ magnétique ( boucles dans le sol ) L' exploitation d' un réseau de capteurs émettant un champ magnétique [ 90 ] par l' intermédiaire de rails présents dans le sol a été exploré . À l' origine , ces systèmes étaient prévus pour le guidage d' objets dans des entrepôts , où des robots effectuaient de nombreux parcours pour aller rechercher des pièces . Les autres domaines d' application sont la réalité virtuelle augmentée ( augmented reality ) et la capture de mouvements ( enregistrement des mouvements effectués par une personne afin de les réintroduire dans une séance cinématographique ) . Le système a besoin que des émetteurs se trouvent à des emplacement connus à travers le bâtiment . Chacun de ces éléments émet un champ magnétique en permanence . Une séquence PN ( Pseudo Noise ) rythme les émissions en changeant la polarité du signal émis . Cette séquence PN distingue les éléments entre eux . Le mobile qui se déplace dans le bâtiment capte successivement différents signaux , et donc champs magnétiques . À l' aide d' un système basé sur la corrélation , le récepteur détermine la puissance du signal en provenance de chacun des émetteurs . Cette information de puissance du signal est utilisée pour déterminer la position occupée par le mobile . Le système exploite une estimation de la réponse impulsionnelle du canal . Un des avantages du code d' étalement est que plusieurs émetteurs peuvent être actifs en même temps . Les deux systèmes employant cette technologie sont produits par Polhemus [ 89 ] et Ascension Technologie Corporation [ 72 ] . Le système proposé par Polhemus est basé sur l' émission d' un champ magnétique généré par un courant AC à basse fréquence . Chaque émetteur possède sa propre fréquence d' émission . On parle de système FDMA ( Frequency Division Multiple Access ) . Le second système est lui basé sur le TDMATDMATime Division Multiple Access ( Time Division Multiple Access ) . Durant le slot temporel qui lui est affecté , un émetteur émet son champ magnétique , alors que tous les autres émetteurs restent muets . Différentes études ont montré que les performances du système TDMA étaient meilleures que celles du système FDMA [ 91 ] . Le système TDMA semble moins sensible aux distorsions dues aux métaux non-ferreux , car des courants de surface sont créés sur le conducteur par la variation temporelle du champ . Ces courants génèrent un nouveau champ magnétique qui vient affecter celui généré par l' émetteur . 4.5 La localisation par mesure de phase des composantes du champ électromagnétique L' exploitation de la phase des signaux permet d' obtenir des informations sur la distance séparant un point de l' espace du point d' émission . Une présentation de cette technique est proposée à la section . L' idée est d' exploiter la phase de l' onde pour se localiser . Les ondes de la bande radio AM sont utilisées . Dans cette bande , les ondes possèdent de bonnes propriétés de propagation , et se transmettent bien à l' intérieur des bâtiments , ce qui est le talon d' Achille du GPS . Lorsqu' on observe un signal , la phase de l' onde s' exprime sous la forme suivante : ( 41 ) avec f la fréquence porteuse du signal , la distance séparant l' émetteur du récepteur et c la célérité de l' onde dans le milieu de propagation . On notera qu' il existe bien une relation entre ce terme de phase et la distance émetteur / récepteur . Une incertitude reste sur la détermination de la phase . Une phase est définie avec un modulo . La phase réelle d' un signal s' exprime de la manière suivante : ( 42 ) Il faut lever l' incertitude concernant le nombre k et donc sur la distance estimée entre le récepteur et le récepteur . Pour lever cette ambiguïté de phase , l' idée est de travailler en relatif par rapport à une référence dont on connaît la phase . Pour que la technique reste valable , il est nécessaire que la distance séparant le récepteur de cette référence soit inférieure à la longueur d' onde du signal . L' utilisation des signaux AM se prête bien à ces conditions car leur longueur d' onde est souvent élevée pour un signal dont la porteuse est à 2 MHz . Or les bâtiments font rarement de telles tailles en longueur ou largeur , ce qui rend intéressant l' utilisation de ce système en localisation indoor [ 57 , 51 ] . Il suffit de déployer un réseau de stations de référence autour du bâtiment et ensuite on se localise à l' intérieur grâce aux ondes longues . Le problème se met donc sous la forme suivante : ( 43 ) La connaissance de la distance séparant le récepteur d' une antenne de référence est alors possible . La mise en place de ce système n' est pas toujours simple , car il faut mesurer précisément la phase d' un signal . Cette opération peut être relativement délicate à mettre en oeuvre au niveau d' un récepteur matériel . Une autre manière pour déterminer la distance émetteur / récepteur au moyen de la phase d' une onde électromagnétique consiste à mesurer le déphasage entre les composantes électriques et magnétiques de l' onde . Ce déphasage est lié à la distance émetteur / récepteur à condition que le récepteur se trouve dans la zone de champ proche de l' émetteur [ 62 ] . Cette technique de localisation est exploitée par la société QTrack [ 56 ] . En reprenant les équations de Maxwell et en les dérivant , SK Schelkunoff montre que les phases des champs E et H pour le dipole de Hertz sont données par [ 47 , 59 ] : ( 44 ) ( 45 ) où est la pulsation de l' onde en rad / s et r est la distance séparant l' émetteur du récepteur . Ces résultats sont valides lorsque l' antenne du récepteur est dans la zone de champ proche de l' antenne d' émission [ 47 ] . Le banc de mesure décrit par la figure 22 permet de mesurer ce déphasage en champ proche . Figure 22 : Banc de mesure du déphasage entre les champs E et H Une limitation à cette technique en indoor est la dégradation du champ magnétique par les objets métalliques . 4.6 La localisation par onde radio ( WiFi , Bluetooth , RFID , ULB ) À l' inverse du GPS , les réseaux de communication à courte portée permettent de se localiser à l' intérieur des bâtiments . Ces réseaux sont déployés dans les bâtiments . Des précisions de l' ordre du mètre sont atteignables grâce aux réseaux locaux . On distingue plusieurs catégories d' interfaces de localisation . On trouve des réseaux d' étiquettes actives ou passives , dites RFIDRFIDRadio Frequency Identification qui permettent de détecter si un objet se trouve dans un certain périmètre autour du lecteur d' étiquettes . Le projet SpotOn est basé sur ces étiquettes RFID . Il a été réalisé à l' Université de Washington [ 83 , 73 ] . Ce type de localisation donne bien souvent une bonne précision , car elle est de l' ordre de quelques centimètres , voire dizaines de centimètres . Cependant la portée de ces étiquettes et de ces lecteurs d' étiquettes n' est pas très importante ( de l' ordre de quelques mètres ) . Le procédé repose sur une détection de la présence ou non de l' élément étiquette dans le giron de la borne . Une connaissance de la position occupée par la borne permet de remonter à la position de l' étiquette . Cette information binaire ( présence / non présence ) , n' est pas toujours facilement exploitable notamment lorsque les zones de couvertures des différents lecteurs sont disjointes . Pour obtenir une couverture quasi continue du service de localisation , il faut équiper l' environnement d' une grande quantité de capteurs . Malgré le faible coût de ces capteurs ( RFID passif ou RFID actif ) cela devient rapidement contraignant et coûteux et se transforme en un frein au déploiement de cette technologie . Dans certains environnements comme dans des entrepôts , de nombreuses pièces entreposées peuvent disposer de leur propre étiquette , et une localisation permanente de ces pièces n' est pas nécessaire . Une simple détection de la sortie de l' équipement est nécessaire . Cette technologie est adaptée à ce type d' application où il faut connaître l' état de transition d' une zone à une autre par l' information binaire de présence ou non . La faible portée du système et la contrainte de passer l' étiquette sur un lecteur font qu' un autre système radio à plus grande portée doit être utilisé afin de rendre une certaine liberté à l' utilisateur et que le service de localisation soit disponible sur l' ensemble du bâtiment avec un minimum d' infrastructure . Les réseaux locaux sans fil de type 802.11 sont une bonne alternative . Le réseau est composé d' un ensemble de points d' accès ( Access Point ou AP ) servant de relais de communication entre les objets mobiles et le réseau . Aujourd'hui ces réseaux 802.11a / b / g sont présents dans de plus en plus de lieux publics , ainsi que chez les particuliers . Le premier but de ces réseaux est d' effectuer des communications d' informations . L' idée est de détourner l' usage de ces réseaux à des fins de localisation . Un certain nombre de signaux de contrôles sont émis pour gérer le roaming lors du déplacement de l' équipement mobile . Ces signaux lui permettent de rester connecté avec le point d' accès avec lequel le rapport signal à bruit ( RSBRSBRapport Signal à Bruit ) est le meilleur . RADAR de Microsoft [ 1 ] est basé sur ce principe . Une technique de localisation associée à ces réseaux est le fingerprinting par puissance de signal reçu . Les algorithmes de recherche du plus proche voisin ( pattern matching ) [ 15 ] et de recherche probabiliste sont présentés dans la section . La portée des points d' accès peut aller jusqu'à pour des environnements outdoor , mais en indoor , cette portée est généralement comprise entre à mètres , ce qui est suffisant pour couvrir bon nombre de bâtiments . D' un autre côté leur prix étant aujourd'hui relativement bas , ce type de technologie devient accessible et la couverture radio intégrale d' un grand bâtiment et d' une ville est peu coûteuse . La technologie bluetooth est aussi disponible dans certains environnement indoor . Cette technologie est similaire à la précédente du fait qu' elle se base sur un réseau composé de bornes servant de points d' accès entre un réseau sans fil et un réseau filaire . À l' intérieur des bâtiments , la portée de ces bornes est plus restreinte que celle des points d' accès 802.11 , car elle n' est généralement que d' une dizaine de mètres . AeroScout [ 43 ] ( Cisco ) a exploré cette technologie avant de passer à un système actuel employant des RFID et la technique de localisation TDOA avec un réseau WiFi ( ) . L' exploitation de ce système n' est pas simple , car cela nécessite l' achat de points d' accès propriétaires . Les informations temporelles utiles pour le TDOA sont indisponibles dans les produits commerciaux actuels . Les performances annoncées pour ce système sont de l' ordre du mètre , tout comme pour le système de localisation par mesure de puissance . Hitachi étudie aussi un système de localisation similaire [ 23 ] . Un moyen d' obtenir ces informations temporelles est d' effectuer des mesures de temps entre l' instant de départ du dernier bit du paquet RTSRTSRequest To Send et l' instant d' arrivée du premier bit du packet CTSCTSClear To Send . En tenant compte des latences de chacun des équipements , on remonte au temps mis par un paquet RTS ou CTS pour effectuer la liaison émetteur / récepteur . Cette méthode est appelée la méthode d' aller / retour ou Round Time Trip ( RTT ) . Des travaux sont menés sur ce sujet , notamment à l' Université de Catalogne en Espagne ( UPC ) [ ? ] et à l' université de Berlin [ 19 , 20 ] . L' UWB est une technologie émergente dont les performances en terme de localisation semblent prometteuses . Les techniques de localisation associées sont généralement basées sur les techniques temporelles qui ont été présentées au cours de ce chapitre , à savoir TOA ( time Of Arrival ) [ ? ] et TDOA ( Difference Of Arrival ) [ ? ] . L' émission d' impulsions très brèves doit être favorable à la recherche de ce premier trajet correspondant au trajet direct entre un émetteur et un récepteur . S' il est possible de déterminer précisément l' instant d' arrivée de ce premier trajet , l' application d' un algorithme de trilatération semblable à celui utilisé pour le GPS permettra d' estimer la position du mobile . Des précisions de l' ordre de quelques centimètres sont attendues de cette nouvelle technologie [ ? ] du fait du grand pouvoir de séparation des trajets les uns par rapport aux autres . Les technologies présentées dans cette dernière section permettent d' atteindre des précisions pouvant aller de quelques centimètres à quelque mètres , ce qui les rend très attractives dans ce type d' environnement . Bien souvent , les technologies présentées pour l' outdoor , à savoir celles basées sur le GPS ou alors sur l' exploitation des réseaux terrestres , ne permettent pas d' avoir des précisions de cet ordre à l' intérieur des bâtiments . Pour certaines , il arrive qu' elles soient indisponibles car le niveau de signal en réception est trop faible suite aux atténuations successives . D' un autre côté , le service est parfois disponible , mais alors l' incertitude sur la position est autour d' une ou plusieurs dizaines de mètres , ce qui n' est pas pertinent pour une localisation dans des bâtiments . L' inconvénient de ces techniques de localisation indoor , est souvent leur faible couverture . Certaines des technologies ne possèdent qu' une couverture de l' ordre de quelques mètres autour de la borne émettrice , alors que d' autres peuvent couvrir jusqu'à un bâtiment . Les futurs terminaux mobiles devront posséder plusieurs moyens de se localiser s' ils veulent d' une part se localiser dans tous les types d' environnements , et d' autre part obtenir la précision la plus grande possible suivant les environnements dans lesquels ils évoluent . 5 Objectifs de la thèse Toutes les techniques de localisation ne sont pas adaptées à tous les milieux ( par exemple la technique Angle Of Arrival est inadaptée aux environnements dans lesquels de nombreux multi-trajets sont présents ) et une étude prenant en compte tous ces éléments est nécessaire afin de dimensionner correctement le système de localisation à mettre en place . Le problème de couverture des réseaux est aussi un frein quant à la bonne localisation des personnes et équipements en toutes circonstances . Une combinaison de plusieurs solutions technologiques permettra de garantir une couverture du service de localisation plus importante que celle obtenue par chacune des technologies individuellement , avec une meilleure qualité sur l' estimation de la position du mobile . Les capteurs de localisation se relayent lorsqu' une des technologies ne fonctionne plus correctement , ou alors une combinaison efficace des différentes informations de localisation [ ? , ? ] conduit à une localisation disponible à tout moment , et en tout lieu . L' idée est de diminuer les imperfections d' un capteur en substituant la localisation retournée par ce capteur par celle provenant d' un autre capteur dont les performances sont meilleures à ce moment précis . L' idée de fusion de données provenant de divers capteurs de localisation n' est pas nouvelle . En effet , de nombreux constructeurs automobiles intègrent à leurs véhicules , des services de localisation [ 49 , 67 , 63 , 45 , 64 ] . Les systèmes sont basés sur l' exploitation du système GPS et de la navigation à l' estime à l' aide de gyroscopes qui mesurent les angles autour desquels tournent les roues de la voiture et de compte-tours pour estimer la distance parcourue par la voiture . Une centrale de navigation retraite toutes les données . Lorsque le système de navigation par GPS est défaillant , l' estimation de la position du véhicule se poursuit à l' aide de la navigation inertielle embarquée dans le véhicule . Néanmoins , cette localisation se dégrade au cours du temps . Lors du retour de la navigation par GPS , la localisation à l' estime est abandonnée au profit de la localisation par GPS , mais lors d' une nouvelle perte du service de localisation par GPS , le relais est de nouveau pris par la navigation inertielle . Dans ce cas , la dérive accumulée précédemment est supprimée , car les capteurs sont ré-initialisés . D' autres systèmes de navigation sont basés sur ce principe . Les aéronefs utilisent depuis longtemps des capteurs de navigation à l' estime , pour des raisons historiques car cette technologie est disponible depuis longtemps , mais aussi à cause des fortes dégradations des signaux GPS qui conduisent à une mauvaise estimation de la position de l' avion par rapport au sol ( et donc aux aéroports ) [ 58 ] . De telles associations technologiques sont réalisables entre un système de localisation par WiFi ( couverture en indoor ) , et le système GPS , pour de la localisation outdoor . L' émergence des hot-spots WiFi permet aux systèmes WiFi de prendre le relais du GPS si ce dernier est indisponible , ou alors d' améliorer la localisation si le récepteur se trouve dans un environnement où les signaux sont très dégradés ( localisation par GPS de mauvaise qualité ) . Le complément de la localisation par WiFi doit améliorer les performances du système global . L' émergence de la téléphonie sur IP , et le durcissement des régulations comme le 911 incitera de nombreux opérateurs à oe uvrer en ce sens . Le 4 Avril 2005 , le Conseil de la radiodiffusion et des télécommunications canadiennes ( CRTCCRTCCanadian Radio-television and Telecommunications Commission ) a décidé d' étendre les mesures prises dans le cadre du 911 , à la téléphonie sur IP [ 66 , 93 ] . Suite à cette décision , les opérateurs de télécommunications VoIP devront localiser les équipements téléphoniques passant des appels par ce biais . D' autres projets comme Place Lab [ 50 , 61 , 8 ] tentent d' améliorer les performances des différentes techniques de localisation existantes en les combinant le plus efficacement possible . Placelab est mis en place par Intel Research Seattle et Cambridge ainsi que les Universités de Washington et de San Diego . Ce système fournit à un équipement mobile équipé des interfaces GPS et WiFi , de se localiser en outdoor avec le système GPS si ce dernier est disponible , et le cas échéant grâce aux réseaux WiFi couvrant la zone . Il est nécessaire que le système de localisation WiFi dispose de la couverture radio WiFi de l' environnement afin de se localise grâce aux techniques de localisation abordées à la section 4.6 . La base de données de fingerprinting WiFi est maintenue à jour à l' aide des différentes collectivités ( villes , associations ) qui ont installé les points d' accès . Des équipements possédant une interface GPS et une interface WiFi peuvent réactualiser cette base , même si les positions délivrées par le GPS sont dégradées . Cette dernière opération est particulièrement intéressante pour proposer une localisation aux terminaux ne possédant qu' une simple interface WiFi . D' autres interfaces comme celles du GSM ou Bluetooth peuvent aussi être utilisées par le système . Actuellement , le système PlaceLab recense plus de 40000 balises GSM , Bluetooth et 802.11 à travers les États-Unis . Cette application montre l' intérêt de prendre en compte plusieurs technologies de localisation indépendantes . Ici on observe une large augmentation de la zone de couverture de localisation par ce système , plus qu' une nette augmentation de la précision de la localisation . Si les bases de données sont correctement tenues , il s' en suit une " bonne " localisation du terminal mobile . À l' avenir , d' autres applications trouveront une combinaison de ces divers moyens de localisation pour former un compromis entre couverture du système , disponibilité du service et précision de la localisation . La suppression des faiblesses des différents systèmes passe par la mise en place d' architectures agrégeant le plus efficacement possible les informations de localisation à disposition . Ce chapitre présente les différentes techniques de localisation existantes , avec d' une part les bénéfices à utiliser chacune d' entre elles , mais aussi les inconvénients qui leurs sont liés et les performances que l' on peut en attendre . Aujourd'hui , le GPS s' est imposés sur les marchés de localisation dans les environnements outdoor . Des précisions à quelques mètres près sont atteintes dans ces environnements et il semble assez difficile de mettre en place un système aussi performant qui puisse allier en même temps une couverture aussi large avec une telle précision . Les systèmes satellitaires s' imposent comme étant le système de localisation pour l' outdoor . Cependant , des contraintes plus fortes en terme de précision de localisation existent dans le domaine de la mesure des déformations de certaines architectures comme des barrages par exemple , dans ce cas , la mise en place de systèmes de localisation particuliers sont nécessaires . Pour cette application , des systèmes à base de GPS ( DGPS ) ont été réalisés . Étant donné les performances du systèmes GPS , les autres techniques comme celles basées sur le réseau GSM ou UMTS semblent moins intéressantes du fait des précisions et de la faible disponibilité par rapport au GPS pour les environnements outdoor . Les environnements dans lesquels le système GPS ne s' impose pas naturellement sont les environnements de type indoor ( à l' intérieur des bâtiment ) . Comme il a été vu dans ce chapitre , même si des techniques d' améliorations de ce système GPS existent et améliorent la qualité des signaux en réception , les performances ne sont pas suffisamment bonnes par rapport aux exigences des applications qui requièrent souvent une précision à la pièce près . Certains systèmes existent et proposent une couverture indoor en terme de service de localisation , mais bien souvent la mise en oeuvre d' un tel système est complexe . L' installation d' un système de ce type s' avère relativement coûteuse du fait qu' il est nécessaire d' installer de nombreux capteurs . Parfois la couverture de ces capteurs est si restreinte qu' il n' est pas possible d' obtenir une couverture complète sans zone de non disponibilité du service . L' installation récente des WLAN dans les bâtiments est une bonne opportunité pour effectuer de la localisation en indoor , car des informations utilisables en localisation sont disponibles dans les produits commerciaux . D' un autre côté , l' intégration d' informations complémentaires ( bien souvent disponibles ) améliore les performances . Ce travail porte sur la localisation indoor , et plus particulièrement sur l' exploitation des informations complémentaires disponibles en les introduisant dans un système de localisation améliorant les performances en terme de précision . Des informations comme le plan d' un bâtiment sont introduites dans ce système . Cette fusion d' informations nécessite l' exploitation d' outils comme un filtre de Kalman ou un filtre particulaire qui d' une part jouent sur le lissage de la trajectoire estimée , mais aussi contiennent la trajectoire lissée entre les murs du bâtiment . L' exploitation de cette information de plan du bâtiment est particulièrement intéressante , car bien souvent elle est disponible auprès des services logistiques . Le plan du bâtiment garantit aux applications requérant de la localisation , que les informations retournées par le système de localisation sont cohérentes avec la topologie du bâtiment . Une étude sur l' adéquation des différentes architectures de localisation est à prendre en compte , car des systèmes , comme le filtre particulaire , sont coûteux en calculs . Il est nécessaire dans ces conditions de chercher à réduire les ressources en calcul nécessaires pour le traitement des informations provenant des capteurs . Des approches adaptées aux plate-formes embarquées sont proposées pour garantir une localisation au niveau du terminal mobile . La seconde contribution de ces travaux de thèse porte sur l' étude d' une nouvelle technologie de localisation basée sur des mesures temporelles obtenues à partir de réponses impulsionnelles du canal . La première contribution basée sur la localisation par WiFi ne permet pas d' accéder à d' autre information que la puissance du signal reçu . Dans le cadre du groupe de normalisation IEEE802 . 15.4a , une partie du standard s' intéresse plus particulièrement à la localisation des équipements . Plusieurs technologies sont à l' étude pour les aspects de communication , et de nombreux papiers existent sur les capacités des signaux Ultra Large Bande en localisation , mais peu d' expérimentations ont été menées sur ce sujet . Des résultats sur la mesure de distance séparant un émetteur d' un récepteur sont disponibles , mais le passage à la détermination précise de la position de l' équipement dans son environnement est tout autre , car de nombreuses dégradations apparaissent suite au passage de l' onde à travers les différents éléments de la chaîne de communication . Ce travail présente les résultats de localisation obtenus à partir de mesures réelles puis la mise en place d' un démonstrateur de localisation basé sur cette technologie . Enfin , les aspects de fusion des informations de localisation sont abordés . Peu d' éléments existent sur la fusion d' informations pour la navigation piétonne . Ce travail de thèse propose une approche à la fusion des technologies de navigation piétonne , avec une comparaison des performances par rapport à chacune des technologies prises individuellement . Cette approche permettra d' identifier de nouvelles pistes quant à l' évolution que devra prendre la navigation piétonne , car ces capteurs seront bientôt disponibles pour les personnes à travers leur téléphone mobile ou leur assistant personnel . 2 La localisation indoor par ondes radio WiFi Il est bien plus aisé et plus plaisant de suivre que de guider , et [ ... ] c' est un grand repos d' esprit de n' avoir à tenir qu' une voie tracée et à répondre que de soi . Michel DE MONTAIGNE 1 Le standard WiFi La norme IEEE 802.11 ( ISO / IEC 8802 - 11 ) est un standard international [ 44 ] décrivant les caractéristiques des réseaux locaux sans fil ( WLAN ) . Le nom WiFi ( contraction de Wireless Fidelity , parfois noté à tort WiFi ) correspond initialement au nom donné à la certification délivrée par la Wi-FiWi-FiWireless-Fidelity Alliance , anciennement WECAWECAWireless Ethernet Compatibility Alliance ( Wireless Ethernet Compatibility Alliance ) , l' organisme chargé de maintenir l' interopérabilité entre les matériels répondant à la norme 802.11 . Par abus de langage ( et pour des raisons de marketing ) , le nom de la norme se confond aujourd'hui avec le nom de la certification . Ainsi un réseau WiFi est en réalité un réseau répondant à la norme 802.11 . Grâce au WiFi , il est possible de créer des réseaux locaux sans fils à haut débit pour peu que la station à connecter ne soit pas trop distante par rapport au point d' accès . La norme 802.11 s' attache à définir les couches basses du modèle OSIOSIOpen Systems Interconnection pour une liaison sans fil utilisant des ondes électromagnétiques , c' est-à-dire : & 226;& 128;& 162; la couche physique ( notée parfois couche PHYPHYCouche Physique ) , proposant trois types de codage de l' information . & 226;& 128;& 162; la couche liaison de données , constituée de deux sous-couches : le contrôle de la liaison logique ( Logical Link Control , ou LLCLLCLogical Link Control ) et le contrôle d' accès au support ( Media Access Control , ou MACMACMedium Access Control ) La couche physique définit la modulation des ondes radio-électriques et les caractéristiques de la signalisation pour la transmission de données , tandis que la couche liaison de données définit l' interface entre le bus de la machine et la couche physique , notamment une méthode d' accès proche de celle utilisée dans le standard ethernet et les règles de communication entre les différentes stations . Aujourd'hui , le standard 802.11 se décline en plusieurs sous standards dont les produits sont commercialisés . Chacun de ces sous-standard précise la norme 802.11 et est caractérisé par une modulation propre ainsi que des débits et une QoS ( Quality of Service ) . Initialement , cette norme offrait des débits de 1 ou 2 Mbps . Grâce aux diverses avancées technologiques , des débits supérieurs sont envisageables . Des révisions sont apportées à la norme originale afin d' optimiser le débit ( c' est le cas des normes 802.11a , 802.11b , 802.11g et 802.11n , appelées normes 802.11 physiques ) ou de préciser des éléments pour assurer une meilleure sécurité ou une meilleure interopérabilité . Le tableau 14 propose une synthèse de certaines des révisions existantes : . 11h ) et être en conformité avec la réglementation européenne en matière de fréquence et d' économie d' énergie . Table 14 : Différentes révisions de la normes IEEE 802.11 Les principaux produits commerciaux sont issus des révisions 802.11a , 802.11b et 802.11g . La norme 802.11a propose un débit théorique de 54 Mbps , soit cinq fois plus que le 802.11b , pour une portée d' environ une trentaine de mètres seulement . La norme 802.11a s' appuie sur un codage du type Orthogonal Frequency Division Multiplexing ( OFDMOFDMOrthogonal Frequency Division Multiplexing ) sur la bande de fréquence 5 GHz et utilise 8 canaux qui ne se recouvrent pas . La norme 802.11b fournit un débit théorique de 11 Mbps , pour une portée d' environ une cinquantaine de mètres en intérieur et jusqu'à 200 mètres en extérieur ( et même au-delà avec des antennes directionnelles ) . La norme 802.11g permet d' obtenir un débit théorique de 54 Mbps pour des portées équivalentes à celles de la norme 802.11b . D' autre part , dans la mesure où la norme 802.11g utilise la bande de fréquence 2 , 4 GHz avec un codage OFDM , cette norme est compatible avec les matériels 802.11b , à l' exception de certains anciens matériels . Les caractéristiques de ces trois principales révisions sont résumées dans le tableau 15 . Table 15 : Caractéristiques des réseaux 802.11a / b / g ( Données constructeur pour la carte PCMCIAPCMCIAPersonal Computer Memory Card International Association cardbus Cisco Aironet 802 . 11A / B / G Wireless Cardbus Adapter ) 41 cmNom La bande à 2.4 GHz est divisée en 14 canaux se chevauchant les uns les autres . Chacun de ces canaux a une bande passante de 22 MHz . La condition d' orthogonalité entre les canaux n' est pas respectée . Seulement 3 canaux sont totalement orthogonaux . En 802.11a , 12 canaux sont prévus . Ces canaux sont orthogonaux du fait de l' utilisation de la modulation OFDM . 8 sont dédiés pour des communications en indoor et les 4 autres pour des liaisons point à point . Le principal avantage de travailler dans la bande des 5 GHz , est qu' il y a beaucoup moins de brouilleurs dans cette bande comparé à ceux présents dans la bande à 2.4 GHz . Travailler dans cette bande possède aussi des désavantages . En effet , les atténuations sur les signaux sont plus importantes . La portée de ces systèmes est moins importante que celle des systèmes fonctionnant dans la bande 2.4 GHz . À puissance d' émission égale , la portée des systèmes 802.11a sera moins importante que celle des systèmes 802.11b . Les signaux OFDM en 802.11a sont composés de 52 porteuses dont 48 sont utilisées pour transmettre des informations , et les 4 dernières sont des porteuses pilotes . Chacune de ces porteuses est séparée de 0.3125 MHz ( 20 MHz / 64 ) . La bande totale du multiplex OFDM est de 20 MHz , mais la bande utile reste de 16.6 MHz . La durée de chacun des symboles est de avec un intervalle de garde de . Aujourd'hui , une nouvelle révision de ce standard 802.11 est à l' étude sous le nom de 802.11n . Elle a pour objectif de fournir des débits de l' ordre de 100 Mbits / s aux utilisateurs et d' accroître la portée des points d' accès . Cette nouvelle technologie est basée sur l' exploitation d' antennes MIMO ( Input Multiple Output ) . Le débit augmente grâce à l' exploitation du multiplexage spatiale , l' extension de la zone de couverture se fait grâce à la diversité spatiale et en exploitant du codage d' Alamouti . La version finale de cette révision sera adoptée mi 2007 . Cette nouvelle déclinaison du standard 802.11 intègre des fonctionnalités MIMOMIMOMultiple Input Multiple Output . Comme ce système emploie un réseau d' antennes , des fonctionnalités de localisation par direction d' arrivée sont envisageables . De nombreux produits 802.11 a / b / g sont installés dans les bâtiments administratifs et halls d' expositions . Des informations sur la communication sont accessibles et disponibles au niveau des interfaces physiques des cartes de communication . Les informations proviennent de trames de management émises par les points d' accès . Parmi ces trames , on trouve des trames d' authentification , d' association , etc [ 48 ] . La trame qui nous intéresse dans le cadre de la localisation par WiFi est la trame de balisage . Le point d' accès émet périodiquement ces trames afin de signaler sa présence et pour relayer des informations telles qu' une référence temporelle , le SSIDSSIDService Set Identifier et d' autres informations caractérisant ce point d' accès . Ces trames sont captées par les clients se trouvant dans la couverture radio de ce point d' accès . Le client , de son côté , scrute en permanence tous les canaux disponibles afin de capter ces balises qui lui permettent de déterminer le point d' accès avec lequel il est plus avantageux de s' associer . Lorsque le réseau est en mode infrastructure , ces balises sont émises périodiquement ( fréquence d' émission paramétrable au niveau du point d' accès ) . Par défaut , cet intervalle est à , car cette valeur est optimale pour assurer de bonnes performances dans bon nombre d' applications . L' autre mode de communication pour les équipements 802.11 est le mode ad-hoc . Dans ce mode , une des deux entités doit endosser la tâche d' expédier ces balises . Dès la réception d' une balise , les deux éléments se mettent en mode économie d' énergie et après un temps aléatoire , si aucune autre balise n' est captée , une des entités émet alors une balise . Ceci permet d' être certain qu' au moins une des stations émet une balise , et le délai fait circuler le jeton d' émission des balises . Chacune des stations est à l' initiative de l' émission d' une balise . La réduction du nombre de balises diminue l' overhead mais augmente le temps nécessaire pour réaliser des associations entre les différents éléments du réseau . Ceci retarde les instants de roaming à cause du manque de nombre de balises disponibles . Au contraire , l' accroissement du nombre de balises émises améliore la qualité du roaming , c' est à dire qu' il s' effectue bien plus rapidement . Cependant , cela conduit à une augmentation de la quantité d' overhead émise , ce qui réduit le débit . Les stations en mode économie d' énergie devront se réveiller plus régulièrement ce qui augmentera leur consommation et diminuera leur autonomie . Cette quantité d' overhead générée par ces balises est significative , mais nécessaire au bon fonctionnement du réseau . Par défaut un client scanne l' environnement radio , et scrute chacun des canaux pour détecter les balises présentes . Le client classe les informations reçues avant de choisir le point d' accès avec lequel il est préférable de s' associer . Après cette association , le client continue ces opérations de scan de l' environnement . D' un autre côté , ces balises permettent aussi de synchroniser l' horloge du client avec celle du point d' accès , et donc indirectement avec les horloges des autres clients associés à ce point d' accès . Ces trames gèrent aussi le mode économie d' énergie des différents acteurs du réseau , puisque les informations contenues dans ces trames indiquent au client qu' il ne lui est pas nécessaire de rescanner l' environnement pour détecter le point d' accès puisqu' il n' aura pas émis de nouvelle balise entre temps . L' utilisation de ces trames de balisage est un bon moyen pour effectuer de la localisation puisqu' elles sont émises périodiquement et naturellement par le réseau . Il n' est pas nécessaire de modifier la nature intrinsèque du réseau pour établir les opérations nécessaires à la localisation . Par la suite la technique de localisation présentée est basée sur l' exploitation des informations disponibles dans ces balises . 2 Mesures d' informations et recherche dans une base de données ( Fingerprinting ) Les techniques de localisation permettant d' exploiter les trames présentées à la section 1 sont multiples . Les deux types d' informations extractibles de ces trames sont des informations temporelles ou des informations de puissance relatives aux signaux reçus . L' extraction de toutes ces informations des trames n' est pas aisée . Lorsque des techniques temporelles sont exploitées , des éléments de synchronisation sont nécessaires pour avoir la même base temporelle entre les différents éléments du système de localisation . Cette synchronisation permet d' effectuer de la localisation , à l' image des techniques présentées dans le premier chapitre . Quelque soit la technique de localisation utilisée il faut recueillir des informations provenant de plusieurs stations de base et les combiner pour extraire la position occupée par le mobile . Ces trames de balises ne contiennent pas d' informations temporelles exploitables , même si des éléments de synchronisation existent entre le point d' accès et le client . Les produits commerciaux standards ne permettent pas d' utiliser les techniques de localisation par trilatération ou TDOA sans subir de modifications de leur structure , ou sans que de nouvelles trames soient insérées dans le processus de communication avec les stations de base . Hitachi a effectué des modifications sur ces équipements afin de disposer d' une localisation à base d' informations temporelles [ 23 , ? ] . L' université de Berlin [ 20 ] étudie cet aspect de la localisation à partir de mesures temporelles , mais sans modification des équipements WiFi . Cependant , l' estimation précise du temps de vol entre l' équipement WiFi et le réseau est complexe car les environnements indoor sont riches en multi-trajets . L' estimation du temps d' arrivée du trajet direct est bien souvent imprécise . Cette imprécision dégrade fortement la qualité de la position estimée . Un des objectifs de ce travail de thèse est de se baser sur l' infrastructure existante car les produits commerciaux sont déjà bien présents sur le marché , et le déploiement à grande échelle d' une nouvelle version du standard 802.11 ne serait pas simple . Nous nous intéresserons aux techniques employées pour ne pas avoir à modifier les équipements déjà commercialisés , tout en leur fournissant des capacités de localisation en milieu indoor . 2.1 Choix de l' information ( RSS , signature du canal ) Le premier chapitre a présenté de nombreuses techniques de localisation dont certaines sont basées sur des mesures temporelles . Des techniques comme le fingerprinting ne nécessitent pas nécessairement d' informations temporelles pour fonctionner . Dans le cadre des réseaux sans fil de type 802.11 , l' information disponible est une information du puissance du signal . Cette information est obtenue à partir des balises émises par les points d' accès . Aucune modification des équipements ne doit être effectuée , car cette information est présente par défaut . Elle permet au client de rester connecté avec le point d' accès ayant le meilleur SNR . Cette information est très importante dans le processus de gestion du roaming . Exploiter cette information de puissance n' est pas simple . La puissance du signal reçu n' est pas reliée directement à l' information de distance par une relation aussi simple que celle qu' on trouve dans les problèmes de trilatération classiques où la distance est liée au temps par la relation . Il existe deux manières de traiter ce problème . La première technique est le fingerprinting , ou pattern matching , ou bien de reconnaissance de signature . Pour cette première technique , il est nécessaire d' exploiter une base de données , constituée de mesures . La seconde technique est basée sur l' exploitation d' un modèle de propagation qui est une formulation mathématique de la valeur de signal que devrait capter un terminal mobile . Plusieurs degrés de complexité existent pour les modèles de propagation en fonction de la précision à atteindre . La combinaison de ces deux techniques est possible dans certaines situations , comme dans des environnements multi-étages notamment . 2.2 La technique de fingerprinting La technique de fingerprinting ou de pattern matching a déjà été explorée dans le cadre de la localisation par réseau GSM . Depuis quelques années , il est possible d' utiliser des outils de prédiction de couverture radio permettant d' optimiser les réseaux lors de leur mise en place . Ces outils prédisent le niveau de champ radioélectrique en tenant compte du mieux possible des différents phénomènes de propagation auxquels sont soumises les ondes radio . Ces outils déterminent le niveau de champ en chaque position de la zone de couverture . L' opération de localisation consiste à rechercher dans la base de données , constituée à l' aide des outils de prédiction de couverture radio , le n-uplet de puissance le plus proche du n-uplet des puissances mesurées par le terminal mobile . Une fois ce n-uplet de la base de donnée identifié , la position du mobile correspond à celle de la mesure référencée dans la base de données . L' application de cette idée à notre problème de localisation est tout à fait possible . Il est nécessaire de choisir un certain nombre de positions de références dans l' environnement , et de caractériser ces positions grâce aux différents signaux radioélectriques reçus . Les différents éléments qui peuvent être pris en compte dans ce problème sont les réponses impulsionnelles du canal ou bien la direction d' arrivée du n-ième trajet , ou la puissance du signal reçu . Tous ces éléments sont des informations caractéristiques d' une position de l' espace , car cet ensemble est normalement unique pour chaque position de référence . Le choix de l' ensemble de paramètres caractérisant une signature ( footprint ) est important car il faut que la détermination ultérieure d' une position soit possible avec un algorithme judicieusement choisi et que cet algorithme ne mène pas à une incertitude entre plusieurs signatures . Une règle pour bien choisir les éléments composant une signature est que l' ensemble des paramètres caractérisant une position doit être unique . Il est possible de composer une signature à partir d' éléments de nature hétérogène . Tous les paramètres cités précédemment ne sont pas pertinents dans le cadre de notre problème . Il est nécessaire de garder à l' esprit que l' environnement dans lequel s' effectue la localisation du client est un environnement indoor , avec toutes les contraintes que cela entraîne . Les environnements indoor sont réputés pour être riches en multi-trajets du fait de la présence de nombreux obstacles ( structure du bâtiment ) . L' ensemble des réponses impulsionnelles du canal 23 pour chacun des points d' accès est un bon élément caractérisant une position . Sur cette représentation , on note les différentes atténuations et retards des trajets multiples . Cependant la comparaison des réponses impulsionnelles n' est pas une tâche aisée . Ces réponses impulsionnelles traduisent l' état du canal radio à un instant donné . Or ce canal radio fluctue au cours du temps du fait de l' activité humaine , l' ouverture ou la fermeture d' une porte peut faire apparaître ou disparaître des trajets , ou bien encore modifier l' amplitude d' un multi-trajet . Les réponses impulsionnelles sont des éléments très sensibles aux changements , et sont donc soumises à un certain bruit qu' il sera nécessaire de prendre en compte dans des algorithmes de reconnaissance . Figure 23 : Réponse impulsionnelle d' un canal radio indoor Comme il a été vu précédemment , les informations relatives à ces différentes réponses impulsionnelles ne sont pas disponibles au niveau des API des produits commerciaux . Il est donc difficile de baser un système de localisation par WiFi sur cette information de réponse impulsionnelle . Le paramètre utilisable est la puissance du signal reçu provenant de chacun des points d' accès . Cette information de puissance du signal reçu est disponible au niveau des API des drivers WiFi des cartes commerciales ( à l' origine pour faciliter le roaming ) . L' exploitation par combinaison de cette puissance du signal pour différents points d' accès captés en une certaine position semble un paramètre réaliste pour de la localisation par fingerprinting . Si on note que la puissance du signal capté pour le point d' accès pour la position est notée , la combinaison de ces informations de puissance de signal reçu en provenance des différents points d' accès disponibles dans l' environnement s' écrit : ( 46 ) On considère que points d' accès sont disponibles à la position . En reprenant ces notations , la base de données ainsi constituée pour différentes positions à travers le bâtiment s' écrit sous la forme : ( 47 ) BDDBase de données Pour limiter l' effet du bruit , la valeur conservée dans la base de données est une valeur moyenne issue d' un nombre de mesures effectuées en chacune des positions de référence . Les fluctuations sur chacune des puissances instantanées s' expliquent par le fait que l' environnement change au cours du temps à cause de l' activité humaine et du bruit blanc notamment . Ces fluctuations se traduisent par des variations de la réponse impulsionnelle du canal qui est l' élément à partir duquel duquel est déterminé la puissance . La puissance est calculée à partir de la réponse impulsionnelle du canal ( variant dans le temps ) de la manière suivante [ ? ] : ( 48 ) où est la fonction de transfert ( ou réponse impulsionnelle ) du canal pour le signal émis par le i point d' accès et reçu en la position et T la période sur laquelle cette puissance est mesurée . Les raisons évoquées précédemment sur les variations de la réponse impulsionnelle se traduisent par des fluctuations sur le niveau de signal reçu . Une autre approche pour diminuer l' effet de cette variation instantanée est d' effectuer un moyennage temporel et spatial . Pour garder un format simple pour la base de données , seul la valeur moyenne des puissances mesurées en une position de référence est stockée dans la base de données . Cette technique est plus réaliste que la précédente puisqu' elle permet de tenir compte des fluctuations instantanées du canal radio . Ne conserver que la valeur moyenne n' est pas optimal . Il est possible d' obtenir à partir des mesures la distribution des puissances de signal reçu . Cette information est plus riche et conduit à une meilleure localisation . La modélisation de la distribution n' est pas évidente au premier abord . L' acquisition d' un grand nombre de mesures permet de caractériser chaque position du bâtiment par la distribution de puissance de signal reçu pour chaque point d' accès présent dans l' environnement . Par la suite , on utilise la puissance du signal . La localisation est obtenue à l' aide de l' une des deux approches suivantes , à savoir en utilisant l' algorithme du plus proche voisin ( ou des k plus proches voisins ) , ou bien en utilisant une approche statistique du problème basée sur l' utilisation de la fonction de distribution des puissances reçues . 2.3 La méthode probabiliste Des modèles probabilistes permettent de déterminer la position du mobile . Ces techniques exploitent des informations plus riches que de simples valeurs comme la valeur moyenne d' un phénomène . Ici , les densités de probabilités représentant les différents processus aléatoires sont utilisées . Par la suite , l' inférence bayésienne est utilisée pour déterminer cette position en fonction de la base de données qui est disponible . Cette technique de localisation est présentée au premier chapitre à la section 13 . On montre que pour déterminer la position du mobile il est nécessaire de prendre comme hypothèse que la densité de probabilité est connue . [ 36 ] propose deux modélisation pour cette densité de probabilité . Une des méthodes consiste à prendre une densité de probabilité " théorique " comme une gaussienne par exemple ( modèle par kernel ) dont les propriétés sont extraites d' une série de mesures ou d' un modèle de propagation , ou alors d' extraire cette densité de probabilité de la série de mesures elle même ( modèle par histogramme [ 42 ] ) . Par la suite , seule le modèle par kernel est exposé . Dans cette méthode , seule une masse probabiliste est affectée à un noyau auprès de chaque observation de la base de données . La densité de probabilité résultante pour une observation RSSReceived Signal Strength en une position avec une base de données composée de éléments , et un vecteur observation de éléments s' exprime sous la forme suivante : ( 49 ) où est la fonction définissant ce noyau . Le noyau le plus couramment utilisé est le noyau Gaussien : ( 50 ) où est un paramètre ajustable déterminant la largeur du noyau . Plus cette valeur est importante , plus l' estimation est lissée . La figure 19 représente l' effet de ce paramètre sur l' estimation . Dans notre cas , on se trouve avec un problème multidimensionnel , où le vecteur observation contient plusieurs composantes . Pour tenir compte que l' observation est un vecteur , il faut multiplier ces distributions . Il est nécessaire de prendre comme hypothèse que les composantes de ce vecteur observation sont indépendantes [ 36 ] . 2.4 La méthode du plus proche voisin ( RADAR de Microsoft ) Cet algorithme est basé sur la recherche des k plus proches voisins et fournit la position de l' équipement en fonction de la similarité de la mesure en fonction des k plus proches voisins extraits de la base de données . L' algorithme utilise les k mesures de la base de données qui possèdent le plus de similitudes avec la mesure instantanée . Par la suite , le critère utilisé pour déterminer le degré de similitude entre la mesure instantanée et celles contenues dans la base de données est la distance euclidienne . On note le vecteur mesure sous la forme et le vecteur de la base de données pour la position . L' information de distance euclidienne entre ces deux vecteurs est donnée par la formule suivante : ( 51 ) où est la valeur de la puissance moyenne de signal reçu pour l' AP d' adresse MAC " j " contenue dans la base de données pour la position . Lors du calcul de cette distance euclidienne , certains cas particuliers arrivent . Quelques fois lors de la mesure instantanée , tous les points d' accès captés ne sont pas présents pour chaque position référencée dans la base de données . Dans ce cas , il convient d' augmenter significativement cette fonction de coût afin de prendre en compte cette information . Une valeur seuil est considérée par la suite afin d' introduire cette pénalité . Si lors de la mesure un point d' accès n' est pas détecté , aucune pénalité n' est ajoutée . Ceci arrive lorsque le point d' accès est capté faiblement . Le calcul final de la distance euclidienne tient compte des pénalités suivantes : ( 52 ) La fonction de coût liée à la mesure pour la position de la base de données est notée : ( 53 ) Dans le cas de l' algorithme des k plus proches voisins , il est nécessaire de trouver dans la base de données , les k plus proches voisins du vecteur mesure : ( 54 ) où représente cet ensemble de m éléments des positions dont les distances sont les plus faibles parmi toute les positions de la base de données . Une fois que les positions de la base de données sont obtenues , on moyenne ces k positions . Il faut garder à l' esprit que ce nombre k ne doit pas être trop élevé . De plus cet algorithme conduit à estimer la position du mobile à une position plus proche de la réalité que celle délivrée par l' algorithme donnant comme position estimée celle occupée par le n-uplet le plus proche . Finalement , la position du mobile prend la forme suivante : ( 55 ) La position obtenue est pondérée par l' inverse des erreurs [ 5 ] . Si , on obtient l' algorithme du plus proche voisin . On voit rapidement les limites des deux méthodes présentées précédemment . Il est nécessaire d' effectuer des relevés de puissance de signal afin d' étalonner l' environnement . Cette étape est contraignante car elle nécessite du temps pour être réalisée . Des techniques de prédiction de champ radio peuvent être employées pour réaliser ces cartes de couverture . Ces outils reposent sur l' exploitation de modèles de propagation . Quelques éléments relatifs à ces outils , en terme de mode de fonctionnement et de performance sont présentés par la suite . 3 Exploitation de modèles de propagation De nombreux outils de propagation sont utilisés depuis quelques années afin d' optimiser le déploiement les réseaux de télécommunications . Leur emploi est courant pour les réseaux de type GSM ou UMTS composés d' un grand nombre de cellules . L' optimisation du réseau se fait en terme de débit par utilisateur ou de couverture par exemple . Ces outils de prédiction sont nécessaires à cause de la complexité des phénomènes de propagation qui dégradent les ondes radios et donc la qualité des communications . Des modèles comme celui de Okamura-Hata , COST231 Hata , Longley-Rice ou Walfish-Ikegami [ ? ] sont couramment utilisés en outdoor ou en indoor . Ils prédisent les pertes dues aux transmissions , réflexions , et diffractions , pour les éléments changeant significativement la propagation comme les immeubles ou les collines ou bien les murs d' un bâtiment . Ces modèles de prédiction sont étudiés pour des environnements outdoor . Le déploiement des réseaux locaux de type WiFi nécessite l' utilisation de tels modèles de propagation afin d' optimiser la couverture des différents points d' accès en terme de débit utilisateur et d' interférence entre les différents points d' accès . Avec des modèles de propagation , il est envisageable d' obtenir sans effort ( ou très peu ) la base de données requise pour l' utilisation de la technique de localisation par fingerprinting . Cette section présente des modèles de propagation en indoor qui sont assez simples ainsi que des outils disponibles dans le commerce avec leur apport par rapport à d' autres approches . 3.1 Formulation des modèles indoor et application à la localisation Les modèles de propagation permettent de prédire les valeurs de certains paramètres comme la puissance du signal , ou la direction d' arrivée des ondes , etc. , en fonction des caractéristiques du milieu de propagation . Par la suite nous nous intéressons à l' estimation de la puissance du signal . L' estimation de la puissance du signal s' effectue de deux manières . Certains outils sont basés sur l' exploitation de la technique du tracé de rayon , tandis que d' autres exploitent la technique dite de lancé de rayon . Le tracé de rayon nécessite une fine description de l' environnement ( matériaux , structure , ... ) , et permet de prédire la puissance du signal , ainsi que les retards associés à chacun des multi-trajets . Ces modèles nécessitent une bonne connaissance de l' environnement , car il est nécessaire de caractériser chacun des matériaux présent dans l' environnement pour obtenir les données relatives aux affaiblissements , lorsque les ondes se réfléchissent ou sont transmises à travers ces matériaux . Une grande capacité de calcul est nécessaire pour garantir une fiabilité du résultat obtenu , car les calculs sur une scène donnée en 3D sont très coûteux . La technique dite de lancé de rayon fournit une estimation de la puissance reçue suivant une certaine distribution . Le modèle le plus connu pour l' estimation de la puissance de signal reçu est le modèle de propagation en espace libre . Il est démontré que lorsqu' on se place dans les conditions idéales de visibilité directe entre un émetteur et un récepteur , à savoir dans l' ellipsoïde de Fresnel , la puissance du signal reçu par un récepteur séparé d' un émetteur de la distance est donnée par [ ? ] ( voir ) : ( 56 ) où représente un terme lié à la propagation des ondes dans l' environnement ( on a lorsqu' on se trouve dans le cas de la propagation en espace libre ) . Le paramètre tient compte de la propagation dans le milieu , à savoir de l' affaiblissement moyen à introduire sur l' estimation de la puissance en fonction de la distance émetteur / récepteur . La caractérisation de ce paramètre n' est pas toujours aisée , et il fluctue suivant l' environnement car il est dépendant de la structure du bâtiment et des caractéristiques diélectriques des matériaux présents . Table 16 : Puissance du signal en fonction de la distance émetteur / récepteur . Les mesures sont effectuées dans un bâtiment La figure 16 montre la dispersion sur les mesures pour un point d' accès et pour une position donnée . La figure 17 représente les valeurs moyennes prises par en fonction de la différence de puissance existante entre la puissance instantanée reçue et la puissance captée à la distance de référence . Table 17 : Valeur du paramètre en fonction de la différence de puissance On détermine une loi par régression linéaire passant au mieux entre tous les points de mesure . La précision de ce modèle est souvent insuffisante pour aboutir à une estimation réaliste de la puissance reçue . Il est nécessaire de caractériser les phénomènes de propagation qui ont lieu dans l' environnement . La caractérisation des éléments de la structure du bâtiment et des éléments de propagation à prendre en compte lors des simulations , fournit une estimation plus réaliste de la puissance du signal reçu . Ce modèle de propagation peut se mettre sous la forme suivante : ( 57 ) où et sont les atténuations introduites lors des réflexions et des transmissions sur les matériaux présents dans l' environnement . Dans ce modèle , on considère qu' on a M matériaux différents sur lesquels on a au moins une réflexion , et N matériaux différents à travers lesquels on a au moins une transmission . Pour la propagation WiFi , dans la bande 2.4 GHz , il n' est pas nécessaire de tenir compte des autres phénomènes de propagation comme la diffraction , car ce phénomène de propagation , complexe à prendre en compte , nécessite une abondance de calculs peu justifiée au regard de la qualité du résultat rendu . Une des solutions pour caractériser et est de posséder une table de caractérisation de tous les matériaux usuels dans la bande de fréquences désirée . Cependant , il ne semble pas réaliste de procéder de cette façon . Une manière de contourner ce problème est d' effectuer une étape de calibration de ces différents coefficients liés aux matériaux présents dans l' environnement . Un autre paramètre de ce modèle est le nombre maximal de phénomènes ( réflexions et transmissions ) à prendre en compte dans le modèle . Il est parfois inutile de considérer un trop grand nombre de phénomènes , car la contribution de certains est insignifiante sur le résultat final et ne permet pas d' améliorer la qualité de l' estimation . L' étape de calibration est basée sur des relevés de mesures réelles en plusieurs positions du bâtiment . Connaissant la carte du bâtiment avec des informations sur les matériaux constituant chacune des cloisons , il est possible d' utiliser un algorithme de minimisation permettant de définir tous les paramètres inconnus du systèmes en fonction des distances émetteur / récepteur et des puissances mesurées . ( 58 ) où et sont les vecteurs contenant les coefficients à optimiser . est la puissance en dBm qui est mesurée à la distance du point d' accès . Pour obtenir un modèle réaliste , il faut avoir une dizaine de mesures pour qualifier chacun de ces paramètres . La base de données devient donc rapidement conséquente et nécessite beaucoup de temps . Ce dernier point montre que le modèle de propagation nécessite des mesures relevées sur le terrain pour être calibré . Ces mesures sont équivalentes à celles faites pour constituer la base de données . Les modèles plus simples ne requièrent pas une aussi importante phase de calibration , mais leur imprécision est souvent plus grande . Il est possible d' utiliser des modèles simples pour estimer la distance émetteur / récepteur puis par multilatération la position du mobile . La complexité de réalisation de la base de données est similaire à celle de l' étalonnage d' un modèle de propagation puisque dans les deux cas , il est nécessaire de faire autant de mesures . Cependant dans certaines situations , les modèles de propagation s' avèrent très utiles . Lors du déploiement d' un réseau sur plusieurs étages , la méthode par construction de la base de données nécessite des relevés sur chacun des étages . Ce travail est relativement important pour de grands bâtiments . L' étalonnage d' un modèle de propagation , ne nécessite d' être effectué que sur un des étages du bâtiment , pour caractériser les matériaux constituant cet étage . Il est raisonnable de penser que la constitution d' un bâtiment est homogène , et que les matériaux à un étage sont présents aux autres étages du bâtiment . Un outil de prédiction de couverture de champ radio électrique permet de constituer des bases de données assez simplement . La qualité de cette base de données pour chacun des étages est acceptable . Il faut juste effectuer des mesures de calibration du modèle sur un seul étage . L' utilisation de tels outils reste intéressante dans les situations où de nombreux efforts de calibration sont à faire comme lors de déploiement multi-étages . Quelques outils de prédiction de couverture existent sur le marché , et les solutions de recherche sur ces outils se multiplient dans le but de planifier le déploiement des réseaux WiFi . Ces outils sont aussi utilisables en localisation . Des outils comme Strix [ ? ] ou Wanda ( outil de France Telecom intégré à ArcView [ ? ] ) sont souvent basés sur l' étalonnage des coefficients d' un modèle de propagation . Une campagne de mesures est nécessaire , qui suivant sa densité , permet de plus ou moins bien affiner les coefficients du modèle de propagation . Ces modèles conduisent à une estimation de la valeur moyenne de champ pour plusieurs positions à travers le bâtiment avec une précision de l' ordre de . [ 21 , 35 ] exploitent des données issues de ces outils pour effectuer de la localisation par fingerprinting . 4 Techniques de traitement de l' information associées à la poursuite de mobile L' information de localisation est souvent bruitée ( bruit ambiant , sensibilité des équipements , interférences , etc ) . Pour améliorer l' estimation de la position , on se propose d' utiliser des filtres tenant compte de la mesure , de l' historique de la trajectoire et des caractéristiques du mouvement de l' utilisateur . De nombreuses applications requièrent un traitement des données issues des capteurs . Le filtrage de Kalman introduit en 1960 par Rudolf E. Kalman propose une solution à ces problèmes d' estimation de paramètres . Aujourd'hui de nombreuses applications nécessitant de faire de la poursuite d' objet ou de mouvement utilisent ce filtre . Il semble bien adapté aux problèmes d' estimation en localisation indoor même si , l' application du filtrage de Kalman exige des hypothèses fortes . Des extensions de ce filtre existent pour les cas non couverts par le filtre de Kalman , mais ces solutions conduisent à des solutions sous optimales . Les techniques de type Monte-Carlo s' appliquent aux problèmes d' estimation sortant des hypothèses d' application du filtrage de Kalman . Ce nouveau type de filtrage est le filtrage particulaire car son déroulement est très proche de celui suivi lorsqu' on effectue des simulations de Monte-Carlo . Ces deux grandes catégories de filtrage sont développées au cours de cette section . De plus cette section présente la complexité de mise en oeuvre de chacun de ces filtres . 4.1 Le filtrage de Kalman Le filtre de Kalman est un outil puissant pour l' estimation et simple à mettre en oe uvre. Il combine de manière optimale des informations provenant de lois régissant le système avec des données provenant du monde réel par l' intermédiaire de capteurs . Ce type de filtrage est appliqué dans des domaines aussi variés que la poursuite d' objet sur des images , ou alors l' extraction de contours à partir de séquences vidéo , ou en automatique , etc . La figure 24 présente le principe de fonctionnement de ce filtre . Figure 24 : Schéma de représentation d' un système linéaire et discret Le filtre de Kalman est défini comme l' estimateur linéaire optimal . Il existe plusieurs manière de définir le terme " optimal " , car il est nécessaire de définir le critère suivant lequel on le considère comme optimal . Ce filtre traite toutes les informations dont il dispose et les pondère les unes par rapport aux autres suivant leur précision afin d' obtenir la meilleure estimation possible de l' état du système en tenant compte : 1 . de la connaissance des lois d' évolution du système et des mesures 2 . des propriétés statistiques des bruits du système , des mesures et des incertitudes du modèle 3 . de toutes les informations sur les conditions initiales des paramètres du système Le filtre de Kalman combine efficacement l' ensemble des mesures provenant des capteurs avec une connaissance a priori du fonctionnement du système et du dispositif de mesure afin de produire une estimation de l' état du système minimisant l' erreur statistique . Habituellement les autres types de filtres essaient d' obtenir une estimation " optimale " d' une grandeur à partir d' un signal bruité par l' environnement , et donc " optimal " signifie minimisant l' erreur . Il existe plusieurs manière d' aboutir à ce résultat . Du point de vue de l' estimation bayésienne , on désire obtenir un filtre qui propagera les densités de probabilités conditionnelles des quantités à estimer , suivant les données reçues en provenance des instruments de mesure . En combinant les différentes densités de probabilités et en les propageant au cours du temps , l' estimation optimale peut être vue de plusieurs manières : 1 . la valeur moyenne : la valeur estimée est donnée par la probabilité centrale suivant les poids 2 . le mode : la valeur de l' état qui possède la probabilité la plus importante et qui est obtenue en recherchant la valeur maximale de la densité de probabilité . 3 . la médiane : la valeur de l' état qui est obtenue de telle manière à ce que la moitié des probabilités soient à la gauche de cette valeur , et l' autre moitié se trouve à la droite de cette valeur médiane . Le filtre de Kalman se base sur la propagation de densités de probabilités au cours du temps avec comme limitation que le système se modélise sous une forme linéaire et qu' il soit soumis à des bruits gaussiens . Suivant ces deux contraintes , le filtre de Kalman est le meilleur filtre pour estimer l' état du système . Il est possible de réduire certaines des contraintes comme celle que les bruits doivent être gaussiens . Si cette condition n' est pas satisfaite , dans ce cas le filtre de Kalman est considéré comme le meilleur filtre ( dans le sens de la variance minimum de l' erreur ) parmi les filtres linéaires non biaisés . Cependant , prendre ces deux hypothèses est réaliste dans bon nombre d' applications . 4.1.1 Modélisation du filtrage de Kalman De nombreux systèmes sont composés de plusieurs paramètres à estimer . L' état du système se met sous la forme d' un vecteur . On détermine une loi d' évolution de l' état du système qui est une relation de récurrence . Cette loi tient compte de l' état du système à l' instant pour prédire le nouvel état du système à un instant tout en tenant compte d' une mesure disponible à cet instant . Notre système se modélise de la manière suivante avec une équation prédisant le nouvel état du système en fonction du dernier état connu : ( 59 ) D' un autre côté , le système est équipé de capteurs permettant d' obtenir des informations réelles quant à l' état réel du système . Cette relation entre mesure et état du système se modélise par l' équation suivante : ( 60 ) avec la matrice de prédiction du nouvel état du système en fonction du dernier état connu , avant que la mesure à l' instant ne soit disponible , est le vecteur bruit qui corrompt la prédiction , est une matrice reliant la mesure à un état du système . Bien sûr cette équation reliant la mesure à un état du système est corrompue par le vecteur bruit . Tout comme dans le cas monodimensionnel présenté ci-dessus , les bruits et sont des bruits blancs gaussiens . Les densités de probabilité respectives de ces bruits sont données par : ( 61 ) Ces bruits sont de moyenne nulle . et sont les matrices de covariance de ces bruits . Le filtre de Kalman est le filtre optimal dans le sens de la minimisation de l' erreur d' estimation . Par la suite nous allons prendre les notations suivantes : ( 62 ) ( 63 ) ( 64 ) ( 65 ) ( 66 ) ( 67 ) ( 68 ) ( 69 ) ( 70 ) avec Afin d' obtenir la solution optimale au problème , on pose les hypothèses suivantes : 1 . À l' instant , on dispose d' une estimation non biaisée de l' état du système à l' instant k . Dans ce cas le terme d' erreur est une gaussienne de moyenne nulle et de matrice de covariance 2 . A l' instant k , on reçoit la mesure que l' on relie à l' état du système avec la relation suivante Les développements de ce filtre sont proposés dans [ 25 , 22 , 40 ] . La figure 25 présente le déroulement du filtrage de Kalman . Figure 25 : Schéma global du filtrage de Kalman où représente la matrice de covariance de l' erreur effectuée sur la prédiction et donnée par : ( 71 ) représente la matrice de covariance de l' erreur sur l' estimation de la position obtenue à partir de la mesure . ( 72 ) est le gain minimisant la covariance de l' erreur d' estimation . On montre que ce gain est minimum [ 17 ] . Son expression est donnée par ( 73 ) La figure 25 illustre le fonctionnement du filtre de Kalman , et son déroulement itératif . Il fournit l' estimation optimale de l' état du système linéaire en fonction d' une loi d' évolution ( loi de prédiction ) et d' une loi de correction des états prédits grâce aux nouvelles mesures venant de différents capteurs . Ce filtrage est intéressant pour les applications cherchant à estimer l' état du système sans avoir à disposer d' une importante capacité de calcul , comme par exemple un terminal mobile à ressources de calcul limitées . Par la suite , d' autres filtres sont présentés . Ces filtres sont soumis à ces contraintes temporelles . L' obtention de l' estimation optimale du système à l' aide d' opérations matricielles simples est particulièrement intéressante pour les applications embarquées . Ce filtre permet de prendre en compte l' historique des mesures au cours du temps . Aujourd'hui , ce filtre est intégré dans de nombreuses applications de localisation , car il lisse la trajectoire du mobile en réduisant l' effet du bruit dégradant les mesures . Cependant , il ne permet pas de couvrir toutes les situations , notamment celles dans lesquelles les équations d' état sont non linéaires . Cette non linéarité rompt une des hypothèses , nécessaire à l' application du filtrage de Kalman . Des extensions du filtre de Kalman permettent de répondre de manière non-optimale aux problèmes d' estimation proposant des contraintes de ce type . L' approche proposée dans le filtre de Kalman étendu ( Extended Kalman filter ) [ 40 ] et dans le filtre de Kalman unscented [ 24 , 32 ] consiste à linéariser ces équations d' état à l' aide d' un développement limité . 4.2 Le filtrage particulaire Les restrictions liées aux hypothèses du filtrage de Kalman ( et ses dérivés ) ne permettent pas toujours d' estimer au plus juste l' état d' un système . De nombreuses situations requièrent l' utilisation de modèles non linéaires et les processus aléatoires considérés ne sont pas toujours gaussiens . Les approximations effectuées précédemment pour le filtre de Kalman étendu , et pour le filtre de Kalman unscented , ne permettent pas toujours de modéliser fidèlement les phénomènes intervenant dans le comportement du système . Une approche nouvelle , par rapport aux filtres présentés précédemment , repose sur l' exploitation des méthodes de Monte Carlo Séquentielles ( Sequential Monte Carlo ( SMC methodsSMC methodsSequential Monte Carlo methods ) . Ces simulations de Monte Carlo présentent un grand intérêt pour déterminer des densités de probabilité a posteriori . Du fait de leur flexibilité et de leur faible complexité ( les traitements sont parallélisables ) , ces méthodes sont exploitables dans de nombreux problèmes complexes d' estimation . 4.2.1 Description du filtrage particulaire Le filtre particulaire permet de s' affranchir des hypothèses nécessaires à l' application du filtre de Kalman . On reprend la modélisation du problème proposé pour les filtres de Kalman étendu et filtre de Kalman unscented , à savoir que l' on dispose d' une loi d' évolution du système ( ou loi a priori ) qui prédit le nouvel état du système au cours du temps , et d' une loi de correction de l' état prédit du système à l' aide d' une nouvelle mesure réelle . Il n' est plus nécessaire de prendre de précautions sur les distributions de probabilité de chacun des processus aléatoires entrant en jeu , ni sur les fonctions modélisant chacune de ces relations de prédiction et de correction . Les notations suivantes sont prises pour modéliser le problème d' estimation à résoudre : ( 74 ) ( 75 ) où est l' état du système à estimer et est un vecteur mesure pour corriger l' état du système obtenu lors de la prédiction . et sont deux processus aléatoires modélisant des bruits appliqués aux équations de prédiction et de correction respectivement . Aucune hypothèse n' est faite sur le bruit , c' est à dire que ces bruits ne sont pas nécessairement gaussiens . Dans les problèmes d' estimation , on cherche à obtenir la meilleure estimation possible de la densité de probabilité . Dans le cadre du filtrage de Kalman , cette densité est toujours gaussienne et ce ne sont que les paramètres de cette densité de probabilité qui sont recherchés ( moyenne et matrice de covariance ) . Ici au contraire , cette densité n' est pas connue , et peu prendre des formes très complexes ( densité multimode ) . Le filtre particulaire cherche à obtenir la meilleure estimation possible de cette densité . L' estimation Bayésienne cherche à obtenir la meilleure estimation possible pour le vecteur état caractérisant le système connaissant un ensemble de mesures . Par la suite on se place dans le cas où on dispose de modèles Markoviens , non linéaires et non gaussiens . On suppose que l' état caché est et est représenté par un processus markovien dont la distribution initiale est donnée par . Les probabilités de transition de ce modèle sont notées . De la même manière , les observations permettant de corriger l' état prédit du système sont notées sous la forme suivante : . Les sont supposées indépendantes par rapport à la variable aléatoire et de densité de probabilité marginale . Le but de ce filtre est d' estimer récursivement la distribution a posteriori ainsi que ses différentes propriétés statistiques : ( 76 ) où est une fonction d' intérêt intégrable tout comme . Comme exemple , pour cette fonction d' intérêt , on peut prendre le cas de la moyenne , c' est à dire ou alors celui de la covariance dans ce cas on a . A l' instant k , la distribution a posteriori est donnée par le théorème de Bayes : ( 77 ) On obtient directement une relation de récurrence pour la densité de probabilité conjointe avec : ( 78 ) De la même manière , la distribution marginale est donnée par la relation de récurrence suivante : ( 79 ) ( 80 ) Pour effectuer cette estimation , il est nécessaire de connaître , la densité de probabilité marginale , ainsi que . De part la complexité des calculs à effectuer pour obtenir une bonne approximation de ces différentes distributions , il n' était pas possible auparavant d' utiliser les moyens informatiques disponibles dans les années 60 quand a débuté la résolution de ces problèmes d' estimation . Les moyens informatique actuels permettent d' envisager l' estimation de ces diverses densités de probabilité à l' aide des méthodes de Monte Carlo Séquentielles . 4.2.2 Étapes du déroulement d' un filtre particulaire Plusieurs travaux basés sur l' utilisation des méthodes de Monte Carlo , ont porté sur la résolution de ce problème , à savoir estimer les différentes intégrales présentées précédemment [ 14 , 6 , 29 ] . Le principal avantage de ces méthodes est qu' elles ne sont pas contraintes par des conditions comme la linéarité des relations , ou alors par le fait que les variables aléatoires présentes dans le problème doivent être gaussiennes . Afin d' aboutir à une estimation réaliste des densités de probabilité , on considère un grand nombre d' échantillons ( ou particules ) aléatoires pour représenter la densité de probabilité a posteriori . Cette discrétisation correspond à une approximation réaliste des différentes intégrales présentées dans les équations 78 , 79 et 80 . Il est possible d' obtenir directement des échantillons de ces différentes distributions de probabilité . Pour cela , il existe une variante des méthodes de Monte Carlo et qui se nomme l' échantillonnage d' importance séquentiel ( SISSISSequential Importance Sampling - Sequential Importance Sampling ) . Par la suite , on verra que ce type d' algorithme est voué à l' échec au bout d' un temps relativement long . Pour éviter une telle situation , une solution consiste à ne sélectionner que les échantillons significatifs de cette estimation de la distribution . Supposons que l' on simule échantillons indépendants et distribués aléatoirement dans l' espace ( échantillons que l' on nomme particules par la suite ) . Ces particules se notent sous la forme . Elles sont distribuées suivant la densité de probabilité . Une estimation empirique de cette distribution de probabilité est donnée par : ( 81 ) où est la distribution de Dirac pondérée et localisée en . On calcule les moments liés à cette distribution de probabilité avec la fonction qu' on discrétise car les particules forment un ensemble discret d' éléments caractérisant cette distribution . On a donc ( 82 ) ( 83 ) Cette estimation est non biaisée . Si la variance a posteriori de satisfait la relation , alors la variance de vaut . En applicant la loi des grands nombres à cette relation , on obtient : ( 84 ) Comme est borné , en appliquant le théorème de la limite centrale , on aboutit au résultat suivant : ( 85 ) On converge vers une distribution gaussienne . L' avantage principal du filtre particulaire est que la vitesse de convergence de l' estimation est indépendante de la dimension de l' intégrale à calculer . Ceci est à comparer au calcul numérique déterministe pour lequel la vitesse de convergence diminue à mesure que la dimension de l' intégrale augmente . Malgré l' avantage indéniable de cette solution d' estimation , il est bien souvent impossible d' avoir un échantillonnage complet de la distribution quel que soit l' instant k . En statistiques , les méthodes basées sur les chaîne de Markov et les méthodes de Monte Carlo ( MCMCMCMCMarkov Chain Monte Carlo -- Markov chain Monte Carlo ) sont des approches couramment explorées pour échantillonner une distribution de probabilité complexe . Les méthodes MCMC sont basées sur des algorithmes itératifs inadaptés aux problèmes d' estimation récursifs . Une des alternatives consiste à utiliser la méthode d' échantillonnage d' importance . On introduit une nouvelle distribution nommée distribution d' échantillonnage d' importance et notée par la suite . Si le support de inclut le support de , on obtient une évaluation de : ( 86 ) où représente le poids d' importance des particules et ( 87 ) En échantillonnant suivant la fonction d' importance , une estimation possible pour est donnée par : ( 88 ) où le poids d' importance normalisé est donné par : ( 89 ) Lorsque N est fini , la quantité est biaisé [ 13 ] , mais si l' on considère que ce biais est négligeable , il est possible d' appliquer la loi des grands nombres . On obtient alors . En appliquant le théorème de la limite centrale , on montre que la vitesse de convergence est indépendante de la dimension des intégrales . Cette méthode d' intégration peut être vue comme une méthode d' échantillonnage de la distribution a posteriori . Cette distribution est donnée par : ( 90 ) Dans ces conditions , la fonction n' est rien d' autre que la fonction intégrée suivant les mesures empiriques . Elle est donnée par 82 . La méthode d' échantillonnage d' importance est donc une méthode d' intégration de Monte Carlo . Dans sa forme la plus simple , cette méthode n' est pas adaptée aux problèmes d' estimation récursifs car il faut disposer de l' ensemble des mesures avant d' effectuer l' estimation de . Avec cette approche , à chaque fois qu' une nouvelle mesure est disponible , il faut refaire tous les calculs en tenant compte de l' ensemble des mesures pour obtenir la nouvelle estimation de cette densité de probabilité . Une telle complexité n' est pas acceptable car le temps de traitement augmentera au cours du temps . Néanmoins , des solutions permettent de contourner ce problème . La solution à ce problème de récursivité se nomme l' échantillonnage d' importance séquentiel . Cette approche cherche à modifier l' estimation de la densité de probabilité sans avoir à modifier les résultats précédemment obtenus . Il considère que le processus est un processus markovien d' ordre 1 . On a posé que la fonction d' importance à l' instant k admet une densité marginale à l' instant et que la relation suivante existe entre ces deux densités de probabilité : ( 91 ) On peut alors écrire : ( 92 ) En intégrant ceci dans l' expression du poids d' importance 89 de chacune des particules , on obtient une relation de récurrence des poids comme indiqué ci-dessous : ( 93 ) Dans le cas particulier où la distribution a priori est la distribution d' importance : ( 94 ) les poids d' importance prennent la forme suivante : ( 95 ) Cette dernière expression est très simple et elle sera adoptée pour la suite des développements conduisant à la mise en place du filtre particulaire . Au cours du temps , on observe une dégénérescence du filtre car après quelques itérations , seul un petit nombre de particules concentre les poids les plus importants . On observe un phénomène de dégénérescence du filtre . Afin d' éviter cette dégénérescence du filtre , il faut introduire une nouvelle étape appelée phase de rééchantillonnage . L' idée principale de cette étape est de supprimer les particules possédant un poids très faible dans la distribution , et au contraire d' augmenter le nombre de particules possédant un poids significatif dans l' estimation de la distribution [ 18 ] . Cette étape consiste à transformer la distribution pondérée ( 96 ) en une nouvelle distribution s' écrivant sous la forme : ( 97 ) où est le nombre d' échantillons généré grâce à la particule . On a : ( 98 ) Si dans ce cas la particule liée à l' état disparaît . Les sont choisis de manière à ce que la distribution soit la plus proche possible de la distribution dans le sens où quelque soit la fonction , la relation suivante reste valide : ( 99 ) Après cette étape de rééchantillonnage , les particules survivantes sont celles possédant un . Elles sont distribuées suivant . Plusieurs manières existent pour sélectionner ces échantillons . L' une des premières méthodes de sélection est donnée dans [ 18 ] . Cette méthode rééchantillonne N fois la distribution discrète , ce qui est équivalent à échantillonner un nombre de descendants en fonction de la distribution des . L' équation d' équivalence entre ces deux distributions est satisfaite dans le sens où on montre que quelque soit la fonction bornée respectant , il existe une valeur telle que : ( 100 ) Le déroulement de cette étape de rééchantillonage ( et donc de sélection des particules de poids les plus forts ) est donné par l' algorithme 4.2.2 . Phase d' initialisation : k = 0 to Tirer aléatoirement des échantillons pour échantillonner Mettre Phase d' échantillonnage d' importance : to Tirer aléatoirement un échantillon suivant et mettre to Évaluation des nouveaux poids des particules Normalisation des poids d' importance Phase de sélection des échantillons : Rééchantillonner en remplaçant l' ensemble de N particules par le nouvel ensemble suivant la distribution des poids d' importance . Mettre et recommencer l' étape d' échantillonnage d' importance Algorithme du filtre bootstrap La stratégie adoptée pour ce rééchantillonnage prévoit de déplacer les échantillons ayant un poids très faible sur les échantillons qui restent significatifs . On voit par là qu' il y a une perte de diversité car seule la partie de la densité de probabilité la plus significative à l' instant est affinée . Cette perte de diversité conduit dans certains cas à un blocage du filtre ( si beaucoup de particules se trouvent dans le même état , et que le filtre a sélectionné une mauvaise hypothèse lors du rééchantillonnage ) . Il peut lui être impossible de sortir de cet état . D' autres stratégies de rééchantillonnage ont été étudiées pour contrer cet inconvénient . La section suivante aborde ce problème du rééchantillonnage et présente différentes stratégies de rééchantillonage pour éviter de rester bloquer dans des états hautement improbables . 4.3 Quelques variantes et leurs intérêts Lors de l' étape de rééchantillonnage , on recherche les particules possédant un poids très faible , pour les redistribuer sur des particules ayant des états plus probables . Plusieurs manières de procéder existent et leur complexité de mise en oe uvre dépend des performances attendues . Dans un premier temps un algorithme de rééchantillonage simple basé sur la sélection des particules de poids les plus élevés est présenté . Ensuite , une seconde approche introduisant une nouvelle diversité au niveau du rééchantillonnage est abordée . 4.3.1 Sur le re-échantillonnage La mise à jour des poids des particules telle qu' elle a été présentée précédemment , conduit à l' observation d' une dégénérescence du filtre , c' est à dire qu' au bout d' un certain temps , seulement quelques particules conservent un poids significatif et toutes les autres ont un poids quasiment nul . L' étape de rééchantillonage redistribue les particules ayant un poids significatif . Il est nécessaire de déterminer des conditions quant à l' instant de déclenchement de cette étape de rééchantillonnage . Un critère de déclenchement de cette étape est aussi proposé . Cette étape de rééchantillonage consiste à générer un nouvel ensemble de particules à partir de l' ancien . On s' attache à rechercher le nouvel ensemble suivant en rééchantillonnant ( par remplacement ) la densité de probabilité en opérations . est de la forme suivante : ( 101 ) Pour rééchantillonner , il est nécessaire de détecter les particules qui possèdent les poids les plus élevés . L' algorithme 4.3.1 se base sur l' utilisation de la distribution cumulée des poids des particules ordonnées ( trie des particules par ordre croissant de leur poids ) . Cet algorithme de rééchantillonnage est basé sur les statistiques d' ordre supérieur [ 7 , 34 ] . D' autres algorithmes existent comme l' échantillonnage stratifié ou le rééchantillonnage résiduel [ 31 ] . Le rééchantillonnage systématique [ 26 ] est une voie souvent suivie car il est très simple à mettre en oe uvre , , l' ordre de ce rééchantillonnage est en et il minimise les variations de la méthode de Monte Carlo . L' algorithme 4.3.1 effectue ce rééchantillonnage . Ordonner les particules suivant leur poids croissant Initialisation de la fonction répartition cumulée ( CDFCDFCumulative Distribution Function ) telle que to Initialisation de la variable : Tirer aléatoirement un point de départ pris dans la loi uniforme suivante : to Algorithme de rééchantillonage sur les particules de poids les plus forts représente une distribution uniforme sur l' intervalle . L' algorithme 4.3.1 se base sur la distribution cumulée des poids pour détecter les plus fortes transitions qui sont synonymes de particules de poids importants . Cette étape de rééchantillonage réduit l' effet de dégénérescence du filtre , mais introduit d' autres problèmes . Le rééchantillonnage introduit une perte de diversité en abandonnant certaines pistes d' exploration . Dans certaines situations , cette perte de diversité est néfaste au bon déroulement du filtre notamment lorsqu' un grand nombre de possibilités existe au niveau des états possibles du système . L' introduction d' une nouvelle diversité lors du rééchantillonge permet d' éviter des situations dans lesquelles le filtre reste sur des hypothèses sans pouvoir en sortir . Le filter particulaire régularisé évite que le filtre ne reste bloqué dans des situations improbables . Au niveau de l' étape de rééchantillonnage , on remplace la densité de probabilité de prédiction par une approximation continue conduisant à la formation d' un nouvel ensemble de particules ayant toutes des états différents . Il est nécessaire de prendre en compte l' hypothèse que la densité de probabilité possède un équivalent lissé . Cette opération évite au filtre de rester bloqué sur des hypothèses improbables dans le temps . La régularisation d' une mesure se fait à l' aide d' un noyau noté K par la suite . Ce noyau possède la propriété d' avoir une densité de probabilité symétrique sur respectant les relations suivantes : Si , on définit un noyau redimensionné de la manière suivante : pour tout vecteur . Pour toute distribution dans , la régularisation de est donnée par la distribution de probabilité continue dont la densité est : ( 102 ) où représente l' opérateur convolution . Si on a qui est la distribution discrète dans et , l' ensemble d' échantillons de la distribution est alors donné par : ( 103 ) La figure 18 présente la densité obtenue . Table 18 : Régularisation d' un ensemble de mesures empiriques Le noyau et la bande de ce noyau sont choisis de manière à minimiser l' erreur moyenne ou alors en minimisant l' erreur moyenne de la norme 2 ( qui est issue de la différence entre la distribution a posteriori et les poids régularisés issus des mesures empiriques . est la fonction de vraisemblance de avec le bruit sur l' équation de correction , s' écrivant sous la forme [ 13 ] . Dans le cas où les poids sont équirépartis entre toutes les particules , à savoir , le noyau optimal est donné par [ 38 , 12 ] : ( 104 ) Lorsque la densité sous jacente est gaussienne avec une matrice de covariance unitaire , la bande optimale du noyau est donnée par : ( 105 ) où représente le volume de la sphère unitaire dans . Le volume de l' hypersphère est donné par [ 27 ] : ( 106 ) où est de rayon de l' hypersphère . tel qu' il est défini ici est aussi appelé noyau d' Epanechnikov . Afin de réduire les calculs pour régulariser les mesures , on utilise un noyau gaussien . Ce noyau est mieux connu et mieux maîtrisé . La bande optimale de ce noyau gaussien est donnée ( si le noyau sous jacent est gaussien et de matrice de covariance unitaire ) par : ( 107 ) Afin de prendre en compte le cas de densités multimodales , il est couramment choisi . L' algorithme de filtrage particulaire ( Algorithme 19 ) utilise cette variante du rééchantillonnageRPFRegularized Particle Filter . Table 19 : Filtre particulaire régularisé ( RPF ) to - Tirer aléatoirement suivant - Affecter à chaque particule son nouveau poids suivant 93 - Calculer le poids total des particules : to Normalisation du poids des particules : Calculer le critère de rééchantillonnage : Calculer la matrice de covariance de Calculer de manière à ce que ( décomposition de Cholesky ) Échantillonnage suivant l' algorithme du filtre SIR Initialisation de la fonction de distribution cumulée ( CDF ) : - Construction de CDF : Commencer au début de CDF : Tirer aléatoirement un point de départ : - Se déplacer sur CDF : * - Assigner l' échantillon retenu : - Affecter à la nouvelle particule son nouveau poids : - Sauvegarde du parent : - Tirer une valeur de bruit dans le noyau gaussien Cet algorithme de rééchantillonnage introduit simplement une nouvelle diversité au niveau des états pour limiter la perte de diversité occasionnée par le rééchantillonnage . Cette nouvelle diversité introduite localement s' avère particulièrement utile en localisation pour éviter de bloquer les particules dans une pièce . Le filtrage particulaire est un outil très intéressant pour déterminer l' état des systèmes non-linéaires et non gaussiens , car il calcule une approximation discrète des densités de probabilité des différentes variables aléatoires modélisant le comportement du système . Cependant , il existe une limitation à l' utilisation du filtre particulaire . Pour obtenir une bonne estimation de la densité de probabilité a posteriori , il faut avoir un grand nombre de particules . Ce grand nombre de particules engendre de nombreux traitements lors de la mise à jour du poids de l' ensemble des particules ce qui est une contrainte lorsqu' il s' agit de déployer ce filtre sur des plates-formes embarquées . Une nouvelle approche est proposée par la suite afin de réduire le nombre de particules nécessaires pour faire fonctionner ce filtre sur des plates-formes à ressources limitées en calculs . 4.4 Adaptation du filtrage particulaire au cas de la localisation indoor Il est possible d' adapter le filtre particulaire au contexte de la localisation indoor en tenant compte de la structure du bâtiment , et du mouvement de l' utilisateur ( un piéton ) . De la même manière que pour le filtrage de Kalman , il faut caractériser les relations et ( équations 74 et 75 ) . Pour l' étape de prédiction de la position du mobile à l' instant suivant , le modèle qui s' impose naturellement est celui donné par la loi du mouvement 127 exprimant la nouvelle position du mobile en fonction de sa position précédente . Cette étape de prédiction s' écrit sous la forme suivante : ( 108 ) Cette équation représente la prédiction de la position suivante de chacune des particules . Le processus aléatoire faisant évoluer les particules aléatoirement est l' accélération . Ce terme non déterministe a son importance par la suite . Si on effectue plusieurs fois le même trajet dans le bâtiment , et qu' à chaque fois on obtient exactement les mêmes mesures que lors du trajet précédent , dans ce cas la trajectoire finale n' est pas nécessairement identique à la précédente car les particules n' occupent pas les mêmes positions d' un trajet à l' autre . Par la suite une étude est menée sur la stabilité du filtrage particulaire en simulant le fait que le mobile parcourt plusieurs fois le même trajet . Par la suite , les bruits choisis sont des bruits gaussiens . Les particules n' ont pas de raison a priori de favoriser l' exploration d' une direction particulière . D' une itération à l' autre du filtre , les particules choisissent d' explorer une nouvelle direction , tout comme le mobile peut changer brusquement de direction . Les paramètres de cette loi gaussienne sont à déterminer . La loi de prédiction décrit le mouvement d' une personne et doit être réaliste vis à vis du déplacement du mobile . L' écart-type de cette loi gaussienne est dimensionné en fonction de l' accélération réelle mesurable pour le mobile . Comme les particules représentent un mobile fictif , il n' est pas concevable que les particules traversent les murs car un utilisateur ne peut pas traverser les murs en dehors des ouvertures prévues ( portes ) . Dans notre modèle , il est possible de faire intervenir cette information de plan au niveau de la distribution . En rapportant les particules sur le plan du bâtiment , on trace une droite ( passant par la nouvelle position de la particule et par son ancienne position ) . Ensuite , il suffit de verifier si la partie de la droite située entre ces deux position traverse un mur . Si une partie de cette portion de droite traverse un mur , on considère que le mobile a traversé un mur . La connaissance de cette information permet de fixer la probabilité de la manière suivante : ( 109 ) Comme la particule représente un objet physique réel , on a car un tel mouvement est impossible pour un mobile . Une fois cette étape de prédiction effectuée , il reste à déterminer la contribution de la mesure dans le calcul du nouveau poids de la particule . Pour cette étape , on transforme la mesure ( un n-uplet de puissances reçues ) , en une position afin de comparer la position de la particule avec celle de la mesure . Plus la particule est éloignée de la mesure , plus la confiance donnée à cette particule est faible . La transformation de la mesure en une position est celle présentée pour le filtre de Kalman ( mesure transformée en une position à l' aide de la base de données , et de l' algorithme de recherche du plus proche voisin -- fingerprinting ) . L' évaluation de cette différence de position est faite avec la loi gaussienne : ( 110 ) Dans la relation précédente représente la position obtenue par fingerprinting à l' aide de la mesure , et représente la position de la particule . est l' indice de confiance porté à la mesure . Plus est faible , plus la confiance en la mesure est grande , et plus une particule est proche de cette position issue de la mesure . Le poids d' une telle particule augmente plus que celui d' une particule éloignée de la position extraite de la base de données . En reprenant l' équation conduisant au poids d' une particule , on réécrit le poids de chacune des particules sous la forme suivante : ( 111 ) Cette section a présenté l' intérêt des filtres plus complexes et génériques que le filtre de Kalman . Le filtre particulaire permet de s' affranchir des hypothèses nécessaires à l' application du filtre de Kalman ( densités de probabilités gaussiennes et lois de prédiction et de correction linéaires ) . Toutefois , le nombre élevé de particules nécessaires à l' obtention d' une bonne estimation de la position est un frein au déploiement d' une telle solution puisque les opérations de mise à jour du poids d' une particule sont importantes . Ce grand nombre d' opérations de mises à jour se traduit par un ralentissement de la vitesse de traitement du filtre , et donc par une diminution du taux de rafraîchissement du nombre de positions délivrées à l' utilisateur . Ceci est particulièrement contraignant pour des applications temps réel pour lesquelles il est nécessaire d' avoir des taux de rafraîchissement de l' ordre de 2 Hz afin que l' utilisateur ( un piéton par exemple ) visualise son déplacement en continu . Cette limitation est un sérieux frein quant à sa mise en place sur des plates-formes à ressources de traitements limitées . Aujourd'hui , le marché des ordinateurs de poche ( Pocket PC ) est en pleine expansion , et de plus en plus d' utilisateurs sont en droit d' attendre que leur équipement leur offre une estimation de leur position dans le bâtiment . La mise en place de cet algorithme sur ces plates-formes ne semble pas réaliste , si pour obtenir un bon résultat ( de l' ordre du mètre ) , il faut utiliser un trop grand nombre de particules . De nouveaux algorithmes satisfaisant à la fois les qualités de localisation ( précision et taux de rafraîchissement ) , tout comme la réalisation et l' implantation sur le terminal mobile sont nécessaires . Quelques travaux de simplification de ce filtre sont présentés dans [ ? , 29 ] . L' approche proposée pour simplifier le filtre particulaire revient à ajouter des contraintes sur les capacités d' exploration des particules . Les particules se trouvent contraintes à évoluer sur un graphe ( graphe de Voronoï ) modélisant le bâtiment . La section suivante développe cette approche . 5 Adaptation du filtrage particulaire au cas des terminaux mobiles L' application du filtre particulaire pour résoudre les problèmes de localisation a été présentée à la section précédente . Les particules du filtre évoluent en explorant toutes les positions potentiellement occupées par le mobile . Cet espace a explorer est important , et l' obtention d' une bonne estimation de la densité de présence du mobile requiert l' utilisation d' un grand nombre de particules . En réduisant l' espace d' exploration , il est possible de réduire le nombre de particules à prendre en compte pour se localiser . Un graphe est une représentation simplifiée de l' environnement [ 29 ] . Le graphe est un ensemble de noe uds et d' arcs fournissant une représentation équivalente du bâtiment . Le graphe de Voronoï possède comme spécificité d' avoir des arcs passant au milieu de tous les objets présents dans l' environnement . Les différentes étapes permettant d' aboutir à ce graphe sont exposées par la suite . 5.1 L' obtention du diagramme de Voronoï associé à un bâtiment On définit par diagramme de Voronoï , l' ensemble des arcs d' un espace qui se trouvent à équidistance de tous les objets présents dans l' environnement . Soit un ensemble de sites de l' espace euclidien en dimension . Pour chaque site de , la cellule de Voronoï de est l' ensemble des points de l' espace qui sont les plus proches de que de tous les autres sites de . Le diagramme de Voronoï est la décomposition de l' espace formée par les cellules de Voronoï des sites [ 9 , 11 ] . La figure 26 illustre ce diagramme . Figure 26 : Illustration d' un diagramme de Voronoï L' expression mathématique de ce graphe est la suivante : ( 112 ) où et définissent deux objets présents dans l' environnement , est l' ensemble des positions possibles , , et représentent les distances de la position par rapport aux différents objets , et . Une position appartient à ce diagramme si elle est équidistante des objets et , et que cette distance est minimale par rapport à toutes les distances relatives aux autres objets de l' environnement . Le plan du bâtiment est composé d' un ensemble de pixels à partir duquel duquel on extrait ce diagramme de Voronoï . On obtient un résultat équivalent à celui donné par la figure 27 . Figure 27 : Diagramme de Voronoï pour un bâtiment Le diagramme obtenu est trop riche , car il comporte tous les arcs équidistants des murs , ou plutôt des pixels qui composent les murs . De nombreux arcs présents sur cette figure sont totalement inutiles pour l' application visée . Il faut traiter l' ensemble de ces arcs afin de n' extraire que les arcs significatifs décrivant " globalement " le bâtiment . Une première étape consiste à supprimer tous les arcs passant entre deux pixels appartenant à un mur . En filtrant ces arcs incohérents , on obtient le résultat présenté à la figure 28 . Figure 28 : Suppression des arcs traversant les murs Cette première étape supprime bon nombre de noe uds , , et d' arcs . Cependant le résultat obtenu reste assez complexe , car il est composé d' une multitude de petits arcs reliés les uns aux autres . Ceci est dommageable pour la suite , car il faudra en permanence gérer le passage d' un arc à un autre . S' il n' y a pas de choix lors de la transition d' un arc à un autre , et que l' angle entre ces deux arcs est assez faible , dans ce cas il est raisonnable de fusionner ces deux arcs . Il est donc possible de réduire considérablement le nombre d' arcs de ce premier graphe . Pour cela , il est nécessaire de travailler sur les noe uds de cet ensemble . Si un noe ud possède au moins trois arcs dans ce cas le noe ud est considéré comme nécessaire pour le graphe , car il permet de gérer des changement de direction . L' application de ce critère simplifie la représentation du graphe puisqu' on aboutit au nouvel ensemble de noe uds présenté à la figure 29 . Figure 29 : Suppression des arcs non significatifs Cette figure fait apparaître une forme simplifiée de graphe avec des arcs donnant une bonne idée de l' architecture du bâtiment . Cependant quelques imperfections persistent , à savoir certains arcs ou noe uds n' appartenant pas à ce que l' on appelle le graphe principal du bâtiment ( noe uds noeuds et arcs dans le patio par exemple ) . Ces graphes secondaires sont inutiles car les particules ne pourront pas accéder à ces arcs , ni le mobile . Pour diminuer la complexité de ce graphe , on supprime ces noe uds et arcs inutiles appartenant à ces graphes secondaires . Une fusion entre les noe uds est à envisager pour les noe uds proches les uns des autres . La figure 20 illustre les résultats de ces deux opérations sur le graphe obtenu précédemment . Table 20 : Sélection du graphe principal et fusion des noe uds proches Il est possible d' obtenir de manière automatique une représentation du bâtiment sous forme de graphe . Cette représentation est assez réaliste pour les environnements possédant des obstacles . Une des limites de cette représentation est lorsque l' environnement comporte de grandes pièces . Les arcs restent au milieu de la pièce et les particules ne pourront pas explorer les bords de la pièce . L' ajout manuel d' arcs est nécessaire dans ce cas de figure . Lorsque cette représentation est disponible , les particules peuvent être contraintes à se mouvoir sur les différents arcs du graphe . Cette contrainte diminue l' espace que les particules doivent explorer . Cependant , cette modélisation de l' environnement entraîne certaines limitations sur la localisation du mobile . En effet , ce modèle n' est pas toujours adapté à tous les environnements , notamment pour les environnements dits ouverts , c' est à dire sans cloisons ni objets . Le partitionnement de l' environnement en petits sous-ensembles n' est plus possible . Dans ces configurations , les arcs sont loins des murs . Si aucun obstacle existe et que le mobile se trouve à proximité des murs , dans ce cas le mobile se retrouve assez éloigné de l' arc représentant cette grande pièce . L' erreur d' estimation de la position devient donc importante . 5.2 Application du filtrage particulaire sur un diagramme de Voronoï La combinaison du diagramme de Voronoï tel qu' il a été présenté précédemment , avec un filtre particulaire permet de limiter le nombre de particules à utiliser pour effectuer l' opération de poursuite , car l' espace à explorer est lui même limité . Cet espace est beaucoup plus restreint que celui du plan du bâtiment . De plus , l' étape de vérification de la traversée des murs est supprimée . La contrainte du déplacement des particules sur ce graphe permet de s' affranchir de ce traitement coûteux qui est nécessaire pour le filtrage particulaire classique . Afin de garder un caractère aléatoire à cette exploration du bâtiment , les particules se déplacent aléatoirement sur les arcs du graphe . Le fait de disposer des arcs liés à un bâtiment permet d' effectuer un apprentissage du trajet d' un mobile et de pondérer judicieusement les transitions des particules d' un arc à un autre en favorisant certaines directions . Ce graphe est aussi utilisable par d' autres applications afin de calculer le chemin le plus court pour se rendre d' un endroit à un autre . Le déroulement du filtre reste similaire à celui du filtre particulaire . Il comporte dans un premier temps , une étape de prédiction au cours de laquelle les particules évoluent sur le graphe du bâtiment et explorent les arcs aléatoirement . Au cours de cette étape de prédiction des positions des particules , il faut gérer la transition des particules d' un arc à un autre , et un modèle comportemental du mouvement du mobile peut être introduit à ce niveau . La seconde étape correspond avec la mise à jour du poids des particules suivant la mesure . L' algorithme 5.2 présente le déroulement de ce filtre . Filtre particulaire et diagramme de Voronoï to - Tirer aléatoirement suivant - Rechercher le nouvel arc sur lequel va se déplacer la particule - Déplacement > longueur de l' arc : tirage aléatoire du nouvel arc ( ou contrainte suivant une loi de transition ) - Déplacement < longueur de l' arc : la particule ne change pas d' arc - Affecter à chaque particule son nouveau poids suivant 93 - Calculer le poids total des particules : to Normalisation du poids des particules : Calculer le critère de rééchantillonnage : Effectuer le rééchantillonnage des particules . L' application du filtre particulaire sur le diagramme de Voronoï réduit de manière importante le nombre de particules nécessaires à la prédiction de la trajectoire du mobile . La réduction de l' espace a explorer en est la principale raison . Ce modèle est intéressant si les mobiles se déplacent suivant des trajectoires elles mêmes proches du graphe . Ce type de graphe est difficilement transposable aux cas d' open spaces dans lesquels il y a très peu d' obstacles . Dans ce cas , les arcs se trouvent au milieu de l' ensemble des objets ( murs ) de l' environnement . Il sera difficile d' avoir une bonne couverture de l' espace afin de permettre aux particules d' explorer l' intégralité du bâtiment . Un moyen pour contourner cette difficulté est d' enrichir manuellement le graphe avec un ensemble d' arcs et de noe uds permettant aux particules d' explorer ces parties difficiles . Pour gérer les transitions d' un arc au suivant , plusieurs stratégies sont possibles . On peut tirer aléatoirement le nouvel arc sur lequel évoluera une particule , ou au contraire il est possible de favoriser certains déplacements par rapport à d' autres . Par la suite , la seconde approche sera retenue et prendra en compte le fait qu' un mobile se déplace généralement en ligne droite . Cette hypothèse ne supprime pas totalement le fait que les particules peuvent entrer dans les pièces pour les explorer . Cette hypothèse est réaliste pour plusieurs raisons . D' une part , le mobile se déplace assez peu en " zigzag " , c' est à dire que le mobile n' entre pas sans arrêt dans toutes les pièces . D' autre part , comme on le verra sur les résultats , cette approche est intéressante car on utilise peu de particules pour effectuer le tracking . Il est nécessaire de garder le maximum de particules pour explorer les régions intéressantes du plan du bâtiment . Le changement d' arc pour les particules est géré en fonction de l' angle entre l' arc courant sur lequel se trouve la particule et les arcs suivants . Plus cet angle est faible , plus une particule a de chance de passer sur un tel arc . Par la suite , l' état relatif aux particules est noté de la manière suivante : ( 113 ) où représente l' indice de l' arc sur lequel évolue la particule , la distance à laquelle se trouve la particule par rapport à l' origine de l' arc , et sont respectivement la vitesse et l' accélération de cette particule . Un problème apparaît lorsqu' une particule se trouve à l' extrémité d' un arc ne possédant plus de voisin . Plusieurs possibilités existent pour gérer cette situation . Il est possible de supprimer cette particule puisqu' elle a atteint une extrémité d' arc sans issue . Cependant , cette approche possède comme inconvénient de supprimer un grand nombre de particules , sachant que peu de particules sont utilisées dans ce filtre , cette approche peut vite devenir un frein à l' exploration de l' environnement . Une seconde approche consiste à introduire un nouvel état relatif au fait qu' une particule peut être mobile ou alors immobile [ 29 ] . Une particule arrivant dans une telle situation peut passer de l' état mobile à un état immobile . Ceci permet de conserver les particules , en mettant toujours leur poids à jour au cours du temps . Lorsque deux arcs se trouvent assez proches l' un de l' autre , et dont l' un est une extrémité , il existe une probabilité non négligeable qu' un grand nombre de particules passent sur cet arc sans issue , alors qu' il aurait mieux valu que ces particules passent sur l' arc qui ne correspond pas à une extrémité du graphe . Ici , tout risque de bien se passer au début , mais au bout d' un certain temps , les particules se retrouveront dans une impasse , puisqu' elle ne pourront plus avancer alors qu' elles en ont besoin . Par la suite , nous ne privilégierons pas cette approche . Nous suivrons la stratégie qui consiste en ce qu' une particule arrivant au bout d' un arc se retrouve à se déplacer dans le sens inverse , comme si elle rebondissait sur le bout de l' arc . Le déroulement du filtre correspond à celui décrit ci-dessus . Il se déroule en deux étapes . Lors de la première étape , la nouvelle position de chacune des particules est prédite suivant la loi du mouvement , à savoir : ( 114 ) où représente le bruit affectant le processus de prédiction . est le temps qui s' est écoulé depuis la dernière mesure connue . Par la suite nous avons retenu comme étant un processus gaussien . Dans notre modèle , les arcs sont orientés . Trois cas peuvent se produire : Lorsque plusieurs arcs sont disponibles , il faut choisir l' un de ces arcs . Une des techniques consiste à effectuer un tirage aléatoire entre les arcs qui sont équiprobables . Dans ces conditions , le choix du nouvel arc sur lequel évoluera la particule se fait comme présenté dans l' algorithme 5.2 . Nous considérerons que la particule possède le choix entre arcs . Tirage aléatoire d' un arc parmi des arcs équiprobables [ 1 ] Choix d' un nombre aléatoire donne le quotient de la division . Dans ce qui précède , on considère que les arcs sont notés de à Une autre stratégie consiste à favoriser les déplacements en fonction de trajectoires cohérentes pour l' utilisateur . L' utilisation de cette stratégie repose sur l' observation des mouvements élémentaires d' un utilisateur . Lorsqu' on observe les trajectoires suivies par un utilisateur , on remarque que les déplacements se font généralement en ligne droite . En prenant en compte cette observation , nous avons recherché à favoriser les déplacements de ce type , en privilégiant l' évolution des particules suivant des lignes droites . Pour cela , nous avons pris en compte l' angle existant entre deux arcs , et nous avons déterminé la probabilité pour une particule de passer sur chacun des arcs de la manière suivante : ( 115 ) où représente cette probabilité de passer sur l' arc conditionnellement à ce que la particule se trouve sur l' arc , est l' angle entre les arcs et . est le nombre d' arcs sur lesquels la particule peut potentiellement transiter . Cet ensemble de probabilité construit une distribution cumulée de probabilité , et de la même manière que précédemment , on tire aléatoirement l' arc sur lequel la particule se déplacera . L' algorithme 5.2 présente l' algorithme de transition entre les arcs . Tirage aléatoire d' un arc en favorisant le choix d' une trajectoire suivant une ligne droite [ 1 ] Choix d' un nombre aléatoire Calcul de la probabilité de passage sur chacun des arcs possibles : Comparé au filtre particulaire présenté dans sa forme la plus générale , nous avons retenu ( 116 ) La prédiction de la nouvelle position de chacune des particules étant effectuée , il est nécessaire de corriger le poids de chacune de ces particules en fonction des nouvelles mesures . La méthode proposée précédemment est reprise , à savoir que l' influence de la mesure s' effectue en fonction de la distance séparant la particule du point de base de données issu de la mesure . La loi de distribution de l' erreur retenue est une gaussienne centrée sur la position issue de la mesure ( par la technique de fingerprinting explicitée précédemment ) : ( 117 ) Dans la relation précédente représente la position obtenue par fingerprinting à l' aide de la mesure , et représente la position de la particule . représente l' indice de confiance qui est porté à la mesure . Plus est faible , plus la confiance en la mesure est grande , et plus une particule est proche de ce point de base de données , plus son poids augmente par rapport à une particule qui est éloignée de la position extraite de la base de données . Toutes les probabilités composant le poids d' une particule étant connues , le poids de chacune des particules s' écrit en fonction de son historique de la manière suivante : ( 118 ) La complexité de ce filtre est moindre par rapport à celle du filtre particulaire de la section précédente puisque le phénomène de traversée des murs n' est plus à vérifier pour les particules . L' ensemble de particules représente la densité de probabilité de présence du mobile , mais souvent cette information est trop riche . Aussi nous avons retenu comme critère de localisation , que la position du mobile est caractérisée par le barycentre des particules . Aucune contrainte quant au déplacement de ce barycentre sur le graphe n' a été retenue afin de garder une trajectoire plus fluide . Comme on envisage d' utiliser un faible nombre de particules , et que l' environnement dans lequel elles évoluent est relativement complexe , avec de nombreuses possibilités de changement de direction , le barycentre changerait souvent d' arc d' une mesure à l' autre et ceci de manière erratique . 6 Performances de la localisation indoor par WiFi Cette section s' attache à fournir des éléments sur les performances de ces différentes techniques . Des séries de simulations et de mesures réelles permettent de quantifier les performances des différents algorithmes en terme de précision de localisation . Des démonstrateurs ont été déployés sur des plates-formes de type PC et Pocket PC afin de réaliser ces mesures . 6.1 Les informations de puissance Pour les plates-formes fonctionnant sous Windows , le NDISNDISNetwork Driver Interface Specification propose un ensemble de commandes permettant d' accéder à ces informations extraites des balises de roaming . L' ensemble de ces informations collectées est présenté dans le tableau 21 . Table 21 : Exemple de mesures collectées Indice de Ce tableau montre le type d' informations mesurables . La première colonne contient un indice de mesure , la seconde un time stamp , la troisième présente les adresses MAC des points d' accès se trouvant dans le périmètre du terminal mobile , la suivante la puissance en dBm avec laquelle il est possible de capter le point d' accès . Il est aussi possible de collecter des informations sur les spécificités réseaux du point d' accès , à savoir le canal sur lequel les points d' accès émettent , ainsi que le nom de réseau sur lequel se trouvent les points d' accès . À partir de ces informations , on remonte à une information de distance séparant chacun des points d' accès du terminal mobile . En combinant l' ensemble de ces informations dans un algorithme de multilatération on obtient l' estimation de la position du mobile . Une autre approche consiste à utiliser le fingerprinting puisque ces informations de puissance varient suivant la distance séparant le mobile des points d' accès . Dans un premier temps la piste liée à l' utilisation du modèle de propagation est explorée et les performances en terme de précision de localisation sont présentées . 6.2 Exploitation d' un modèle de propagation L' utilisation de la formulation mathématique entre la puissance du signal et la distance émetteur / récepteur est un moyen permettant d' estimer les distances séparant le mobile de chacun des points d' accès . À partir d' une base de données ( mesures effectuées en certaines positions ) , on détermine les paramètres du modèle de propagation pour chacun des points d' accès ( ces paramètres pouvant être différents d' un point d' accès à un autre ) . Le modèle de propagation Motley-Keenan présenté à la section 3.1 permet de prédire cette distance . Dans ce modèle , il faut étalonner les paramètres à savoir la puissance mesurée à une distance de référence du point d' accès et un coefficient lié à la propagation des ondes . À partir des mesures présentées par la figure 17 , nous avons extrait une loi de variation de en fonction de la différence entre la puissance reçue à une distance et la puissance reçue à la distance . Pour chacun des points d' accès de l' environnement , dont la position est connue , on extrait une loi de variation de ce paramètre en effectuant une estimation de cette loi à partir d' une régression linéaire sur les mesures . Ces lois obtenues expérimentalement pour un bâtiment donné permettent de remonter à l' information intéressante pour la localisation à savoir l' estimation de la distance émetteur / récepteur . Une fois les distances mobile / point d' accès connues , on remonte à la position du mobile en appliquant un algorithme de trilatération ( comme celui exploité par les récepteur GPS ) . Dans le cas de la localisation dans un espace à deux dimensions , il faut identifier au moins trois de ces pseudo-distances pour obtenir une estimation de la position du mobile . Par la suite , la notation suivante est adoptée : Pour initialiser l' algorithme , on prend une condition initiale à partir de laquelle l' algorithme part pour converger vers la solution finale [ 116 ] . Cette position initiale de l' état du système est donnée par . Ici , on connaît les pseudo-distances que l' on note sous la forme suivante : ( 119 ) avec la position du point d' accès . Dans un premier temps il est nécessaire de linéariser cette équation : ( 120 ) ( 121 ) Cet ensemble d' équations est noté sous forme matricielle de la manière suivante : ( 122 ) avec Le système se réécrit sous la forme suivante : ( 123 ) Il est nécessaire de répéter plusieurs fois cette itération du système jusqu'à ce qu' une condition d' arrêt soit atteinte . Généralement , la condition d' arrêt retenue est donnée par : ( 124 ) Le déroulement de l' algorithme décrit ici est donné par l' algorithme 22 . Table 22 : Algorithme des moindres carrés pour la localisation [ 1 ] Choix d' une position initiale pour le démarrage de l' algorithme Calcul des pseudo-distances avec l' équation 119 . Ces pseudo-distances seront assez différentes de celles mesurées , mais le but étant d' approcher du mieux possible les pseudo-distances mesurées . Utilisation des pseudo-ranges calculées précédemment pour déterminer les coefficients de la matrice . Calcul des incréments à l' aide de la relation suivante : . Calcul de à partir de afin de le comparer au seuil choisi qui est le critère de fin de l' algorithme . Comparaison de avec le seuil choisi . Si est supérieur au seuil , dans ce cas il est nécessaire d' effectuer les deux étapes suivantes . Faire . Répéter les étapes 1 à 7 jusqu'à ce que la condition d' arrêt soit satisfaite . Toutes ces informations ( modèle de propagation et algorithme de triangulation ) permettent d' aboutir à la localisation du mobile . Cependant , lorsqu' on observe les résultats donnés par le modèle de propagation , on remarque une grande dispersion au niveau de la détermination avec précision d' un coefficient en fonction de la différence de puissance . Cette dispersion vient des importantes fluctuations de la puissance de signal reçu . Ces variations sont notamment dues au fait que l' environnement fluctue au cours du temps ( ouverture / fermerture de portes , déplacement de personnes , etc ) . La figure 23 représente ces variations au cours du temps pour une même position . Table 23 : Fluctuations de la puissance du signal au cours du temps pour une position donnée Une campagne de mesures a été réalisée avec comme points de relevés ceux présentés sur la figure 30 . Figure 30 : Positions des relevés de mesures Les positions indiquées en bleu sur le plan du bâtiment correspondent aux lieux où des relevés ont été effectués , et les points rouges correspondent aux positions où se trouvent les points d' accès dont la localisation est connue , et dont certaines caractéristiques sont aussi connues , à savoir la puissance reçue à une distance donnée . Ici , cette distance est égale à un mètre . La connaissance des mesures en chacune de ces positions et les caractéristiques intrinsèques de chacun des points d' accès permettent de remonter à une estimation moyenne d' une loi modélisant les variations de ce paramètre en fonction de la différence de puissance captée . On note une évolution de ce paramètre en fonction de la distance . Cette variation est due à la complexité de l' environnement indoor . Table 24 : Lois de variations de la puissance en fonction de la distance Nom du point d' accès L' exploitation de ces lois pour chacun des points d' accès conduit à l' estimation des distances mobile / point d' accès . Les résultats de ces lois sont ensuite injectés dans l' algorithme de trilatération qui donne le résultat présenté à la figure 25 . Table 25 : Résultats de triangulation à partir des données issues du modèle de propagation La figure 25 montre l' effet du bruit sur l' algorithme de trilatération . Le bruit fait que l' intersection entre les différents cercles n' existe pas toujours . Il arrive que parfois le nombre de points d' accès nécessaires pour une bonne localisation dans le plan ( 3 points d' accès minimum ) n' est pas toujours disponible . Toutes ces limitations introduisent des dégradations sur la localisation finale du terminal mobile . Des tests de performances réelles de cette technique de localisation ont été menés sur des trajets réels . Un premier trajet de référence a été pris , à savoir un trajet dans le couloir d' un bâtiment avec un déplacement à vitesse constante . La combinaison de ce modèle de propagation avec l' algorithme de triangulation conduit à la trajectoire donnée par la figure 26 . Table 26 : Résultats de la combinaison modèle de propagation et trilatération . La figure de gauche présente la trajectoire avec l' ensemble des positions issues des mesures instantanées de puissances . La figure de droite présente le vecteur d' erreur instantanée associé à chaque mesure de puissance Les résultats de localisation avec cette technique employant un modèle de propagation simple ne sont pas très bons , puisque sur un trajet à travers le bâtiment , en restant dans le couloir , l' erreur moyenne de localisation est de . Le tableau 27 donne des indications quant aux performances de ce système de localisation . Table 27 : Performances de la localisation en utilisant un modèle de propagation . Ce tableau exprime le pourcentage de mesures dont l' erreur ( en mètres ) est telle que Ces performances médiocres sont principalement dues à la simplicité du modèle de propagation qui ne conduit pas à une estimation suffisamment précise des phénomènes de propagation dans les milieux indoor . 6.3 Application de la méthode du Fingerprinting au WiFi Cette technique de localisation utilise une base de données qui réalise un mapping entre des positions de l' espace et des puissances de signal qu' on peut capter en ces positions . Cette technique est astucieuse en ce sens qu' elle prend bien en compte tous les phénomènes de propagation . L' inconvénient majeur vient de la constitution de cette base de données . Plusieurs questions viennent à l' esprit notamment sur la densité de cette base de données en fonction de l' environnement ( c' est à dire le nombre de points de mesures ) , faut -il respecter un maillage strict ? Quelle est la méthode à suivre pour effectuer ces mesures ? Quelles sont les informations à garder pour constituer cette base de données ? Les informations conservées dans la base de données sont caractéristiques de la puissance du signal . À partir des positions relevées à la figure 30 ( relevés de mesures effectués toutes les ) , on obtient les couvertures radios présentées par la figure 28 . Ces couvertures radio permettent de voir que la puissance du signal est une information intéressante variant en fonction de l' éloignement de l' émetteur . Table 28 : Représentation des couvertures radio reconstituées à partir des bases de données collectées En observant les endroits du bâtiment , pour lesquels les niveaux de puissance sont les plus élevés , il est possible de déterminer approximativement la position des points d' accès , avec tout de même une incertitude sur l' étage où il se trouve car ce bâtiment possède deux étages ( la discrimination étant faite grâce à l' atténuation globale introduite par la traversée du sol ) . La combinaison des informations provenant des différents points d' accès captés ( puissances du signal ) permet de remonter à une estimation de la position du mobile à l' aide de l' algorithme du plus proche voisin ou alors celui des k plus proches voisins ( section 2.2 ) . Des techniques probabilistes ( section 2.3 ) peuvent aussi être exploitées à ce niveau car à l' aide de cet ensemble de mesures collectées , on peut caractériser la distribution de probabilité de recevoir une certaine puissance du signal en fonction des positions occupées par le mobile . Pour chacune des positions de la base de données , on détermine cette densité de probabilité . Une manière simple de procéder est de considérer que ces distributions de probabilité sont gaussiennes . Dans ce cas , elles sont synthétisables sous forme d' un couple moyenne , écart-type . Cependant , il n' est pas toujours possible de considérer ces distributions comme gaussiennes . Une autre approche consiste alors à modéliser chacune des distribution par un histogramme . Cette information est beaucoup plus riche que la précédente mais nécessite de sauvegarder dans la base un plus grand nombre d' informations qu' il faudra retraiter lors de l' étape de localisation . La dernière approche consiste à ne garder dans la base de données qu' une donnée simple représentative de l' ensemble des données collectées . Pour cela , nous avons sauvegardé dans la base de données la valeur moyenne des puissances collectées ( ou alors la médiane ) pour chaque point d' accès et ceci pour l' ensemble des positions auxquelles des mesures sont effectuées . Cette approche permet de garder une information relativement simple à manipuler au dépend d' une perte d' informations . Ces deux approches ont été expérimentalement explorées . Dans un premier temps les résultats relatifs à la localisation par recherche du plus proche voisin sont présentés , puis une approche statistique avec l' estimation de la position du mobile à l' aide des densités de probabilité de recevoir une certaine puissance en chaque position du bâtiment est abordée par la suite . 6.3.1 Résultats de localisation brute Une fois la base de données constituée ( ici nous avons considéré que prendre un point de base de données pour des pièces de taille moyenne -- -- était suffisant , ainsi que un point de mesure tous les 2 à 3 mètres dans les couloirs ) , on applique l' algorithme présenté en 2.2 . Une série de mesures a été effectuée et les résultats obtenus sont présentés par la suite afin d' avoir des éléments de comparaison avec la technique précédente employant un modèle de propagation . La base de données constituée est composée de mesures effectuées aux positions présentées à la figure 30 . mesures sont effectuées et elles sont espacées de . L' information stockée dans la base de données est la moyenne des puissances captées pour chacun des points d' accès . Les deux parcours de référence présentés précédemment , c' est à dire celui où le mobile fait le tour du bâtiment en restant dans le couloir , et celui pour lequel le mobile entre et s' arrête dans une pièce sont repris pour évaluer les performances des algorithmes . Les résultats obtenus sont représentés sur la figure 29 . Trajet dans le couloir Table 29 : Trajectoires obtenues en exploitant la technique de fingerprinting . La première ligne présente les trajectoires avec l' ensemble des positions issues des mesures instantanées de puissances . La seconde ligne présente le vecteur d' erreur instantanée associé à chaque mesure de puissance . Au cours de ces deux trajets , les erreurs moyennes sont de et de respectivement pour les parcours dans le couloir et celui comportant un arrêt dans une pièce . Ici , seulement les quatre points d' accès indiqués sur le plan du bâtiment ont été utilisés . L' observation de la figure ne permet pas de déterminer le parcours suivi par le mobile durant son déplacement . La majeur partie des positions référencées dans la base de données ont été obtenues ( à cause du bruit sur les mesures ) . En ce qui concerne les performances globales de cet algorithme , les distributions cumulées des erreurs pour chacune des situations sont données par la figure 31 . Figure 31 : Distribution cumulée des erreurs instantanées en fingerprinting Les caractéristiques des erreurs sont données au tableau 30 . Table 30 : Performances de la localisation en utilisant la méthode du fingerprinting . Ce tableau exprime le pourcentage de mesures dont l' erreur ( en mètres ) est telle que L' application du fingerprinting conduit à de bien meilleurs résultats que ceux obtenus lors de l' exploitation d' un modèle de propagation simple . En effet avec la technique exploitant le modèle de propagation , une erreur moyenne de était obtenue tandis qu' avec la technique du fingerprinting , cette erreur est réduite à . Intéressons nous à une approche bayésienne du fingerprinting , au lieu de ne retenir que la valeur moyenne associée aux mesures de puissance effectuées pour chacun des points d' accès , et pour chaque position référencée dans la base de données , on modélise la distribution des mesures par une densité de probabilité . Chaque distribution est modélisée par une gaussienne même si ce modèle n' est pas tout le temps vérifié . Cette approximation effectuée , la base de données est constituée des valeurs moyennes et écart-type pour le point d' accès à la position . La détermination de la position du mobile est effectuée différemment de la méthode précédente . Elle consiste à rechercher dans la base de données , la position ayant la mesure la plus proche de la mesure instantanée . Ici , on cherche plutôt à déterminer la probabilité qu' a un mobile de se trouver à la position référencée dans la base de données . Si on considère que les mesures provenant de chacun des points d' accès sont indépendantes ( le bruit sur chacune des mesures est indépendant ) , dans ce cas , la probabilité pour le mobile de se trouver à la position est donnée par la formulation suivante : ( 125 ) où est la mesure de puissance instantanée pour le point d' accès , et est le nombre de points d' accès pour la mesure instantanée . Une fois cette probabilité de présence du mobile obtenue pour chacune des positions référencées dans la base de données , il est possible d' en déduire la position du mobile en considérant que cette position est le barycentre des positions de la base de données pondérées . La position estimée pour le mobile est donnée par : ( 126 ) Cette méthode de localisation a été appliquée aux deux traces précédemment présentées . Les trajectoires obtenues sont présentées par la figure 31 . Trajet dans le couloir Table 31 : Trajectoires obtenues en exploitant l' inférence bayésienne pour l' obtention de la position du mobile . La première ligne représente les trajectoires avec l' ensemble des positions issues des mesures instantanées de puissances . La seconde ligne présente le vecteur d' erreur instantanée associé à chaque mesure de puissance . Les résultats obtenus à partir de cette technique de localisation sont assez intéressants , car on commence à voir apparaître la trajectoire suivie par le mobile au cours de son déplacement . Il est à noter que cette technique de localisation ne permet pas de s' affranchir d' avoir une trajectoire traversant les murs . Lorsque le mobile est statique dans une pièce , les positions estimées semblent plutôt rester dans le couloir plutôt que dans la pièce . C' est un défaut de prendre le barycentre de toutes les positions . Le résultat montre que la vraisemblance des mesures référencées dans la base de données se trouvent à proximité de la position réelle du mobile . Cette technique ne semble pas très performante pour aboutir à une localisation précise du terminal mobile . Au niveau des performances , elles sont meilleures que celles obtenues pour le fingerprinting , ce qui est du à l' effet de lissage , car on reste plus facilement centré autour de la zone dans laquelle se trouve le mobile . Les distributions cumulées des erreurs pour ces deux parcours sont données par la figure 32 . Figure 32 : Distribution cumulée des erreurs instantanées avec du fingerprinting couplé à une méthode statistique Les caractéristiques des erreurs sont données par le tableau 32 . Table 32 : Performances de la localisation en utilisant l' estimation bayésienne . Ce tableau exprime le pourcentage de mesures dont l' erreur ( en mètres ) est telle que Du fait que la trajectoire soit déjà lissée par cette technique , elle ne sera pas utilisée par la suite , car on voit qu' elle est contraignante si le mobile entre dans une pièce de l' environnement . Les filtres comme le filtre de Kalman et le filtre particulaire ne pourront pas estimer que le mobile est entré dans une pièce si les mesures n' indiquent jamais que le mobile y est entré . Par la suite , c' est la technique de fingerprinting qui est utilisée et combinée avec les filtres . 6.3.2 Influence du nombre de points d' accès dans l' environnement Un autre point intéressant à étudier pour chacune de ces techniques est l' influence du nombre de points d' accès à prendre en compte pour la localisation . Un des avantages de cette techniques de localisation par fingerprinting est qu' il est possible de prendre en compte tous les points d' accès captés dans l' environnement sans connaître leurs positions . Cette caractéristique est particulièrement intéressante car elle permet de se localiser même si un point d' accès est hors service , ou alors si un point d' accès est déplacé . Aujourd'hui , beaucoup de bâtiments publiques permettent de capter plusieurs points d' accès appartenant à des réseaux différents exploités pour des applications différentes . Des études ont déjà été menées sur l' influence du nombre de points d' accès sur la localisation . Le fait d' utiliser un plus grand nombre de points d' accès permet de stabiliser la technique de fingerprinting puisqu' en procédant de cette manière on introduit une certaine redondance permettant de lutter contre le bruit de mesure . Une série de mesures a été effectuée pour quantifier l' influence de ce nombre de points d' accès sur les performances de la technique de localisation . Dans ces simulations , nous nous sommes placés dans un bâtiment où une vingtaine de points d' accès sont présents . Nous prendrons pour chacune des simulations les quatre points d' accès dont on connaît les caractéristiques ( situés au quatre coins du bâtiment ) , puis ensuite des points d' accès supplémentaires sont choisis aléatoirement parmi ceux présents dans l' environnements . Pour chaque configuration ( nombre de points d' accès différents ) on réalise 100 fois le même trajet avec des points d' accès différents , car les points d' accès supplémentaires sont choisis aléatoirement parmi tous les autres points d' accès que l' on capte . Les résultats obtenus sont présentés sur la figure 33 . Figure 33 : Influence du nombre de points d' accès sur la localisation La figure 33 montre qu' en augmentant le nombre de points d' accès , on améliore les performances de localisation . Lorsqu' on utilise un grand nombre de points d' accès , la limite en terme de performances est due soit à la densité de la base de données , soit à l' espacement de quelques mètres entre les points référencés dans la base de données . Ce résultat montre une information supplémentaire concernant les dégradations dues aux interférences entre les points d' accès . En effet , dans un environnement où on capte plus d' une vingtaine de points d' accès sur quelques dizaines de mètres , les interférences entre les points d' accès sont fortes . Or la base de données réalisée dans notre cas permet de bien tenir compte de ce phénomène car elle est construite à partir de mesures réelles . L' influence du nombre de points d' accès permet d' atteindre des précisions de l' ordre du mètre . Cependant par la suite , nous limiterons nos études à l' utilisation des quatre points d' accès que nous contrôlons , c' est à dire ceux qui se trouvent aux quatre extrémités du bâtiment . 6.4 Apports des techniques de tracking à la localisation par WiFi Précédemment , nous avons vu que la trajectoire d' un mobile issue du fingerprinting ne permet pas de déterminer clairement le trajet qu' il a suivi . Comme les mesures sont effectuées toutes les , il est logique de limiter le déplacement du mobile du fait qu' il ne peut pas se déplacer d' une dizaine de mètres en un temps si court . Or avec le fingerprinting , on remarque que le mobile passe aisément d' un point référencé dans la base de données à un autre en un temps très court . L' objectif est de filtrer ces positions pour tenir compte d' une loi de déplacement liée au mobile . 6.4.1 Application du filtrage de Kalman En reprenant les notations précédentes 4.1 , la matrice représente la matrice de prédiction de l' état suivant du système en fonction du précédent . Ici , comme on estimate des positions , le choix de la loi du mouvement de Newton s' est imposé naturellement : ( 127 ) où représente le temps entre deux mesures . La matrice du système prédisant le nouvel état du système s' écrit sous la forme suivante : ( 128 ) Maintenant , il faut déterminer la matrice qui est employée pour la correction de la position prédite . Déterminer cette matrice n' est pas si simple puisque d' un côté on a des positions qui appartiennent à l' espace métrique ( état du système ) et de l' autre on a les n-uplets de puissance de signal reçu . Il a été vu précédemment qu' il n' existe pas de relation linéaire simple entre ces deux espaces ( l' espace des puissances du signal et l' espace des positions ) . Il est nécessaire de définir une transformation linéaire entre ces deux espaces . La base de données présentée pour la technique de fingerprinting est un bon moyen de contourner ce problème . En effectuant la transformation à partir de la base de données , il est possible de convertir le n-uplet de puissance en une position et de comparer cette position extraite de la mesure avec la position prédite par le système . Par la suite , la relation linéaire prise pour la correction est donnée par l' équation suivante : ( 129 ) Il est nécessaire de fixer une position d' origine à partir de laquelle le filtre s' initialise . Nous avons pris l' origine du repère lié au bâtiment . De ce fait , les premières positions délivrées par le filtrage sont généralement erronées , mais au bout de quelques itérations , le filtre se stabilise autour de la position réellement occupée par le mobile . Les matrices de covariance doivent être dimensionnées judicieusement en fonction des caractéristiques du système , à savoir la confiance à donner à la position retournée par les mesures , mais aussi en fonction de l' importance que l' on veut donner à l' étape de prédiction . Dans les conditions de notre expérimentation , les paramètres suivants ont été retenus : ( 130 ) Les paramètres de la matrice de covariance sont liés à la vitesse de déplacement du mobile . Comme ce mobile se déplace assez lentement ( vitesse d' un piéton ) , il a une vitesse relativement stable , avec une accélération très faible . Les expérimentations nous ont conduits à dimensionner les paramètres de covariance de cette matrice à . La matrice de covariance est choisie de manière à indiquer la confiance à donner aux mesures . Les points de base de données étant espacés d' environ , nous avons choisi de prendre un écart-type soit . Cela signifie qu' on apporte une confiance assez élevée pour les positions a priori se trouvant dans un périmètre de autour de la position retournée par la base de données . Les résultats obtenus par ce filtre sont donnés par la figure 33 . 2 * Trajet dans le couloir Table 33 : Trajectoires obtenues avec un filtrage de Kalman . La 3 colonne présente les trajectoires avec l' ensemble des positions issues des mesures instantanées de puissances . La colonne suivante présente le vecteur d' erreur instantanée associé à chaque mesure de puissance . Ces trajectoires sont cohérentes et permettent de déterminer la trajectoire suivie par le mobile . Cette fois , le filtre retourne une trajectoire qui suit le couloir ( pour la première trajectoire ) . De plus , on observe l' entrée dans une pièce sur la seconde trajectoire . Cette pièce correspond à celle où le terminal est effectivement entré ( amas de positions au niveau de la pièce ) . Cependant , les résultats ne sont pas parfaits . On remarque que le filtre de Kalman ne permet pas du tout de tenir compte des murs puisqu' il existe un grand nombre de traversées de murs tout au long du parcours . Ce comportement est lié au fait que les positions extraites du fingerprinting ne sont pas stables . La figure 33 montre l' influence du nombre de points d' accès . La figure 34 présente les distributions cumulées des erreurs obtenues dans chacun des cas d' usage présentés précédemment . Figure 34 : Distributions cumulées des erreurs instantanées de localisation lors de l' emploi d' un filtre de Kalman Ces résultats sont encourageants puisque les performances affichées sont supérieures à celles des techniques précédentes . Table 34 : Performances du filtre de Kalman . Ce tableau exprime le pourcentage de mesures dont l' erreur ( en mètres ) est telle que Nombre de points d' accès - parcours dans le couloir Le filtrage de Kalman améliore la localisation car d' une part , il conduit à l' obtention d' une trajectoire beaucoup plus cohérente qu' avec les techniques précédentes ( obtention d' une trajectoire proche de celle suivie par le mobile et continuité entre les positions ) , et d' autre part les résultats sur les distributions cumulées des erreurs montrent qu' en terme d' erreur , l' estimation de la position est plus précise . Cependant , il subsiste quelques défauts auxquels l' utilisateur reste sensible . Le premier défaut est qu' en situation statique ( lors de l' arrêt dans une pièce ) , on n' observe pas cette situation d' immobilité sur la trajectoire estimée , puisque le filtre a retourné un amas de positions dans la pièce . Cela laisse à penser que le mobile est toujours en mouvement . Ce phénomène provient du fait que les positions extraites de la base de données fluctuent à cause du bruit sur les mesures . Le filtre interprète ce mouvement des positions extraites de la base de données comme le fait que le mobile lui même est en mouvement . Pour contrer cet effet des fluctuations des mesures , il faut disposer d' un système supplémentaire permettant de connaître précisément l' état dans lequel le mobile se trouve ( mobilité / immobilité ) . De telles informations comportementales du système relèvent plutôt de la navigation inertielle que des informations provenant d' un réseau WiFi . De plus , le filtre de Kalman ne prend pas en compte les informations topographiques et la trajectoire estimée peut franchir les murs . Ceci est gênant si la trajectoire et la position réelle doivent être présentées à l' utilisateur du système de localisation . La complexité de ce filtre reste faible puisqu' il met en oe uvre seulement quelques calculs matriciels simples sur des matrices de faibles dimensions . Dans le cadre des applications de guidage de personnes , il faut introduire la notion de plan du bâtiment pour obtenir une estimation plus réaliste du mouvement d' une personne . 6.4.2 Application du filtrage particulaire De la même manière que pour le filtrage de Kalman ( section 4.1 ) , il faut définir des fonctions exprimant les relations ( relation de prédiction ) et ( relation de correction par la mesure ) telles qu' elles sont décrites à la section 4.2 . Pour l' étape de prédiction , nous avons retenu la loi du mouvement ( équation 127 ) . L' étape de prédiction s' écrit de la manière suivante : ( 131 ) Cette équation représente la prédiction de la position suivante de chacune des particules . Ici , l' accélération des particules est une variable aléatoire . Ce terme non déterministe permet aux particules d' explorer aléatoirement l' environnement . L' inconvénient de ce filtre basé sur des méthodes de Monte-Carlo est la non reproductibilité des résultats . Nous avons décidé de prendre un bruit gaussien pour . En effet , les particules n' ont pas de raison a priori de favoriser l' exploration d' une direction particulière . D' une itération à l' autre du filtre , les particules peuvent choisir d' explorer une nouvelle direction , tout comme le mobile peut changer brusquement de direction . Comme le modèle de prédiction décrit le mouvement d' une personne , les paramètres du modèle doivent être réalistes par rapport à ce mouvement réel de l' utilisateur . L' écart-type de cette loi gaussienne doit être fonction de l' accélération réelle mesurable pour ce mobile . Étant donné que les mesures sont réalisées toutes le , nous avons pris comme variance pour cette loi gaussienne ( valeur proche de celle prise pour le filtre de Kalman , ce qui est normal sachant que le mouvement du mobile est similaire ) . Une fois l' étape de prédiction réalisée , on détermine la contribution de la mesure dans le calcul du nouveau poids de la particule . Pour cette étape , le n-uplet de puissances reçues est transformé en une position afin d' être comparée avec la position de la particule . Plus la particule est éloignée de la mesure , plus la confiance donnée à cette particule est faible . La technique de transformation d' une mesure en une position est celle présentée pour le filtre de Kalman ( mesure transformée en une position à l' aide de la base de données , et de l' algorithme de recherche du plus proche voisin ) . La loi retenue pour évaluer cette différence de position , est une loi gaussienne du fait de sa symétrie , car toutes les directions de l' espace sont pénalisées de la même manière ( gaussienne centrée sur la position extraite de la base de données ) : ( 132 ) Dans la relation précédente , représente la position obtenue par fingerprinting à l' aide de la mesure , et la position de la particule . est l' indice de confiance donné à la mesure . Plus est faible , plus la confiance en la mesure est grande , et plus une particule est proche de cette position extraite de la base de donnée , plus son poids augmente . Nous avons retenu la valeur . La figure 35 présente les résultats obtenus pour les deux trajets de référence . Le filtre particulaire utilisé comporte un ensemble de particules . Le nombre de points d' accès pris en compte est étudié pour voir la sensibilité de l' algorithme de localisation . 2 * Trajet dans le couloir Table 35 : Trajectoires obtenues avec un filtrage particulaire . La 3 colonne présente les trajectoires avec l' ensemble des positions issues des mesures instantanées de puissances . La colonne suivante présente le vecteur d' erreur instantanée associé à chaque mesure de puissance . La figure 35 présente le gain obtenu en terme de qualité de la trajectoire en utilisant le filtre avec des informations topologiques . Le filtre accroît la cohérence du mouvement à partir des informations provenant des mesures WiFi . La trajectoire reste beaucoup plus cadrée dans le couloir pour le mouvement s' effectuant dans cette partie du bâtiment . Lorsque le mobile entre dans une pièce , le filtre permet aux particules d' entrer aussi dans la pièce . Plusieurs remarques sont à faire sur cette situation . D' une part , on observe que pour entrer dans la pièce , la trajectoire prédite traverse quand même un peu le mur . Ceci est du au fait que l' on prenne le barycentre des particules comme position estimée pour le mobile . De plus l' entrée des particules dans la pièce se fait progressivement , puisque ce n' est qu' au bout de quelques itérations du filtre que l' on détecte qu' il n' est plus nécessaire de faire évoluer les particules dans le couloir ( déclenchement d' une procédure de rééchantillonnage ) . La figure 36 présente quelques itérations du filtre avec les particules explorant le bâtiment . Table 36 : Illustration du filtrage particulaire et exploration aléatoire des particules À l' initialisation du filtre , des erreurs importantes sont obtenues . Ici , nous considérons que le mobile peut se trouver dans n' importe quelle zone du bâtiment ce qui implique une initialisation des particules sur tout le bâtiment . Lors des premières itérations , les particules se trouvent donc sur l' ensemble du bâtiment . Comme la position du mobile est donnée par le barycentre des particules , cette position se trouve excentrée par rapport à l' endroit où se trouvent les particules les plus fortes . De plus , le filtre particulaire est sensible à la qualité des premières mesures , puisqu' à l' issue des deux ou trois premières mesures , une étape de rééchantillonnage est déclenchée . Ceci a pour effet de rassembler les particules dans la zone où le filtre estime que le mobile se trouve ( particules de poids les plus forts ) . Si les premières mesures conduisent à une mauvaise estimation de la position du mobile , alors le filtre rééchantillonne les particules dans une mauvaise zone du bâtiment . Ceci est critique lorsque cette zone est éloignée de la zone réelle , car la faible inertie du filtre au départ , entraîne quelques difficultés pour ajuster la poursuite sur la bonne zone . Néanmoins , au bout de quelques itérations supplémentaires , le filtre se resynchronise sur la bonne position du mobile . Un tel phénomène est observable sur la figure 36 . On voit ces quelques positions excentrées par rapport à la trajectoire . Les figures 36 ne montrent pas l' apport en terme de performance sur l' erreur instantanée . Deux situations sont à considérer pour présenter les résultats . D' une part , il y a les résultats relatifs au nombre de particules , et d' autre part , ceux relatifs au nombre de points d' accès . L' étude de l' influence du nombre de particules sur le filtre est effectuée en prenant un des parcours de référence . L' obtention des résultats étant relativement longue , nous nous sommes limités à obtenir les résultats relatifs à la trajectoire la plus complexe , c' est à dire celle qui entre et s' arrête dans une pièce . Nous avons pris en compte les quatre points d' accès qui se trouvent sous notre contrôle , même si beaucoup d' autres points d' accès sont disponibles . Les résultats obtenus sont présentés par la figure 35 . Figure 35 : Influence du nombre de particules sur le filtrage particulaire . Distribution des erreurs instantanées Cette figure représente les distributions cumulées des erreurs instantanées sur un parcours qui est effectué 100 fois , pour chaque groupe de simulation à nombre de particules fixe . Par la suite , les résultats , présentés ici , sont obtenus en utilisant le trajet entrant dans une pièce , et en utilisant 4 points d' accès pour le fingerprinting . Les résultats ( voir la figure 35 ) montrent l' intérêt d' utiliser le plus grand nombre possible de particules . En effet , plus ce nombre de particules est grand , meilleure est la prédiction de la trajectoire du mobile , et plus la prédiction est stable . Ceci s' explique par le fait que si ce nombre de particules est important , les endroits explorés par les particules restent quasiment les mêmes d' une simulation à l' autre . Ceci se traduit par une stabilité des trajectoires d' une simulation à l' autre . L' amélioration de la précision est due à la meilleure l' exploration du bâtiment , ce qui permet au filtre de perdre moins de temps pour se corriger si une fausse piste est suivie . Ce comportement est important pour les environnements indoor , dans lesquels de nombreuses pièces existent , car elles représentent autant de possibilités dans lesquelles le mobile peut s' être engagé . Cependant , augmenter le nombre de particules indéfiniment n' améliore pas significativement la qualité de la localisation . Même si on augmente le nombre de particules , les performances du filtre n' augmentent plus aussi rapidement . Il est donc possible de trouver un compromis entre le nombre de particules à utiliser et la qualité de l' estimation de localisation . Le tableau 37 présente les performances du filtre particulaire en fonction du nombre de particules utilisées . Table 37 : Performances du filtrage particulaire en fonction du nombre de particules . Ce tableau exprime le pourcentage de mesures dont l' erreur ( en mètres ) est telle que Erreur L' autre paramètre , le nombre de points d' accès , présente l' influence du bruit de mesure sur le filtre particulaire . Le bruit sur les mesures étant assez important , il peut déstabiliser le filtre . En cas de bruit très fort , et de totale incohérence entre les mesures , on assiste à un décrochage du filtre particulaire . Un tel phénomène entraîne la perte complète de la localisation . Des mesures sont effectuées de la même manière que pour l' étude de l' influence du nombre de particules . Le protocole présenté dans les sections précédentes est repris pour montrer l' influence du nombre de points d' accès . Les résultats obtenus sont présentés sur la figure 36 . Figure 36 : Influence du nombre de points d' accès sur le filtrage particulaire Plus on capte de points d' accès dans une mesure , plus les positions retournées par l' algorithme de fingerprinting ( entre 2 mesures faites à 300 ms d' intervalle ) sont stables grâce à la redondance des informations ( voir 6.3.2 ) . Cette stabilité de la localisation par fingerprinting influence la stabilité de l' algorithme de localisation exploitant le filtrage particulaire et améliore les performances de ce filtre . Cependant , même si le nombre de points d' accès augmente , les performances de localisation n' augmentent pas dans les mêmes proportions . De plus , si la densité de la base de données est correcte ( une mesure tous le 2 mètres suivant un maillage ) , ceci permet de caler la vitesse des particules sur une vitesse relativement proche de la vitesse réelle de déplacement du mobile . Avec une base de données à faible densité ( points de base de données très espacés ) , les sauts de fingerprint entre deux mesures successives complexifient la tâche d' estimation de la vitesse et conduisent à une moins bonne estimation de la position du mobile . Le tableau 38 donne un ordre de grandeur sur l' évolution des performances en terme d' erreur instantanée en fonction du nombre de points d' accès . Table 38 : Performances du filtrage particulaire en fonction du nombre de points d' accès . Ce tableau exprime le pourcentage de mesures dont l' erreur ( en mètres ) est telle que Erreur Afin de conclure sur les performances de ce filtre , le tableau 39 synthétise les résultats obtenus pour chacune des trajectoires étalon décrites précédemment . Table 39 : Synthèse des performances du filtre particulaire pour la localisation par WiFi . Ce tableau exprime le pourcentage de mesures dont l' erreur ( en mètres ) est telle que Nombre de points d' accès Les résultats présentés dans le tableau 39 ont été obtenu à partir d' un filtre comptant 10000 particules . Figure 37 : Distributions cumulées des erreurs instantanées de localisation lors de l' emploi du filtre particulaire Les résultats ( figure 37 ) présentent les performances atteignables avec ce filtre . Nous obtenons des précisions de localisation inférieures à , par exemple pour le parcours qui a été effectué dans les couloirs . Ce résultat satisfaisant permet de répondre aux besoins de localisation d' un grand nombre d' applications , où il est nécessaire de connaître la position d' une personne . Cependant , comme on l' a vu précédemment , pour obtenir une bonne qualité de localisation , il faut prendre en compte un ensemble assez important de particules , ce qui est préjudiciable sur certaines plates-formes dont les ressources de calcul sont limitées . Ces applications embarquées ne peuvent pas être intégrer une telle solution de localisation , avec un grand nombre de particules . 6.4.3 Application de performances du filtrage particulaire sur un diagramme de Voronoï L' utilisation d' un diagramme de Voronoï permet de diminuer l' espace d' exploration des particules , ainsi que le nombres d' opérations à effectuer ( pas de vérification sur la traversée des murs ) . La contre partie de cette limitation du mouvement des particules peut dégrader la qualité de la localisation . Cette section présente les résultats obtenus en employant ce filtre . Plusieurs paramètres entrent en jeu dans le déroulement de ce filtre . Ils sont évalués afin de connaître les performances à attendre de ce filtre . D' une part , il y a le nombre de particules à prendre en compte ( étude du lien entre les performances de localisation et le nombre de particules ) , et d' autre part l' influence du nombre de points d' accès pour quantifier la dégradation sur la localisation lorsque les mesures de fingerprinting ne sont pas stables . L' utilisation d' un modèle de déplacement ( favoriser le déplacement en ligne droite ) est aussi abordée par la suite . Ces différents points sont importants pour ce filtre puisque le but est de rechercher à limiter autant que possible le nombre de particules . Le fait de réduire l' espace d' exploration , en limitant le mouvement des particules sur le graphe du bâtiment , permet de réduire le nombre de particules nécessaires . Cependant , le mouvement réel de l' utilisateur ne se limite pas au graphe . Des dégradations des performances par rapport au filtre précédent sont à prévoir . Dans un premier temps , nous nous intéressons à l' influence du nombre de particules sur chacun des trajets de référence . Chacun des trajets est estimé 100 fois pour un nombre de particules donné . La figure 38 présente les résultats obtenus . Figure 38 : Influence du nombre de particules sur le filtrage particulaire lorsqu' elles sont contraintes à évoluer sur le diagramme de Voronoï . Distribution des erreurs instantanées . Ces courbes présentent l' influence du nombre de particules sur la localisation , lorsque ces dernières sont contraintes à évoluer sur un graphe . On remarque que l' augmentation du nombre de particules n' accroît pas les performances de localisation dans les mêmes proportions . Il apparaît inutile d' augmenter indéfiniment le nombre de particules . Ceci est un bon point pour cette technique de filtrage puisque nous recherchons à obtenir de bonnes performances de localisation avec le plus faible nombre de particules . Avec 200 à 300 particules , on se retrouve avec des performances quasiment similaires au cas où 1000 particules sont utilisées . Par la suite , nous nous limiterons à utiliser entre 200 et 300 particules lorsque cette technique de filtrage est employée . Le tableau 40 donne des ordres de grandeur sur les performances obtenues pour le parcours dans le couloir . Table 40 : Performances du filtre particulaire contraint sur un diagramme de Voronoï en fonction du nombre de particules . Ce tableau exprime le pourcentage de mesures dont l' erreur ( en mètres ) est telle que Erreur Comme il a été vu précédemment , le nombre de particules n' est pas l' unique paramètre sur lequel il est possible " d' agir " . Le nombre de points d' accès est un paramètre dont il faut tenir compte , puisque plus ce nombre de points d' accès est faible , moins les mesures de fingerprinting sont stables , ce qui peut directement avoir une incidence sur le filtre . La figure 41 présente les résultats de ce filtre pour les deux trajectoires de référence avec des nombres de points d' accès différents . 2 * Trajet dans le couloir Table 41 : Trajectoires obtenues avec un filtrage particulaire contraint sur un diagramme de Voronoï . La 3 colonne présente les trajectoires avec l' ensemble des positions issues des mesures instantanées de puissances . La colonne suivante présente le vecteur d' erreur instantanée associé à chaque mesure de puissance . La figure 41 présente les résultats obtenus pour les trajectoires de référence . On remarque que ce filtre est plus sensible aux fluctuations sur les mesures même si les différents paramètres du filtre ont été optimisés . De brusques changements de direction sont observables alors que le déplacement s' effectuait en ligne droite . La sensibilité du filtre aux fluctuations des mesures est plus marquée lorsqu' on a un faible nombre de particules car chacune d' elles a une importance plus grande dans le processus de filtrage . Un compromis entre qualité de l' estimation et nombre de particules pouvant être gérées par le terminal mobile , est à trouver . Les courbes de la figure 39 donnent des informations sur les performances du filtre en fonction du nombre de point d' accès prise en compte lors de l' étape de fingerprinting . Figure 39 : Distributions cumulées des erreurs instantanées de localisation lors de l' emploi d' un filtre particulaire contraint sur un diagramme de Voronoi Table 42 : Performances du filtre particulaire contraint sur un diagramme de Voronoï . Ce tableau exprime le pourcentage de mesures dont l' erreur ( en mètres ) est telle que Nombre de points d' accès Pour effectuer un parallèle avec le filtrage particulaire " libre " ( sans contrainte de déplacement sur un graphe mais en tenant compte des murs ) , le tableau 42 présente les performances de ce filtre . On note que les performances de ces deux filtres sont similaires en terme de qualité de la localisation . Pour un grand nombre de points d' accès ( en l' occurrence 22 ici ) , les performances de ces deux filtres sont aussi bonnes avec l' une technique ou l' autre . Cependant , lorsqu' on diminue ce nombre de points d' accès , le filtre particulaire contraint à explorer le graphe représentatif du bâtiment , donne de moins bons résultats parce que les positions extraites de la base de données fluctuent plus . Comme le filtre particulaire contraint sur le graphe comporte moins de particules , chacune des particules possède une contribution plus grande dans l' estimation de la position du mobile . 6.5 Comparaison de ces différentes techniques Les sections précédentes présentent les résultats attendus pour un système de la localisation par WiFi ainsi que les performances en terme de précision de localisation . La stabilité des mesures de fingerprinting a aussi été abordée et montre qu' il est possible d' améliorer les performances du système si les mesures sont relativement stables dans le temps . La combinaison avec une technique de filtrage accroît la précision , tout comme la qualité de la trajectoire globale . De nettes améliorations sont obtenues en employant les deux dernières techniques de localisation basées sur le filtrage particulaire . Lors de la présentation des résultats sur les techniques de localisation à base de filtrage particulaire , on remarque que le nombre de particules à prendre en compte pour chacune des techniques de filtrage est différent . Pour obtenir des performances similaires entre le filtrage particulaire et le filtrage particulaire contraint sur un diagramme de Voronoï , on a 10000 particules contre 200 particules respectivement . Les capacités de traitement des différentes architectures accueillant ces solutions de localisation pourront être différentes . Deux architectures de déploiement du système de localisation sont possibles . D' un côté , on trouve des fermes de PC ( serveurs de localisation vers lesquels convergeront toutes les trames émises par les équipements désirant se localiser ) , ou alors on trouve des équipements mobiles cherchant à se localiser eux-mêmes . Une certaine inégalité sur les ressources de calcul subsiste entre ces terminaux . D' un côté , on retrouve des PC portables avec des processeurs cadences à 3 GHz et des capacités mémoire de l' ordre du giga octet de RAM , et de l' autre des Pocket PC comme le HP4700 équipé du processeur Intel PXA270 cadencé à 624 MHz et disposant de de SDRAM ou des téléphones mobiles WiFi équipés de processeurs dédiés . Le temps de traitement d' une mesure ne sera pas le même notamment pour les deux derniers filtres , suivant la plates-forme sur laquelle le filtre sera utilisé . Une étude sur les capacités de déploiement sur des plates-formes à capacités de traitement différentes , comme sur un PC portable et sur un Pocket PC , est nécessaire . Cette étude a pour but de mettre en lumière l' adéquation algorithme / plate-forme et de fournir des éléments de réponse quant au choix de l' architecture à déployer suivant les attentes en terme de performances de localisation . 6.5.1 Performances temporelles L' étude des performances temporelles d' un système n' est pas simple . Plusieurs critères sont à prendre en compte . On trouve des systèmes exprimant leurs performances en nombre d' opérations ( MIPSMIPSMillions of Instructions Per Second ) , mais ici nous n' avons pas accès simplement à ces données ni à des outils permettant de recueillir le nombre d' instructions à effectuer lors des opérations de filtrage . Nous avons préféré étudier le temps nécessaire au traitement des données pour chacune des plates-formes de référence citées ci-dessus ( temps de traitement d' une mesure ) . Pour cela , nous avons fait fonctionner chacun des algorithmes ( fingerprinting , filtrage de Kalman , filtrage particulaire et filtrage particulaire contraint sur un diagramme de Voronoï ) , et le temps de traitement de chacune des mesures est sauvegardé . Afin de garantir une certaine stabilité , vis à vis des événements pouvant survenir au niveau du système d' exploitation , il a été décidé de re-parcourir 100 fois chacun des deux parcours . Les temps de traitement de chaque mesure sont donnés dans le tableau 43 . Table 43 : Performances temporelles ( en ms ) des différentes techniques de localisation en fonction des architectures . Ce tableau exprime le pourcentage de temps de traitement ( en millisecondes ) tel que Pourcentage de mesures : Ces résultats ont été obtenus sur les plates-formes suivantes : & 226;& 128;& 162; Un ordinateur de type PC sous windows XP ayant un processeur AMD à 2.8 GHz et de mémoire RAM & 226;& 128;& 162; Un Pocket PC de type HP4700 sous Windows Pocket PC 2003 . Le processeur de ce Pocket PC est cadencé à 647 MHz et il possède de Ram . Chacune des techniques fonctionne sur les différentes plates-formes , mais le filtre particulaire " libre " n' est pas vraiment adapté pour les applications embarquées comme nous l' avons prévu . Un temps important est nécessaire pour traiter chaque mesure . Ceci introduit un délai non négligeable à l' observation de la trajectoire ( au bout de quelques minutes ) . Pour éviter ce retard , il est nécessaire de réduire la fréquence des mesures WiFi afin que le Pocket PC traite en un temps raisonnable les mesures . Ceci a pour effet de délivrer une trajectoire paraissant moins continue . De plus , il faut garder à l' esprit que pour ces tests , aucune autre application ne fonctionnait . Si dans une telle situation , une application tiers nécessitait des ressources CPU , dans ce cas , l' opération de localisation se serait trouvée encore plus ralentie avec des dégradations plus importantes sur la trajectoire finale . L' ensemble de ces résultats montre qu' il faut trouver l' architecture de localisation la mieux adaptée à chacune des situations de localisation . Les différents paramètres à prendre en compte dans le choix d' une architecture sont les suivants : 1 . Précision de la localisation 2 . Taux de rafraîchissement des mesures 3 . Plate-forme sur laquelle est déployée l' infrastructure de localisation Afin de faciliter l' exploitation de notre infrastructure de localisation dans chaque situation , nous avons retenu un découpage en forme de trois blocs distincts : 1 . Bloc effectuant les mesures WiFi 2 . Bloc de traitement des mesures WiFi 3 . Bloc de transition entre la localisation et une application ayant des besoins de localisation Une telle architecture en bloc a la souplesse de pouvoir être déployée pour n' importe quel type d' application , puisque chacun des blocs communique avec un autre bloc via des connections de type socket . La localisation peut être effectuée soit en local sur le terminal lui-même , soit en déportée sur un serveur de localisation dédié . Si on envisage de déployer une solution de localisation avec une architecture de type client / serveur avec un serveur de localisation distant dédié à cette tâche , on peut utiliser un filtre particulaire , tandis que si les traitements sont effectués localement , on préfère utiliser un filtre de Kalman ou un filtre particulaire dont les particules sont contraintes à se déplacer sur la graphe du bâtiment ( ce dernier filtre donnant des performances comparables à celles obtenues par le filtre particulaire non contraint , tout en ayant des temps de traitement bien inférieurs à ceux obtenus avec un filtre particulaire non contraint ) . Ce Chapitre a présenté un aspect de la localisation par réseau WiFi avec les traitements associés aux mesures améliorant la localisation obtenue par fingerprinting . La technique du fingerprinting employée ici donne de bons résultats à elle seule , et peut être suffisante pour certaines applications notamment celles liées aux personnes pouvant se contenter d' une précision de l' ordre de 3 mètres . Cependant , des améliorations sont possibles au niveau de la qualité de la localisation en combinant les mesures dans des filtres estimant la position du mobile en fonction de mesures et d' estimations sur le déplacement du mobile . Néanmoins , Cette technique du fingerprinting possède l' inconvénient de nécessiter une phase de mise en place du système ( calibration ) . Il faut obtenir une estimation de la couverture radio du bâtiment avant d' effectuer de la localisation . Cette phase de calibration du système est contraignante dans certaines situations au niveau du temps nécessaire à la mise en place du système . Cette contrainte est d' autant plus forte que dans certaines situations l' utilisation d' une telle technique de localisation semble difficile . Si par exemple , des pompiers arrivent sur un site où ils veulent se localiser lors de l' intervention ( grâce aux bornes WiFi préalablement installées ) , et que la structure de ce bâtiment se dégrade au cours du temps ( à cause d' un incendie par exemple ) , dans ce cas la contrainte liée à la constitution de la base de données devient très forte , voire rédhibitoire dans la forme actuelle du procédé de création de la base de données . Une des évolutions de cette technique de localisation par fingerprinting est de limiter les contraintes sur la constitution de cette base de données afin de rendre le service de localisation opérationnel plus rapidement . Ce point constitue un nouvel axe de recherche pour ce système de localisation par fingerprinting . 3 La localisation par signaux impulsionnels à large bande Parmi les trois étendues , il faut compter le temps , l' espace et le silence . L' espace est dans le temps , le silence est dans l' espace . Joseph JOUBERT Le chapitre précédent a présenté une technique de localisation basée sur le fingerprinting . Cette technique nécessite de construire une base de données au préalable . De plus , la précision dans le meilleur des cas est de . Pour s' affranchir de ces contraintes , nous proposons d' utiliser des mesures temporelles . De nouveaux standards dans le cadre de l' IEEEIEEEInstitute of Electrical and Electronics Engineers proposent la mise en place de nouvelles technologies qui peuvent devenir de sérieux candidats quant à l' obtention d' informations de localisation . Dans le cadre des travaux menés par le groupe de travail 802 . 15.4a [ ? ] , les systèmes Ultra-Large Bande Impulsionnel ( ULB-IRULB-IRUltra Large Bande impulsionnelULBUltra Large Bande ou UWB-IRUWB-IRUltra Wide Band ImpulseUWBUltra Wide Band ) ont été retenus . Les caractéristiques techniques semblent bien adaptées pour effectuer des opérations de localisation . La technologie large bande satisfait le cahier des charges que s' est imposé le groupe de normalisation IEEE 802 . 15.4a , en terme de débit , de robustesse et de capacité de mesure de distance entre équipements . Le standard 802 . 15.4a prévoit que les équipements respectant cette norme puissent effectuer des mesures de distances relativement précises . Ici nous nous plaçons dans le cadre où les signaux large bande émis sont des impulsions telles que celles décrites dans les références [ ? , ? ] . L' émission d' impulsions de largeur très faible permet d' avoir une grande résolution temporelle . Cette forte résolution temporelle est intéressante pour la mesure du temps de vol entre deux équipements car en réception , on doit distinguer chacune des impulsions émises . Cependant , comme dans tous les systèmes de localisation de ce type , il faut que l' émetteur et les récepteurs soient synchronisés . Cette étape de synchronisation n' est pas toujours aisée . Des défauts de synchronisation entre les différents éléments du système conduisent à une erreur plus importante . Pour s' affranchir de tels problèmes de synchronisation entre l' émetteur et les récepteurs , nous proposons de mesurer les différences de temps d' arrivée ( Time Difference Of Arrival - TDOA ) . Cette technique de localisation est précisément décrite par la suite , en mettant clairement en avant l' intérêt de cette méthode par rapport aux autres techniques de localisation existantes . La combinaison de la technologie radio Ultra Large Bande avec cette technique de localisation TDOA nous permettra d' exploiter des mesures temporelles pour localiser un mobile , tout en explorant les capacités de localisation de cette technologie pour ce standard . 1 Rappels sur les signaux impulsionnels large bande 1.1 Qu' est ce que l' ULB Le standard 802 . 15.4a défini deux critères que doit respecter un signal pour être qualifié de large bande . & 226;& 128;& 162; Avoir une bande instantanée au moins supérieure à 20 % de leur fréquence centrale . & 226;& 128;& 162; Avoir une bande instantanée au moins égale à 500 MHz ( où la bande est définie comme la différence entre les deux points à en dessous du maximum du spectre ) . Tout signal satisfaisant ces deux critères est qualifié comme large bande . Les équipements respectant ce standard émettent des signaux à bande très large avec une densité spectrale de puissance restant sous le niveau des émissions non intentionnelles de bruit . Les bandes peuvent s' étendre sur plusieurs gigahertz . L' ULB présente les avantages suivants : & 226;& 128;& 162; Avantage technique : la capacité du canal croit linéairement avec la bande de fréquences alors qu' elle ne présente qu' une croissance logarithmique selon le rapport signal à bruit [ ? ] . & 226;& 128;& 162; Avantage économique : en effectuant des émissions de signaux dont la densité spectrale de puissance est sous le niveau de bruit ambiant , il n' y a pas de licence . Du fait de ces définitions , il existe différents moyens de générer un signal dit ULB : & 226;& 128;& 162; La modulation OFDM peut générer des signaux ULB grâce à une opération de IFFTIFFTInverse Fast Fourier Transform . & 226;& 128;& 162; L' étalement de spectre par séquence directe DSSSDSSSDirect Sequence Spread Spectrum , en utilisant un code pseudo aléatoire ( ou PN : Pseudo Noise ) à large bande ( chirp ) . & 226;& 128;& 162; La radio impulsionnelle ou Impulse Radio ( IR ) qui consiste à émettre généralement en bande de base des pulses de type gaussien de durée très brève et donc naturellement large bande . Dans le cadre de notre étude , nous nous sommes attachés à employer la radio impulsionnelle pour se localiser à l' intérieur d' un bâtiment . La Radio Impulsionnelle , ou Impulse Radio , est désignée par la suite sous le terme ULB . 1.2 L' intérêt de l' ULB pour la localisation Dans le cadre de la localisation , l' intérêt pour l' ULB ne se traduit pas en terme de débit mais en terme de résolution temporelle . L' inégalité de Cramer-Rao indique la borne minimale sur l' estimateur non biaisé de la résolution temporelle [ ? , ? ] : ( 133 ) SNRSignal to Noise Ratio où est la variance de l' estimateur sur la mesure TOA . La borne de Cramer-Rao pour la mesure de distance est obtenue en multipliant cette variance par la vitesse de l' onde dans le milieu . Cette expression de la borne de Cramer-Rao présente la décroissance en si le rapport signal à bruit augmente , tandis que cette décroissante s' effectue en si la largeur de la bande augmente . La figure 40 représente cette évolution de la précision de localisation en fonction des différents paramètres . Figure 40 : Borne de Cramer-Rao sur l' erreur d' estimation en fonction du rapport signal à bruit pour la technique TOA Cette borne met en évidence la forte capacité de localisation de l' ULB impulsionnel . Pour une bande de 1.5 GHz on peut espérer une erreur inférieure à pour des supérieurs à . Afin d' obtenir de telles performances , il est nécessaire d' avoir des impulsions correctement dimensionnées pour occuper cette bande de fréquences . Une forme possible pour l' enveloppe de cette impulsion est l' enveloppe gaussienne ou celle de ses dérivées successives comme indiqué ci-dessous : ( 134 ) où , , , ... sont des facteurs de normalisation de l' amplitude ( amplitude maximale ou énergie constante ) . permet d' ajuster la largeur de l' impulsion et le retard . Une généralisation de ces dérivées successives est possible en utilisant les polynômes de Hermite : ( 135 ) avec le coefficient du polynôme de Hermite d' ordre n . Ces dérivées successives ont pour transformée de Fourier l' expression suivante : ( 136 ) La figure 44 représente les impulsions ainsi que leur occupation spectrale . Les courbes d' occupation spectrale sont normalisées . Table 44 : Représentation des polynômes de Hermite ( forme temporelle à gauche et spectre à droite ) En augmentant l' ordre de la dérivée , on observe une montée en fréquence de l' énergie contenue dans l' impulsion . Ceci permet de monter légèrement en fréquence la bande de fréquence en émission afin de respecter le masque d' émission en puissance préconisé par la FCC . Que ce soit pour un objectif de communication ou de localisation , les pulses ULB sont émis avec un intervalle de répétition relativement important ( de à ) , formant ainsi un signal ayant un rapport cyclique très faible ( moins de 1 % ) et donc une puissance moyenne réduite . La puissance du pulse étant étalée sur une très large bande , la densité spectrale de puissance s' avère très faible . 1.2.1 Les techniques de modulation pour l' ULB Dans une application de type communication , la modulation s' avère nécessaire afin de transmettre une information . Pour une application de type localisation , une modulation peut être nécessaire ( par exemple un code pseudo-aléatoire ) . Les deux principales modulations utilisées sont la modulation PPMPPMPulse Position Modulation ( Pulse Position Modulation ) et la modulation PAMPAMPulse Amplitude Modulation ( Pulse Amplitude Modulation ) . La modulation d' amplitude généralement utilisée possède deux états . Elle consiste à coder l' information par la polarité ( positive ou négative ) de l' impulsion . On parle de codage NRZNRZNon Retour à Zero ( Non Retour à Zero ) . Une autre forme simple de codage est le OOKOOKOn Off Keying ( On Off Keying ) aussi appelé codage tout ou rien . La modulation PM consiste à associer à chaque symbole un délai temporel précis dans l' intervalle de répétition ( PRIPRIPulse Repetition Interval : Pulse Repetition Interval ) , comme le montre la figure 41 . Il est possible de créer des modulations avec un grand nombre d' états , mais au prix d' une dégradation de la probabilité de fausse détection et d' une augmentation de la complexité du récepteur . Les raies apparaissent dans le spectre du signal émis ( voir figure 41 ) à cause de la répétition du pulse . Ces raies sont un peu atténuées grâce à la modulation PPM . Figure 41 : Illustration de la modulation PPM et densité spectrale Ces différentes stratégies de modulation des impulsions permettent d' implanter des codes pseudo-aléatoires en émission , à l' image des codes pseudo-aléatoires utilisés bien souvent en localisation . Les codes pseudo-aléatoires ou codes PN ( Pseudo Noise ) sont utilisés en ULB , tant en localisation qu' en communication , pour plusieurs raisons . Étant donné la faible puissance émise , il faut en général la contribution de plusieurs pulses pour extraire le signal du bruit . Cependant , cette répétition du pulse à intervalles réguliers fait apparaître des " pics " dans le spectre , ce qui génère des interférences vis-à-vis des autres systèmes radio . Même dans une application de type communication , la modulation PPM ne suffit pas à supprimer ces raies car la variation de la période de répétition est faible . Une approche possible est de rendre " aléatoire " l' intervalle de répétition des pulses selon un code PN . Cette technique appelée Time Hopping permet de " lisser " le spectre du signal ULB . Il est également possible de moduler les pulses émis en polarité selon un code PN afin de supprimer les pics du spectre . L' utilisation de codes pseudo-aléatoires permet aussi d' envisager de disposer d' un système multi-utilisateurs . La technique Time-Hopping CDMA ( TH-CDMA ) pour un système de transmission ULB a été formalisée par Scholtz dans [ ? ] en 1993 . La société Ætherwire [ ? ] a développé un système de localisation multi-utilisateurs en ULB , utilisant des codes pseudo-aléatoires modulant en polarité l' émission de doublets . Dans cette optique multi-utilisateurs , idéalement , l' autocorrélation d' un code pseudo-aléatoire doit donner naissance à un seul pic de corrélation , et la cross-corrélation ( corrélation entre deux codes différents ) doit être nulle . 1.3 Les caractéristiques du canal radio Ultra Large Bande Les signaux ULB se comportent différemment des signaux bandes étroites dans un milieu de propagation indoor . La brièveté temporelle du signal ULB explique la plupart de ses particularités [ ? ] . En milieu indoor , le grand nombre de trajets observés s' explique par le fait qu' un grand nombre de réflexions , diffractions , transmissions existent à travers tous les objets ( mobiliers , murs ) présents dans l' environnement . De plus la brièveté des impulsions les rend discernables au niveau du récepteur . La durée du pulse ULB est généralement inférieure ou comparable au temps séparant deux trajets du canal . Ceci explique la robustesse des signaux ULB au phénomène de fading par rapport à un système bande étroite pour un environnement riche en multi-trajets . Les mesures réalisées dans [ ? ] indiquent la robustesse des signaux ULB quant à la variation de la puissance reçue en NLOS ( No-line-of-sight ) , c' est-à-dire lorsque l' émetteur et le récepteur ne sont pas en visibilité directe . Cette variation reste inférieure à , résultat à comparer avec des valeurs allant de à pour un système bande étroite . Une étude sur la modélisation du canal ULB a été réalisée par Cramer , Scholtz et Win dans [ ? ] . Cette étude utilise une campagne de mesures effectuée dans un environnement de type bureaux [ ? ] . Les signaux reçus sont analysés à l' aide d' un algorithme dérivé de l' algorithme CLEAN . L' algorithme CLEAN , utilisé initialement pour la Radio Astronomie , est maintenant très répandu dans le domaine de l' ULB . Grâce à un algorithme dit Sensor-CLEAN , les différents trajets des signaux ULB sont étudiés temporellement ( retard ) et spatialement ( direction d' arrivée ) . Les résultats de la campagne de mesures indiquent un phénomène de " clustering " des multi-trajets . Les différents trajets arrivent au récepteur par groupes . Le premier groupe de trajets correspond aux trajets arrivant plus ou moins directement au récepteur tandis que les groupes suivants proviennent des réflexions ( et autres phénomènes comme les diffractions ) sur des structures du bâtiment telles que les portes , les murs , les armoires métalliques , les fenêtres , etc. Un modèle de canal représentant ce phénomène , exploité dans [ ? ] , est le modèle de Saleh-Valenzuela [ ? ] proposé en 1987 . L' expression complexe du canal est de la forme suivante : ( 137 ) Les temps d' arrivée des " clusters " sont modélisés comme des variables aléatoires obéissant à un processus de Poisson avec un taux d' arrivée . De même , les temps d' arrivée des trajets à l' intérieur d' un " cluster " obéissent également à un processus de Poisson avec un taux d' arrivée supérieur . L' amplitude des trajets ( valeur positive ) décroît à la fois en fonction de l' instant d' arrivée du " cluster " correspondant mais aussi en fonction de l' instant d' arrivé dans le cluster . Une constante de décroissance est associée aux " clusters " et une constante de décroissance est associée aux trajets . La distribution des puissances , pour une moyenne donnée dépendant du temps d' arrivée , est une distribution de Rayleigh . Enfin , la distribution des phases est uniforme dans . La figure 42 représente ce modèle . Figure 42 : Modèle Saleh-Valenzuela , décroissance de l' amplitude en fonction des temps d' arrivée des " clusters " et des trajets Différents modèles de canaux ont été proposés par le task group IEEE . 802 . 15.4a afin d' effectuer des simulations sur les performances que l' on peut attendre des systèmes ULB en terme de communication et de localisation [ ? ] . Les résultats obtenus concernent les environnements et conditions de mesures suivants : & 226;& 128;& 162; Indoor résidentiel : ces environnements sont orientés vers les applications de type réseaux domestiques avec des communications effectuées entre différents capteurs dans différents types de conditions ( fumée , incendies , etc ) . Leur déploiement est prévu sur de petites surfaces . Les matériaux de l' environnement sont caractérisés localement avec des épaisseurs de murs assez faibles . & 226;& 128;& 162; Indoor de type bureau : dans cet environnement , certaines pièces sont considérées équivalentes en taille à l' environnement indoor résidentiel ( pièces de type laboratoire par exemple ) . De plus , on retrouve des éléments de très grandes tailles avec de petites pièces de part et d' autre ce qui est le cas d' environnements possédant de très longs couloirs . Souvent , de nombreux éléments de mobilier sont présents dans cet environnement . Tous ces éléments introduisent des atténuations qu' il convient de prendre en compte pour la modélisation du canal radio . & 226;& 128;& 162; Environnements de type industriel : ces environnements sont caractérisés par des pièces possédant de grands volumes comblés par de nombreux éléments métalliques favorisant les réflexions des ondes . La caractéristique principale de cet environnement est le grand nombre de multi-trajets . & 226;& 128;& 162; Les zones où les corps humains jouent une influence ( Body Area Network - BANBANBody Area Network ) . Cet environnement est caractéristique lorsque les capteurs se trouvent sur un corps humain ( pour des applications de type médicale ou de téléphonie mobile par exemple ) . Ainsi le corps se trouvant dans la zone de champ proche de l' antenne , il est possible de prédire les modifications introduites sur le champ radio électrique ( atténuations ) . & 226;& 128;& 162; Outdoor : de part la grande diversité de ces environnements , le modèle proposé se limite aux scénarii microcellulaires sub-urbains à faible portée . & 226;& 128;& 162; Zones agricoles : cet environnements possède comme caractéristique d' avoir peu d' obstacles et les obstacles sont assez éloignés les uns des autres ( silos , râteliers pour les animaux , etc ) . L' étalement des retards peut être anticipé dans la modélisation des réponses impulsionnelles associées à cet environnement . Les applications visées par le IEEE . TG . 802.15.4 . a sont plutôt bas débit et longue portée . Le simulateur MATLAB de canaux ULB indoor mis à disposition dans [ ? ] reprend le modèle de Saleh-Valenzuela avec quelques modifications . La distribution de l' amplitude des trajets suit une loi log Normale . Le modèle de canal n' est pas un modèle complexe . L' expression du canal devient : ( 138 ) où avec une distribution uniforme du signe . correspond à un effet de shadowing ( loi log Normale ) . Les caractéristiques du modèle proposé sont les suivantes : & 226;& 128;& 162; Le modèle ne tient pas compte de l' effet introduit par les antennes et il convient de le faire apparaître lors de l' utilisation du modèle & 226;& 128;& 162; Utilisation d' une loi en pour modéliser la décroissance de la puissance sur le trajet direct . & 226;& 128;& 162; Influence de la fréquence de travail sur l' amplitude du trajet direct & 226;& 128;& 162; Modèle de Saleh-Valenzuela modifié arrivée des trajets par clusters Utilisation d' une loi de Poisson pour modéliser l' arrivée des trajets Décroissance possible sur les amplitudes des clusters en fonction de leur instant d' arrivée Certains environnements NLOS présentent une augmentation puis une diminution sur le profil de puissance ( pdppdppower delay profile - power delay profile ) & 226;& 128;& 162; Utilisation d' une distribution de Nakagami pour modéliser l' évanouissement à petite échelle , avec différentes valeurs du facteur pour différentes composantes & 226;& 128;& 162; évanouissement par bloc : le canal reste stationnaire sur la durée de plusieurs bursts de données . Il convient de noter que ce canal ne représente pas la déformation d' un pulse lors de réflexions dans le milieu de propagation . Hors , selon [ ? ] quand l' onde pénètre un matériau ou est réfléchie par un objet , il y a un effet de filtrage très sensible en fréquence , notamment si les dimensions de l' objet sont comparables à la longueur d' onde ( hautes fréquences ) . Il y a donc distorsion du pulse ULB . C' est pourquoi le traitement à la réception employé dans [ ? ] utilise différents modèles de pulses ( ou templates ) selon les directions d' arrivée en considérant que le signal reçu est de la forme : ( 139 ) Où et représentent respectivement l' atténuation et le temps d' arrivée du trajet , la forme du pulse de départ p ( t ) ( pulse déformé ) . Ceci est particulièrement utile si on effectue des corrélations en réception pour détecter les pulses . Les différents paramètres du modèle de propagation sont présentés dans [ ? ] . Des résultats de paramètres associés à chacun de ces environnements y sont aussi fournis . La figure 45 présente plusieurs réalisations de ce modèle pour l' environnement de type indoor bureau . Table 45 : Exemple de réalisation pour un canal NLOS Sur la figure 45 , on remarque que les trajets avec un temps d' arrivée supérieur à deviennent négligeables . Les canaux du type résidentiel LOS / NLOS et de type bureau LOS / NLOSLOSLine Of SightNLOSNon Line Of Sight seront utilisés puisque le système de localisation à l' étude vise un déploiement réel dans ces environnements . Cependant , le modèle a été légèrement modifié . Dans le programme , le temps d' arrivée du premier trajet d' un " cluster " est nul relativement au temps d' arrivée du " cluster " . Dans le modèle LOS , le temps d' arrivée du premier " cluster " est nul . Dans le cas NLOS , le temps d' arrivée du premier cluster est calculé selon le processus de Poisson avec le taux d' arrivée . Le premier échantillon d' un canal ne correspond plus à son premier trajet . En fait le trajet direct n' existe plus . Mais lors des simulations , des statistiques doivent être réalisées notamment sur le temps entre le premier trajet et le trajet le plus fort . D' autre part , le fait de supprimer le trajet direct , même si celui -ci est fortement atténué en NLOS , nous semble contestable . Par trajet direct , on entend trajet émetteur-récepteur sans réflexion . Étant donné la forte dispersion du canal ULB en indoor , des techniques de détection performantes doivent être mises en place en réception , notamment dans le cas de la recherche du premier trajet pour une application de localisation . 1.4 La réception d' un signal ULB Quelle que soit l' application envisagée , la première étape en réception consiste en une synchronisation . Elle s' effectue généralement au moyen d' une corrélation glissante entre le signal reçu et un signal nommé template construit par le récepteur . Étant donné que l' opération de corrélation correspond à une mesure de la ressemblance , le template utilisé est une copie du signal émis . En général , le pulse ULB émis est modulé par une séquence pseudo-aléatoire connue en réception . La corrélation glissante s' effectue donc sur toute la longueur de la séquence pseudo-aléatoire . Les nombreux trajets présents dans un canal indoor ULB ( figure 43 ) donnent lieu à plusieurs pics de corrélation . Dans une application de communication , le récepteur se synchronise sur le trajet le plus fort . Quand il s' agit de géolocalisation , le récepteur doit retrouver le premier trajet détectable , qui n' est pas toujours le plus fort notamment dans un canal NLOS , afin d' éviter de larges erreurs sur l' estimation de la distance le séparant de l' émetteur . Figure 43 : Canal ULB : le premier trajet n' est pas toujours le plus fort La stratégie dépend du type d' application envisagée . En communication , on essaie de tirer profit des nombreux multi-trajets présents dans un canal ULB indoor afin de récolter le maximum d' énergie et de prendre une décision . La recombinaison est réalisée via un récepteur RAKE . Sommairement , un récepteur RAKE est composé d' un filtre adapté au signal reçu . Le filtre adapté à la réponse du canal permet de recombiner les différents trajets estimés . Néanmoins , les ressources de corrélation sont limitées . La performance d' un récepteur RAKE est définie par l' énergie capturée en fonction du nombre de " doigts " [ ? ] . Un " doigt " permet d' obtenir la valeur de corrélation du signal reçu avec le template pour un retard donné . Le nombre de trajets estimés est égal au nombre de " doigts " possédés par le RAKE . Dans une application de localisation , on recherche à estimer l' instant d' arrivée des trajets , pour remonter à l' instant d' arrivée du premier trajet : le premier trajet . Ceci passe d' abord par une estimation du canal ( convolution par le premier filtre adapté utilisé dans le récepteur RAKE ) . Dans tous les cas , la détection des maximums de corrélation permet d' estimer les retards et les atténuations des trajets . Cette détection est basée sur le critère de Maximum de Vraisemblance , ou critère MLMLMaximum Likelihood ( Maximum Likelihood ) . Dans [ ? ] , Win et Scholtz définissent le principe du récepteur multi-trajets optimal basé sur ce critère . L' hypothèse est que le signal reçu est composé d' une combinaison linéaire du signal de base et de ses répliques retardées , auquel un bruit est ajouté . Une seconde hypothèse est que est un bruit blanc gaussien ( AWGNAWGNAdditive White Gaussian Noise ) . ( 140 ) En considérant sur un intervalle de temps , le critère ML consiste à trouver les meilleures estimations et telles que le signal reconstitué soit le plus proche possible du signal reçu . Étant donné que est un bruit AWGN , on a l' équivalence suivante : ( 141 ) et sont des vecteurs de longueur et se notent sous la forme suivante : ( 142 ) En faisant l' hypothèse qu' il n' y a pas d' interférences entre les multi-trajets , c' est-à-dire que la différence des retards de deux trajets consécutifs est supérieure à la largeur du pulse , les relations matricielles se simplifient [ ? ] : ( 143 ) Le vecteur donne valeurs de corrélation de avec le template pour différents retards : ( 144 ) est le maximum d' autocorrélation du template . Les trajets à choisir sont les maximums de la valeur absolue de la corrélation du signal reçu par le template . Cela donne les retards des trajets . Les atténuations de ces trajets sont estimées en divisant la valeur de corrélation obtenue pour chacun de ces retards par l' autocorrélation du template . Un des problèmes consiste à concevoir le motif ( ou template ) optimal [ ? ] , compte tenu du milieu de propagation dont chaque trajet peut appliquer sa propre distorsion au pulse ULB transmis . Il faut également tenir compte de l' effet des parties RF de l' émetteur et du récepteur ( amplificateurs , antennes , etc. ) qui déforment le pulse . [ ? ] propose d' orienter la recherche vers une famille de templates . D' une manière générale , le procédé de détection par corrélation est robuste , même si le template au niveau du récepteur ne correspond pas au pulse reçu . En effet , on peut considérer que le pulse reçu est de la forme : ( 145 ) avec le pulse émis et un bruit en réception de ce pulse ( ici , il correspond à la déformation du pulse ) . Ainsi en réception on a le résultat suivant au niveau de la corrélation : ( 146 ) Si on considère que le pulse et le bruit sont décorrélés , alors il ne reste plus que l' énergie due à la détection du pulse . 1.5 ULB et localisation indoor L' ULB , grâce à sa bonne résolution temporelle , a de bons atouts pour prétendre à être utilisé dans un système de localisation . Cependant , la tâche n' est pas aisée . De nombreux aspects sont à traiter , tant au niveau de la réglementation que des techniques utilisées . À l' émission , il faut tenir compte : & 226;& 128;& 162; Des normes actuelles de la FCC sur la puissance et le spectre d' émission . & 226;& 128;& 162; Garantir un SNR acceptable en réception . & 226;& 128;& 162; De l' étalement des retards du canal afin d' éviter les interférences inter-symboles . & 226;& 128;& 162; Des propriétés d' un code pseudo-aléatoire . À la réception , les points importants sont : & 226;& 128;& 162; Le temps d' acquisition afin d' avoir assez d' énergie . & 226;& 128;& 162; Le choix du template à utiliser dans un récepteur de type corrélation . & 226;& 128;& 162; Retrouver le premier trajet dans un contexte multi-trajets important en minimisant l' erreur . & 226;& 128;& 162; Choisir la méthode de localisation par mesure temporelle la mieux adaptée . Notre étude porte sur tous ces aspects importants pour la conception d' un système de localisation par ULB . La partie suivante présente les choix qui ont été faits , au niveau matériel avec les éléments de la chaîne émission / réception et au niveau traitement du signal en réception en tenant compte des phénomènes observés en pratique . 2 Le système de localisation par ULB envisagé Cette section aborde les différents aspects de la chaîne de communication à mettre en place pour se localiser . Une proposition d' architecture est faite avec la caractérisation des signaux à émettre pour avoir une bonne localisation . Ensuite , des simulations sont menées sur cette chaîne de communication afin de caractériser les paramètres critiques des algorithmes mis en oe uvre pour remonter à l' information de premier trajet dans la réponse impulsionnellle du canal . Ces simulations seront basées sur l' utilisation des modèles de canaux de propagation proposés par le groupe IEEE . 802 . 15.4a . 2.1 Présentation de l' architecture du système retenu L' objectif de cette étude est de montrer la faisabilité de la localisation indoor par ULB dans le cadre de la réglementation actuelle afin de comparer la localisation par ULB à la localisation par WiFi . Nous avons simplifié le problème en nous limitant à l' étude du système en mono-utilisateur . C' est pourquoi le choix d' utiliser un code pseudo-aléatoire est lié aux objectifs de puissance d' émission ( gain sur le SNR nécessaire à cause du faible niveau de puissance d' émission autorisé ) . Les codes pseudo-aléatoires utilisés ne sont pas choisis en fonction de leurs propriétés d' intercorrélation mais seulement en fonction de leurs bonnes propriétés d' autocorrélation . De même , le concept du système de localisation étudié est choisi en fonction de sa simplicité de réalisation , à partir des éléments déjà disponibles ( figure 44 ) . Figure 44 : Principe du système de localisation Deux architectures sont possibles : & 226;& 128;& 162; soit l' objet à localiser émet et le réseau d' antennes écoute , & 226;& 128;& 162; soit chaque antenne du réseau émet et l' objet à localiser écoute . La première solution a été choisie car elle nécessite un seul émetteur ULB . D' autre part , il existe au moins deux manières de faire de la localisation par mesures temporelles . Considérons le cas 2D. La méthode TOA ( Time Of Arrival ) mesure trois temps de propagation émetteur-récepteur , ce qui permet de réaliser une triangulation ( intersection de trois cercles ) . L' inconvénient de cette méthode est qu' elle nécessite une synchronisation émetteur / récepteur ( RTT : round time trip . Ceci correspond à la mesure du temps que met un équipement pour recevoir une réponse à sa requête ) . Une alternative est la méthode TDOA ( Time Difference Of Arrival ) qui consiste à mesurer les différences entre les temps d' arrivée des signaux au niveau du réseau de récepteurs . Chaque différence de temps permet de tracer une hyperbole dans le plan ( cas 2D ) . L' intersection de trois hyperboles donne la position de l' objet à localiser . L' avantage de cette méthode est qu' elle ne nécessite pas de synchronisation émetteur / récepteur . Néanmoins , une synchronisation entre le réseau de récepteurs est nécessaire , et une antenne supplémentaire doit servir d' antenne de référence pour obtenir trois différences de temps d' arrivée . Cette solution TDOA a été la plus pratique à mettre en oe uvre , , puisque la synchronisation entre les antennes réceptrices est réalisable simplement via une acquisition commune sur les quatre voies d' un oscilloscope numérique . La figure 44 montre le principe de notre système de localisation : & 226;& 128;& 162; TX l' émetteur envoie le signal au temps inconnu . & 226;& 128;& 162; Chaque récepteur reçoit le signal au temps & 226;& 128;& 162; Chaque différence de temps est calculée par rapport à l' antenne de référence & 226;& 128;& 162; avec la célérité de la lumière & 226;& 128;& 162; L' algorithme TDOA estime la position de l' objet grâce aux trois différences de temps . Sur la figure 44 , le symbole représente le traitement numérique du signal après acquisition des signaux par les antennes réceptrices reliées à l' oscilloscope numérique . Dans notre système , ce traitement est effectué en utilisant l' outil MATLAB . Cependant , l' environnement étant riche en multi-trajets , on observe de fortes atténuations sur le signal . Ce dernier passe en dessous du plancher de bruit des appareils de mesure . Il convient de chercher à hausser le niveau du signal en réception afin de détecter les informations nécessaires à la mesure du temps de trajet direct entre l' émetteur et chacun des récepteurs . 2.2 L' utilisation des codes pseudo-aléatoires L' idée de départ est d' utiliser l' énergie de plusieurs pulses ULB en réception afin d' obtenir un gain de traitement permettant d' augmenter le rapport signal à bruit . Le pulse ULB est modulé en émission par un code pseudo-aléatoire . La modulation choisie est la modulation ON-OFF Keying , c' est-à-dire qu' un pulse émis correspond à une séquence du code tandis qu' aucune séquence de pulses n' est émise pour un " 0 " . Une modulation d' amplitude est plus simple à mettre en oe uvre qu' une modulation PPM . De plus , cette modulation " tout ou rien " convient bien à l' émetteur ULB utilisé . En réception , le temps d' acquisition est fixé de manière à recevoir au moins une séquence entière de code pseudo-aléatoire . Soit N le nombre de chips du code pseudo-aléatoire , le temps chip du code , et la durée d' acquisition . Ce dernier paramètre est défini de la manière suivante : ( 147 ) En général , le signal reçu est composé d' un certain nombre de séquences PN entières " entourées " d' une fin de séquence et du début d' une autre . Afin d' utiliser tous les pulses acquis , une corrélation glissante est effectuée en numérique entre le signal reçu et un template constitué d' un certain nombre entier de séquences pseudo-aléatoires modulant un signal de base qui a dans l' idéal la forme du pulse ULB reçu . Précisons , pour éviter les ambiguïtés , qu' il est vrai que " template " est généralement le nom donné au pulse de base qui est corrélé avec le signal reçu . " template " désigne ici le signal entier utilisé pour la corrélation . Le nombre de séquences PN constituant le template est choisi comme : ( 148 ) Où désigne la partie entière de . Cette taille de template permet d' utiliser tous les pulses d' une acquisition , quelque soit la configuration de l' acquisition ( début de la séquence entière ) . Ceci permet donc d' améliorer le SNR en réception . Cela est d' autant plus utile lorsqu' il n' y a pas de zone de recherche du maximum de corrélation imposée . D' autre part , le codage utilisé dans le cas du template est un NRZ , c' est-à-dire avec changement de la polarité selon le chip . En effet il a été constaté que la corrélation du code PN en OOK par le même code en NRZ donne de meilleures propriétés que l' autocorrélation du code PN en OOK . Pour illustrer ces premiers choix , une simulation d' acquisition illustre ce propos ci-dessous . Le code PN retenu est un code de Barker de longueur 7 chips . Il a été retenu pour ses bonnes propriétés de corrélation . La durée d' acquisition de cet exemple correspond à deux séquences pseudo-aléatoires , donc la durée d' acquisition minimale . Une seule séquence entière est contenue dans le signal . Le pulse ULB utilisé est un monocycle gaussien ( figure 46 ) . Table 46 : Acquisition d' un signal ULB modulé par un code PN et représentation du template modulé en OOK ( à gauche ) et en NRZ ( à droite ) Lorsqu' une acquisition est déclenchée à l' oscilloscope numérique , chacune des quatre voies réceptrices reçoit une version du signal plus ou moins décalée selon la distance émetteur-récepteur . La première corrélation s' effectue sur le signal reçu par l' antenne de référence . Il faut préciser que les corrélations sont étudiées en valeur absolue car le canal inverse parfois le signal et donne alors un pic de corrélation négatif . L' emplacement du maximum de corrélation donne le retard relatif de la voie de référence . Il s' agit ensuite de déterminer le maximum de corrélation de chacune des trois autres voies pour en déduire les trois différences de temps d' arrivée des signaux . Afin d' éviter les ambiguïtés dues à la présence éventuelle de plusieurs pics de corrélation ( selon la durée de l' acquisition ) , une fenêtre de validité est définie pour la recherche du maximum de corrélation sur chacune des trois autres voies : ( 149 ) avec la durée d' un pulse . Cette fenêtre est fixée en tenant compte du caractère périodique de la corrélation , avec une période égale à la durée du code PN . De plus , un pic de corrélation a une largeur à sa base égale à deux fois celle du pulse . La figure 45 présente le schéma de fonctionnement de localisation par mesures de différences de temps d' arrivée pour le système ULB . Figure 45 : Schéma de principe de la mesure de différence de temps d' arrivée entre l' antenne de référence et une seconde antenne réceptrice ( les deux antennes étant synchronisées entre elles ) À titre d' exemple , la figure 46 représente le résultat de la corrélation du signal reçu au niveau de l' antenne de référence par le template . La fenêtre de validité définissant la zone de recherche pour les autres voies est représentée autour du maximum de corrélation détecté pour cette voie de référence . La fenêtre de validité ( figure 46 ) définit ainsi la profondeur de mesure , c' est-à-dire l' écart maximum entre les distances émetteur - récepteur et la distance émetteur - récepteur de référence . Le temps chip choisi , après observation du canal et en se basant sur les canaux de IEEE . 802 . 15.4a est , dans un premier temps , de . Pour le code de 7 chips une profondeur de mesure d' environ mètres est obtenue , ce qui est plus que suffisant par rapport à l' application visée ( couverture d' une zone de m ) . Figure 46 : Fenêtre de validité autour du maximum de corrélation de la voie de référence La corrélation fait apparaître trois pics de corrélation principaux pour lesquels une séquence entière intervient , et des pics secondaires pouvant provenir de trois phénomènes : & 226;& 128;& 162; Corrélation apériodique sur les extrémités . & 226;& 128;& 162; " Effets de bord " dépendant de chaque acquisition : les chips présents sur les bords de l' acquisition entraînent des pics secondaires sur toute la corrélation . & 226;& 128;& 162; Mauvaises propriétés de corrélation périodique . Ces " effets de bord " sont difficilement évaluables puisqu' ils dépendent de chaque acquisition . Les codes retenus ont été choisis pour leurs bonnes propriétés de corrélation périodique . En ce qui concerne les " effets de bord " , dans ce cas particulier , les deux " bords " sont complémentaires , c' est-à-dire qu' ils forment à eux deux une séquence entière . Seuls les effets de la corrélation apériodique sont visibles étant donné que cette séquence de Barker a des niveaux de corrélation ( OOK par NRZ ) périodiques secondaires nuls . La figure 47 est un exemple où l' acquisition est réalisée sur une durée comprise entre deux et trois séquences entières et présente les " effets de bord " . Figure 47 : Observation des " effets de bord " sur la corrélation D' autre part , il existe un compromis sur la taille du code à choisir afin de réaliser l' acquisition durant la durée de deux séquences PN au moins avec l' oscilloscope numérique . C' est pourquoi deux codes ont été retenus pour les tests ( les pics secondaires de corrélation périodique sont nuls ) après une recherche exhaustive en se limitant à moins de vingt chips : & 226;& 128;& 162; 7 chips : 1 1 1 0 0 1 0 & 226;& 128;& 162; 15 chips : 1 0 0 1 1 0 1 0 1 1 1 1 0 0 0 Ces codes sont à longueur maximale ( également le code de Barker ) . Des codes sont dits à longueur maximale si [ ? ] : 1 . La séquence contient autant de " 0 " que de " 1 " . 2 . Le nombre de paquets de " 0 " et de " 1 " dans la séquence est donné par : - La moitié des groupements de bits sont de longueur 1 . - Un quart des groupements de bits sont de longueur 2 - Un huitième des groupements de bits sont de longueur 3 - etc . 3 . L' autocorrélation et la cross-corrélation d' une séquence à longueur maximale est périodique et a des valeurs binaires Ces séquences maximisent le rapport . Nous avons utilisé ce critère pour déterminer les séquences pseudo-aléatoires à retenir dans le cadre de notre démonstrateur . Suite à des simulations ( voir le tableau 47 ) , ces séquences maximisent le rapport des amplitudes du pic principal sur les pics secondaires . Pour un nombre de total de chips , correspondant à un temps d' acquisition de avec un temps chip de , on calcule le niveau de corrélation maximum sur le niveau secondaire qui doit être maximisé . Ces niveaux sont pris dans la partie de corrélation où tous les chips du signal interviennent ( zone de corrélation périodique ) . L' acquisition du signal est aléatoire , les simulations sont réalisées sur 1000 tirages . Le tableau 47 présente les résultats obtenus pour ces deux séquences . Table 47 : Statistiques de en fonction de 1000 acquisitions aléatoires . Code Dans la pratique , les niveaux secondaires , même s' ils sont raisonnables , ne doivent pas poser de problème a priori puisqu' ils sont à au moins ( durée du temps chip ) du pic principal . Cependant , le phénomène de multi-trajets amène autant de pics de corrélation qu' il y a de trajets différents . Donc , l' écart entre un des pics secondaires du plus fort trajet et le pic principal du trajet direct devient inférieur au temps chip de . Si l' écart est vraiment faible et que l' amplitude du pic secondaire du trajet le plus fort est comparable au pic principal du premier trajet , cela risque d' entraîner une fausse détection . Un pic secondaire d' un multi-trajet avec un retard important peut être pris comme pic principal du premier trajet . Les simulations indiquent que ce risque est faible . Par exemple , les statistiques réalisées sur les canaux proposés dans le cadre du TG 802 . 15.4a montrent que la différence entre le premier trajet et le trajet le plus fort est le plus souvent inférieure à . Cependant , les trajets arrivant après le trajet le plus fort ne sont pas négligeables et peuvent déclencher une fausse détection . Les résultats des expérimentations montreront par la suite que ce phénomène est à prendre en compte . Le temps chip de sera éventuellement remis en cause . La figure 48 donne un aperçu de cette corrélation lors d' une simulation avec un canal indoor NLOS , le premier petit " paquet " est constitué des pics secondaires de chacun des trajets tandis que le deuxième " paquet " est constitué des pics principaux qui nous intéressent pour la détection de l' instant d' arrivée du premier trajet . Figure 48 : Aperçu de la réponse impulsionnelle obtenue en réception , après le passage du train de pulses UWB dans le canal Après cette présentation des concepts de notre système de localisation , avec le traitement du signal prévu en réception , il convient d' introduire les éléments physiques de la chaîne d' émission-réception , leurs imperfections , leur influence sur le signal émis et donc les traitements nécessaires en réception pour annuler toutes les déformations précédemment subies par le signal . 2.3 Conception d' une chaîne d' émission-réception Afin de valider le principe de localisation vu précédemment , un démonstrateur a été mis en place pour dévaluer physiquement les capacités de localisation du système dimensionné par les simulations précédentes . Pour cela , nous disposons d' un générateur d' impulsions ULB réalisé en logique rapide de type ECLECLEmitter-Coupled Logic , qui par une combinaison astucieuse de deux impulsions ( l' une positive , l' autre négative et retardée ) génère le doublet utile à notre expérimentation . La chaîne complète de communication permettant de réaliser la localisation est représentée par la figure 49 . Figure 49 : Chaîne d' émission - réception Cette figure représente les éléments de la chaîne d' émission-réception , pour un seul récepteur . En réalité quatre voies de réception sont présentes dans le système de localisation . Chaque élément de cette chaîne est présenté ci-dessous . 2.3.1 Le FPGA Nous avons dimensionné un système en logique EPLD7128 - Altera . Ce petit EPLDEPLDErasable Programmable Logic Device contient 128 macrocells et permet d' implanter le circuit logique pilotant le générateur d' impulsions UWB . Ce générateur est composé essentiellement d' un compteur et d' un comparateur . Le quartz utilisé par le FPGA est un quartz à 40 MHz qui est ensuite divisé afin d' avoir une horloge à 10 MHz , ce qui correspond à qui est la durée Chip du code PN . Il est bien entendu possible de changer le code PN introduit dans le FPGA . Les fronts descendants du bit de code en sortie du FPGA ne doivent pas être trop raide sans quoi le générateur d' impulsions ( Pulser ULB ) , nécessitant des transitions d' au moins , n' arrive pas à déclencher . En conséquence , une capacité de est utilisée afin d' augmenter la durée du temps de descente du FPGA qui sont initialement d' environ ( décharge de la capacité ) . La figure 50 illustre le créneau délivré par le FPGA . Figure 50 : Créneau délivré par le FPGA ( bit de la séquence PN déclenchant le générateur d' impulsions ) 2.3.2 Le générateur d' impulsions ULB Le générateur d' impulsions ULB repose sur la logique ECL ( Emitter-Coupled Logic : technologie CMOS ) . Ce générateur a été développé au sein du laboratoire . Il délivre des impulsions de type gaussienne d' environ . À l' aide d' un système de ligne à retard et d' un coupleur large bande , on obtient un pulse de type monocycle ( doublet ) d' environ . Table 48 : Pulse en sortie du générateur et son spectre Le spectre du pulse ( figure 48 ) est centré sur environ 1 GHz et possède une largeur de bande à d' environ 1.5 GHz . Le pulse en sortie du générateur possède une amplitude d' environ pic à pic . Afin de réaliser des mesures de ranging , puis de localisation , il est nécessaire d' ajouter un étage d' amplification . 2.3.3 L' étage d' amplification : l' amplificateur ZX60 - 5916M Dans le cadre de cette étude , différents amplificateurs ont été testés . La qualité des amplificateurs est importante , car cet étage de la chaîne introduit des distorsions plus ou moins importantes sur le signal allant à l' antenne , ce qui introduit un élargissement des impulsions émises . L' amplificateur ZX60 - 5916M est un ampli mini-circuit [ ? , ? ] . Il travaille dans la bande allant de 1.5 GHz à 5.9 GHz . Son gain max est de et sa puissance à de compression est . Vu la tension en sortie du générateur d' impulsions , l' amplificateur ne travaille pas sur sa plus grande plage de fonctionnement . Il est nécessaire de cascader 2 amplificateurs afin de délivrer les en sortie . Cette tension d' entrée se situe autour de . Il est donc possible de sortir un signal ayant une amplitude de pic à pic . La sortie d' un tel montage ( 2 amplis ) est donnée par la figure 49 . Table 49 : Pulse en sortie de l' amplificateur ZX60 - 5916M et son spectre Ici , on observe une certaine dégradation du pulse par rapport à ce qu' il était en sortie du pulser , puisque ce dernier se retrouve élargi ( effet probablement du au fait que la bande de l' amplificateur n' est pas parfaitement plate ) . Ce phénomène d' élargissement est défavorable à la localisation puisque l' intérêt de cette technologie est d' avoir des impulsions très fines donnant une très bonne résolution temporelle . On est tenté de dire qu' il faut utiliser un ampli plus large bande et travaillant plus sur la bande de fréquence qu' occupe notre pulse . En réception , nous avons cascadé 2 de ces amplificateurs en tête de la chaîne ( LNALNALow Noise Amplifier ) afin d' amplifier le signal reçu . 2.3.4 Les antennes ULB Différents types d' antennes ont été testés , notamment celle de la société Taiyo Yuden [ ? ] dont plusieurs échantillons sont disponibles . Cette antenne a l' avantage de posséder un diagramme de rayonnement relativement omni-directionnel . Cependant , elle possède de faibles performances avec un gain d' environ . De plus , elle est prévue pour des fréquences de travail autour de 3 GHz . Étant donné les fréquences autour desquelles notre maximum de puissance se trouve , des antennes diamant [ ? ] ont été confectionnées pour travailler dans cette bande de fréquences . [ ? ] propose un tour d' horizon des antennes ULB utilisables pour transmettre les impulsions large bande . D' autres formes d' antennes large bande sont proposées dans [ ? ] avec des antennes microstrip ou alors des antennes elliptiques [ ? ] ou en spirale [ ? , ? ] . Toutes ces formes d' antennes restent simples à mettre en oe uvre , , mais l' antenne que nous avons retenue , après l' utilisation des différentes formes proposées ici , est l' antenne diamant . Les antennes commerciales SMT-3TO10M-A [ ? ] , et antennes [ ? ] ont été testées pour comparer les résultats avec les antennes que nous avons dimensionnées . Ces antennes commerciales ont souvent de faibles performances en gain ( ) , mais par contre elles ont l' avantage d' avoir un diagramme de rayonnement qui est omni-directionnel . Nous avons préféré utiliser les antennes diamant que nous avons confectionné . Ces antennes sont dimensionnées pour travailler à 1.75 GHz , qui est la fréquence à laquelle on a le maximum de la densité spectrale du signal ( PSDPSDPower Spectrum Density ) . La figure 51 décrit la forme de nos antennes . Figure 51 : Design d' une antenne diamant La longueur d' onde est calculée à partir de la fréquence centrale choisie . Cette antenne est proposée par Time Domain dans [ ? ] . Le substrat utilisé est du FR- 4 . Le gain maximal est mésuré approximativement à . Le gain de l' antenne est donné par la figure 52 . Figure 52 : Caractérisation du gain de l' antenne diamant Cette caractérisation n' est pas parfaite , puisqu' elle n' a pas été effectuée en chambre anéchoïde , avec l' absence d' objets pouvant créer des réflexions . Cependant , ces mesures donnent une idée satisfaisante de la qualité en terme de gain pour notre antenne . À l' aide d' un analyseur de réseau , en comparant la puissance reçue par l' antenne diamant par rapport à celle obtenue avec une antenne cornet dont on connaît les caractéristiques , on obtient une idée du gain de l' antenne et de sa bande passante , comme l' indique la figure 52 . D' autre part , nous avons mesuré la directionnalité de l' antenne à l' aide d' un positionneur . Ce second point est important pour la localisation , puisqu' il est nécessaire de recevoir le plus correctement possible les ondes radio quelque soit l' orientation des antennes d' émission et de réception . En émission , on recherche à avoir une antenne qui soit le plus omni directionnelle possible , alors qu' en réception , on peut travailler avec des antennes sectorielles que l' on dispose côte à côte afin de couvrir au mieux toutes les direction de l' espace en réception . Des mesures ont été effectuées pour caractériser le diagramme de rayonnement de notre antenne ULB . Les conditions de mesures sont les suivantes . Pour différentes fréquences , nous avons fait des mesures en plaçant l' antenne d' émission ( l' antenne diamant à caractériser ) soit en polarisation horizontale ( H ) , soit en polarisation verticale ( V ) , l' antenne de réception ( un cornet ) restant toujours en polarisation verticale ( la plus grande dimension perpendiculaire au sol ) . La figure 50 présente le résultat obtenu pour une fréquence de 2500 MHz . Fréquence ( MHz ) Table 50 : Diagramme de directivité de l' antenne diamant à la fréquence de 2500 MHz L' interprétation de ces diagrammes n' est pas simple à cause du manque de fiabilité du banc de mesure . En effet , le banc étant situé à proximité de murs sans absorbant , certains diagrammes d' antenne semblent peu omnidirectionnels du fait des nombreux affaiblissements présents . 2.3.5 Les autres éléments du système de mesure / localisation Les deux derniers éléments de ce système sont l' oscilloscope numérique et les câbles permettant de relier nos antennes ULB à cet oscilloscope en réception . L' oscilloscope numérique , un Lecroy Wavemaster 8620A , permet de faire une acquisition synchrone sur les quatre voies en réception . La fréquence d' échantillonnage choisie est de 10 GHz et la durée d' acquisition est de , ce qui correspond à l' acquisition de échantillons sur chacune des voies . Un câble de amène le signal de chaque antenne vers l' oscilloscope numérique . Ce câble RG214U permet de faire passer des signaux avec une fréquence maximale de 3 GHz [ ? ] . Les caractéristiques de ce câble sont les suivantes : & 226;& 128;& 162; Impedance : & 226;& 128;& 162; Attenuation pour 100m de câble à 50 MHz : & 226;& 128;& 162; Attenuation pour 100m de câble à 1 GHz : Le choix de ces éléments a été fait en accord avec un bilan de liaison théorique devant assurer un SNR minimum en réception . 2.3.6 Le bilan de liaison de la chaîne de localisation Afin de choisir les éléments de la chaîne émission-réception , un bilan de liaison en espace libre a été prévu . D' après les calculs du bilan de liaison , la puissance du signal reçu à une distance de moins de de l' émetteur est suffisante et le rapport signal à bruit est satisfaisant . Le tableau 51 synthétise nos résultats de prédiction sur ce bilan de liaison en espace libre . Table 51 : Bilan de liaison Puissance du signal reçu La perte en espace libre ( Free Space Loss ) est calculée en appliquant la formule de Friis avec la bande du signal B = 4 GHz au lieu de la fréquence centrale . On choisit volontairement une bande très large et donc défavorable en ce qui concerne le bruit . L' atténuation en espace libre est défini dans [ ? ] par : ( 150 ) Avec la distance émetteur-récepteur , la bande du signal , la célérité de la lumière dans le vide . La puissance du bruit est calculée en tenant compte du facteur de bruit de la chaîne de réception et pour une température de . est l' intersection des bandes des éléments du récepteur après l' antenne de réception . est prise à 5 GHz , sachant que la fréquence d' échantillonnage de l' oscilloscope est de 10 GHz . ( 151 ) Avec la constante de Boltzmann , le facteur de bruit équivalent pour deux amplificateurs de même facteur de bruit et de gain , auquel cas : ( 152 ) À mètres , la puissance du signal reçu est de . En sortie des deux amplificateurs de réception de gain , la puissance est donc de , ce qui correspond à une amplitude d' environ d' après la formule suivante . Cela est tout à fait satisfaisant sachant que le calibre minimal de l' oscilloscope numérique est de . ( 153 ) avec la puissance du signal , l' amplitude de ce signal et la charge sur laquelle la mesure est effectuée . Néanmoins , ce bilan de liaison calculé pour une propagation en espace libre , n' inclue pas toutes les pertes liées à la propagation en indoor dans un environnement NLOS . S' il est important de s' assurer un SNR correct en réception , l' étude de la faisabilité doit aussi considérer les normes de la FCC et ne pas dépasser le niveau d' émission autorisé . Pour cela , une étude de la densité spectrale est présentée dans la partie qui suit . 2.3.7 La densité spectrale de puissance du signal La densité spectrale d' un signal est la transformée de Fourier de son autocorrélation . Soit le signal dont on recherche l' autocorrélation . On écrit ce signal sous la forme suivante : ( 154 ) où est la période de répétition des pulses . est la forme d' onde du pulse ULB correspondant à un bit d' information ( représente un bit " 0 " et un bit " 1 " ) . Le coefficient est relatif au bit d' information qui trouve ses valeurs dans et défini de la manière suivante : Les sont les probabilité d' avoir un bit d' information ( est la probabilité d' avoir le bit " 0 " et est la probabilité d' avoir le bit " 1 " ) . est une variable aléatoire définissant une partie aléatoire ( time hopping par exemple ) . Ce terme est appelé " dithering " et il est décrit par la densité de probabilité avec : ( 155 ) Ici , nous faisons l' hypothèse que les variables aléatoires et sont indépendantes . La densité spectrale est donnée par la transformée de Fourier de la fonction d' autocorrélation . Cette dernière est obtenue en prenant l' espérance mathématique du signal à deux instants différents , ce qui s' exprime de la manière suivante : ( 156 ) désigne l' opérateur de convolution et la différence des instants de mesures du signal . Les fonction et sont les transformées de Fourier respectives du pulse et de la fonction de dithering . Les statistiques de ces processus sont périodiques de période . Ces processus sont désignés comme étant cyclostationnaires . Ceci signifie que les statistiques dépendent de l' instant auquel le signal est observé . Un récepteur quelconque peut faire l' acquisition de ce signal parasite à n' importe quel instant durant la période du signal et donc il est nécessaire d' effectuer un moyennenage au cours du temps de ces interférences pour connaître l' impact qu' a ce signal sur un récepteur . Il faut donc prendre la moyenne temporelle sur une période et la transformée de Fourier de l' équation ? ? . Ceci donne l' expression suivante pour la densité spectrale de puissance moyenne d' un signal UWB [ ? , ? ] : ( 157 ) avec ( 158 ) ( 159 ) La densité spectrale se compose d' une partie continue et d' une partie discrète . Dans notre cas il n' y en a pas et . correspond à la période de répétition , donc au temps chip . En prenant un pulse de type monocycle , de durée une nanoseconde et d' amplitude pic à pic , et en appliquant les formules ci-dessus avec une équiprobabilité d' avoir un ou un , on obtient le résultat présenté par la figure 53 . Un filtre passe-bande est appliqué pour représenter l' effet de l' antenne d' émission dont le gain maximum est de . Le temps chip est de . La figure 53 présente la densité spectrale de puissance théorique pour le signal ULB . Figure 53 : Densité spectrale de puissance théorique La partie discrète de la densité spectrale a pour effet de faire dépasser la limite de - 41.3 dBm / MHz fixée par la FCC . D' autre part , le spectre du pulse ULB est situé aux fréquences interdites . En réalité , nous émettons un code pseudo-aléatoire et l' émission du signal n' est pas infinie . Les résultats précédents sont donnés pour un signal ( équation 154 ) qui est infini . Cependant les signaux réels sont à durée finie . De plus , pour certains systèmes , le signal n' est transmis que durant un laps de temps puis il est répété . Afin de calculer la densité spectrale de puissance pour un signal à durée finie , on applique la fonction de fenêtrage suivante au signal : ( 160 ) ( 161 ) Cette fenêtre et le signal sont multipliés . Le résultat obtenu à l' équation 157 est convolué avec le spectre de la fenêtre , c' est à dire : ( 162 ) Plus la durée de la fenêtre est grande , plus la forme de forme de la densité spectrale tend vers . Lorsque la série est fenêtrée et répétée , la fonction d' autocorrélation est obtenue en prenant l' espérance de la partie périodique de la série qui est fenêtrée à savoir : ( 163 ) Le résultat de cette densité spectrale de puissance est donné par [ ? ] : ( 164 ) est la durée du train fenêtré , donc la durée du code PN . La densité spectrale résultante est discrète avec un pas de . La densité spectrale du signal a été calculée d' après l' acquisition du signal émis sur . Le code pseudo-aléatoire utilisé est le code de Barker de longueur 7 chips avec un temps chip également de . Sur la figure 52 , on représente également le masque de la FCC . L' effet de l' antenne est aussi représenté par un filtrage appliqué à la densité spectrale . Table 52 : Présentation de la densité spectrale de puissance associée à une acquisition ( signal temporel à gauche , densité spectrale de puissance à droite ) Comme le montre le calcul théorique , la présence d' une partie discrète ajoutée à la partie " continue " amène à un dépassement de la norme - 41.3 dBm / MHz fixée par la FCC . Il est nécessaire d' envisager une modulation différente afin de lisser le spectre , soit l' utilisation d' un code pseudo-aléatoire de Time Hopping implanté dans le FPGA , soit une modulation NRZ . De plus , l' équiprobabilité de et de en NRZ permet de supprimer entièrement la partie discrète Cette dernière solution impose une modification du pulser ULB ( génération d' impulsions inversées , ce qui n' est pas possible dans la version actuelle du générateur ) . D' autre part , le fait que le spectre soit dans la " zone interdite " tient au design du pulse lui-même . Par la suite nous n' avons pas tenu compte de ce défaut de notre impulsion qui se trouve en dessous de la zone à 3 GHz . Ici , nous nous attachons à respecter le niveau de puissance en émission car dans les version futures du générateur d' impulsions , les impulsions seront translatées plus haut en fréquence . Le principe de fonctionnement d' un système de localisation ULB ayant des impulsions placées plus haut dans le spectre restera similaire à celui développé dans ce travail . Le fait de respecter le niveau maximum en puissance est important puisque cela nous permet de juger de la portée du système , qui sera la même lorsque le pulse sera plus haut en fréquence . 2.4 Le traitement numérique des signaux en réception La chaîne de communication est composée de nombreux éléments introduisant des distorsions sur le signal ( amplificateurs , antennes ou câbles ) . Ces déformations sont plus ou moins importantes et la recherche du template théorique en réception n' est pas simple , voir même impossible si les dégradations sont trop importantes . Il est nécessaire de prévoir un traitement numérique du signal adapté permettant d' exploiter au mieux les signaux et d' extraire l' instant d' arrivée du premier trajet de la réponse impulsionnelle du canal . La modélisation du signal en réception Lorsqu' un signal ULB est transmis à travers un canal , le signal reçu est composé d' un trajet direct , de trajets réfléchis ( effet multi-trajets ) , de bruit , et également d' interférences . Le signal reçu s' écrit : ( 165 ) Les paramètres et sont respectivement le retard et l' amplitude du premier trajet ( supposé trajet direct ) . De même , les paramètres et sont ceux du trajet réfléchi ou multi-trajet . représente le bruit et les interférences . est donc le signal de base avec lequel on fait l' hypothèse qu' il est décomposable en répliques du signal émis décalées dans le temps . Le signal émis est donc le template idéal à utiliser lors de la corrélation . Cependant , lors de la propagation dans le canal , les composantes fréquentielles du signal réel sont modifiées de façon différente selon le trajet que le signal emprunte . Dans le cas d' un simple train de pulse , on a : ( 166 ) est composé d' un train de pulses de la forme . Pour simplifier la formulation , on suppose que l' on fait l' acquisition d' un nombre entier de pulses , c' est à dire qu' il n' y a pas de pulse tronqué . dépend de la longueur de l' acquisition en réception . est la période de répétition du pulse . Dans le cas d' une modulation OOK par un code pseudo aléatoire , correspond au temps chip et l' expression précédente devient : ( 167 ) prend ses valeurs dans ; c' est la valeur d' un chip du code pseudo aléatoire . Pour un code de longueur , est périodique de période , c' est à dire que . On appelle séquence PN un train de pulses modulé par le code PN de longueur . Selon chaque acquisition , le signal reçu est composé d' une première partie de séquence PN , d' un nombre entier de séquences PN et enfin d' une autre partie de séquence PN . L' expression précédente se décompose ainsi : ( 168 ) Avec le nombre total de pulses acquis : . Pour une position émetteur-récepteur donnée , les paramètres , et dépendent de l' instant de début de l' acquisition et de la durée de l' acquisition . La détection du signal La détection du signal par corrélation utilise idéalement un template semblable au pulse ULB reçu . Le cas idéal est la réception d' un pulse gaussien , un monocycle par exemple . La corrélation avec une copie de ce monocycle générée en réception permet de différencier le signal du bruit . Les premières dérivées de la gaussienne sont des formes de pulses ULB très favorables pour la corrélation car celles -ci donnent lieu à un seul pic . Cependant le signal obtenu à la sortie des deux amplificateurs présente de multiples oscillations sur une durée de à . C' est donc une forme beaucoup moins favorable car son autocorrélation présente de nombreux pics . Il n' est pas envisageable d' utiliser directement cette forme en sortie de l' étage d' amplification comme template car il faut également tenir compte de la distorsion du pulse par les antennes et l' étage d' amplification en réception ( voir figure 53 ) . Table 53 : Comparaison entre l' autocorrélation du pulse théorique et de l' autocorrélation du pulse en sortie de l' étage d' amplification ( émission ) La première idée est de faire l' acquisition d' un pulse sans multi-trajet et avec un bon SNR , tâche très délicate sans l' utilisation d' une chambre anéchoïde . De plus , l' étalement du pulse sur plusieurs nanosecondes aboutit certainement à un phénomène relativement important d' interférences entre trajets ( IESIESInterference Extra Symbole ) . En conséquence , et après plusieurs essais infructueux , l' idée de corréler avec un template " sosie " du pulse reçu semble inenvisageable dans ce cas . L' information retenue sur le pulse se restreint à sa durée avant passage dans l' étage d' amplification en émission . L' idée est de réaliser une corrélation du signal reçu avec un template constitué de créneaux de la durée du pulse et reproduisant la séquence PN en NRZ , comme on l' a indiqué auparavant . Le signal reçu est mis en valeur absolue . Il s' agit finalement d' une détection d' énergie en utilisant une corrélation et un code PN . Ce détecteur est donc sous optimal puisque si le rapport signal à bruit est suffisant , dans ce cas le détection est possible , sinon le signal intéressant n' est pas détectable [ ? ] . La figure 54 présente la chaîne de traitement du signal . Figure 54 : Traitement du signal reçu Dans notre application de localisation , la détection d' un symbole transmis n' est pas suffisante . L' objectif est de déterminer l' instant d' arrivée du premier trajet . Ceci nécessite l' utilisation d' algorithmes fondés notamment sur le critère du maximum de vraisemblance . L' algorithme utilisé dans la suite est présenté dans la section suivante . 2.4.1 L' algorithme de détection du premier trajet Dans le contexte d' un canal indoor ULB , la détection du premier trajet est l' un des facteurs déterminants de la précision d' un système de ranging et plus généralement d' un système de localisation basé sur des mesures temporelles . La problématique est de traiter , après la détection d' un pic de corrélation correspondant au trajet le plus fort , le signal afin de retrouver le premier trajet . Présentation de l' algorithme de maximum de vraisemblance généralisé ( GML ) L' algorithme développé dans [ ? ] permet de détecter le premier trajet dans une réponse impulsionnelle . Cet algorithme est basé sur une estimation à maximum de vraisemblance généralisée ( GMLGMLGeneralized Maximum Likelihood ) . L' algorithme GML est très proche de l' algorithme CLEAN car tous les deux reposent sur les deux hypothèses principales suivantes : & 226;& 128;& 162; Le signal reçu est entaché d' un bruit blanc gaussien . & 226;& 128;& 162; Il n' y a pas d' interférence provenant d' autres systèmes radio . Le déroulement de cet algorithme est donné par la figure 55 . Figure 55 : Traitement du signal reçu par l' algorithme du maximum de vraisemblance L' algorithme supprime itérativement les trajets . La première corrélation donne lieu à la détection du trajet le plus fort défini par son retard et son amplitude . Par la suite chaque trajet ( ou composante ) détecté lors des itérations suivantes voit son amplitude comparée à l' amplitude du trajet le plus fort . Pour être valide , une composante doit vérifier : ( 169 ) La recherche du premier trajet s' effectue dans une fenêtre avec un seuil . Cela revient à fixer une différence de temps maximale entre l' arrivée du premier trajet et celle du trajet le plus fort . Chaque nouveau trajet détecté donne lieu à une réestimation de toutes les amplitudes afin de minimiser l' expression suivante : ( 170 ) Cette réestimation des amplitudes est surtout utile en cas d' interférences entre multi-trajets ( interférences intrasymboles ) . Afin d' accélérer l' algorithme , un nouveau trajet est estimé seulement si son retard est inférieur à celui du dernier trajet estimé , c' est-à-dire dans la fenêtre . La figure 56 montre les trois composantes détectées et estimées d' un signal reçu non bruité après passage dans un canal indoor NLOS . Figure 56 : Algorithme GML : détection des composantes d' un signal non bruité ( canal indoor NLOS ) Il est inutile de faire une nouvelle corrélation à chaque itération puisque la suppression des trajets s' effectue directement sur le signal de corrélation , en soustrayant l' estimation de la corrélation d' un trajet par le template . Dans [ ? ] , on considère la transmission d' un seul pulse et le template utilisé pour la corrélation est l' estimation du signal qui est reçue à travers un canal contenant un seul trajet . Étant donné les choix faits en réception sur le traitement du signal ( valeur absolue et corrélation avec un template en créneaux ) , l' information sur la forme du pulse est perdue ; il ne s' agit plus que d' une détection d' énergie . Ici , nous ne disposons d' aucune famille de pulses de base avec laquelle décomposer le signal reçu ( à cause des distorsions successives du signal ) , il est impossible de détecter les différents trajets par la corrélation du signal reçu par le template " sosie " en soustrayant du signal de corrélation chaque multi-trajet détecté . Notre approche consiste à supprimer du signal le trajet détecté . Comme on ne réestime pas les amplitudes des trajets précédemment détectés , cette suppression s' effectue directement sur le signal de corrélation . Le pic est supprimé sur un temps ( mise à zéro du signal de corrélation sur cette fenêtre ) , où est la largeur du créneau utilisé dans le template , c' est à dire l' estimation de la durée d' un pulse de base . Ainsi une seule corrélation est nécessaire . L' algorithme employé est donné par la figure 57 . Figure 57 : Synoptique de l' algorithme utilisé dans le système de détection des trajets Comme c' est la valeur absolue du signal qui est corrélée avec le template , le signal de corrélation ne doit pas être étudié en valeur absolue ( cela rehausserait encore le niveau du bruit ) . La figure 58 illustre cet algorithme . Ici , deux composantes multi-trajets sont détectées . Figure 58 : Nouvel algorithme de détection des composantes multi-trajet d' un signal non bruité ( canal indoor NLOS ) Le traitement appliqué au signal reçu est clairement différent de celui appliqué dans [ ? ] , et certainement sous-optimal par rapport aux conditions de [ ? ] . Il a donc fallu adapter les méthodes de positionnement des paramètres de seuil et de fenêtre de recherche à nos conditions . Étude statistique du canal de transmission Afin que l' algorithme fonctionne , il est nécessaire de déterminer certaines valeurs clés minimisant les probabilités de fausse alarme et de non détection . Ces paramètres sont dépendants du pulse bien sûr et du traitement en question , mais aussi des statistiques des canaux de propagation . Afin d' analyser l' erreur et de fixer les paramètres de l' algorithme en fonction des conditions du canal ( SNR ) , il est nécessaire de connaître certaines statistiques du canal . Par la suite nous utiliserons les notations suivantes : & 226;& 128;& 162; : la différence de temps entre l' arrivée du premier trajet et celle du trajet le plus fort . Ce paramètre est toujours à valeur positive . & 226;& 128;& 162; : le rapport de l' amplitude du premier trajet sur celle du trajet le plus fort . & 226;& 128;& 162; : la probabilité que le premier trajet soit le plus fort : & 226;& 128;& 162; : la densité de probabilité de , si le premier trajet n' est pas le plus fort . & 226;& 128;& 162; : la densité de probabilité de , si le premier trajet n' est pas le plus fort . Remarquons que si le premier trajet , ou trajet direct , n' est pas le plus fort alors et . Ici , nous avons limité notre étude à l' exploitation des canaux de type indoor NLOS et de type bureau NLOS puisque ce sont les conditions dans lesquelles notre système de localisation est déployé . Type de canal Table 54 : Densités de probabilité pour et pour deux types de canaux ( indoor et de type bureau ) - Modélisation des densités de probabilités et Les densités de probabilité et ( figure 54 ) sont modélisées selon le critère des moindres carrés et en prenant comme modélisation les expressions utilisées dans [ ? ] : ( 171 ) ( 172 ) avec : ( 173 ) Le tableau 55 synthétise les paramètres obtenus à partir de 500 représentations de chacun des canaux . Table 55 : Paramètres associés aux canaux indoor NLOS et bureau NLOS Type de canal Maintenant que les statistiques des canaux radio qui nous intéressent pour la suite sont connues , l' analyse de la probabilité d' erreur sur la détection du premier trajet peut être effectuée . Analyse de l' erreur et choix des paramètres Par la suite , les notations suivantes sont employées : & 226;& 128;& 162; : largeur de la fenêtre dans laquelle le premier trajet est recherché , avec comme extrémité supérieure de cette fenêtre , l' instant d' arrivée du trajet le plus fort . s' exprime en secondes . & 226;& 128;& 162; : seuil que doit dépasser l' amplitude d' un trajet normalisé par celle du trajet le plus fort afin d' être considéré comme un trajet de la réponse impulsionnelle ( le rapport des amplitudes est égal au rapport des valeurs de corrélation ) . est sans unité . On utilise maintenant une notation vectorielle pour représenter le signal acquis , le bruit AWGN , le template et la composante de base du signal . En indice de ces notations est indiqué le retard . Ainsi , est la notation vectorielle du template décalé de échantillons . Ces vecteurs sont des vecteurs colonne . D' autre part , l' exposant indique la transposée du vecteur . Enfin , est la notation de la multiplication matricielle . Afin d' obtenir un système robuste , il est nécessaire de minimiser les probabilités de fausse alarme et de non détection . Le travail suivant s' attache à l' optimisation de ces deux probabilités qui conduiront aux meilleures performances du système . Ces probabilités servent aussi à qualifier le système de localisation . Dans les environnements indoor , l' accès au trajet direct n' est pas toujours simple puisque souvent ce trajet n' est pas le plus fort de la réponse impulsionnelle . La recherche de ce trajet est un pré-requis nécessaire pour aboutir à de très bonnes précisions en terme de localisation . La probabilité de fausse alarme La corrélation du bruit seul avec le template dépasse le seuil dans la zone située entre le début de la fenêtre de recherche et le premier trajet représentant le trajet direct entre l' émetteur et le récepteur . Supposons que le premier trajet soit effectivement compris dans l' intervalle de recherche , c' est à dire que . Dans ces conditions la probabilité de fausse alarme est caractérisée de la manière suivante : ( 174 ) où est la largeur du pulse de base . La probabilité de fausse alarme se définit donc par : ( 175 ) est la valeur maximale de corrélation du trajet le plus fort avec le template . Les trajets détectés sont normalisés par rapport au trajet le plus fort . Or , le rapport des amplitudes des trajets est le même que le rapport de leur valeur de corrélation maximale par le même template . La non détection Le trajet direct n' est pas détecté , c' est un des multi-trajets qui est considéré comme étant le trajet direct . Cela survient si le trajet direct n' est pas contenu dans la fenêtre de recherche ou si son amplitude est inférieure au seuil . La probabilité de non détection s' exprime par : ( 176 ) L' indice M est choisi pour " Missed Path " . Cette analyse de l' erreur sur l' estimation du premier trajet met en valeur le rôle important des paramètres et . Un seuil placé trop bas augmente la probabilité de " détecter " du bruit ( la probabilité de fausse alarme augmente de ce fait ) . De même , une fenêtre de recherche trop grande augmente la probabilité que la corrélation du bruit avec le template dépasse le seuil . À l' inverse , un seuil trop haut ou une fenêtre trop petite empêchent la détection du premier trajet . Il faut trouver un compromis entre probabilité de Fausse Alarme et de Non Détection , afin de minimiser l' erreur globale . Un critère possible pour minimiser cette erreur peut être : & 226;& 128;& 162; est fixé de manière à ce que & 226;& 128;& 162; est fixé de manière à ce que la somme des probabilité soit minimisée On fixe la probabilité que le trajet direct soit en dehors de la fenêtre de recherche ( typiquement ) , puis on détermine en minimisant la somme des probabilités de Fausse Alarme et de Non Détection résultantes . Pour cela , chaque probabilité est exprimée en fonction des paramètres , et des statistiques du canal . La détermination de la probabilité de fausse alarme ( ) Le maximum de corrélation du bruit AWGN avec le template dans la zone et normalisé par la corrélation du trajet le plus fort avec le template , est modélisé comme un processus aléatoire . La probabilité que ce processus dépasse le seuil est exprimée dans une fonction notée qui est l' espérance de l' écart entre deux dépassements de seuil . De manière intuitive , si diminue , la probabilité que le processus dépasse un seuil donné dans une même fenêtre temporelle augmente , et inversement . dépend du type de traitement que l' on applique au signal , notamment le template utilisé . Ici dépend également du temps d' acquisition car celui -ci détermine le nombre d' échantillons de bruit qui s' additionnent lors de la corrélation avec le template . a été estimé à l' aide de simulations , en générant un bruit blanc gaussien . Ici , le SNR est défini par rapport à l' amplitude du trajet le plus fort . En sachant que le signal est normalisé par rapport à l' amplitude du trajet le plus fort , et en notant l' écart type du bruit , on a : ( 177 ) Afin d' exprimer en fonction du seuil et du SNR , le processus aléatoire cité est divisé par l' écart-type du bruit . L' équation 174 devient : ( 178 ) Figure 59 : Estimation de La figure 59 présente les résultats de simulation permettant de modéliser . Dans cette simulation , on suppose qu' à l' émission les signaux ULB sont modulés par le code PN de sept chips , avec un temps chip . Le pulse ULB est un monocycle gaussien de durée . En réception , le temps d' acquisition est choisi de manière à ce qu' il corresponde à la durée de trois séquences PN , c' est-à-dire , et avec une fréquence d' échantillonnage de 10 GHz . Ce sont donc échantillons de bruit blanc gaussien auxquels on applique le traitement décrit par la formule suivante : ( 179 ) La valeur de est estimée au préalable pour les conditions présentées ci-dessus . est le processus aléatoire à partir duquel duquel on estime l' espérance . Le pas du seuil est réduit quand le nombre de dépassements de diminue . Pour chaque valeur de seuil , est moyennée sur 100 tirages de bruit blanc gaussien . Ensuite est approximée au sens des moindres carrés suivant le modèle donné par : ( 180 ) Dans ces conditions , nous obtenons : ( 181 ) ( 182 ) Au final , à partir de l' expression de , de celle de et des constantes et , on exprime la probabilité de Fausse Alarme en fonction de , et du . Néanmoins , une incertitude réside sur le seuil de départ choisi pour le calcul de . La détermination de la probabilité de non détection ( ) Cette probabilité s' exprime en fonction des paramètres et en utilisant la constante , l' expression de la densité de probabilité conjointe de et . Ces deux variables sont estimées indépendantes l' une de l' autre . Leurs expressions sont proposées dans [ ? ] . Dans ce cas on a : ( 183 ) On remarquera que cette probabilité de non détection est indépendante du , puisqu' elle est calculée indépendamment du bruit . La figure 56 présente les probabilités de fausse alarme pour un SNR = et de non détection de et . Type de canal Table 56 : Probabilités de fausse alarme ( ) et de non détection en fonction de et Application du critère de minimisation de l' erreur Pour fixer la fenêtre de recherche dans laquelle se trouve le premier trajet , nous avons retenu le critère suivant : ( 184 ) Typiquement , on fixe pour obtenir . Dans le cas des canaux de propagation retenus pour cette étude ( canal indoor NLOS et le canal de type bureau NLOS ) , et dans nos conditions de traitement du signal , on obtient les résultats donnés par le tableau 57 . Table 57 : Longueur de la fenêtre de recherche du premier trajet pour chacun des types de canaux Type de canal Ensuite , on détermine de manière à minimiser la somme des probabilités d' erreurs . La figure 60 représente cette somme pour un de . Figure 60 : Minimisation de en fonction de pour un Les résultats de simulation Le critère de minimisation de l' erreur présenté précédemment est appliqué pour estimer les paramètres et . Les conditions de simulation sont celles fixées pour la modélisation de ( étude de la probabilité de Fausse Alarme ) . 1000 canaux de type NLOS ( indoor et bureau ) sont générés puis convolués avec le signal ULB , pour chaque valeur de SNR . Un bruit blanc gaussien est ensuite ajouté , avec la définition du SNR présentée auparavant . La fenêtre est calculée de manière à avoir . Dans les conditions de simulations , on obtient une fenêtre de recherche indépendante du . Cette fenêtre dépend seulement des statistiques du canal . Dans ces simulations , la fenêtre de recherche n' est pas remise en cause , seules plusieurs valeurs de seuil sont testées pour chaque réalisation de canal . Les seuils testés , compris dans , encadrent le seuil estimé avec un pas de . En supposant qu' il n' y a pas de minima locaux , ces simulations sont valides si la différence entre le seuil estimé et le seuil optimal est inférieure à . Le seuil optimal est défini comme le seuil avec lequel on obtient une erreur moyenne minimale sur la détermination du premier trajet , pour un SNR donné . La figure 61 présente ce seuil optimal en fonction du rapport signal à bruit . Figure 61 : Seuil optimal et seuil estimé en fonction du SNR L' écart moyen entre le seuil optimal ( obtenu par minimisation de ) et le seuil estimé sur la plage de SNR simulés ne dépasse pas , sachant que le pas des seuils testés est de . L' erreur sur la détermination du premier trajet entraîne une erreur de mesure de distance . C' est uniquement cette erreur que l' on considère dans ces simulations . La figure 58 représente l' erreur de mesure dans le cas de l' utilisation du seuil optimal , obtenu pour avoir l' erreur de mesure minimale , ainsi que l' erreur de mesure dans le cas du seuil estimé . Pour comparaison , deux seuils constants quelque soit le ont été testés pendant les mêmes simulations . Il s' agit des seuils et . Table 58 : Erreur moyenne de mesure de distance en fonction du SNR ( à gauche ) et écarts-types correspondants ( à droite ) pour le seuil estimé , le seuil optimal , et des seuils à 0.1 et 0.45 La différence maximale des erreurs de mesures moyennes pour le seuil optimal et le seuil estimé est de . L' erreur moyenne pour le seuil reste relativement constante quelque soit le et atteint pour un . L' analyse de la nature des erreurs pour ce seuil de met en évidence qu' une majorité d' erreurs est due à une Non Détection . Ainsi , est un seuil placé trop haut et l' erreur obtenue dépend alors peu du . Inversement , le seuil de est un seuil placé très bas et rend ainsi l' erreur très sensible au . D' où une erreur moyenne très importante inférieure à un mètre seulement à partir d' un . Les écarts-types de l' erreur de mesure pour chacun des seuils sont également représentés . Les limites de ce système de détection Les simulations sont satisfaisantes en ce qui concerne la détermination du seuil optimal en vue de minimiser l' erreur . Néanmoins , il semble difficile d' appliquer directement ces résultats au système réel . Lors de la caractérisation de , l' hypothèse est faite de connaître la valeur maximale de corrélation du signal par le template dans certaines conditions ( durée d' acquisition ) . Cette valeur maximale est en fait utilisée pour normaliser le signal . Deux choses amènent des imprécisions quant à cette valeur . Premièrement , celle -ci dépend de l' acquisition car , même à durée constante , le nombre de pulses acquis varie légèrement ( " effets de bord " ) . Dans les simulations , la durée d' acquisition choisie était équivalente à un nombre entier de séquences PN , afin de ne pas ajouter cette imprécision . En fait , cette variation ( constatée assez faible ) devrait faiblement nuire à la détermination du seuil . La deuxième imprécision est directement liée à notre ignorance du pulse reçu : celui -ci est modifié par l' étage d' amplification , par l' interférence entre trajets ce qui rend difficile la connaissance a priori de la valeur maximale de corrélation . Cette première partie vient de présenter l' algorithme qui permet d' extraire l' estimation sur le trajet " direct " émetteur / récepteur qui est l' information dont nous avons besoin par la suite pour effectuer la localisation du terminal mobile . Maintenant , nous allons appliquer ces résultats dans un algorithme de TDOA qui permettra de conduire à l' estimation de la position du mobile dans le bâtiment . 3 Les techniques temporelles ( TDOA pour ULB ) 3.1 Description de la méthode TDOA La technique de localisation par TDOA est une technique de localisation temporelle , qui à la différence de la technique de localisation Time Of Arrival ( TOA ) utilisée en GPS , ne nécessite pas de synchronisation entre le terminal mobile et le réseau . Par la suite , il est considéré que c' est le mobile qui émet des signaux , et que ces signaux sont récupérés par un réseau de stations de base qui les retraitent afin d' obtenir la localisation du terminal mobile . La localisation par TDOA repose sur le fait que les stations de base sont parfaitement synchronisées entre elles . Dans le cadre du déploiement des réseaux par ULB , du fait de la faible portée du système ( quelques dizaines de mètres dans la cadre du 802 . 15.4a ) , cette hypothèse semble réaliste et simple à mettre en oe uvre. L' architecture comportant un serveur central collectant des informations des différents capteurs est réaliste . Ainsi , la technique de localisation se base sur des différences de temps d' arrivée du premier trajet au niveau de chacune des stations de base . Il est nécessaire de considérer l' une des stations de base comme une référence de temps et les mesures sont données par : ( 185 ) où est l' indice de la station de base prise comme référence , l' instant auquel est détecté l' arrivée du premier trajet par rapport à l' instant de déclenchement d' une acquisition au niveau de chacune des stations de base ( instant commun à toutes les stations de base , ce qui fait qu' elles sont synchronisées ) . Si l' instant de déclenchement n' est pas le même , il est nécessaire de tenir compte d' un temps de correction pour défaut de synchronisation que l' on note . Ce temps est caractérisable lors d' une étape de calibration par exemple . représente le nombre de stations de base considérées dans le problème . L' expression finale de cet ensemble de différences de temps est donnée par l' équation suivante : ( 186 ) Par la suite , on considère le défaut de synchronisation entre les stations de base comme étant nul . Figure 62 : Illustration de la technique de localisation TDOA La figure 62 illustre le principe de la localisation par TDOA . Dans la technique de localisation TOA , le lieu géométrique correspondant aux mesures , est un cercle dans le plan ou une sphère dans l' espace , mais dans la technique de localisation par TDOA , ce lieu géométrique est une hyperbole dans le plan et un hyperboloïde dans l' espace . 3.1.1 Formulation mathématique Cette technique de localisation est basée sur la mesure de différences de temps entre les temps d' arrivée du premier trajet au niveau de chacune des stations de base . Dans cette partie , on considère que le serveur traitant les différents signaux possède un algorithme lui permettant de déterminer l' instant d' arrivée du premier trajet . La station de base ( d' indice ) est prise comme référence , et est l' indice d' une des stations de base disponible dans le réseau . est la position de la station de base , et est la position de la station de base . est la position du mobile à localiser . La différence de temps mesurée se note de la manière suivante : ( 187 ) où est la célérité de l' onde électromagnétique dans le milieu . Cette équation s' écrit sous la forme vectorielle suivante : ( 188 ) ce qui caractérise une hyperbole dont les foyers sont les stations de base et [ ? ] . Comme le système est basé sur la mesure de plusieurs différences de temps , l' exploitation d' un algorithme de résolution du système d' équations permet d' aboutir à la localisation du terminal mobile . Dans le système d' équation , l' antenne est prise comme référence . Plusieurs méthodes de résolution d' un tel système ont été proposées . Cette résolution n' est pas simple , car généralement les mesures effectuées sont entachées d' erreurs , comme un défaut de synchronisation entre les différentes stations de base , ou une erreur due à une mauvaise estimation de l' instant d' arrivée du premier trajet . Comme pour le GPS , ce n' est pas une position unique qui est obtenue , mais une région délimitée par les différentes hyperboles ( région dans laquelle se trouve le mobile ) . La situation décrite par la figure 63 est assez courante , et il convient néanmoins de prendre une décision quant à la position du mobile . Figure 63 : Influence des erreurs de mesure L' algorithme utilisé pour déterminer la position du mobile est celui de la minimisation suivant les moindres carrés qui se note sous la forme suivante : ( 189 ) On voit que plusieurs paramètres influencent la qualité de l' opération de localisation . D' une part , on retrouve la qualité de l' estimation de l' instant d' arrivée du premier trajet sur chacune des voies d' acquisition . D' un autre côté , il y a la géométrie du problème qui influence la taille de cette zone d' incertitude . La combinaison de ces deux paramètres est déterminante quant à la qualité de l' estimation de la position de l' équipement mobile . Dans notre système , quatre antennes réceptrices sont utilisées . Deux approches sont donc possibles par rapport aux algorithmes de : le cas 2D et le cas 3D. Ici , les approches de résolutions telles que présentées dans [ ? ] ne sont pas développées puisque nous avons retenu la solution recherchant à minimiser une fonctionnelle ( équation 189 ) . De plus , nous nous sommes limités à effectuer la localisation du mobile dans un espace à 2 dimensions . Ceci n' est pas sans entraîner certaines conséquences sur la qualité de l' estimation . Dans le cas 2D , on commet toujours une erreur dans la mesure des différences de temps comme l' illustre la figure 64 . Figure 64 : Représentation des distances mesurées pour l' algorithme TDOA Les mesures de différence de temps de propagation du signal depuis le mobile jusqu'aux antennes et donnent une différence de distance égale à . Cette mesure sert à déterminer la position du mobile en supposant de manière erronée celui -ci dans le plan des antennes . Ainsi , l' erreur inhérente à cette approximation est : ( 190 ) avec et les projetés respectivement de et sur le plan des antennes . Des simulations présentées ci-dessous sont menées dans le but d' évaluer les performances de ces algorithmes et d' analyser l' erreur décrite auparavant . 3.1.2 Les résultats de simulation Ces simulations ont pour but de déterminer le meilleur des algorithmes précédents . Pour s' approcher des conditions de l' expérimentation réelle , les antennes forment un carré de et sont à une hauteur de . Chacune des coordonnées en x et y de l' émetteur est tirée aléatoirement suivant une distribution gaussienne , comme le montre la figure 65 . La hauteur du mobile est également tirée aléatoirement suivant une distribution uniforme entre et . Pour chacune des positions , les TDOA théoriques sont calculés . Un bruit gaussien de moyenne nulle est ajouté et ce pour différents écarts-types , afin de représenter l' erreur sur la détermination du premier trajet . Les écarts-types de ce bruit vont de à ( donc ) avec un pas de . D' autre part , les algorithmes sont testés avec les TDOA projetés sur le plan ( x , y ) auxquels le même bruit gaussien est ajouté . Figure 65 : 500 tirages aléatoires de positions pour l' émetteur dans le plan Table 59 : Erreurs moyennes sur la localisation et écarts-types des erreurs en fonction de la puissance de bruit sur chacune des mesures TDOA Les algorithmes proposant une localisation 3D ne sont pas représentés ( figure 59 ) car les résultats obtenus étaient aberrants même avec un bruit faible . L' algorithme 2D de [ ? ] est désigné par le terme " algorithme TDOA " tandis que l' algorithme utilisant la fonction fminsearch de MATLAB , est désigné " algorithme fminsearch " . Lorsque les projetés des TDOA sont donnés aux deux algorithmes précédents , on les nomme respectivement " TDOA plan " et " fminsearch plan " . Les courbes de la figure 59 montrent la supériorité de l' algorithme " fminsearch " dans notre situation . Ces courbes montrent également que l' erreur introduite par le fait de considérer l' émetteur dans le plan des antennes est minime . Les erreurs dépassant n' ont pas été prises en compte dans les courbes précédentes . En effet , on observe de temps en temps quelques erreurs aberrantes qui faussent les statistiques ( convergence vers un mauvais minimum local ) , et qui peuvent être filtrées lors du suivi ( tracking par filtrage de Kalman ) de la position de l' émetteur . Le tableau 60 donne les erreurs moyennes de ces positions " absurdes " ainsi que le nombre de fois qu' une telle erreur est survenue . Table 60 : Moyennes des erreurs " absurdes " selon l' écart-type du bruit Écart-type du bruit ( ns ) L' intégration de toutes ces briques permet la réalisation d' un système réel de localisation dont les premiers résultats sont commentés dans la dernière partie de ce chapitre . 4 Application de la localisation dans un démonstrateur réel 4.1 La mesure de distance émetteur / récepteur ou ranging Des mesures de ranging ont été effectuées , c' est-à-dire des mesures de distance émetteur / récepteur . Dans un des couloirs du laboratoire , long d' une vingtaine de mètres , un banc de mesure a été mis en place afin de déterminer la faisabilité d' une chaîne d' émission réception ULB et fournir une première idée de la précision d' un tel système . Les éléments utilisés dans la chaîne d' émission-réception sont identiques à ceux présentés précédemment . Cependant , en réception un seul amplificateur est utilisé . Afin de déclencher les acquisitions à l' oscilloscope numérique , un câble relie l' émission à la réception pour acheminer le signal de trigger généré par le FPGAFPGAField Programmable Gate Array à chaque début de séquence pseudo-aléatoire . Ce trigger n' est bien entendu plus utilisé par la suite , lors des expérimentations de localisation . La durée de chaque acquisition est de , le code pseudo-aléatoire utilisé est un code de longueur 14 ( temps chip de ) qui a été remis en cause par la suite . Ce code est . La largeur du créneau utilisé dans le template correspond à , la fréquence d' échantillonnage est de 10 GHz . Une première mesure , dont on connaît la distance correspondante , sert d' étalonnage au système ; les distances mesurées par la suite sont donc relatives à cette distance " étalon " . Le traitement du signal utilisé est le même que celui décrit à la section 2.4 . La corrélation de la valeur absolue du signal par le template est exploitée sans se soucier des multi-trajets éventuels , c' est-à-dire qu' on ne considère que le maximum de corrélation . On note ce maximum de corrélation pour chaque mesure . Une fluctuation , pouvant aller jusqu'à une dizaine d' échantillons de ce pic de corrélation , est observée . Table 61 : Distance mesurée en fonction de la distance réelle et erreur de ranging Les résultats de ces mesures de ranging en LOS ( vision directe ) sont très satisfaisants puisque la moyenne de l' erreur en valeur absolue est d' environ avec un écart-type de . Les mesures , étant limitées par la longueur du couloir , sont effectuées pour une distance atteignant . Néanmoins , les fluctuations du pic de corrélation amènent une imprécision . Lors du retraitement des données acquises , qui ne correspondent pas forcément à la valeur du pic de corrélation choisi par l' oe il humain , la même précision est obtenue en utilisant l' algorithme de recherche du premier trajet . Pour comparaison , le tableau 62 indique les résultats obtenus en se contentant de prendre le maximum de corrélation ou en recherchant le premier trajet . Table 62 : Mise en évidence de l' utilité de la recherche du premier trajet lors des mesures de ranging Méthode Ces premiers résultats sont encourageants pour le test de localisation . Cependant , de nombreuses interrogations se posent . Dans quelle proportion la détection du premier trajet est t' elle dégradée dans un environnement NLOS ? Les erreurs sur chaque mesure de ranging ne vont -elles pas s' accumuler et aboutir à une erreur de localisation assez importante ? 4.2 La localisation 4.2.1 Description du démonstrateur conçu et utilisé pour les mesures Il serait dommage de se limiter à une zone avec vision directe entre l' émetteur et les capteurs . Cependant , de fortes atténuations sont observées lors de la propagation des ondes à travers les éléments présents dans le bâtiment ( murs , mobilier , PC ) . Ce phénomène a pour conséquence de limiter la zone de couverture . Le placement des antennes ( figure 63 ) a été choisi de manière à ce que l' émetteur ne soit jamais en vision directe avec plus de deux récepteurs à la fois . La zone couverte est constituée principalement d' une salle de démonstration d' environ et des couloirs longeant cette salle . Le placement des antennes réceptrices garantit une bonne couverture de ce périmètre . Une antenne est placée au centre de la salle , les trois autres étant situées dans le couloir . Les antennes sont fixées à une même hauteur d' environ . Les deux salles adjacentes sont aussi testées lors des mesures . Elles constituent un environnement plus défavorable car aucune des antennes n' est alors en vision directe de l' émetteur , et le signal doit supporter l' atténuation d' au moins deux murs pour atteindre chacune des antennes réceptrices . Table 63 : Antenne diamant à de hauteur ; rapatriement des quatre signaux à l' oscilloscope ; émetteur " intégré " monté sur piles Un câble de rapatrie les signaux de chaque antenne réceptrice à l' oscilloscope numérique ( figure 63 ) situé dans la salle . Les acquisitions sont déclenchées automatiquement depuis un ordinateur . De même , les quatre signaux synchrones acquis sont dirigés vers l' ordinateur où les algorithmes de détection du premier trajet et de localisation sont appliqués . Ces algorithmes sont codés en MATLAB . On a donc un système de localisation qui fournit des positions en temps réel . L' émetteur a été " intégré " dans une boîte d' environ alimentée par deux piles classiques de , avec une autonomie d' au moins deux heures ( figure 63 ) . Ce système permet de réaliser les mesures très rapidement , sans être encombré par une alimentation de laboratoire branchée sur le secteur . L' intégration de tous les éléments à l' émission dans une boîte garantit aussi une plus grande stabilité de fonctionnement . L' estimation de la position de l' émetteur en mètres dans un repère choisi est convertie en pixels et s' affiche sur une carte dans l' interface ( figure 64 ) . Indépendamment de l' algorithme de localisation utilisé , les trois hyperboles provenant des mesures de TDOA peuvent être représentées sur cette carte et donner une indication sur la validité de ces mesures de TDOA . Les signaux reçus sont analysés grâce à l' affichage des quatre acquisitions et des signaux de corrélation . Table 64 : Interface du système de localisation ; signaux acquis ; corrélations 4.2.2 Analyse des mesures Recherche du trajet direct La difficulté de cette manipulation réside dans les nombreux paramètres susceptibles d' intervenir sur les performances de la localisation . On peut citer , au niveau traitement du signal : & 226;& 128;& 162; la fenêtre de recherche du premier trajet par rapport au trajet le plus fort . & 226;& 128;& 162; le seuil pour discriminer les trajets du bruit . & 226;& 128;& 162; le choix de l' antenne de référence suivant le SNR . & 226;& 128;& 162; la largeur du créneau intervenant dans la corrélation . Le placement du seuil pour chaque signal de corrélation est fondamental car la détermination du premier trajet en dépend et il est le garant d' une bonne localisation . Un seuil placé trop bas provoque la détection de faux trajets tandis qu' un seuil placé trop haut empêche forcément la détection du premier trajet . C' est donc le compromis évoqué auparavant , entre la probabilité de Fausse Alarme et celle de Non Détection . Le même compromis existe avec le dimensionnement de la fenêtre de recherche . Il est intuitivement plus favorable de choisir l' antenne ayant le meilleur SNR comme antenne de référence , servant d' origine commune pour le calcul des TDOA . Cela nécessite donc une évaluation du rapport signal à bruit . Le code pseudo-aléatoire est modifié . Le nouveau code possède autant de " 1 " que de " 0 " afin d' obtenir une moyenne nulle de bruit après corrélation . Initialement , le temps chip avait été fixé à . Une observation nous conduit à augmenter ce temps chip à . En effet , l' étalement des retards peut être supérieur à suivant le canal considéré . Même si les trajets avec un retard approchant les sont très fortement atténués , leur corrélation avec le template crée des niveaux secondaires ( de période un temps chip ) qui s' approchent du pic principal du premier trajet ( voir figure 66 ) . Figure 66 : Aperçu de la corrélation : risque de fausse détection du à un temps chip trop court . Expérimentalement , nous pensons que malgré la perte sur l' amplitude de la corrélation ( divisée environ par un facteur 2 en utilisant un temps Chip de plutôt que si on conserve la même durée d' acquisition ) , un gain important sur la précision de la détermination du premier trajet est apporté . Pour montrer l' importance du placement du seuil , on donne un exemple de corrélation sur une des voies , pour une même position de l' émetteur , et pour deux valeurs de seuils . Le premier cas , le seuil de donne a priori une bonne estimation du premier trajet tandis que le seuil de donne lieu à une large erreur de fausse alarme . La figure 65 présente ces résultats . Le trait cyan indique le premier trajet détecté et le trait rouge le trajet le plus fort . Table 65 : Erreur de fausse alarme pour un seuil de ( à gauche ) , bonne détection pour un seuil de ( à droite ) Ces mesures sont réalisées avec le code , pour une durée d' acquisition de et pour un temps chip de . La fréquence d' échantillonnage est de 10 GHz . Table 66 : Exemple d' une localisation correcte ( à gauche ) et d' une localisation erronée ( à droite ) Pour illustrer les conséquences de cette fausse alarme , la figure 66 montre l' interface du programme dans chacun des cas . Les hyperboles y figurent , ce sont les courbes de couleur bleu , magenta et cyan . En fait , une seule branche de chaque hyperbole est à considérer , celle -ci est déterminée par le signe de la mesure TDOA . Il faut rappeler que ces hyperboles sont déterminées indépendamment du fonctionnement de l' algorithme utilisé qui est le " fminsearch " . Les points bleus représentent les positions des antennes et le petit point rouge , mis en évidence par un large cercle rouge , indique l' estimation de la position du mobile . À gauche , cette estimation est satisfaisante car les hyperboles définissent une zone restreinte en se croisant . Cette zone est mise en évidence par un fond vert sur la carte . Par contre , quand un seuil est modifié sur une seule des voies , l' estimation de cette position devient incorrecte . La zone définie par le croisement des hyperboles est très large , et l' algorithme de localisation rend une position du mobile affectée d' une erreur de plus de deux mètres . Le petit point rouge est situé alors juste sous une antenne ( point bleu ) . Une campagne de mesures a été menée . Deux méthodes pour la détection du trajet direct sont testées . Un seuil fixé intuitivement d' après expérience est utilisé ; la valeur de est retenue pour chacune des antennes de réception . D' autre part , la méthode de positionnement de seuil adaptatif décrite précédemment est éprouvée . Les statistiques de canal utilisées à cet effet sont celles du canal bureau NLOS du TG-IEEE802 . 15.4a . Rappelons que ces statistiques permettent d' estimer la probabilité de non-détection . Des simulations évaluant l' effet du traitement en réception sur un bruit blanc gaussien permettent de déduire la probabilité de fausse alarme . Le critère est donc de minimiser la somme de ces deux probabilités . À titre de comparaison , la localisation est effectuée également en se contentant de détecter le maximum de corrélation . Pour chaque position du mobile , acquisitions pour chacune des antennes sont enregistrées , donnant lieu à estimations de position du mobile . Le tableau 67 donne l' erreur obtenue pour la meilleure estimation de chaque position du mobile . Table 67 : Erreurs de localisation obtenues selon la position et le seuil utilisé Indice de la position Il est considéré que la hauteur du mobile est connue pour chaque position . Ceci permet de comparer réellement les différentes méthodes de détection du premier trajet sans faire face à des cas particuliers . En procédant de cette façon , de meilleures mesures TDOA donnent effectivement une meilleure estimation de la position du mobile . L' analyse du tableau 67 permet de conclure que le seuil adaptatif est généralement plus performant que le seuil fixe . La figure 67 montre sur un plan les positions testées . Figure 67 : Plan du bâtiment . Les croix représentent les positions testées , les losanges indiquent les emplacements des antennes 4.2.3 La dilution de précision géométrique en TDOA En analysant les estimations des positions , certains emplacements de la zone de mesure apparaissent moins favorables . La figure 68 montre les constellations des estimations autour des positions théoriques . La position 11 montre une grande dispersion des points . Étant donné que le SNR n' est pas réellement plus mauvais que pour d' autres positions , cette dispersion est certainement due à un facteur géométrique : le GDOP ( Geometric Dilution of Precision ) bien connu en GPS . Figure 68 : Résultats de la campagne de mesure . Les croix représentent les positions réelles tandis que les points de même couleur représentent les estimations de ces positions Les systèmes de localisation par TDOA reposent sur la mesure de différences de temps notées de la manière suivante : ( 191 ) où est une inconnue du problème mais est la référence de temps qui est utilisée pour comparer toutes les voies d' acquisition les unes par rapport aux autres . Ce temps représente l' instant d' arrivée du premier trajet sur la voie qui est prise comme référence . est le temps d' arrivée du premier trajet sur la voie du système . Il est possible d' écrire l' équation relative à la mesure TDOA comme il suit : ( 192 ) avec la célérité de l' onde électromagnétique dans le milieu , la position où se trouve le mobile et la position du récepteur . Si on s' intéresse à ce qui se passe au niveau de l' antenne de référence , on a : ( 193 ) Cette dernière équation n' est pas réellement une vraie équation de mesure , mais plutôt une équation permettant de définir le temps de référence sous forme d' équation . En soustrayant les deux équations précédentes , on obtient : ( 194 ) où est le nombre total de récepteurs , et donc le nombre de mesures disponibles . Il est possible de réécrire l' équation précédente sous la forme matricielle suivante : ( 195 ) où est un vecteur ligne contenant la position du récepteur et contient les différences de temps . On recherche à calculer le gradient lié à la mesure en dérivant cette dernière équation : ( 196 ) qui se réécrit sous la forme suivante : ( 197 ) La résolution de l' équation précédente conduit au résultat suivant : ( 198 ) Par la suite , on définit la matrice gradient sous la forme d' un vecteur de la manière suivante : ( 199 ) La colonne de la matrice gradient est égale à la différence entre le temps d' arrivée du premier trajet au niveau de l' antenne de référence et le temps d' arrivée au niveau de la antenne . La dilution de précision ( DOPDOPDilution Of Precision ) est définie par [ ? ] : ( 200 ) Si la variance de la position estimée est de sur chaque voie ( estimation de ranging ) et la valeur de DOP pour cette position est de ( sans unités ) , alors les opérations de localisation effectuées dans cette zone auront une erreur quadratique moyenne de . La connaissance de ce paramètre de dilution de la précision permet de prédire les zones de la couverture dans lesquelles les résultats délivrés par la localisation seront assez mauvais . On prédit ainsi les défauts de couverture du service . Dans des situations 3D , les zones ayant de faibles élévations angulaires ( situations proches d' une géométrie coplanaire ) sont des situations très critiques quant à la détermination de la localisation . Dans le cas où les caractéristiques du bruit ne sont pas les mêmes sur chacune des voies , il est nécessaire d' introduire une nouvelle matrice à savoir celle de la covariance du bruit dans l' équation précédente de la DOP . La matrice de covariance du bruit caractérisant chacune des voies d' acquisition du signal s' écrit de la manière suivante : ( 201 ) Si on pose que est un facteur de normalisation pour la matrice , dans ce cas la nouvelle expression de la DOP est donnée par l' équation suivante : ( 202 ) où ( 203 ) L' incertitude de ce système , connaissant , et est donnée par : ( 204 ) La figure 68 illustre les valeurs de DOP que l' on obtient . Les croix rouges représentent les positions des endroits auxquels les acquisitions sont effectuées . Table 68 : GDOP sur une zone étant donné une configuration géométrique On voit donc que la géométrie du problème influence la confiance que l' on accordera à une mesure de TDOA . Ce phénomène de dilution de la précision est semblable à celui rencontré en GPS . On voit clairement que l' algorithme effectuant la détection du premier trajet est lui aussi très important , car son effet se combine avec celui de DOP pour dégrader plus fortement la précision de la localisation . Montrons qu' une plus grande valeur de DOP conduit à une plus grande dégradation de la précision sur la localisation . À SNR constant , les zones possédant les valeurs de DOP les plus faibles doivent donner les meilleures précisions . En comparant la carte du DOP avec la carte de la localisation , une zone intéressante a été repérée afin de valider l' influence de la DOP . Il s' agit de la zone dans le couloir située devant la porte de la salle contenant une antenne . De fortes valeurs de DOP sont concentrées sur une zone étroite . Des mesures en différentes positions ont été effectuées suivant une ligne droite ( figure 69 ) . Ces mesures doivent montrer une dégradation puis une amélioration de la précision . Le tableau 69 donne les résultats liés à ces mesures : Table 69 : Erreurs obtenues dans la zone de variation de GDOP Numéro de la position Figure 69 : Positions dans la zone de variation de GDOP Ces résultats indiquent une possible influence du GDOP . Cependant , le SNR peut lui aussi intervenir . Ces mesures ne sont pas forcément réalisées à SNR constant . Comme annoncée , la technologie ULB est très prometteuse en terme de localisation . L' état d' avancement de cette étude garantit une précision de dans un environnement NLOS difficile . La forte atténuation du signal liée à la propagation en environnement NLOS et la faible puissance d' émission autorisée par la FCC limitent la zone de bonne localisation à des portées de la vingtaine de mètres en indoor . Des solutions consistent à mettre en place un réseau d' antennes dispersées sur tout le bâtiment . Il est aussi intéressant d' envisager un système multi-utilisateurs . D' autre part , l' ULB peut être associé à d' autres technologies permettant une localisation comme le WiFi . Les mesures de puissance en WiFi permettant une localisation plus grossière mais à plus grande portée , la précision serait améliorée dans certains lieux d' intérêt grâce à un système de localisation ULB . Cette association de technologie semble intéressante à prendre en compte dans la conception d' un système de localisation global . Cette complémentarité entre les technologies doit apporter dans certaines situations une précision plus importante sur l' estimation de la position du mobile , tandis que dans d' autres situations , cela apportera une extension de la zone de couverture du service de localisation . Ces différentes situations sont présentées dans le chapitre suivant axé sur l' étude de la fusion d' informations de technologie de localisation . 4 Techniques de fusion d' informations de localisation Au moment de prendre une décision de quelque importance , quelle qu' elle soit , trouve l' expert en la matière , et fait ce qu' il te dira de faire . Contes des mille et une nuits Comme nous l' avons vu précédemment , aucune technologie de localisation n' arrive à réunir tous les suffrages . Cependant , les faiblesses d' une technologie de localisation indoor ne sont pas nécessairement les mêmes que celles d' une autre technologie . La fusion d' informations de localisation devient nécessaire . Dans un premier temps , nous nous intéresserons à la fusion d' un système de localisation par WiFi avec un système ULB afin de voir l' apport de la localisation par ULB pour la localisation par WiFi , puis dans un second temps , nous rechercherons à exploiter la navigation inertielle en l' intégrant au système de localisation par WiFi . Ces deux types de fusion présenteront l' apport de la fusion d' informations provenant de technologies de natures hétérogènes puisque l' ULB est une technologie radio tandis que la navigation inertielle ne l' est pas . Les limitations de ces différentes technologies ne sont pas les mêmes , et leur complémentarité doit permettre d' améliorer la localisation par WiFi qui est utilisée comme technologie de base pour la localisation . 1 Localisation WiFi et ULB Les chapitres précédents ont présenté les capacités de localisation de chacune de ces technologies . Pour le WiFi , la portée des points d' accès est d' une quarantaine de mètres pour des environments de type indoor bureau . Au chapitre 2 , on a montré que la localisation par fingerprinting permet de se localiser à . En ajoutant des techniques de filtrage comme le filtrage particulaire , il est possible de descendre la précision de localisation à . Le chapitre 3 a exposé la précision de la technologie ULB , soit une précision d' une soixantaine de centimètres dans une zone de taille . Cette zone de couverture est plus restreinte que celle de WiFi . Le déploiement d' un système de localisation par ULB sur l' ensemble d' un bâtiment est difficile à cause du coût de mise en oe uvre de notre système qui requiert un élément pour synchroniser les différentes antennes , ici c' est un oscilloscope numérique avec un échantillonnage pouvant aller jusqu'à . L' utilisation de ce système de localisation se limite à la zone de couverture radio du système . La combinaison de ces deux systèmes permet d' améliorer le système de localisation par WiFi lorsque le mobile se retrouve dans la zone couverte par la technologie ULB . Le système par ULB permet par la suite , de resynchroniser le filtre de localisation puisque le mobile est localisé très précisément dans la zone de couverture ULB . Le système par ULB agit comme le fait un réseau de tags RFID , car temporairement , le mobile connaît avec précision sa position . Lorsqu' il sort de la zone de couverture ULB , le WiFi prend le relais pour localiser le mobile à partir de la dernière position précise connue et issue du système par ULB ( position de sortie de la zone de couverture ULB ) . Il arrive que la localisation par WiFi accumule du retard notamment , lorsque le mobile change de direction , comme aux extrémités des couloirs . Dans ce cas , plusieurs décisions sont possibles pour le mobile , et le filtre nécessite quelques secondes avant de prendre une décision , du fait qu' il explore toutes les directions possibles pour le déplacement du mobile . À L' aide de la navigation par ULB , le système peut lever cette ambiguïté , si ce système par ULB est disponible . Cet effet de resynchronisation , améliore la précision moyenne du système global de localisation . Dans le cadre de cette étude , un démonstrateur a été mis en place afin de relever des mesures réelles pour étudier plus finement la " collaboration " de ces deux systèmes de localisation qui sont complémentaires en terme de couverture radio . L' architecture mise en place permet d' avoir des interactions entre les différentes technologies pour fournir une localisation finale à l' utilisateur qui soit de meilleure qualité que celle fournie individuellement par chacun de ces capteurs . Chacune des technologies de localisation retourne une position estimée pour le mobile . Il faut extraire de ces deux positions , qui peuvent être différentes , une seule et unique position qui soit issue de la meilleure combinaison des positions retournées par chacun de ces deux capteurs . Les éléments de filtrage , présentés au second chapitre ( 4.1 , 4.2 et 5 ) reposent sur des données statistiques associées à chacune des variables aléatoires . Ces mêmes filtres sont utilisables pour fournir la meilleure estimation possible de la densité de probabilité suivante : ( 205 ) Le filtre particulaire permet d' estimer cette densité de probabilité . La première étape du filtrage particulaire ( phase de prédiction ) reste identique à celle présentée à la section 4.4 . Dans le but de fusionner les deux informations ( localisation par WiFi et localisation par ULB ) , nous avons modifié la phase de correction qui correspond au calcul de la densité de probabilité suivante : ( 206 ) Il est nécessaire d' exprimer la densité de probabilité . D' une manière générale , nous avons les positions retournées par les mesures WiFi et ULB qui sont liées , puisque d' un point de vu pratique , lorsque le mobile se trouve dans la zone de couverture radio WiFi / ULB , pour une position donnée , il est normalement possible de définir l' ensemble des mesures TDOA relatives à cette position ainsi que l' ensemble des puissances WiFi captées . On décompose la probabilité précédente sous la forme suivante : ( 207 ) Pour simplifier le calcul de cette expression , il faudrait que les variables aléatoires et soient indépendantes . Or ce n' est pas le cas . Lorsque le mobile se trouve en une position , dans la zone de couverture commune aux deux systèmes de localisation , dans ce cas , les mesures TDOA ( ) sont fixées . De même , pour cette position , les mesures WiFi sont clairement liées à la position . On n' a donc pas d' indépendance entre ces deux variables aléatoires . Par la suite , nous considérons quand même que les mesures et sont indépendantes . Cette hypothèse permet de simplifier l' expression de puisque cette probabilité se met sous la forme suivante grâce à la formule de Bayes : ( 208 ) L' expression de chacun de ces termes est plus simple , puisqu' ils reviennent à comparer les positions des particules avec les positions retournées par chacune des technologies , comme nous l' avons fait lors de l' application de ce filtre à la localisation par WiFi . ( 209 ) En utilisant les distributions présentées dans l' équation ? ? , on détermine la probabilité a posteriori issue du processus de correction du filtre . Cependant , il est nécessaire de résoudre le problème de gestion du passage d' une zone où les deux systèmes sont disponibles à une zone où seulement un des systèmes est disponible . Lorsque le système de localisation par ULB est indisponible , il ne doit pas retourner d' estimation de positions erronées qui dégraderont fortement la position retournée par l' estimateur final . De plus , le système par ULB ne retourne pas une estimation de la position du mobile d' aussi bonne qualité quelque soit la position dans la zone de couverture ULB . Lorsque le mobile est en limite de la zone de couverture , il y a une ou deux antennes qui possèdent des signaux de très bonne qualité et qui permettent de clairement discerner les trajets de la réponse impulsionnelle , mais pour les deux autres antennes , la qualité des signaux ne se trouve pas être suffisante pour estimer précisément l' instant d' arrivée du premier trajet . La qualité du rapport signal à bruit est un critère intéressant permettant de juger de l' importance à porter à la mesure ULB par rapport aux mesures WiFi . Si les sont élevés sur chacune des voies , dans ce cas , il est nécessaire de faire plutôt confiance à la position retournée par le système ULB et au contraire , si une des voies possède un très faible , dans ce cas , il ne faut pas apporter beaucoup de confiance à la localisation par ULB , car la localisation par WiFi fourni dans ce cas une meilleure estimation de la position du mobile . L' introduction de ce terme de confiance se fait directement sur les densités de probabilité présentées ci-dessus . Nous avons retenu comme loi , des gaussiennes sur lesquelles on modifie l' écart-type afin d' élargir ou au contraire de pincer fortement la distribution de probabilité . Plus cet écart-type est faible , plus on apporte de la confiance à une mesure . Cette variation sur la confiance se fait principalement sur la loi associée à la mesure ULB . En effet , la mesure WiFi conduit dans toute la zone de fonctionnement du système à une précision similaire , tandis que pour le système de localisation par ULB , sa précision varie en fonction de la zone dans laquelle se situe le mobile . Nous avons retenu de faire varier la variance de la loi de probabilité associée à la mesure ULB de la manière suivante : ( 210 ) Maintenant , il suffit d' appliquer le filtre particulaire tel qu' il a été présenté au chapitre 2 à la différence que le poids des particules est donné par : ( 211 ) Un démonstrateur a été réalisé afin de collecter les trames WiFi et les trames ULB ( à l' aide de l' oscilloscope ) pour un parcours pré-défini . Le problème lié à ce démonstrateur a été de synchroniser les flux de données issues de l' oscilloscope avec ceux provenant de l' interface WiFi . Pour cela , nous avons utilisé un PC central qui recevait des trames WiFi en provenance du mobile et des trames en provenance de l' oscilloscope . À la réception de chacune de ces trames , le serveur introduit une référence temporelle qui permet de connaître l' instant où il a reçu les différentes trames WiFi et ULB . La figure 70 présente le résultat obtenu pour un trajet dans la zone dans laquelle les deux systèmes fonctionnent . Table 70 : Apport de la fusion de la localisation WiFi par la localisation ULB Ce premier résultat visuel montre que dans la zone couverte par les deux systèmes , la précision est meilleure et donne une meilleure description du mouvement du mobile . La trajectoire réellement suivie fait bien le tour du mobilier se trouvant au centre de la pièce autour de laquelle est mis en place le système de localisation par ULB . Ce mouvement est très correctement retraduit pour le système employant la localisation par ULB . Cette amélioration est visible sur les valeurs des performances du système en terme de précision de localisation . La figure 70 donne des ordres de grandeur des performances ( voir le tableau 71 ) . Figure 70 : Performances du système de localisation combinant les technologies Table 71 : Comparaison des performances entre un système avec fusion et un système sans fusion d' information de technologies de localisation . Ce tableau exprime le pourcentage de mesures dont l' erreur ( en mètres ) est telle que Pourcentage : La fusion de ces deux technologies permet d' avoir localement ( dans la zone de couverture des deux système ) une amélioration de la qualité de la localisation , et dans ce cas précis , on a une meilleure estimation sur le mouvement du mobile . De façon plus concrète , l' ULB permet de détecter que le mobile a effectué le tour de la pièce , ainsi que le sens dans lequel le mobile s' est déplacé . Les performances en terme de localisation montrent bien cette amélioration comme indiqué sur la figure 70 . De plus , dans les zones de transitions ( passage d' une technologie de localisation à deux technologies de localisation , et vice-versa ) , le système présente une continuité entre les positions délivrées dans ces zones de couture . Aucune rupture du service de localisation n' est observée lors de cette transition . Cette transition a lieu dans le couloir , car au niveau du point de départ , le service de localisation par ULB est indisponible . Ce système de localisation permet de resynchroniser le capteur fournissant la localisation la moins précise , à savoir ici , la technologie WiFi . Ces résultats sont transposables à la fusion de la localisation par WiFi avec des technologies comme la vidéo ou les RFID . Dans le système proposé , les deux technologies ne sont pas disponibles en même temps avec le même ordre de précision , et les erreurs commises par l' une des technologies ne se trouvent pas corrigées par l' autre et vice versa . L' aspect fusion s' apparente plus à un choix entre les deux technologies disponibles . D' autres technologies comme nous le verrons par la suite se prêtent mieux à cet aspect d' autocorrection mutuelle entre les technologies de localisation pour délivrer en permanence une meilleure estimation de la position du mobile . 2 La localisation par navigation inertielle ( INS ) La section précédente a présenté un aspect de la fusion multicapteurs . Une technique de fusion similaire à celle -ci est applicable lorsqu' on dispose d' un capteur WiFi et d' un ensemble de capteurs par RFID . La localisation par navigation inertielle ( ou INS pour Inertial Navigation System ) doit permette d' améliorer les performances d' un système sur deux plans . Une première amélioration de cette combinaison est que lorsque la navigation par WiFi est indisponible , les capteurs de navigation inertielle prennent le relais à l' image des systèmes de navigation automobile où ces capteurs prennent le relais dans les zones d' indisponibilité du GPS . On a donc une extension géographique de la zone de disponiblité du service de localisation . La seconde amélioration se trouve au niveau de la précision de la localisation lorsque les deux systèmes ( WiFi et INS ) sont disponibles . La combinaison de capteurs dont les informations sont décorrélées permet d' améliorer la qualité de l' estimation de la position du mobile . La suite de cette section s' attache particulièrement à l' amélioration de la précision , puisque l' extension de couverture se fait simplement par le passage d' une technologie à l' autre comme pour les applications automobiles [ 45 , 63 , 64 , 58 ] . Le passage d' une technologie de localisation à l' autre se produit lorsqu' on dispose d' un nombre insuffisant de points d' accès pour se localiser en WiFi . Comme on le verra par la suite , les capteurs de navigation inertielle sont soumis à une certaine dérive . Il est nécessaire de les réinitialiser de temps en temps pour lutter contre cette dérive . Lorsque le mobile ne peut pas se localiser à l' aide du WiFi , seul les capteurs INS délivrent une position dérivant au cours du temps . Lorsque le mobile se localise de nouveau à partir du système WiFi , les capteurs de navigation inertielle sont réinitialisés . Une telle combinaison permet d' étendre la zone de disponibilité du service de localisation pour les applications de type piétonnes . Cette approche n' est pas traitée ici puisque nous avons privilégié l' étude de complémentarité des capteurs pour améliorer la localisation dans la zone où les deux capteurs sont disponibles . Dans un premier temps , la navigation inertielle piétonne est présentée , suivi d' une architecture combinant ces deux technologies . 2.1 Exploitation des données de navigation inertielle Dans les environnements qui restent de grands défis pour le GPS , comme à l' intérieur des bâtiments , la navigation inertielle ( INSINSInertial Navigation System ) trouve sa place . La localisation inertielle est souvent utilisée dans les domaines de l' aéronautique et la navigation marine afin de déterminer la position d' un équipement en effectuant des intégrations successives sur des données issues d' accéléromètres et de gyroscopes . Les estimations des positions sont effectuées à intervalles réguliers et l' erreur grandit en . Afin de limiter les imprécisions , il est nécessaire d' avoir des capteurs peu sensibles aux bruits de mesure . Les applications de navigation précédentes ont imposé de fortes contraintes pour que les mesures soient moins bruitées afin de limiter l' effet de dérive sur la localisation . La précision de ces capteurs s' est améliorée au cours du temps et aujourd'hui , on dispose de capteurs de petites tailles et fournissant des mesures très précises . Cependant , même avec des mesures précises , l' erreur de positionnement due au bruit introduit une dérive sur l' estimation de la position . Ce phénomène rend la navigation INS traditionnelle peu pratique . Il est souvent nécessaire d' effectuer une réinitialisation des capteurs à partir d' un autre capteur non soumis à ces effets du bruit ( comme le GPS par exemple ) . 2.1.1 Les différents capteurs disponibles pour la navigation inertielle piétonne Plusieurs catégories de capteurs permettent de collecter des informations sur le comportement d' un piéton . On trouve des capteurs mesurant des accélérations ( accéléromètres ) , d' autres mesurant le champ magnétique à l' image d' une boussole ( compas ) , ou bien des vitesses angulaires ( gyroscope ) et une dernière catégorie mesurant la pression atmosphérique ( baromètres ) . Le travail présenté ici porte principalement sur l' exploitation d' accéléromètres pour la détection de la marche , un gyroscope pour la mesure de l' attitude et un baromètre pour détecter les changements d' altitude . Des magnétomètres auraient pu être utilisés en remplacement du gyroscope car la nature des informations relevées par ces deux capteurs sont similaires . Pour des raisons de sensibilité , nous avons préféré retenir le gyroscope car il n' est pas soumis aux perturbations magnétiques qui peuvent être nombreuses à l' intérieur des bâtiments ( objets métalliques , etc. ) . L' accéléromètreComme son nom l' indique , le capteur " accéléromètre " mesure l' accélération d' un système grâce à la gravité terrestre . La force d' attraction exercée par la Terre joue un rôle fondamental sur la manière dont nous nous déplaçons . La gravité est responsable du travail mécanique nécessaire pour se déplacer à chaque fois que nous effectuons un pas , et ceci quelque soit le type de terrain sur lequel nous nous déplaçons . Lors de la marche , un ensemble de forces intervient . Ces forces se divisent en un ensemble de travaux extérieurs [ 75 , 84 ] . Notre corps subit une succession d' accélérations et de décélérations ( lorsque le pied est en contact avec le sol ) . Lorsqu' une personne court , on observe un allongement des pas qui s' accompagne d' une variation verticale du corps plus élevée . De plus , lors de la course , la fréquence des pas augmente . Il est possible de déterminer le nombre de pas effectués avec un accéléromètre . Si on caractérise la distance parcourue lors d' un pas , il est possible d' estimer la distance parcourue par le piéton . [ 84 ] propose une approche bioméchanique d' analyse de la marche permettant d' estimer la distance parcourue . Des expressions tenant compte de la taille de la personne , de l' amplitude de l' accélération sont proposées pour exprimer la distance parcourue par une personne lorsqu' elle fait un pas . Cependant , certains paramètres nécessitent tout de même d' être ajustés pour chaque personne du fait que deux personnes ne marchent pas de la même manière . La plupart des accéléromètres sont basés sur des systèmes électromécaniques , maintenant miniaturisés sous forme de MEMSMEMSMicro-Electro-Mechanical Systems ( systèmes micro-électro-mécaniques ) . Pour effectuer ces mesures d' accélération , une masse est fixée à un support par l' intermédiaire d' un ressort . Cette masse n' a qu' un seul degré de liberté , soit linéaire , soit rotatoire . La force spécifique agissant sur la masse est mesurable par des effets différents . Le " Strain-Sensing-Accelerometer " en est un exemple . Un ensemble de piézorésistances quantifie la déformation du support par la masse . La position où est placé ce capteur sur le corps de la personne est importante pour bien retraduire fidèlement les accélérations et décélérations générées au cours de la marche . Souvent , on choisit des endroits comme la ceinture d' une personne , la jambe ou le pied . C' est sur ce dernier endroit que les accélérations sont les plus fortes pour la détection de la marche et le calcul de la fréquence des pas . Cependant , ceci n' est pas pratique . Aussi , nous avons préféré placer ce système d' accéléromètres au niveau de la ceinture . Dans la suite de ce travail de thèse , aucune étude approfondie n' est menée sur l' exploitation des données issues de l' accéléromètre , pour traduire cette accélération en distance , comme proposé dans [ 84 ] . Nous nous sommes limités à utiliser cette information pour détecter si la personne est immobile ou pas , en effectuant une détection par seuil . L' exploitation de cette information est présentée à la section 2.2 . Pour aboutir à une estimation de la distance parcourue , il est nécessaire d' effectuer une double intégration des signaux issus des accéléromètres . Comme les mesures d' accélérations sont bruitées , lors de l' intégration , l' effet de ce bruit est augmenté et crée ainsi le phénomène de dérive sur l' estimation . [ 81 ] présente une méthode s' affranchissant de la double intégration des données . Cette technique estime la distance par l' intermédiaire de la vitesse de déplacement . La figure 72 présente le signal issu du capteur accélérométrique . On voit que ce signal est assez bruité , mais que néanmoins , il est possible , par un système de seuillage , de détecter lorsqu' un pas est effectué . Table 72 : Accélération mesurée au niveau de la ceinture ( signal global à gauche et signal zoomé à droite ) Le capteur utilisé pour ces expérimentations est l' ADXL 202 [ 78 ] . Le gyroscopeCe capteur quantifie les rotations effectuées autour d' un axe . Les gyroscopes mesurent précisément la vitesse angulaire . En intégrant les données issues de ce capteur , on obtient la direction de déplacement . Ce capteur se distingue du compas ( qui agit par mesure du champ magnétique ) en ce sens que pour obtenir la direction , il est nécessaire d' effectuer une intégration des données au cours du temps alors que le compas retourne directement l' angle duquel la personne a tourné . Cependant , le gyroscope ne subit pas de fortes dégradations lors du passage dans un champ magnétique contrairement au compas . Ces deux technologies , gyroscope et compas , sont complémentaires . Aujourd'hui , les gyroscopes utilisent des systèmes vibrants mesurant la force de Coriolis , ou alors optiques avec la mesure de l' effet Sagnac . Comme le gyroscope mesure une vitesse angulaire , il est nécessaire d' intégrer dans le temps cette mesure afin d' obtenir l' angle duquel a tourné le mobile autour de son axe de rotation . Dans le cadre de la navigation piétonne , il est nécessaire de mesurer la rotation autour de l' axe vertical pour savoir si le piéton tourne à gauche ou à droite ( suivant sa direction de marche ) . En utilisant ce capteur , on observe une certaine dérive de l' angle au cours du temps . Il existe plusieurs raisons à cette déviation . Ces sources d' erreurs sont données par la figure 71 . Figure 71 : Sources d' erreur sur le gyroscope L' erreur la plus simple à comprendre est le bias . Il s' agit tout simplement d' une valeur additionnelle . ( 212 ) Ce biais est facilement estimé puisqu' il suffit de faire des mesures quand l' entrée est nulle . Il faut savoir que ce biais doit être calculé à chaque fois que le gyroscope est mis en marche . Il varie généralement dans le temps à cause des variations de température . De plus , le biais obtenu lors de la mise sous tension n' est généralement pas le même que celui obtenu en fin de mesure puisque les composants électroniques ont une température stabilisée . Une autre source d' erreur est le facteur d' échelle . Il est principalement du au vieillissement du capteur . Il apparaît à cause des défauts de fabrication des capteurs , mais il n' évolue pas vraiment au cours du temps . Son influence sur les mesures se note : ( 213 ) Ce défaut apparaît lorsqu' on a un défaut d' alignement entre l' axe de rotation du capteur et la verticale . La réponse du capteur peut aussi être issue de non linéarités . Ces non linéarités sont présentes dans quasiment tous les capteurs . On les modélise sous la forme d' une série : ( 214 ) Pour annuler ces non-linéarités , on caractérise finement le capteur en faisant de nombreuses mesures en dynamique . D' autres sources d' erreurs , comme le défaut de fabrication , existent . Normalement , les axes de fonctionnement des capteurs sont parallèles aux bords du circuit , mais souvent des défauts de parallélisme existent . Aussi l' axe de rotation pour la mesure gyroscopique n' est pas exactement l' axe vertical . Les méthodes de fabrication actuelles étant telles que ce type de défaut reste imperceptible avec le système de mesure que nous employons . Des erreurs , telles que l' asymétrie du facteur d' échelle , ou une zone morte de mesure , ou un défaut de résolution sont autant de sources d' imprécision sur ce capteur . La vitesse angulaire s' écrit sous la forme suivante : ( 215 ) avec la vitesse angulaire finale , la vitesse angulaire mesurée au niveau du capteur , le facteur d' échelle , le biais sur les mesures , et une erreur aléatoire normale . Au cours du temps , la valeur de l' angle est donnée par : ( 216 ) ( 217 ) ( 218 ) où est l' angle à l' initialisation du capteur . On voit que l' accumulation du bruit au cours du temps introduit une dérive de la mesure de l' angle . De nombreux systèmes , comme ceux présentés dans [ 84 ] utilisent conjointement un compas et un gyroscope pour que la direction soit donnée par l' un ou l' autre des capteurs suivant les perturbations subies par chacun d' entre eux . Ici , nous n' avons pas retenu une telle approche pour des raisons de simplicité du système . Nous avons mené une expérimentation pour caractériser le gyroscope employé ( ADXRS 150 [ 86 ] ) . Pour cela , nous avons fait plusieurs hypothèses sur le mouvement . D' une part que le mobile se déplace à vitesse constante et , que la distance effectuée à chaque pas est la même . D' autre part , lorsque le mobile tourne ( dans le couloir par exemple ) , l' angle est de . À partir de ces données , le trajet obtenu est présenté sur la figure 72 . Figure 72 : Performances du gyroscope Au départ , la trajectoire obtenue grâce au gyroscope se superpose bien avec la trajectoire réelle , mais lorsqu' on arrive de l' autre côté du bâtiment , les deux trajectoires se séparent peu à peu à cause de l' effet du bruit qui est intégré et qui génère la dérive contre laquelle il faut lutter par la suite . Le baromètreCe capteur mesure la pression atmosphérique que l' on convertit ensuite en altitude . En effet , la pression change lorsqu' un objet s' élève ou descend . La pression atmosphérique varie aussi en fonction de la température , du temps ( conditions climatiques ) , de la latitude et de l' altitude . D' un jour à l' autre , la pression à un même endroit varie significativement . Les données issues de ce capteur doivent être utilisées en relatif au cours du temps . [ 88 ] présente une approche sur l' exploitation de ces données barométriques . Une relation liant la pression à atmosphérique à l' altitude est donnée par ( 219 ) où est la pression à un niveau de référence ( par exemple le niveau de la mer : à l' altitude ) , la température prise au niveau de référence ( ) , est le gradient thermique adiabatique , est la constante des gaz parfaits , est l' accélération de la pesanteur et est la masse molaire de l' air sec . Pour simplifier l' étalonnage et comme nous ne disposons pas de mesures de référence , il a été décidé de suivre la formule suivante : ( 220 ) Cette relation a été étalonnée à partir des mesures effectuées à l' altitude où nous avons utilisé ce capteur ( altitude de 294 m pour la ville de Grenoble ) . L' information de pression atmosphérique permet de remonter à l' estimation de l' altitude . Ici , nous nous intéresserons plus particulièrement aux différences d' altitude pour supprimer l' effet des constantes de calibration du modèle . Des tests ont été effectués pour valider le capteur ( MPX4115A [ 80 ] ) . Pour cela , une personne assise sur sa chaise , avec le capteur accroché à la ceinture se lève brutalement . Les mesures pour ce scénario sont présentées à la figure 73 . Figure 73 : Sensibilité du capteur barométrique La figure 73 présente des transitions franches lorsque la personne portant le dispositif au niveau de la ceinture passe d' une situation assise , à une situation debout . Ces faibles variations de pression atmosphérique sont détectées ( une quarantaine de centimètres ) . Le baromètre est un bon indicateur pour détecter les changements d' étages mais aussi , les mouvements d' une personne , comme par exemple , la détection de chutes ( cas des personnes âgées pour qui le système permet de déclencher une alerte ) . Dans notre application , ce capteur est simplement utilisé pour identifier les changements d' étages . Par la suite , on préfère travailler sur des différences de mesures afin de ne pas avoir à recalibrer le capteur en permanence , car la pression de référence pouvant changer , la pression aux autres altitudes change immanquablement . 2.1.2 Bilan sur la localisation par navigation inertielle L' intérêt principal de ce type de localisation , est qu' il n' est pas nécessaire d' effectuer des mesures radio . Les données sont issues de grandeurs physiques qui nous entourent sans une quelconque émission . Un système basé sur la navigation inertielle propose un ensemble de capteurs modélisant une solution complète puisque le système donne accès à : & 226;& 128;& 162; la position de la personne & 226;& 128;& 162; la vitesse de déplacement & 226;& 128;& 162; l' orientation ( avec un compas si nécessaire ) & 226;& 128;& 162; l' accélération & 226;& 128;& 162; la vitesse angulaire L' exploitation de ces différentes données conduit à une localisation très précise du mobile , si les capteurs sont finement étalonnés . Une localisation très précise est disponible sur de courtes durées avant que l' effet des différentes dérives ne fausse la localisation . Il faut garder à l' esprit que la position initiale du mobile doit aussi être connue très précisément pour que la localisation puisse s' effectuer . Le fait que ces systèmes de navigation sont intégralement autonomes en font de très bons candidats pour de nombreuses applications ( militaires , aéronautiques , etc. ) . Aucune infrastructure annexe est nécessaire comme dans la plupart des solutions de localisation ( voir le chapitre 1 ) . Un des intérêts de cette technologie est qu' elle est disponible tout le temps ( même là où d' autres solutions sont indisponibles , tant que les perturbations sur les capteurs ne sont pas trop importantes ) . Aujourd'hui , grâce aux avancées de la microélectronique , les capteurs ont été très fortement miniaturisés . Il est possible d' intégrer ces capteurs , dans les objets de la vie courante . On retrouve ces capteurs dans des téléphones mobiles par exemple [ 95 ] pour piloter l' interface homme machine , mais on imagine déjà détourner l' exploitation de ces capteurs pour réaliser de la localisation . Le dernier point , et non pas le moindre , est la partie placement des capteurs sur le piéton . Dans le cadre de la localisation piétonne , on choisit souvent de placer les capteurs au niveau de la ceinture . Les défauts d' alignement entre les différents axes du système sont des sources d' erreur . Par exemple , si l' axe de rotation du gyroscope n' est pas exactement aligné avec la verticale , des défauts de mesure sont à prendre en compte . Ce défaut est d' autant plus difficile à estimer que la personne est en mouvement et introduit elle même de nouvelles perturbations . Le mouvement de la personne induit un déplacement , même faible , du dispositif , qui introduit cette erreur sur l' estimation exacte de la grandeur . 2.2 Description du système de fusion WiFi / INS De nombreuses applications de navigation exploitant l' INS reposent sur la combinaison de cette technologie avec le GPS . On retrouve ces applications dans l' automobile . Elles sont basées sur l' exploitation du GPS et de données odométriques ( comptes tours pour les roues , etc. ) [ 69 , 67 ] . Dans le cadre de la navigation piétonne , on peut appliquer des stratégies de fusion similaires . Lorsqu' on sort de la zone de couverture WiFi , le système de navigation à l' estime fournit la position du piéton . Ici , nous n' avons pas recherché à obtenir l' information de distance parcourue par le piéton , à l' aide des accéléromètres . Nous nous sommes limités à l' information " le mobile est en mouvement ou pas " . Cette information est insuffisante pour un système de localisation global reposant sur l' application des équation du mouvement comme présenté dans [ 68 ] . Nous nous sommes plutôt attachés à améliorer la localisation de notre système basé sur WiFi . Du coup , les mesures de navigation inertielle corrigent la navigation par WiFi , et par un système de boucle de retour , on corrige la dérive des capteurs de navigation inertielle . Ici , nous nous sommes focalisés sur le processus de correction de l' angle fourni par le gyroscope puisque l' information issue des données de l' accéléromètre reste binaire à savoir le mobile est immobile ou pas . L' outil sur lequel se base notre système de fusion est le filtre particulaire . Grâce à une modification de l' équation de prédiction ( prédiction de la position suivante des particules lorsqu' on reçoit une nouvelle mesure -- équation 108 -- ) , on introduit la notion de direction de déplacement dans l' équation du mouvement de la manière suivante : ( 221 ) avec la vitesse angulaire à l' instant . En se basant sur cette équation du mouvement , on écrit l' équation de prédiction du filtre particulaire sous la forme : ( 222 ) où est une valeur déterminant si le mobile est en mouvement ou pas . Lorsque le mobile est en mouvement , on a . Cette valeur est déterminée grâce aux accéléromètres placés dans le dispositif de navigation inertielle . Comme il a été vu à la section 2.1.1 , lorsque le piéton bouge , un signal périodique correspondant à la marche est généré par la capteur . En plaçant un seuil , et une durée moyenne pour un pas , on observe si au cours du temps , ce seuil est franchi ou pas . Si ce seuil n' est pas franchi , dans ce cas est nul , sinon , on a . Ce système permet d' affiner la trajectoire du mobile à l' aide de capteurs de navigation inertielle . Lorsque plusieurs choix sont possibles pour les particules ( lorsque le mobile tourne ou qu' il va tout droit ) , il est possible d' orienter les particules pour qu' elles évoluent dans la bonne direction . Cette stratégie permet de supprimer le délai observé lors d' un changement de direction à cause de l' inertie du filtre . À cause de la dérive des capteurs de navigation inertielle , au bout d' un certain temps , on dégrade la qualité du mouvement des particules , et donc la qualité de l' estimation de la position du mobile . Pour cela , il est nécessaire de limiter cette dérive , en corrigeant les mesures issues des capteurs de navigation inertielle , et notamment la mesure gyroscopique ( l' angle ) . L' application dans laquelle nous nous plaçons est particulièrement intéressante , puisque nous disposons d' une localisation issue du filtre particulaire . Entre deux positions successives retournées par le filtre particulaire , on en déduit l' angle de la trajectoire globale et on utilise cette information pour corriger l' angle issu de la mesure gyroscopique de manière à lutter contre sa dérive ( utilisation de WiFi et du plan du bâtiment ) . Ici , nous avons utilisé un filtre de Kalman pour effectuer le tracking de l' angle délivré par le gyroscope . Le filtre de Kalman a été détaillé au chapitre 2 ( 4.1 ) . Les équations finales synthétisant ce filtre de Kalman sont données par : ( 223 ) où est la vitesse angulaire mesurée par le capteur et l' angle issu de la trajectoire obtenue par le filtre particulaire . Cette étape de filtrage permet de limiter la dérive des mesures issues du capteur gyroscopique en la corrigeant à l' aide des mesures WiFi . Le système global de correction mutuelle est représenté à la figure 74 . Figure 74 : Système d' auto correction de navigation WiFi assisté par la navigation inertielle . Ce système combine des informations de localisation issues d' une technique radio avec celles de navigation inertielle . Au niveau des performances de ce système de localisation , on s' attend a obtenir de meilleurs résultats par rapport à l' utilisation individuelle de chacun de ces systèmes . L' apport de cette fusion se fait lors des changements de direction puisque le système de localisation par WiFi a une connaissance précise du comportement de l' utilisateur . Les situations présentant un intérêt sont : & 226;& 128;& 162; Lorsque le mobile change de direction & 226;& 128;& 162; Lorsque le mobile s' arrête puis redémarre Dans la seconde situation , il est possible de figer le filtre de manière à ce que les particules soient immobiles . Le filtre évolue suivant le rééchantillonnage , avec un recentrage de la position sur la bonne zone . Ces différentes situations ont été analysées afin de vérifier le gain en performances de cette fusion entre capteurs . Pour cela , nous avons disposé sur une personne , à la ceinture , un dispositif mesurant ces différentes données ( accélération , vitesse angulaire , pression atmosphérique ) ( la figure 75 présente le dispositif de navigation inertielle ) . Figure 75 : Dispositif de navigation inertielle . Plusieurs trajets ont été suivis par cette personne afin de démontrer l' avantage de la fusion d' informations provenant de différents capteurs . Un des trajets est dans le couloir tout au long du bâtiment ( trajet présenté au chapitre 2 ) . Un second trajet permettant de mettre en évidence le gain apporté par la navigation inertielle comporte une partie de la trajectoire qui pénètre dans une pièce avec un arrêt dans cette pièce . Les capteurs INS détectent l' arrêt d' une personne dans la pièce ( grâce aux accéléromètres ) ainsi que la direction dans laquelle la personne a tourné . Des relevés de mesures WiFi et INS ont été effectués sur chacun de ces deux trajets de référence . La synchronisation des données issues de chaque capteur ( WiFi et INS ) est assurée par le PC qui enregistre les données . La figure 73 présente les trajectoires observées lorsque des données de navigation inertielle sont utilisées en comparaison avec un système n' employant que des données WiFi pour se localiser . Table 73 : Apport de la fusion de la navigation par WiFi avec la navigation inertielle par rapport à un système n' exploitant que de la localisation par WiFi L' utilisation de la navigation inertielle est intéressante car elle permet d' effectuer deux types de détections : & 226;& 128;& 162; Détection de l' immobilité de la personne : ceci permet de figer la position des particules , puisqu' elles n' ont plus de raison de bouger si le mobile est immobile & 226;& 128;& 162; Détection des changements de direction : ceci permet de favoriser l' exploration suivant une direction . Ceci permet de réduire le nombre de particules explorant le bâtiment puisque l' espace a explorer est réduit . La navigation inertielle apporte une forte contribution lorsque le mobile change de direction soit lorsqu' il est dans le couloir ( arrivée au bout d' un couloir et qu' il doit tourner ) , ou lorsqu' il entre dans une pièce . Le filtre détermine très simplement la pièce où le mobile est entré ce qui n' est pas toujours évident lorsque seule la navigation par WiFi est employée . L' interaction entre les deux systèmes de navigation est importante et la boucle de correction sur les données de navigation inertielle est efficace car aucun effet de dérive est constaté sur l' évolution des particules . La figure 74 présente un schéma blocs de l' algorithme de fusion des informations de navigation WiFi et navigation INS . Cet algorithme permet d' orienter le mouvement des particules avec les données de navigation inertielle afin de prédire la position du mobile tout en tenant compte du plan du bâtiment . La trajectoire prédite pour le mobile est ensuite utilisée pour corriger la dérive inertielle en réinjectant cette trajectoire estimée dans le filtre de Kalman . Ce filtre permet de supprimer la dérive inertielle et donc la déviation de la trajectoire , comme cela était le cas lorsqu' on a seulement un système de navigation par INS en autonome . Le tableau 74 présente les résultats numériques obtenus pour ce système de fusion . Table 74 : Performances du système exploitant de la localisation par navigation inertielle par rapport au système sans navigation inertielle . Ce tableau exprime le pourcentage de mesures dont l' erreur ( en mètres ) est telle que L' exploitation simultanée des deux systèmes de navigation permet de réduire l' erreur de localisation . Ce système de localisation conduit à une localisation comprise entre et contre une localisation à pour le système de localisation par WiFi seul . L' autre point à noter est que la localisation INS réduit significativement les erreurs importantes . Lors des tests , l' erreur la plus importante a été de avec le système WiFi + INS contre pour le système WiFi seul . Les figures 75 , 76 et 77 présentent les différentes distributions cumulées des erreurs pour chacune des situations . Table 77 : Distributions cumulées des erreurs du système couplant navigation WiFi avec de la navigation INS Cette étude sur la fusion d' informations de navigation , comme le WiFi et la navigation INS , montre l' intérêt que les systèmes de navigation ont à intégrer et combiner intelligemment différentes techniques de navigation . Pour la navigation WiFi combinée avec de la navigation inertielle , on voit un apport significatif au niveau des changements de direction qui sont beaucoup mieux gérés , ce qui apporte une plus grande confiance lorsque le mobile entre dans une pièce par exemple . Cependant , des dégradations trop importantes de la localisation par WiFi peuvent perturber plus fortement la navigation INS que lorsqu' elle est autonome . Lorsqu' un faible nombre de point d' accès est présent , on observe une moins bonne stabilité de la localisation par WiFi , ce qui entraîne à la sortie de la pièce notamment , des dégradations qui sont corrigées un peu plus tard lors du parcours . 3 Démonstrateurs et publications scientifiques Au cours de ces travaux de thèse , différents démonstrateurs ont été mis en place afin de tester sur des mesures réelles les performances des différents algorithmes . Ces démonstrateurs ont permis de juger des capacités et des contraintes matérielles de chacune des technologies abordée au cours de ces travaux de recherche . La mise en place de démonstrateurs pour démontrer la faisabilité d' un système n' est pas évidente et est gourmande en temps puisqu' on se trouve confronté à des contraintes matérielles diverses , logicielles pour l' implémentation et de modélisation des bruits qui ne possèdent pas exactement les statistiques prévues lors de la conception du système ou alors les éléments des chaînes de communication introduisant des déformations sur les signaux . Nous allons voir plus en détail les différents démonstrateurs et les contraintes qui ont été rencontrées lors de leur mise en place . 3.1 Le démonstrateur pour la localisation par WiFi Aujourd'hui , de nombreux objets mobiles sont équipés d' une interface WiFi interne ( chipset WiFi intégré à la carte mère par exemple ) ou alors externe avec une carte au format PCMCIA . Ces cartes fonctionnent généralement sous Windows , Pocket PC 2003 ou sous Linux . Chaque carte possède un pilote qui lui est spécifique . La difficulté est donc d' interroger la carte à partir du système d' exploitation afin d' obtenir les informations de puissance dont nous avons besoin pour effectuer la localisation . Au cours de ces travaux , différentes plates-formes ont été utilisées suivant les disponibilités au sein du laboratoire . Au cours de cette thèse , des démonstrateurs ont été mis en place sur les différentes plates-formes ( tableau 78 ) . Table 78 : Démonstrateurs mis en place pour la localisation par WiFi Type de matériel La mise en place de chacun de ces démonstrateurs a nécessité des outils de développement spécifiques . Dans le cadre des développements pour le PC portable sous Linux , ce sont les outils de développements traditionnels comme gcc qui ont été exploités . Le démonstrateur est basé sur l' utilisation de l' API mwavelan cs [ ? ] qui propose plusieurs fonctions permettant de forcer le PC à scanner les APs à portée radio et de remonter les informations de puissance . Ce pilote est assez ancien et ne fonctionne que pour des cartes dotées du chipset PRISM II [ ? ] . De tels pilotes ne sont pas toujours disponibles et souvent ce sont des utilisateurs ayant besoin de cette fonctionnalité qui développent leur propre pilote . Ici , nous nous sommes limités à employer le pilote disponible puisqu' il nous a permis de récupérer les informations de puissance et adresses MAC associées . Ce démonstrateur a été mis en place assez tôt ( en 2003 ) , mais très vite des projets internes ont voulu exploiter cette fonctionnalité de localisation . Partant de cette première plate-forme sur PC Linux , nous avons décidé de porter le travail effectué sur un iPaq HP3870 équipé d' une carte PCMCIA ( facteur de forme plus réduit ) . Le développement sur ce type de plate-forme est spécifique puisque l' architecture d' un Pocket PC n' est pas du type x 86 comme pour les PC standard mais ARM . Nous avons effectué les développements sur le PC Linux en utilisant les outils de compilation skiff toolchain [ ? ] . Ce compilateur exploite du code C , par exemple , et génère un exécutable fonctionnant sur une plate-forme de type ARM comme l' iPaq 3870 . La mise en place de cet outil et les diverses compilations nécessaires ( compilation du noyau , compilation du pilote mwvlan cs ) ont nécessité l' acquisition de compétences sur le système d' exploitation Linux et plus particulièrement Familiar Linux ( version Linux pour les pocket PC ) [ ? ] . La principale difficulté sur ce système d' exploitation Linux est la mise en place du pilote , car cela nécessite souvent de modifier des paramètres dans le noyau afin que les modules du pilote soient pris en compte lors du chargement du système . Les applications de localisation ne sont intéressantes que lorsqu' il est possible de visualiser sa propre position sur un plan . Le développement d' une application graphique a été nécessaire pour vérifier la validité des algorithmes en temps réel , mais aussi pour enregistrer plus facilement des parcours de référence pour les retravailler ultérieurement ( repérage de points de référence dans la trajectoire pour évaluer plus tard les performances des algorithmes ) . Nous avons eu recours à des librairies spécialisées , en composants graphiques , codées en C + + . Cet outil est développé par TrollTech sous le nom de QT [ ? ] . Cette librairie propose de nombreuses classes graphiques codées en C + + , ce qui facilite l' intégration du code C faisant appel au pilote pour obtenir les informations de puissances WiFi . L' autre intérêt d' utiliser cet environnement en C + + est qu' il ne nécessite pas de charger d' outils pour exécuter le programme ( contrairement à JAVA ) puisqu' on a un exécutable directement interprétable par la machine . Il est simplement nécessaire d' installer sur le Pocket PC les modules et les librairies graphiques QT compilés pour ARM , puis le programme s' exécute . La figure 79 présente l' interface que nous avons développée à l' aide de QT . Table 79 : Exemples d' interfaces graphiques développées avec QT Pour intégrer ce démonstrateur à différents projets , nous avons du l' adapter pour qu' il puisse fonctionner sur des plates-formes fonctionnant sous Windows XP et Pocket PC 2003 . Après étude du fonctionnement des accès bas niveau aux informations disponibles sur les cartes WiFi du commerce , une API a été développée pour récupérer au niveau du pilote les informations de puissances WiFi et d' adresses MAC associées . Cette brique a été développée à l' image du programme WRAPIWRAPIWireless Research API de l' Université de Californie / San-Diego [ ? ] . Cette API fonctionne très bien sous Windows mais pas sur les Pocket PC . De nombreuses adaptations ont été nécessaires pour faire fonctionner une API similaire sur un Pocket PC . Malgré tout , il n' est pas possible à l' heure actuelle de développer un module générique fonctionnant sur tous les Pocket PC car il n' existe pas réellement de consensus entre les différents équipementiers . Souvent l' accès aux informations en provenance de l' interface WiFi est différent d' un PDA à l' autre et parfois même au sein d' une certaine gamme , ces accès diffèrent suivant la version logicielle embarquée ( puissance WiFi codée sur 2 ou 4 octets , niveau de signal disponible , point d' accès le plus fort par SSID , etc. ) . La prochaine version du NDIS ( NDIS 6.0 ) devra standardiser certaines fonctionnalités auprès des équipementiers . Les différents modules ( accès au pilote WiFi , interfaces graphiques , outils pour une application de localisation ) ont été réalisés au cours de cette thèse , parallèlement à la mise en place du simulateur MATLAB qui a permis d' élaborer les différents algorithmes de localisation . 3.2 Le démonstrateur pour la localisation par ULB Ce démonstrateur a été partiellement présenté au chapitre 3 . Ce démonstrateur a été mis en place pour démontrer la faisabilité de la technique de localisation par ULB ainsi que les performances que l' on peut obtenir grâce à cette technologie . Une précision de l' ordre de a été démontrée dans une zone de couverture de . Un des problèmes que nous avons rencontré dans cette étude a été de caractériser précisément la position à laquelle la mesure a été effectuée . En effet , pour donner des valeurs précises sur l' erreur de positionnement obtenue lorsqu' on fait des mesures radio , il faut connaître précisément la position ( au centimètre près ) , si on veut pousser la caractérisation de cette technologie le plus loin possible . C' est un problème qui est revenu lors de l' analyse des performances des différents systèmes de localisation . Dans le cas des études statiques , ce problème a été levé à l' aide du marquage au sol qui est régulier ( dalles au sol de dimensions fixes ) . Ce démonstrateur est basé sur le générateur d' impulsions ULB présenté dans [ ? ] piloté par un FPGA . L' EPLD a été programmé en VHDL à l' aide des outils de développement d' Altera [ ? ] . La conception des antennes et leur caractérisation a nécessité l' exploitation de différents appareils de mesures , comme des analyseurs de réseau ( HP 8753D ) pour connaître l' impédance des antennes ainsi que pour mesurer les paramètres de nos antennes ULB . L' analyseur de spectre ( Rhode & Schwarz ( 20 Hz 40 GHz ) ) a été utilisé pour mesurer le spectre des pulses UWB émis . Les figures 63 présentent les différents éléments permettant de se localiser en ULB . 3.3 Le démonstrateur pour la localisation par navigation inertielle Ce dernier démonstrateur a été mis en place pour effectuer de la localisation par WiFi couplée avec de la localisation par navigation inertielle . La partie hardware a été développée à l' aide d' un des techniciens du laboratoire . Ce démonstrateur exploite des composants MEMS à faible coût . Il permet de montrer le gain en performances apporté par la fusion d' informations de localisation qui sont de nature hétérogène . Pour ce démonstrateur , la réalisation s' est faite par la mise en place d' une solution logicielle permettant de fusionner les deux informations de localisation . Les développements ont été effectués lors de la mise en place du prototype de localisation par WiFi . Un simulateur sous MATLAB a aussi été élaboré pour caractériser l' algorithme développé sur la plate-forme de type PC et Pocket PC . Aujourd'hui , ce démonstrateur peut être amélioré en recherchant à réduire son encombrement , mais aussi en introduisant une liaison sans fil entre le module INS et le PC , ce qui donnera un prototype plus ergonomique . La figure 75 présente le système de capteurs de navigation inertielle permettant d' améliorer la localisation . 3.4 Des publications scientifiques , des brevets et des projets Au cours de cette thèse , plusieurs publications ont été écrites sur les travaux de localisation . Certaines présentent les travaux menés sur la localisation WiFi avec l' exploitation des outils de filtrage particulaire comme aide à la localisation ( utilisation du plan du bâtiment ) : & 226;& 128;& 162; " Position-Based Interaction for Indoor Ambient Intelligence Environments " , EUSAI 2003 [ ? ] & 226;& 128;& 162; " Map-aided indoor mobile positioning using particle filter " , IEEE WCNC 2005 [ ? ] & 226;& 128;& 162; " Improving positioning capabilities for indoor environments with WiFi " , IST Summit 2005 [ ? ] & 226;& 128;& 162; " Advances in indoor location " , Workshop ISHTAR Sept. 2006 [ ? ] Un papier sur la localisation par ULB a été présenté lors d' une conférence : & 226;& 128;& 162; " An experimental TDOA UWB location system for NLOS environments " , IEEE VTC 2005 [ ? ] Pour la conférence ISART 2005 , une présentation des techniques de fusions ULB / WiFi a été faite : & 226;& 128;& 162; " Sensor fusion for UWB and WiFi indoor positioning systems " , ISART 2005 [ ? ] La dernière étude portant sur la fusion d' information WiFi et INS a donné lieu à la rédaction d' un article pour le journal EURASIP : & 226;& 128;& 162; " Advanced Integration of WiFi and Inertial Navigation Systems for Indoor Mobile Positioning " , EURASIP Journal ( 2006 ) [ ? ] Ces travaux sont à l' origine de 3 brevets sur la localisation des terminaux mobiles suivant les différentes technologies présentées dans ce travail de thèse : & 226;& 128;& 162; " Procédé et dispositif de localisation d' un terminal dans un réseau local sans fil " , EP1575328 , 2005 [ ? ] & 226;& 128;& 162; " Method of Measuring a distance between two radio-communication devices and device adapted to implement one such method " , WO2006072697 , 2006 [ ? ] & 226;& 128;& 162; " Système de localisation à l' intérieur de bâtiments par positionnement WiFi couplé à un système de navigation inertielle " , ( dépôt en 2005 ) [ ? ] Ces différents travaux de recherche ont été portés par différents projets de recherches collaboratifs . De nombreuses applications sur l' intelligence ambiante ont besoin de ces informations de localisation du terminal mobile afin de lui proposer des services . & 226;& 128;& 162; IST AMIGO [ ? ] ( http ) & 226;& 128;& 162; IST LIAISON [ ? ] ( http ) & 226;& 128;& 162; IST DANAE [ ? ] ( http ACTION = D RCN = 71233 DOC = 15 CAT = PROJ QUERY = 1153125214412 ) ISTInformation Society Technologies Ces différents projets visent à exploiter la localisation " indoor " ( WiFi ayant été testé ) pour fournir des services aux utilisateurs comme " Où se trouve mon correspondant ? " , " Où se trouve la sortie la plus proche ? " , " Où se trouve l' imprimante la plus proche ? " , etc . Au cours de cette thèse , deux stages ont été encadrés . L' un a porté sur la mise en oe uvre de la localisation par ULB ( 2004 ) et un second sur des techniques avancées pour la mise en place de la base de données en fingerprinting WiFi ( 2006 ) qui est un des axes de recherche à poursuivre . 4 Perspectives et nouveaux défis Différentes technologies et solutions de localisation ont été présentées à travers ces travaux . Les différentes solutions de localisation ( simples ou multiples ) ont montré certaines limites suivant les usages . Des améliorations sont à prévoir par la suite afin d' obtenir une solution complète de localisation qui soit robuste , simple d' utilisation et de mise en place , et de faible coût . Ces idées correspondent à la description de la solution de localisation idéale vers laquelle il faut tendre . Aucune des solutions proposées ici ne possède toutes ces caractéristiques . Des améliorations sont envisageables pour les différents systèmes et des évolutions pour les techniques de localisation présentées ici nécessiteront de nouvelles recherches approfondies . 4.1 En localisation par WiFi Le système de localisation par WiFi présenté dans ces travaux est basé sur l' exploitation des mesures de puissance du signal ( RSS ) . Ce système est intéressant car il ne nécessite pas de connaître parfaitement l' infrastructure WiFi ( il n' est pas nécessaire de connaître le position des points d' accès , la calibration du système est simple à effectuer car il suffit de faire des relevés à travers le bâtiment ) . La mise en place de ce système se fait simplement sans connaissances particulières en localisation ni en WiFi . L' inconvénient de la localisation par mesure de puissance WiFi vient de la construction manuelle de la base de données . Certains produits effectuent des mesures temporelles [ 43 ] ce qui conduit à une localisation par triangulation . Cependant , cette fonctionnalité de localisation par mesures temporelles n' est disponible qu' avec certains produits spécifiques et donc onéreux . Cependant , des informations temporelles pourraient être disponibles dans les prochaines révisions du standard . Dans le cadre de la localisation par fingerprinting , il faut envisager une procédure conduisant à réduire la complexité pour établir la base de données . Quelques travaux commencent à explorer ce sujet [ 30 , 16 , 39 , 4 , 109 ] . Tous les utilisateurs , de cette localisation par fingerprinting WiFi , en conviennent , la construction de cette base de données est pénible et nécessite beaucoup de temps . Par contre , il est très facile de construire une base de données de mesures sans position associée . Une idée pour enrichir la base de données est d' exploiter : & 226;& 128;& 162; Un ensemble restreint de données labellisées & 226;& 128;& 162; Le plan du bâtiment & 226;& 128;& 162; Un modèle de propagation & 226;& 128;& 162; Un ensemble de données non labellisées Figure 76 : Situation d' exemple pour construire la base de données La figure 76 présente une configuration où nous pourrions nous placer pour construire la base de données . Les positions indiquées en rouge ( points ) indiquent des points de base de données ( base de donnée à faible densité ) que l' administrateur doit constituer préalablement à l' opération de construction de la base de données . Ensuite , cet administrateur effectue un parcours ( plus ou moins complexe ) à travers le bâtiment . Au cours de ce trajet , il relève des mesures WiFi non labellisées ( position inconnue lors du relevé ) . Un exemple de parcours est indiqué sur la figure 76 avec les flèches en pointillés . Lorsque cet ensemble de données est constitué , il est nécessaire d' utiliser des techniques d' estimation et de classification pour affecter une position à ces données non labellisées en fonction des niveaux de signaux reçus et de la base de données à faible densité . Des algorithmes d' estimation comme l' algorithme EM [ 28 , 10 , 3 , 33 ] et le filtrage particulaire permettent d' effectuer ces estimations . Au bout de quelques itérations , l' algorithme doit converger vers une trajectoire qui est utilisée pour affecter des nouvelles mesures dans la base de données à faible densité ( étape d' enrichissement ) . Cet enrichissement se fait avec des pondérations suivant la confiance apportée à la qualité du positionnement des données non labellisées . La figure 77 illustre dans le cas 1D , une manière de procéder pour classifier les données dans un cas idéal . Figure 77 : Exemple simple pour la classification dans un cas 1D idéal Dans cet exemple , un seul point d' accès est présent dans l' environnement . Le mobile se déplace en ligne droite comme dans un couloir , sur une longueur de . La base de données disponible est composée des positions référencées par les points rouges aux positions , et . Lors d' un passage du mobile dans cet environnement , nous obtenons l' ensemble de données non labellisées suivant : En supposant que ces mesures sont non bruitées , dans ce cas il est possible de prédire la position de l' utilisateur et d' associer une position pour chaque mesure le long de cette droite . L' ensemble des positions suivant est obtenu : ( 224 ) L' obtention de ces positions est très simple au niveau de l' estimation puisqu' on a supposé que la " puissance " varie linéairement en fonction de la distance . Or dans un cas réel , ceci n' est pas exact et il est nécessaire de se baser sur l' exploitation d' un modèle de propagation plus élaboré décrivant plus finement la propagation . Ce modèle de propagation aidera l' algorithme d' estimation à affecter une position à chacune des mesures non labellisées . Cet aspect de la localisation par fingerprinting WiFi , à savoir l' allègement du procédé de mise en place de la base de données utile à la localisation par fingerprinting , est un sujet prometteur d' autant plus que les techniques mises en oe uvres ici sont transposables aux systèmes de localisation par GSM et UMTS basés sur cette même technique . Certains points d' accès peuvent scanner leur environnement radio . Ces points d' accès étant toujours à la même position ( généralement fixés à un mur ) , il est possible de scanner la puissance WiFi reçue en provenance des autres points d' accès , à différents instants dans le temps ( tous les mois par exemple ) . Lors des différentes campagnes de mesure au cours du temps ( sur 6 mois ) , nous avons remarqué que la couverture radio ( donc la base de données ) varie ce qui introduit des imprécisions sur le système de localisation . Afin de conserver les performances optimales , il est nécessaire de recalibrer l' environnement radio , ce qui est assez fastidieux . Une nouvelle approche consiste à détecter les évolutions de ces variations de puissances WiFi au cours du temps et de rechercher à modifier la base de données en fonction de ces variations . Le fait de disposer de points de mesure fixes , pour effectuer à tout moment des mesures , permet de quantifier l' évolution des puissances WiFi . Une étude spécifique est à mener pour déterminer s' il est possible de remettre à jour la base de données à partir de ces quelques différences mesurées . Un tel procédé permettra d' augmenter la période de validité d' une base de données voir même de la maintenir à jour en permanence . Un autre aspect , concernant l' amélioration des performances d' un système de localisation par WiFi , est l' utilisation d' antennes directives . Ces antennes permettent de couvrir une zone précise de l' environnement ce qui réduit la zone où le mobile peut se trouver s' il détecte ce point d' accès . En recoupant cette information de direction avec celles de puissance du signal , le mobile peut remonter à sa localisation . Cette information supplémentaire de zone de présence doit améliorer la localisation de base et donc accroître les performances du système global de localisation . L' arrivée des produits issus de la norme 802.11n permettra plus facilement d' utiliser cette information . En plus de l' extension de la portée radio avec les antennes directionnelles , on gagne une information supplémentaire de localisation . Si plusieurs faisceaux venant de différents points d' accès se recoupent , on obtient une localisation comme en AOA ( Angle of Arrival ) où on se localise à partir de l' intersection de directions de l' espace . L' étude d' une borne d' erreur doit être effectuée par la suite . La borne de Cramer-Rao est un exemple de borne utilisable pour caractériser la qualité d' un estimateur . Cette borne existe pour le filtrage particulaire . Les résultats ne sont cependant pas applicables du fait des non-linéarités liées à la suppression des particules lors de la traversée des murs . Pour le filtrage particulaire contraint sur le diagramme de Voronoï , les résultats présents dans la littératures doivent être adaptés afin de prendre en compte cette contrainte sur le mouvement des particules . Une étude a débuté sur la mise en place d' une borne tenant compte des critères de qualité suivants : & 226;& 128;& 162; Nombre de points d' accès entrant en compte dans la détermination de la footprint & 226;& 128;& 162; État des particules ( étalement ) & 226;& 128;& 162; Variation entre les footprints Ces travaux se poursuivent car , comme en GPS , il est nécessaire de donner à l' utilisateur une indication sur la qualité de la localisation fournie . De plus certains systèmes de fusion ( à l' image de celui basé sur WiFi et l' ULB ) nécessitent l' exploitation de cette information pour combiner efficacement la position retournée par WiFi avec celle retournée par une autre technologie . La présence de chipset GPS dans des terminaux mobiles de la vie courante se faisant , la combinaison de la localisation par WiFi avec le GPS deviendra probablement naturelle . Cela permettra d' avoir une couverture totale pour un service de localisation . La combinaison efficace de ces deux technologies n' est pas aussi simple qu' il n' y paraît . Généralement , le système exploitant ces informations s' apparente à un switch entre ces deux technologies puisque les espaces de disponibilité sont en grande partie disjoints ( le GPS étant peu disponible à l' intérieur des bâtiments , sauf à proximité des fenêtres , et le WiFi étant disponible à l' extérieur que sur un faible périmètre à proximité du bâtiment où sont déployés les points d' accès ) . Le système doit choisir entre l' une ou l' autre des technologies suivant les disponibilités et la confiance à apporter à chacune d' entre elles . Le challenge dans ce système réside dans l' intelligence élaborée pour gérer la transition d' une technologie de localisation à l' autre . Lors d' une transition d' un environnement à l' autre , on peut , par exemple , avoir 2 points d' accès disponibles ainsi que 2 satellites . La problématique est de fournir une estimation de la position du mobile en tenant compte de ces deux informations pour avoir une transition douce ( pour la localisation ) lors du passage d' un environnement à l' autre . Lors de la transition indoor vers l' outdoor , il est possible de poursuivre sommairement la position du mobile en tenant compte de l' historique et de la décroissance des puissances , même si un tel modèle devient incohérent assez rapidement . Ce système permettra de mettre à profit ce temps de transition pour initialiser le GPS et effectuer la synchronisation temporelle du récepteur GPS avec les satellites pour avoir une accroche plus rapide par la suite lorsque le récepteur dispose d' un nombre suffisant de satellites pour se localiser en autonome . La détermination d' une intelligence pour la fusion des informations de localisation entre GPS et WiFi reste à mettre en place en prévoyant une transition douce lors du passage d' un type d' environnement à l' autre . Ces différentes études sont des pistes quant aux améliorations ( plus ou moins importantes ) qui peuvent être apportées au démonstrateur de localisation par WiFi déjà en place . La création automatique de la base de données est l' axe de recherche le plus important pour améliorer ce système de localisation , puisqu' aujourd'hui aucun système disponible sur le marché ne permet d' effectuer cette opération . 4.2 En localisation par UWB Ces travaux de thèse ont montré la faisabilité d' un système de localisation par ULB . Cependant , pour sa mise en place , des moyens importants ont été requis ( oscilloscope numérique ) . L' approche proposée ici est basée sur de la détection à partir d' un signal de corrélation . Il est nécessaire de faire l' acquisition des échantillons composants le signal pour les retraiter . Cette étape d' acquisition est un frein au déploiement à grande échelle de ce système puisque cela signifie disposer d' échantillonneurs très puissants et donc très coûteux ( pour avoir une résolution temporelle sub-nanoseconde ) . Ces échantillonneurs ont des facteurs de forme assez importants ce qui les rend difficilement intégrables dans des systèmes embarqués . De plus , ces systèmes d' échantillonnage nécessitent des batteries importantes , ce qui est difficilement compatible avec un déploiement sur des tags UWB se devant d' avoir une autonomie importante et des durées de vie de quelques années . La solution proposée ici n' est pas intégrable en l' état pour des applications de réseaux ad-hoc . Les aspects collaboratifs entre les capteurs est un autre thème de recherche . Le standard 802 . 15.4a vise un déploiement de cette technologie dans les réseaux de capteurs . Souvent ces capteurs sont autonomes et n' ont pas nécessairement accès à un ensemble de stations de bases géo-référencées . Cependant , ces capteurs peuvent être à portée radio d' un certain nombre de capteurs adjacents qui eux peuvent avoir connaissance de leur propre position . La localisation par réseaux maillés ( ou réseaux collaboratifs ) est une approche différente de celle proposées dans ce travail , mais qui mérite d' être approfondie afin de répondre aux besoins de localisation de ces capteurs . 4.3 La fusion multi-capteurs Les travaux menés au cours de cette thèse ont montré que la fusion d' informations de localisation améliore d' une part la couverture du service de localisation , et d' autre part les performances de la localisation . Aujourd'hui , la navigation piétonne ne possède pas de système de navigation multi-capteurs comme cela peut se faire dans le domaine de l' automobile ( capteurs INS et GPS ) . Nous transportons un grand nombre d' objets qui peuvent proposer des services de localisation ( PDA , téléphone , ... ) cependant , il n' existe pas de système agrégeant ces différentes informations . Différents projets traitent de ce problème de la fusion d' informations , comme le projet EMILY [ ? ] , mais il reste à faire communiquer tous ces objets ensemble . En navigation piétonne , la fusion WiFi / INS a montré une nette amélioration du système global de localisation grâce à une intelligence permettant aux capteurs de corriger mutuellement leurs erreurs . Ceci est possible car les zones d' utilisation de ces capteurs ne sont pas disjointes . Une telle coopération n' est pas toujours possible comme nous l' avons vu pour la fusion des informations de navigation WiFi et ULB . Les capteurs du type accéléromètre , gyroscope permettant de contrôler les IHM IHMInterface Homme Machine , ou les disques durs pour des PC , peuvent être utilisés à des fins de localisation . Couplé à un autre système de localisation , comme WiFi , ces capteurs permettent de localiser précisément les mobiles WiFi émettant des appels d' urgence quelque soit leur position dans ce lieu ou à proximité du lieu où est déployé le réseau WiFi . Les applications comme le guidage de personnes malvoyantes est une autre application qui pourrait être basée sur ce type d' architecture fusionnant des informations de localisation par WiFi et de navigation inertielle . Dans le cadre des applications de localisation par fingerprinting , la fusion des informations comme l' INS et la dite technologie radio employée pour le fingerprinting , doit permettre d' aider à la construction de la base de données , toujours en utilisant des données non labellisées qu' il est maintenant possible de labelliser à l' aide de l' INS . Dans cette application , les positions référencées dans la base de données permettent de resynchronyser les capteurs de navigation inertielle puisque ces positions sont comme des " check points " pour le système ( à l' image d' un réseau de lecteurs RFID ) . Cette approche reste une alternative à celle proposée précédemment pour la construction de la base de données . Cependant , elle nécessite de disposer des deux capteurs WiFi et INS pour construire la base de données tandis que la méthode précédente se propose de construire cette base à partir des seules mesures WiFi collectées le long de parcours à travers le bâtiment . Une bonne maîtrise des différentes techniques de localisation est nécessaire pour effectuer de la fusion . La connaissance des avantages et inconvénients de chacune des technologies permet de les combiner efficacement entre elles . Comme il a été montré dans ce chapitre , la fusion des informations améliore la fiabilité et la précision de l' information de localisation . La fusion d' informations reste la prochaine étape pour obtenir un système de localisation qui soit plus performant et plus robuste aux dérives et imprécisions de chacun de ces capteurs pris individuellement . Ce chapitre a présenté des résultats sur l' apport de la combinaison de techniques de localisation avec des technologies similaires ( WiFi et ULB ) et hétérogènes ( WiFi et INS ) . L' élaboration d' architectures prenant en compte l' ensemble des localisations disponibles est nécessaire pour délivrer à l' utilisateur la meilleure estimation de sa position , tout en recherchant à combiner ces capteurs pour qu' ils corrigent mutuellement leurs imprécisions et défauts . Des challenges en localisation piétonne indoor demeurent . Concernant la localisation à base de fingerprinting , une voie prometteuse est l' aide , voire la construction automatique de la base de données . Les technologies émergentes comme l' ULB nécessitent encore des efforts de recherche portant sur l' intégration du système sur des équipements , tout comme une simplification du procédé de détection permettant de remonter au premier trajet de la réponse impulsionnelle . Conclusion Le savant n' est pas l' homme qui fournit les vraies réponses ; c' est celui qui pose les vraies questions . Claude LÉVI -STRAUSS Ce travail de thèse s' inscrit dans le contexte de la localisation des terminaux mobiles pour les environnements indoor . L' utilisation des réseaux WiFi ( utilisés normalement pour communiquer entre différents équipements ) s' est faite naturellement car ces réseaux deviennent de plus en plus pervasifs et des informations utilisables a des fins de localisation sont disponibles dans ces réseaux . L' exploitation de l' information de puissance du signal s' est faite à l' aide de la technique dite du fingerprinting qui nécessite de disposer d' une base de données représentative de la couverture radio pour les différents points d' accès présents . La disponibilité du plan du bâtiment est une autre information sur laquelle on peut s' appuyer puisqu' elle permet d' effectuer un " map matching " utile pour délivrer à l' application finale une trajectoire conforme à celle que l' utilisateur peut avoir suivi . L' exploitation d' estimateurs comme le filtrage particulaire permet de déterminer un optimum en fonction des mesures WiFi , du plan du bâtiment et du modèle de trajectoire choisi pour le mouvement . L' exploitation de ces différents éléments permet d' aboutir à des précisions de localisation comprises entre et d' erreur moyenne . Cette précision est suffisante pour les applications visant à déterminer la position d' une personne . Connaissant cette information , une seconde personne peut facilement retrouver son correspondant . Cette erreur est intéressante en terme de précision , mais en terme de justesse , elle est limitative . En effet , lorsque la personne rase les murs , une incertitude subsiste sur le fait qu' elle soit dans le couloir ou plutôt dans la pièce , notamment dans les situations statiques . Afin de satisfaire le critère de justesse , il est nécessaire d' avoir une technologie de localisation dont la précision est de l' ordre de la dimension des parois de l' environnement . Ceci n' est pas réaliste pour WiFi . Aujourd'hui , les activités de recherche doivent se tourner vers l' allègement de la procédure de mise en place de la base de données nécessaires à la technique du fingerprinting . À l' usage , la base de données , même si les opérations sont simples , reste le frein au déploiement à grande échelle de cette technique de localisation . Des outils de modélisation de la propagation des ondes peuvent être utilisés , mais nécessitent tout de même une étape de calibration souvent non négligeable . L' étude portant sur la localisation en ULB a montré la capacité de cette technologie a fournir une localisation dont la précision est de l' ordre de . Cette précision est obtenue grâce à un système détectant l' instant d' arrivée du premier trajet sur la réponse impulsionnelle du canal radio ( obtenue à l' aide d' un code d' étalement -- sondage de canal ) . La nécessité de rechercher le premier trajet vient du fait que le système est déployé à l' intérieur des bâtiments dont la structure génère de nombreux multi-trajets . La limitation du système proposé ici provient du faible niveau de puissance ( limité par la densité spectrale de puissance et la répétition dans le temps des impulsions ) autorisé en émission . Cette forte contrainte imposée par la FCC limite la portée radio des équipements . Aussi , la zone couverte par le système de localisation par ULB est limitée à , ce qui est peu pour un système de localisation . Pour couvrir un bâtiment plus important , il est nécessaire de densifier le réseau de capteurs et d' avoir un appareil pour synchroniser l' ensemble des voies d' acquisition . La mise en place de ce système devient vite fastidieuse et coûteuse . L' exploitation des réseaux de capteurs sera certainement une approche à privilégier , chacun de ces capteurs étant doté de capacités à estimer la distance qui le sépare des autres capteurs à portée radio . Une nouvelle stratégie de détection de ce premier trajet sera à mettre en place , car l' échantillonnage , tel qu' il est présenté dans ces travaux , est une contrainte pour des équipements de type capteurs à ressources d' énergie et mémoire de stockage limitées . Néanmoins , ce travail de thèse montre que de très bonnes performances en terme de localisation ( statique et dynamique ) sont atteintes , ce qui reste très encourageant pour la mise en place des capteurs ULB . Chaque méthode de localisation possède des avantages et des limitations qui ne sont pas les mêmes . La limitation pour WiFi est la constitution de la base de données et la méthode employée ne permet d' atteindre que des précisions de l' ordre de à sur une zone relativement vaste ( la portée d' un point d' accès étant d' une cinquantaine de mètres en indoor ) , alors que la technologie ULB permet d' obtenir une localisation très précise , mais sur une zone restreinte ( portée de au maximum ) . La combinaison de ces deux systèmes permet d' allier couverture du service de localisation importante avec une grande précision pour une zone bien précise qui le nécessite . De plus , cette zone permet de resynchoniser le système de localisation par WiFi si nécessaire . La fusion de ces deux information a montré l' intérêt de mettre en place des architectures multi-sources de localisation . Cette combinaison WiFi / ULB permet d' améliorer localement les performances du système global , mais ce type de fusion n' est pas le plus efficace . La navigation inertielle permet de localiser un mobile , à partir de capteurs disposés sur ce mobile , et faisant remonter des informations sur l' attitude du mobile au cours du temps . Connaissant le point de départ , on obtient la position du mobile en effectuant des intégrations successives des données de navigation inertielle . Cependant , le bruit sur les mesures introduit une dérive à corriger par une autre technologie de navigation . La combinaison de la navigation par WiFi avec la navigation INS s' est imposée pour notre solution de navigation pédestre à l' intérieur des bâtiments . Cette fusion d' informations est apparue particulièrement intéressant puisqu' elle permet de : & 226;& 128;& 162; lutter contre la dérive des capteurs INS & 226;& 128;& 162; diminuer l' erreur sur l' estimation en guidant les particules du filtre particulaire & 226;& 128;& 162; réduire le nombre de particules pour le filtrage particulaire La fusion d' informations de nature hétérogène permet d' aboutir à une localisation plus efficace , pour le système WiFi , puisque sur toute sa zone de disponibilité , la navigation INS est disponible et traduit assez fidèlement les mouvements de l' utilisateur . En combinant ces informations de localisation , on atteint des performances de l' ordre de sur le parcours . Les changements de direction étant mieux gérés , la centrale de navigation ( basée ici sur un filtre particulaire ) n' introduit plus de retard lors de la prise de décision pour un changement de direction . Des précisions métriques permettent de connaître précisément la position d' une personne , tout en assurant une continuité en temps réel . Cette précision peut conduire à de nombreuses applications de guidage , dont le guidage de personnes aveugles . References [ 1 ] P. Bahl and V.H. Padmanabhan . RADAR : an in-building RF-based user location and tracking system . Proceedings IEEE Infocom 2000 , Tel Aviv , Israel , Vol . 2 : 775 - 784 , 2000 . [ 2 ] Paramvir Bahl and Venkata N. Padmanabhan and Anand Balachandran . A software system for locating mobile users : design , evaluation , and lessons . Technical report , Microsoft Research , MSR-TR- 200 - 12 , 2000 . [ 3 ] Jeff A. Bilmes . A Gentle Tutorial of the EM Algorithm and its Application to Parameter Estimation for Gaussian Mixture and Hidden Markov Models . Technical report , TR- 97 - 021 , UC Berkeley , 1998 . [ 4 ] Avrim Blum and Shuchi Chawla . Learning from Labeled and Unlabeled Data Using Graph Mincuts . Proc . 18 th International Conf . on Machine Learning , pages pp. 19 - 26 , 2001 . Morgan Kaufmann Kaufmann , San Francisco , CA . [ 5 ] Mauro Brunato and Csaba Kiss Kalló . Transparent Location Fingerprinting for Wireless Services . Proceedings of Med-Hoc-Net 2002 , 2002 . [ 6 ] BP . Carlin and NG . Polson and DS . Stoffer . A Monte Carlo Approach to Nonnormaland Nonlinear State Space Modeling . JASA , Vol . 87 : 493 - 500 , 1992 . [ 7 ] J. Carpenter and P. Clifford and P. Fearnhead . Improved Particle Filter for Non-linear Problems . IEE Proceedings on Radar and Sonar Navigation , Vol . 146 ( No . 1 ) : pp. 2 - 7 , 1999 . [ 8 ] Yu-Chung Cheng and Yatin Chawathe and Anthony LaMarca and John Krumm . Accuracy Characterization for Metropolitan-scale Wi-Fi Localization . IRS-TR- 05 - 003 - Mobisys 2005 , 2005 . [ 9 ] Howard Choset and J. Burdick . Sensor Based Motion Planning : The Hierarchical Generalized Voronoi Graph . Workshop on Algorithmic Foundations of Robotics , 1996 . [ 10 ] Frank Dellaert . The Expectation Maximization Algorithm . Technical report , GIT-GVU- 02 - 20 , College of Computing , Georgia Institute of Technology , 2002 . [ 11 ] Olivier Devillers . Diagrammes de Voronoï . Website , http , 2000 . [ 12 ] L. Devroye . A course in density Estimation . Birkhauser , 1987 . [ 13 ] A. Doucet and N. de Freitas and N. Gordon . Sequential Monte-Carlo Methods in Practice of Statistics for engineering and information Science . Springer-Verlag , 2001 . [ 14 ] A. Doucet and S.J. Godsill and M. West . Monte Carlo filtering and smoothing with application to time-varying spectral estimation . in Proc . IEEE Int . Conf . Acoust. , Speech , Signal Process. , Vol . 2 : 701 - 704 , 2000 . [ 15 ] Ekahau . Ekahau . WebSite , http . [ 16 ] B. Ferris and D. Haehnel and D. Fox . Gaussian Processes for Signal Strength-Based Location Estimation . Proceedings of Robotics : Science and Systems , Cambridge , USA , 2006 . [ 17 ] Arthur Gelb . Applied Optimal Estimation . MIT Press , 1974 . [ 18 ] N.J. Gordon and D.J. Salmond and A.F.M. Smith . Novel Approcah to nonlinear / non-Gaussian Bayesian State Estimation . Radar and Signal Processing , IEE Proceedings F , Vol . 140 ( No . 2 ) : pp. 107 - 113 , 1993 . [ 19 ] André Günther and Christian Hoene . Measuring Round Trip Times to Determine the Distance between WLAN Nodes . Proc . of Networking 2005 , 2005 . [ 20 ] André Günther and Christian Hoene . Measuring Round Trip Times to Determine the Distance between WLAN Nodes . TKN Technical Report , TKN- 04 - 16 , Technical University Berlin - Telecommunication Networks Group , 2004 . [ 21 ] Ahmad Hatami and Kaved Pahlavan . A Comparative Performance Evaluation of RSS-based Positioning Algorithms Used in WLAN networks . IEEE Wireless Communications and Networking Conference , 2005 . [ 22 ] Simon Haykin . Adaptive Filter Theory Fourth Edition . Thomas Kailath Series Editor , 2002 . [ 23 ] Hitachi . Launch of Hitachi AirLocation , a Wireless LAN-Based Location Detection System Achieving Highly Accurate Positioning with Small Error Range of 1 to 3 Meters . WebSite , http , 2003 . [ 24 ] S.J. Julier and J.K. Uhlmann . A new extension of the Kalman filter to nonlinear systems . Proc . of AeroSense , the 11 th International Symposium on Aerospace / Defence Sensing , Simulation and Controls , Vol . Multi Sensor Fusion , Tracking and Resource Management ( No . II ) , 1997 . [ 25 ] R.E. Kalman . A new approach to linear filtering and prediction problems . Trans . ASME J. Basic Engineering , Vol . 82 : pp. 34 - 45 , 1960 . [ 26 ] G. Kitagawa . Monte Carlo Filter and Smoother for Non-Gaussian Non-Linear State Space Models . Journal of Computational and Graphical Statistics , Vol . 5 ( No . 1 ) : pp. 1 - 25 , 1996 . [ 27 ] A.E. Lawrence . The volume of an n-dimensional hypersphere . Website , www-staff.lboro.ac.uk . [ 28 ] Julie Letchner and Dieter Fox and Anthony LaMarca . Large-Scale Large-Scale Localization from Wireless Signal Strength . AAAI , pages pp. 15 - 20 , 2005 . [ 29 ] L. Liao and D. Fox and J. Hightower and H. Krautz and D. Schulz . Voronoi tracking : location estimation using sparse and noisy sensor data . Proceedings of the International Conference on Intelligent Robots and Systems ( IROS ) , IEEE / RSJ , 2003 . [ 30 ] L. Liao and D. Fox and H. Kautz . Hierarchical Conditional Random Fields for GPS-based Activity Recognition . Proc . of the International Symposium of Robotis Research ( ISRR 2005 ) , 2005 . [ 31 ] J. Liu and R. Chen . Sequential Monte Carlo Methods for dynamical Systems . Journal of the American Stastistical Association , Vol . 93 : 1032 - 1044 , 1998 . [ 32 ] R. Van Der Merwe and A. Doucet and N. De Freitas and E. Wan . The unscented Particle Filter . Technical Report CUED / F-INFENG / TR 380 , Cambridge University Engineering Department , 2000 . [ 33 ] T. K. Moon . IEEE Signal Processing Magazine , Vol . 13 : pp. 47 - 60 , 1996 . [ 34 ] B. Ripley . Stochastic Simulation . Wiley , New-York , 1987 . [ 35 ] Michael Robinson and Ioannis Psaromiligkos . Received Signal Strength Based Location Estimation of a Wireless LAN Client . IEEE Wireless Communications and Networking Conference , 2005 . [ 36 ] T. Roos and P. Myllymäki and J. Sievänen . A probabilistic approach to WLAN user location estimation . International Journal of Wireless Information Networks , Vol . 9 , 2002 . [ 37 ] T. Roos and P. Myllymäki and H. Tirri . A statistical modeling approach to location estimation . IEEE Transactions on Mobile Computing , Vol . 1 , 2002 . [ 38 ] B.W. Silverman . Density Estimation for Statistics and Data Analysis of Monographs on Statistics and Applied Probability . Chapman & Hall / CRC , 1986 . [ 39 ] Martin Szummer and Tommi Jaakkola . Partially labeled classification with Markov random walks . Advances in Neural Information Processing Systems , 2001 . http . [ 40 ] G. Welch and G. Bishop . An introduction to the Kalman filter . Technical report , University of North Carolina , Chapel Hill , 2001 . [ 41 ] Y. Chen and H. Kobayashi . Signal Based Indoor Geolocation . Proc . IEEE International Conference on Communications , 2002 . [ 42 ] Moustafa A. Youssef and Ashok Agrawala and A. Udaya Shankar and Sam H. Noh . A Probabilistic Clustering-Based Indoor Location Determination System . Tech . Rep . UMIACS-TR 2002 - 30 and CS-TR 4350 , University of Maryland , 2002 . [ 43 ] AeroScout , Entreprise Visibility Solutions . Website , http . [ 44 ] IEEE Std 802.11 - 1997 Information Technology-telecommunications And Information exchange Between Systems-Local And Metropolitan Area Networks-specific Requirements-part 11 : Wireless Lan Medium Access Control ( MAC ) And Physical Layer ( PHY ) Specifications . WebSite , http . [ 45 ] Toshihiro Aono and Kenjiro Fujii and Shintaro Hatsumoto and Takayuki Kamiya . Positioning of vehicle on undulating ground using GPS and dead reckoning . Proceedings of the 1998 IEEE International Conference on Robotics & Automation , 1998 . [ 46 ] AT & T Laboratories - Cambridge . The Active Badge System . WebSite , http , 2002 . [ 47 ] Charles Capps . Near field or far field , pages 95 - 102 . Website , http , 2001 . [ 48 ] Jim Geier . Understanding 802.11 Frame types . Wi-Fi Panet ( http ) , 2002 . [ 49 ] Fredrik Gustafsson and Fredrik Gunnarsson and Niclas Bergman and Urban Forssell and Jonas Jansson and Rickard Karlsson and Per-Johan Nordlund . Particles Filters for Positioning Navigation and Tracking . IEEE Transactions on Signal Processing , Vol . 50 ( No . 2 ) : pp. 425 - 438 , 2002 . [ 50 ] Anthony LaMarca and Yatin Chawathe and Sunny Consolvo and Jeffrey Hightower and Ian Smith and James Scott and Tim Sohn and James Howard and Jeff Hughes and Fred Potter and Jason Tabert and Pauline Powledge and Gaetano Borriello and Bill Schilit . Place Lab : Device Positioning Using Radio Beacons in the Wild . Pervasive 2005 , 2005 . [ 51 ] Matthew Stephen reynolds . Low Frequency Indoor Radiolocation . PhD thesis , Massachusetts Institute of Technology , 2002 . [ 52 ] N . B . Priyanta . The Cricket location-support system . MOBICOM 2000 , : pp. 32 - 43 , 2000 . [ 53 ] Nissanka Bodhi Priyantha . Providing precise indoor location information to mobile devices . PhD thesis , Massachusetts Institute og Technology , 2001 . [ 54 ] Jeff Pulver . December 2002 LBS Report . Mailing list , http , 2002 . [ 55 ] Jeff Pulver . pulver.com comments on the FCC issued E911 report . Website , http . [ 56 ] QTrack . The Q-Track Corporation , Pioneering Near Field Electromagnetic Ranging ( NFER ) Technology . WebSite , http . [ 57 ] Matthew S. Reynolds . A Phase Measurement Radio Positioning System . Master's thesis , Massachusetts Institute of Technology , 1999 . [ 58 ] Sven Rönnbäck . Development of a INS / GPS navigation loop for an UAV . Master's thesis , Luleå University of Technology , 2000 . [ 59 ] Hans Gregory Schantz . Near Field Phase Behavior . IEEE APS , 2005 . [ 60 ] M . I. T . Computer Science and Artificial Intelligence Laboratory . The Cricket Indoor Location System . WebSite , http . [ 61 ] Intel research Seattle . Place Lab : Device Positioning Using Radio Beacons in the Wild . WebSite , http , 2003 . [ 62 ] Kazimierz " Kai " Siwiak . Near Field Electromagnetic Ranging . Time Derivative Inc. , 10988 NW Street , Coral Springs , FL , USA , 2004 . [ 63 ] W. Sohne and 0 . Heinze and E. Groten . Integrated INS / GPS System for High Precision Navigation Applications . 1994 . [ 64 ] Charles Vlcek and Patricia McLain and Midhael Murphy . GPS / Dead Reckoning for Vehicle Tracking in the " Urban Canyon " Environment . IEEE - IEE Vehicle Navigation & Information Systems Conference , Ottawa - VNlS ' 93 , 1993 . [ 65 ] A. Ward and A. Jones and A. Hopper . A new location technique for the active office . IEEE Personal Communications , Vol . 4 : pp. 42 - 47 , 1997 . [ 66 ] Breaking News : Canada Mandates 911 For VoIP . TelecomWeb , WebSite , http , 2005 . [ 67 ] E. Abbott and D. Powell . Proceedings of the IEEE , Vol . 87 ( No . 1 ) : pp. 145 - 162 , 1999 . [ 68 ] Iyad Abuhadrous . Système embarqué temps réel de localisation et de modélisation 3D par fusion multi-capteur . PhD thesis , Mines de Paris , 2005 . [ 69 ] Santiago Alban . An Inexpensive and Robust GPS / INS Attitude System for Automobiles . ION GPS 2002 , 2002 . [ 70 ] Alcatel . Projet ange gardien . Website , http , 2003 . [ 71 ] Alexandre Cotarmanac'h , France Telecom . DANAE . Website , http , 2004 . [ 72 ] Ascension technology corporation . Ascension technology corporation . website , http , 2005 . [ 73 ] Gaetano Boriello and Jeffrey Hightower and Chris Vakili and Roy Want . SpotOn : Ad-hoc Location Sensing . WebSite , http . [ 74 ] H. Van Den Broek . The introduction of a single European emergency call number . Official Journal , 91 / 396 / EEC , WebSite , http , ( L 217 ) : 0031 - 0032 , 1991 . [ 75 ] G . A . Cavagna . Travail mécanique dans la marche et la course . Jounal Physiol. , 1969 . [ 94 ] Reynold Cheng . A survey on location privacy . Purdue University . [ 77 ] Parlement Européen et le Conseil . Directive du parlement européen et du conseil concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques . Directive , 2000 / 0189 , Union Européenne , 2000 . [ 78 ] Analog Device . ADXL202 - Dual Axis Accelerometer . WebSite , http , 2877 , ADXL 202 , 00 . html . [ 79 ] FCC . Enhanced 911 - Wireless Services . Website , http . [ 80 ] Freescale . Integrated Silicon Pressure Sensor for manifold Absolute Pressure , Altimeter or Barometer Applications On-Chip Signal Conditioned , temperature Compensated and calibrated . WebSite , www.freescale.com . [ 81 ] V. Gabaglio . GPS / INS System Integration for Low-Dynamic Application . PhD thesis , Ecole Polytechnique de Lausanne ( EPFL ) , 2002 . [ 82 ] Dale N. Hatfield . A report on technical and operational issues impacting the provision of wireless Enhanced 911 services . Technical report , 2002 . [ 83 ] J. Hightower and G. Boriello and R. Want . SpotOn : An indoor 3D location sensing technology based on RF Signal Strength . Technical Report , UW-CSE 2000 - 02 - 02 , University of Washington , 2000 . [ 84 ] Q. Ladetto . Capteurs et algorithmes pour la localisation autonome en mode pédestre . PhD thesis , EPFL , 2002 . [ 85 ] John Melcher . E- 112 - Is " best effort " the best approach ? . Business Briefing : Wireless Technology 2004 , 2004 . [ 86 ] Motorola . ADXRS150 Single Chip Yaw Rate Gyro with Signal Conditioning . WebSite , http Autant le GPS tend à s' imposer pour la localisation à l' extérieur des bâtiments , autant la situation est beaucoup plus ouverte pour la localisation à l' intérieur des bâtiments . De nombreux réseaux WiFi sont déployés dans les bâtiments . Ils diffusent des informations de puissance du signal permettant de remonter à la position d' un mobile . La technique du fingerprinting par puissance WiFi permet de localiser le mobile . Cependant , l' utilisation de cette technique de localisation requière une base de données correspondant à la couverture radio WiFi dans l' environnement . L' utilisation d' une technique de localisation basée sur des mesures temporelles est moins contraignante que le fingerprinting . L' émission d' impulsions radio très brèves confère à la technologie 802 . 15.4a un fort pouvoir séparateur des multi-trajets . Le phénomène de multi-trajets est la principale contrainte au déploiement d' une technologie de localisation par mesures temporelles . La détection du premier trajet est très importante . Des estimateurs comme le filtre de Kalman ou le filtre particulaire sont nécessaires pour limiter les effets des multi-trajets , des bruits de mesure , etc. Ces filtres peuvent aussi intégrer des informations de cartographie . Bien souvent , l' exploitation d' une seule technologie est insuffisante . La fusion d' informations de localisation est une étape supplémentaire pour améliorer la localisation . Des architectures de fusion robustes permettent de corriger les défauts de chacune des technologies pour conduire à un système plus robuste et plus précis en toutes circonstances . Ce travail présente une approche innovante pour la localisation WiFi avec l' exploitation de cartographie dans l' estimateur tout en gardant une faible complexité suivant la plate-forme de déploiement visée . L' exploration des capacités de la localisation par ULB est proposée dans un second temps , avant d' aborder une réflexion sur les méthodes de fusion multi-capteurs . Knowing where a device or a person is in the environment becomes of major importance for applications providing services based on the position . The evolution of the technology and the advent of the GPS , lead to have a good estimate of the position of a mobile outside buildings . Even if GPS is dominating outdoor positioning , no technology flooded the indoor positioning market yet . Many WiFi networks are deployed inside buildings . Signal strength ( RSS ) information are present for the roaming inside the network . The RSS fingerprinting technique can determine the position of a mobile as long as a signal strength database ( RSS coverage ) is available . Time based techniques are less constraining than fingerprinting . The forthcoming IEEE . 802 . 15.4a standard is to have positioning capabilities . A study the possible positioning techniques is necessary to achieve sub-centimeter accuracies . The narrow impulses emitted provide to the system the capability of separating the different multipath at reception . Multipath is the main phenomena impeding time based positioning technique . Performances of positioning systems are often degraded by multi-path , measurement noises , etc. The Kalman filter and the particle filter are often used in estimation problems and can be limit the impact of the degradations . Sensor fusion is another approach to enhance performances . This is the next step to achieve a indoor globally positioning system . Novel architectures must be designed to make the technologies cooperate in order to annihilated the weaknesses of each single technology and deliver the best position in every situation . This work presents a novel approach for the WiFi indoor positioning by using mapping information while keeping a low complexity for the implementation on handheld devices . Then , UWB capabilities are explored and finally a reflection on sensor fusion is proposed . Radiolocalization , Indoor environments , fingerprinting , Kalman filter , Particle filter , Time Difference of Arrival ( TDOA ) , Ultra Wide band ( UWB ) , Impulse radio , Sensor fusion , Inertial navigation