logo joomla

Embarquez avec des scientifiques, des ingénieurs et des marins pour une navigation-exploration des relations avec l'océan, le climat et les énergies marines dans la perspective du changement climatique 

 
     Glossaire
      Témoignages       Fantaisie        Qu'avons-nous lu ?       Conférences

En attendant Galileo...

Michel LEFEBVRE, Ingénieur CNES (e.r.), François BARLIER astronome titulaire, CERGA. Janvier 2006

D'après l'article paru dans la revue Navigation Volume 51, n° 202, Avril 2003 Page 35 à 81, que nous remercions pour l'autorisation de publication.

Partie 2 : Itinéraire dans l'Histoire

Partie 3 : Itinéraire dans l'Histoire (suite)

Partie 4 : Conclusion et épilogue


Partie 1


Prologue

La terre mesurée depuis l’espace

De DIAPASON (1966) à JASON (2001) : de nouveaux enjeux

Le choix d’un itinéraire : la contribution française

En attendant GALILEO

Le concept de base sous la forme d’un schéma synthétique GSM

Les paramètres entrant en jeu dans l’équation fondamentale

Détermination et utilisation de ces paramètres, domaines d’applications

Les paramètres liés aux missions

Une conclusion partielle : la contribution décisive du secteur spatial

La géodésie

La navigation maritime

Océanographie et géophysique : connaissance du système terre

Prologue

Nous travaillons ensemble depuis 1960, époque où nous nous étions rencontrés autour d’un des premiers ordinateurs, l’IBM 650, à l’observatoire de Meudon. Depuis lors, nous avons eu la chance de vivre en tant qu’acteurs le développement de la Géodésie Spatiale. En janvier 2000 lors d’une réunion de la section géodésie du Comité National Français de Géodésie et de Géophysique, le CNFGG, nous avions présenté un premier bilan de la géodésie spatiale. Nous avions demandé au Général Aubinière d’assister à cette séance en tant que "grand témoin". Il était un de ceux qui avaient compris l’enjeu et participé activement à la création du Groupe de Recherches en Géodésie Spatiale, le GRGS. Très intéressé de voir ce qu’il était advenu d’un programme auquel il avait contribué il nous recommanda vivement d’en entreprendre la publication ; nous le fîmes et il put en prendre connaissance.

Son appréciation fut très positive. Il fit remarquer que le document était suffisant pour garder mémoire de ce qui fut entrepris, mais qu’il serait encore plus intéressant de le compléter, de faire un bilan, afin de faire mieux comprendre le présent et d’aider ainsi à prendre des décisions bien argumentées pour le futur. Devons nous ajouter qu’il nous avait trouvés un peu timorés dans la présentation des résultats vu leur importance pour notre discipline ; il avait naturellement raison. La gestion du temps dans le domaine spatial est difficile. Il faut en effet décider maintenant les programmes et les projets pour leur mise en œuvre dans 5-10 ans avec l’idée que les nouveaux systèmes vont être pérennes sur plusieurs décennies, entre temps la technologie aura changé et de nouveaux objectifs se seront fait jour. Nous pensions que c’était aux acteurs de demain de prendre les décisions : c’est vrai, mais ils devront les prendre vite et, du coup, il y a un devoir d’initialisation. Nous avons en orbite des missions qui étaient nos visions de 1970. Plutôt que de tout mélanger, nous avons finalement décidé de maintenir la partie historique dans sa version initiale mais d’y ajouter des considérations prospectives, c’est-à-dire les leçons que nous avons pu tirer de ces premières 40 années. C’est dans cet esprit que nous avons été heureux de pouvoir publier cette étude dans la revue NAVIGATION et d’en infléchir le contenu. Ceci apparaît clairement dans le titre de l’article :
"En attendant GALILEO… La Terre mesurée depuis l’Espace : de DIAPASON (1966) à JASON (2001), la contribution française".
Nous aurions aimé que le Général Aubinière puisse le lire. C’est en hommage à une amitié partagée que nous l’avons rédigé. Nous voudrions maintenant reprendre les termes du titre pour en préciser la signification et leurs raisons d’être.

La terre mesurée depuis l’espace

Les résultats obtenus sur la planète Terre avec nos outils de géodésiens sont des mesures au sens métrologique et, pour être plus précis encore, il s‘agit de mesures de distances, de mesures de directions, de mesures de vitesses et d’accélérations entre stations terrestres et satellites ou entre satellites. Utiliser de telles mesures, présente un double avantage : on peut, d’une part, évaluer la précision des résultats et l’on peut, d’autre part, utiliser ces mesures comme contraintes quantitatives dans des modèles à vocation prédictive. Il faut souligner que les mesures sont différentes par nature de la plupart de celles utilisées en télédétection : ce ne sont pas des mesures de la surface mais des mesures faites en surface. Les mesures altimétriques représentent l’intégrale des différences physiques de la colonne d’eau sous-jacente.

De DIAPASON (1966) à JASON (2001) : De nouveaux enjeux

Les mesures faîtes sur les satellites sont fonction de nombreux paramètres géophysiques. Leur précision et l’échantillonnage des mesures permettent de les déterminer et d’atteindre des objectifs scientifiques nouveaux dans plusieurs domaines.

Mars 1966: DIAPASON, mis en orbite  par le lanceur Diamant, est le premier projet de géodésie spatiale avec à son bord un émetteur piloté par un oscillateur à quartz ultra-stable (OUS). Les signaux sont reçus par des stations-sol dont les récepteurs sont aussi pilotés par des OUS. Les décalages de fréquence dus à l’effet Doppler permettent la localisation des stations : ici, ce fut la localisation relative de Nice et de Beyrouth.

avisoDécembre 2001 : JASON-1, satellite à mission d’altimétrie radar au-dessus des océans, prend le relais de TOPEX-POSEIDON. En novembre 2002, une série homogène, validée, de dix ans de mesures du niveau de la mer, de précision centimétrique est mise à la disposition des utilisateurs ; elle contient les données de TOPEX-POSEIDON, mais également des autres satellites d’altimétrie.

En trente cinq ans, les enjeux ont changé : ce n’est plus seulement de la GÉODÉSIE dont il s’agit ici, mais bien d’une contribution majeure à l’étude du SYSTÈME TERRE. 

Le choix d’un itinéraire : la contribution française

Il n’est pas inutile de rappeler le rôle des équipes françaises et leur position de premier plan dans ce domaine, qui est une des raisons de la prise de conscience en France des enjeux dès 1969.

En avril 1970 dans un document intitulé "Propositions à long terme en géodynamique" nous proposions la définition suivante : "Tout ce qu’il est possible de déterminer à partir de mesures précises de distances, de directions, de vitesses, d’accélérations, entre stations terrestres et satellites ou entre satellites". Cela concerne l’étude de la Terre et de la Lune en tant que solides déformables et les mouvements des masses fluides qui entourent la Terre ainsi que leurs interactions.

L’enjeu était clair et il a été compris par les responsables des organismes qui ont mené des actions fortes. C’est la raison de notre choix délibéré pour mettre l’accent sur les développements qui se sont produits en France. Bien entendu l’étude de la Terre ne peut être entreprise qu’en coopération internationale ; les grands traits en sont par ailleurs donnés dans un article publié dans l’encyclopédie éditée par Kluwer, "The Century of Space Science", chapitre 66 : François Barlier and Michel Lefebvre "A new look at planet Earth : satellite geodesy and geosciences".

Passer de DIAPASON à JASON a représenté près de 40 ans d’efforts dans tous les domaines et avec des approches originales. Il a fallu acquérir la maîtrise de tous les sous-systèmes, développer des réseaux de mesure, mettre en place des modes de collecte des mesures, de leur évaluation, de leur distribution ; il a fallu aussi en comprendre la signification physique, les assimiler dans des modèles en conjonction avec d’autres types de données, étendre la liste des objectifs possibles, préparer les missions suivantes. À travers le récit de la participation française, on pourra mieux appréhender la complexité des problèmes à résoudre qui constituera l’objet de la deuxième partie.

En attendant GALILEO

Participer à Galileo est un aboutissement logique. Ce sont en effet les mêmes types de mesures et la même méthodologie qui sont utilisés pour les systèmes modernes de positionnement et de navigation. La proposition Galileo n’a certes pas pris de court les équipes françaises qui dès 1968 avaient proposé un système de positionnement global baptisé GÉOLE à partir de satellites à 6 000 kilomètres et en utilisant le système de mesures conçu pour le satellite ÉOLE. Mais il faut maintenant prendre en charge le nouveau projet. Pour mieux montrer comment la même démarche et le même type de mesures que ce qui avait été fait et utilisé dans le passé peuvent permettre d’atteindre des objectifs multiples, il nous a semblé utile d’exposer le principe de la géodésie spatiale sur lequel repose en fait la plupart des différentes applications.

Le concept de base sous la forme d’un schéma synthétique GSM :  G comme Géocentre,  S comme Station Terrestre, M comme Mobile.

La figure illustrative du concept : Description

G est le centre de masse instantané de la Terre. M est le mobile (le satellite) se déplaçant autour de la Terre. On considère maintenant un trièdre inertiel GXYZ dans lequel on détermine la trajectoire de M ou le vecteur GM à partir des équations du mouvement.

GM : le vecteur GM est fonction de six conditions initiales à un instant To. Les évolutions temporelles de GM dépendent aussi des forces agissantes sur le mobile, les forces gravitationnelles (dues notamment au champ de gravité de la Terre y inclus ses variations temporelles) et les forces non-gravitationnelles (freinage atmosphérique et pression de radiation d’origine terrestre et solaire dépendant elles-mêmes aussi du temps).

GS : soit S une station de poursuite du mobile, sa position sur Terre est définie par le vecteur GS. Le système terrestre unique va être défini par l’ensemble des coordonnées des stations de mesure grâce à un traitement global. De plus, la Terre définie par cet ensemble de stations doit être reliée au système inertiel pour écrire correctement les équations de la dynamique. Il faut donc tenir compte des variations de la direction de l’axe de rotation de la Terre et de sa vitesse de rotation.

SM : c’est la mesure de tout ou d’une partie du vecteur SM.

Le principe de l’approche dynamique peut maintenant se décrire simplement. À tout instant on a une relation vectorielle :
GM=GS+SM ou GM (équation de la dynamique)=GS (coordonnée de stations et rotation terrestre)+SM (mesure géodésique). Cette équation peut être linéarisée grâce à une connaissance préalable des paramètres décrivant les conditions initiales qui entrent en jeu ; elle peut être résolue par approximation successive. On peut donc en déduire des valeurs précises des paramètres d’entrée. La précision sur ces valeurs va bien sûr dépendre des erreurs résiduelles sur les mesures et de leur échantillonnage spatial.

Les paramètres entrant en jeu dans l’équation fondamentale

On peut en fait, séparer les paramètres en trois catégories :

  • Les paramètres "stations et rotation de la terre" (le système sera in fine constitué par un ensemble de coordonnées des stations d’observations et de valeurs des paramètres de la rotation terrestre) ;

  • Les paramètres "forces agissantes" (en premier lieu les forces dues au champ de gravité terrestre mais aussi les forces de surface dépendant pour partie des caractéristiques physiques du satellite) ;

  • Les paramètres "vecteur position et vitesse du satellite" à un instant initial T0.

Détermination et utilisation de ces paramètres, domaines d’applications

La connaissance à tout instant de la trajectoire d’un ou plusieurs satellites permet le positionnement de toute station effectuant des mesures sur le ou les mêmes satellites. Il en sera de même pour la navigation. La connaissance de l’orbite peut être alors utilisée de multiples façons : elle peut aider au contrôle fin de l’orbite, elle peut aussi permettre l’association des positions aux mesures physiques faites à bord. Un des exemples remarquables est l’utilisation sur les satellites SPOT de la position calculée en temps réel à bord même par le système appelé DIODE-DORIS. L’attitude du satellite étant déterminée par ailleurs, on peut recaler en position en temps réel les images obtenues par SPOT et les diffuser immédiatement après.

Pour la Terre appelée à bon droit la planète "océan", on peut aussi faire des mesures à la verticale, de la distance entre le satellite et la surface océanique par un altimètre embarqué. Si on a la position du satellite à tout instant, on a donc immédiatement, par différence, une détermination du paramètre de la topographie de surface repérée dans le système de référence terrestre. Ce signal altimétrique est doublement intéressant. Tout d’abord parce que l’océan étant liquide, il épouse en première approximation une surface équipotentielle ; sa surface est donc perpendiculaire à la verticale locale avec la même approximation ; ensuite la mesure des pentes et des ondulations du profil topographique de la mer par rapport à un ellipsoïde permet de déterminer et d’interpréter simplement les variations de ce profil d’origine géophysique par rapport à un ellipsoïde idéal. De plus la circulation océanique ajoute à ce signal géophysique, un signal océanographique perturbateur dont l’analyse permet en plus la détermination des courants de surface et par modélisation contribue aussi à la connaissance de la circulation océanique à trois dimensions.

Bien entendu au fur et à mesure que les séries temporelles s’allongent on peut utiliser les mêmes types de mesure pour d’autres objectifs, par exemple hydrologiques comme la surveillance du niveau des grands lacs et des mers fermées à la surface de la Terre.

Les paramètres liés aux missions

La qualité des résultats va dépendre de plusieurs facteurs et tout d’abord de la précision des mesures ou plus exactement des systèmes de mesure. En trente ans, l’on a gagné quatre ordres de grandeur dans la précision de ces systèmes.

 

  1975 1985 1995 2000
LASER 150 cm 30 cm 3cm 1cm
DOPPLER 5 cm/s 1 cm/s 0,03 cm/s 0,01 cm/s
ALTIMETRE 20 cm 5 cm 2 cm 0,5 cm
ACCELEROMETRES 10-9 cm/s2 5.10-10 cm/s2 10-10 cm/s2 10-13 cm/s2
HORLOGES

10-11

(10-12)

10-12

(10-13)

3.10-13

(10-14)

10-14

 

Précision de mesures

Mais pour avoir le bénéfice de cette amélioration et qu’elle puisse se traduire sur les produits et les résultats obtenus à partir des mesures, il y a deux autres paramètres caractéristiques des systèmes qui doivent être pris en compte :

L’échantillonnage spatial : il est indispensable pour l’étude globale de la Terre, mais, il est tout aussi nécessaire pour toutes les applications de positionnement en temps réel ou en navigation,
L’échantillonnage temporel : les systèmes mis en place ont la capacité de déterminer les variations temporelles de tous les paramètres : positions des stations, niveau de la mer, positions du centre de masses, variations du champ de gravité, mais il faut que l’échantillonnage temporel soit suffisant.

Ces problèmes d’échantillonnage vont être au centre des choix des paramètres orbitaux des différentes missions liées aux objectifs à atteindre. Il y a là une réelle difficulté, on peut en effet viser d’abord des objectifs principaux c’est-à-dire ceux qui sont liés à des phénomènes identifiés que l’on veut étudier. Ils vont conditionner les spécifications que devront respecter les équipes responsables du PROJET. Mais les programmes mis en place sont conçus pour être opérationnels pour de longues durées. Or les analyses font apparaître la possibilité d’atteindre des objectifs non pris en compte au départ et que les progrès technologiques et une meilleure évaluation des performances vont permettre d’obtenir ; il va donc falloir anticiper dès la phase d’études, le potentiel d’amélioration du système.

Une conclusion partielle : la contribution décisive du secteur spatial.

Par "contribution décisive", nous voulons signifier que cette contribution est "nécessaire mais pas forcément suffisante" pour atteindre les objectifs visés. Dans au moins trois domaines, il nous apparaît que la contribution fut décisive.

La géodésie

  • Son objectif est la "détermination de la forme et des dimensions de la Terre et de son champ de gravité". Elle ne pouvait plus progresser en l’absence de données à l’échelle planétaire ;

  • En 1960, les incertitudes sur les positions des stations dans un repère absolu étaient de quelques centaines de mètres, même à l’échelle régionale – Amérique du Nord et Europe – où existaient des réseaux de mesure et où des retraitements d’ensemble avaient été effectués. La précision relative se situait seulement entre 10-5 et 10-6 ;

  • En ce qui concerne le champ de gravité, la valeur de l’aplatissement dynamique était mal connue. La dissymétrie entre les deux hémisphères du géoïde – qui sera plus tard comparé à une forme de poire – n’était pas soupçonnée. Les mesures de gravité étaient limitées à 15 % de la Terre et les mesures en mer étaient très dispersées et peu fiables ;

  • Enfin les considérations liées aux problèmes de défense retardaient les échanges des données entre réseaux nationaux ;

  • Or 40 ans après, les systèmes spatiaux permettent à tout utilisateur de se positionner en trois dimensions au niveau de quelques mètres voire de quelques centimètres dans un système de référence unique, stable et contrôlé. En outre, il est possible de se synchroniser avec une échelle de temps atomique internationale unique, à quelques dizaines de nanoseconde, voire bien mieux ;

  • Méchain et Delambre auraient pu mesurer la célèbre méridienne de France en 24 heures. Bouguer et La Condamine auraient pu "ignorer les Andes" dans leur si difficile périple géodésique dans ces régions ;

  • Moins anecdotique est aussi toute la méthodologie qui a changé. Il n’y a plus de réseaux mais seulement un système dynamique accessible avec la contrepartie de conférer aux propriétaires du système un pouvoir absolu pour en fixer toutes les constantes et les paramètres (cas du GPS -Global Positioning System- par exemple pour certaines applications civiles et militaires) ;

  • Pour le champ de gravité, les déterminations par l’analyse des perturbations des trajectoires de satellites ont relativement vite donné des valeurs du champ global avec des résolutions spatiales de 1000 kilomètres. Mais l’apparition de mesures directes par gradiométrie va permettre d’atteindre une résolution homogène de 100 kilomètres tout autour de la Terre en encore moins de temps (projet GOCE en 2006 de l’Agence Spatiale Européenne) ;

  • Enfin les mesures altimétriques permettent aujourd’hui la détermination du géoïde marin avec une résolution de quelques kilomètres sur toute la surface des océans, ce qui était évidemment impensable au début des années 60.

La navigation maritime

En 1960, les méthodes utilisées universellement par les navigateurs étaient peu nombreuses. On peut les citer : 

  • L’estime : connaissant le cap, une estimation de la vitesse du navire et les conditions extérieures, courants, états de mer, on peut connaître une valeur approchée de la position du navire. L’erreur était très variable, mais il était important, comme disaient les anciens commandants, non pas de savoir où l’on était, mais de savoir où l’on n’était pas ;

  • Le point à la mer, dit aussi "point astronomique" : il utilise essentiellement le soleil et une quinzaine d’étoiles, dont on mesure la hauteur au-dessus de l’horizon à l’aide d’un sextant, la date d’observation étant fournie par la lecture simultanée d’un chronomètre de bord dont on connaît l’état par rapport à une échelle universelle, grâce à l’écoute de signaux horaires. La précision du point astronomique est d’environ un mille marin en moyenne. Elle n’est possible que par ciel dégagé et avec un horizon visible ;

  • Jusqu’au début des années 1960, peu de progrès était apparu. Les principaux changements étaient pour la méthode de l’estime, l’apparition de gyrocompas permettant une meilleure tenue du cap. Il y avait aussi les sondeurs à ultra sons et les radars pour la navigation en vue des côtes. Les moyens radios électriques, tels Loran-C, Decca, n’avaient pas toujours eu le succès escompté par suite de l’utilisation de réseaux trop régionaux. Sur les navires de guerre et en particulier les submersibles, les systèmes de navigation inertiels commençaient à être utilisés mais devaient être recalés périodiquement ;

  • La navigation par satellite est ensuite apparueElle a d’abord été obtenue par un système américain spatial, le système TRANSIT composé de satellites évoluant à environ 1000 km d’altitude, en orbite polaire, avec à son bord un émetteur très stable en fréquence. Il fut développé dans les années 60 par l’US-NAVY, et plus spécifiquement pour les sous-marins. La précision était d’une centaine de mètres. L’usage de ce système militaire a été petit à petit ouvert à la clientèle civile. Puis, le système TRANSIT a été remplacé par le système GPS (Global Positioning System). Le GPS, ou système global de positionnement et de navigation, utilise les mesures faites entre l’objet à localiser et plusieurs satellites faisant partie d’une constellation de 24 satellites en orbite à environ 20 000 km d’altitude avec des trajectoires inclinées à 55° par rapport à l’équateur terrestre. GPS à été conçu pour une durée extrêmement longue et mis en œuvre par le "Departement Of Defense" des États-Unis. Ce système est partiellement codé, ce qui peut limiter la précision à quelques dizaines de mètres pour un mobile. Mais GPS à été récemment "déclassifié", l’accès au code rendu possible, les brouillages interrompus. Dans ces conditions, la précision du positionnement que l’on peut obtenir varie de un ou deux mètres à quelques centimètres et ceci à tout moment et en tout lieu mais pas avec une fiabilité et une sécurité toujours parfaites.

Plus récemment, compte tenu des énormes enjeux économiques et stratégiques, l’Europe a ainsi décidé le démarrage d’un programme complémentaire, mais pouvant devenir partiellement autonome, le programme Galileo.

Océanographie et géophysique : connaissance du système terre

  • À la fin des années 50, plusieurs géophysiciens prirent conscience que l’étude de la Terre était limitée par l’absence de mesure à l’échelle planétaire, alors que de nombreux phénomènes ne pouvaient pas être compris à la seule échelle régionale. Pour palier cette carence, un programme international d’observation géophysique visant à obtenir des observations d’une grande variété de sites, fut organisé par l’Union Internationale de Géodésie et de Géophysique, l’UGGI. Il fut baptisé Année géophysique internationale (en anglais IGY), et devait se dérouler sur deux années, 1957 et 1958.

  • En 1957, justement, le lancement du premier satellite SPOUTNIK 1 surprit toute la communauté ; il faut noter que l’URSS s’empressa d’offrir ce satellite comme partie de sa contribution à l’IGY. C’était symbolique mais visionnaire.
    Les données de l’IGY constituèrent certes un progrès, mais le nombre de sites était encore insuffisant ; les instruments étaient différents et posaient des problèmes d’inter-étalonnage. De plus, les sites ne pouvaient être maintenus opérationnels indéfiniment pour des raisons de maintenance et de coût, ce qui excluait la mesure pourtant nécessaire des variations temporelles à long terme. En fait, les mesures par satellite allaient précisément résoudre les problèmes d’échantillonnage spatial et temporel ; de plus, c’était un seul et même instrument placé à bord du satellite qui allait effectuer les mesures. Par contre, il s’agissait la plupart du temps de mesures effectuées en surface, mais qui intégraient des processus physiques le long d’une colonne d’eau. Ceci est très différent des mesures de surface comme la température qui ne caractérise que cette surface. Sans entrer ici dans les détails, on peut voir ce qu’une technique comme l’altimétrie allait apporter à la géophysique et à l’océanographie. Les ondulations de la surface topographique de la mer, liées aux déviations locales de la verticale, allaient permettre l’interprétation de la dynamique de la tectonique océanique : zones de fracture, dorsales, fosses océaniques, zones de subduction, montagnes sous-marines (plusieurs centaines ont été découvertes dans le Pacifique), qui fournissent des signaux si caractéristiques en surface, purent êtres observés et interprétés. On put ainsi comprendre l’histoire passée et présente de la tectonique. Les mouvements actuels des plaques, ainsi que tous les déplacements, dus aux marées ou à d’autres causes géophysiques, purent aussi être déterminés à partir des mesures si précises de positionnement de stations par satellites.

  • La variation temporelle de la surface topographique de la mer mesurée par l’altimétrie a une composante océanographique liée aux marées mais aussi à la circulation océanique. Ceci est vrai à toutes les échelles d’espace et de temps, depuis les tourbillons énergétiques jusqu’aux grands courants de bord ouest, Gulf Stream, Kouroshivo, ainsi que les évènements tropicaux tels que El Niño, et même les élévations sur plusieurs décennies du niveau moyen de la mer. Pour l’océanographie physique, c’est une véritable révolution, non seulement pour améliorer notre connaissance du fonctionnement de l’océan, mais aussi pour utiliser ces connaissances dans de nombreuses applications pratiques. C’est l’objectif de ce que l’on appelle maintenant l’océanographie opérationnelle qui se développe comme s’est développée, il y a longtemps, la météorologie opérationnelle. Les utilisateurs de ces données océanographiques opérationnelles appartiennent à des domaines très différents : transports maritimes, forages pétroliers off shore, pêche, routage des navires, loisirs maritimes. À titre d’exemple, en novembre 2002, il a été possible de donner des informations de routage pour la Route du Rhum, mais surtout de fournir la carte des courants en surface et en profondeur dans la zone où le pétrolier PRESTIGE avait coulé. Ces prévisions ont été mises à disposition par le groupement d’intérêt public, MERCATOR-OCÉAN créé précisément pour fournir aux différentes classes d’utilisateurs les informations qui leur sont utiles.
    Là encore, on voit que les mesures effectuées vont bien au-delà de la simple géodésie. D’autres domaines sont maintenant explorés. Ainsi en hydrologie la surveillance permanente du niveau des lacs, des mers fermées, des grands bassins fluviaux, apporte une information désormais fiable et qui peut être utilisée pour des décisions à prendre sur la répartition des réserves d’eau, l’opportunité de construire des barrages. La décroissance du niveau de la mer d’Aral observée par ces nouveaux moyens est un exemple particulièrement spectaculaire qui a permis de sensibiliser l’opinion publique. Plus récemment ce sont les zones polaires qui ont été étudiées, toujours avec le même type de mesures

Partie 2 : Itinéraire dans l'Histoire

Partie 3 : Itinéraire dans l'Histoire (suite)

Partie 4 : Conclusion et épilogue

Sauvegarder
Choix utilisateur pour les Cookies
Nous utilisons des cookies afin de vous proposer les meilleurs services possibles. Si vous déclinez l'utilisation de ces cookies, le site web pourrait ne pas fonctionner correctement.
Tout accepter
Tout décliner
Analytique
Outils utilisés pour analyser les données de navigation et mesurer l'efficacité du site internet afin de comprendre son fonctionnement.
Google Analytics
Accepter
Décliner
Unknown
Unknown
Accepter
Décliner