Suite

5.1 : Acquisition de données géographiques - Géosciences

5.1 : Acquisition de données géographiques - Géosciences


Objectifs d'apprentissage

  • L'objectif de cette section est de présenter différents types de données, échelles de mesure et méthodes de capture de données.

L'acquisition de données géographiques est un facteur important dans tout effort de système d'information géographique (SIG). Il a été estimé que l'acquisition de données consomme généralement 60 à 80 % du temps et de l'argent consacrés à un projet donné. Par conséquent, il faut veiller à ce que les projets SIG restent conscients de leurs objectifs déclarés afin que la collecte de données spatiales se déroule de la manière la plus efficiente et efficace possible. Ce chapitre décrit les nombreuses formes et sources de données géospatiales disponibles pour une utilisation dans un SIG.

Types de données

Le type de données que nous utilisons pour nous aider à comprendre une entité donnée est déterminé par (1) ce que nous examinons, (2) ce que nous voulons savoir sur cette entité, et (3) notre capacité à mesurer cette entité à un niveau souhaité. échelle. Les types de données les plus courants pouvant être utilisés dans un SIG sont les chaînes alphanumériques, les nombres, les valeurs booléennes, les dates et les binaires.

Une chaîne alphanumérique, ou texte, le type de données est une combinaison simple de lettres et de chiffres qui peuvent ou non former des mots cohérents. Le numéro Le type de données peut être subdivisé en virgule flottante ou en nombre entier. UNE point flottant est une valeur de données qui contient des chiffres décimaux, tandis qu'un entier est une valeur de données qui ne contient pas de chiffres décimaux. Les entiers peuvent être courts ou longs selon le nombre de chiffres significatifs dans ce nombre. De plus, ils sont basés sur le concept de « bit » dans un ordinateur. Comme vous vous en souvenez peut-être, un bit est l'unité d'information la plus basique dans un ordinateur et stocke des valeurs dans l'un des deux états : 1 ou 0. Par conséquent, un attribut de 8 bits consisterait en huit 1 ou 0 dans n'importe quelle combinaison (par exemple, 10010011, 00011011, 11100111).

Entiers courts sont des valeurs de 16 bits et peuvent donc être utilisées pour caractériser des nombres allant de -32 768 à 32 767 ou de 0 à 65 535 selon que le nombre est signé ou non signé (c'est-à-dire qu'il contient un signe + ou -). Entiers longs, alternativement, sont des valeurs de 32 bits et peuvent donc caractériser des nombres allant de -2 147 483 648 à 2 147 483 647 ou de 0 à 4 294 967 295.

UNE virgule flottante simple précision value occupe 32 bits, comme l'entier long. Cependant, ce type de données fournit une valeur jusqu'à 7 bits à gauche de la virgule (une valeur maximale de 128, ou 127 si signé) et jusqu'à 23 bits à droite de la virgule (environ 7 décimales). chiffres). UNE virgule flottante double précision value stocke essentiellement deux valeurs de 32 bits en tant que valeur unique. Les flottants à double précision peuvent alors représenter une valeur avec jusqu'à 11 bits à gauche de la virgule décimale et des valeurs avec jusqu'à 52 bits à droite de la virgule (environ 16 chiffres décimaux) (Figure 5.1 « Point flottant à double précision (valeur de 64 bits), telle qu'elle est stockée dans un ordinateur").

Figure 5.1 Virgule flottante à double précision (valeur de 64 bits), telle qu'elle est stockée dans un ordinateur

Les valeurs booléennes, de date et binaires sont moins complexes. booléen les valeurs sont simplement les valeurs jugées vraies ou fausses en fonction de l'application d'un opérateur booléen tel que AND, OR et NOT. Le Date type de données est probablement explicite, tandis que le binaire Le type de données représente des attributs dont les valeurs sont soit 1 soit 0.

Échelle de mesure

En plus de définir les données par type, une échelle de mesure agit pour regrouper les données selon le niveau de complexité (Stevens 1946). Stevens, S. S. 1946. « Sur la théorie des échelles de mesure ». Science 103 (2684) : 677-80. Aux fins des analyses SIG, les échelles de mesure peuvent être regroupées en deux catégories générales. Les données nominales et ordinales représentent données catégorielles; les données d'intervalle et de rapport représentent données numériques.

L'échelle de mesure de données la plus simple est la nominal, ou nommé, échelle. L'échelle nominale fait des déclarations sur ce qu'il faut appeler des points de données, mais ne permet pas de comparaisons scalaires entre un objet et un autre. Par exemple, l'attribution d'informations nominales à un ensemble de points qui représentent des villes décrira si le lieu donné est « Los Angeles » ou « New York ». Cependant, aucune autre indication, telle que la population ou l'historique des votes, ne peut être faite à propos de ces lieux. D'autres exemples de données nominales incluent le nom de famille, la couleur des yeux, le type d'utilisation des terres, l'origine ethnique et le sexe.

Données ordinales place les informations d'attribut dans des rangs et donne donc des informations à l'échelle plus précise que les données nominales. Les données ordinales décrivent la position dans laquelle les données apparaissent, telles que premier, deuxième, troisième, etc. Ces échelles peuvent également prendre des noms tels que « très insatisfait », « insatisfait », « satisfait » et « très satisfait ». Bien que cette échelle de mesure indique le classement de chaque point de données par rapport à d'autres points de données, l'échelle ordinale ne désigne pas explicitement la différence quantitative exacte entre ces classements. Par exemple, si un attribut ordinal représente quel coureur est arrivé en première, deuxième ou troisième place, il n'indique pas de combien de temps le vainqueur a battu le deuxième. Par conséquent, on ne peut pas entreprendre d'opérations arithmétiques avec des données ordinales. Seule la séquence est explicite.

Une échelle de mesure qui permet de faire des déclarations quantitatives précises sur les attributs est données d'intervalle. Les données d'intervalle sont mesurées le long d'une échelle dans laquelle chaque position est équidistante l'une de l'autre. Les relevés d'altitude et de température sont des représentations courantes des données d'intervalle. Par exemple, il peut être déterminé grâce à cette échelle que 30 ºF est 5 ºF plus chaud que 25 ºF. Une propriété notable de l'échelle d'intervalle est que zéro n'est pas une valeur significative dans le sens où zéro ne représente pas le néant, ou l'absence d'une valeur. En effet, 0 ºF n'indique pas qu'aucune température n'existe. De même, une élévation de 0 pied n'indique pas un manque d'élévation ; il indique plutôt le niveau moyen de la mer.

Données de rapport sont similaires à l'échelle de mesure d'intervalle ; cependant, il est basé sur une valeur zéro significative. La densité de population est un exemple de données de ratio où une densité de population de 0 indique qu'aucune personne ne vit dans la zone d'intérêt. De même, l'échelle de température Kelvin est une échelle de rapport car 0 K implique qu'aucune chaleur (température) n'est mesurable dans l'attribut donné.

Spécifiques aux ensembles de données numériques, les valeurs de données peuvent également être considérées comme discrètes ou continues. Données discrètes sont ceux qui maintiennent un nombre fini de valeurs possibles, tandis que données continues peut être représenté par un nombre infini de valeurs. Par exemple, le nombre d'arbres matures sur une petite propriété sera nécessairement compris entre une et une centaine (pour l'argumentation). Cependant, la hauteur de ces arbres représente une valeur de données continue car il existe un nombre infini de valeurs potentielles (par exemple, un arbre peut mesurer 20 pieds, 20,1 pieds ou 20,15 pieds, 20,157 pieds, etc.).

Capture de données primaires

Maintenant que nous avons une idée des différents types de données et échelles de mesure disponibles pour une utilisation dans un SIG, nous devons orienter nos réflexions sur la manière dont ces données peuvent être acquises. Saisie des données primaires est une méthodologie d'acquisition directe de données qui est généralement associée à un certain type d'effort sur le terrain. Dans le cas des données vectorielles, les données capturées directement proviennent généralement d'un système de positionnement global (GPS) ou d'autres types d'équipements topographiques tels qu'une station totale (Figure 5.2 "Unité GPS (gauche) et Station totale (droite)"). Les stations totales sont des instruments de capture de données primaires spécialisés qui combinent un théodolite (ou transit), qui mesure les angles horizontaux et verticaux, avec un outil pour mesurer la distance en pente de l'unité à un point observé. L'utilisation d'une station totale permet aux équipes de terrain de dériver rapidement et avec précision la topographie d'un paysage particulier.

Figure 5.2 Unité GPS (à gauche) et Station totale (à droite)

Dans le cas du GPS, les unités portables accèdent aux données de position des satellites et enregistrent les informations pour une récupération ultérieure. Un réseau de vingt-quatre satellites de navigation est situé dans le monde entier et fournit des informations de coordonnées précises pour n'importe quel point de la surface de la Terre (Figure 5.3 "Earth Imaging Satellite Capturing Primary Data"). Le maintien d'une ligne de visée vers quatre ou plus de ces satellites fournit à l'utilisateur des informations de localisation raisonnablement précises. Ces emplacements peuvent être collectés en tant que points individuels ou peuvent être liés entre eux pour former des lignes ou des polygones selon les préférences de l'utilisateur. Les données d'attribut telles que le type d'utilisation du sol, le numéro de poteau téléphonique et le nom de la rivière peuvent être saisies simultanément par l'utilisateur. Ces données d'emplacement et d'attribut peuvent ensuite être téléchargées vers le SIG pour visualisation. Selon la marque et le modèle du GPS, ce téléchargement nécessite souvent un certain type de conversion de fichier intermédiaire via un logiciel fourni par le fabricant de l'unité GPS. Cependant, il existe des ressources en ligne gratuites qui peuvent convertir les données GPS d'un format à un autre. GPSBabel est un exemple d'une telle ressource en ligne (http://www.gpsvisualizer.com/gpsbabel).

En plus de l'unité GPS typique illustrée à la Figure 5.2 "Unité GPS (gauche) et station totale (droite)", le GPS est de plus en plus intégré à d'autres nouvelles technologies. Par exemple, les smartphones intègrent désormais les capacités GPS en tant que composant technologique standard. Ces unités de téléphone/GPS maintiennent une précision comparable à celle des unités GPS autonomes de prix similaire et sont en grande partie responsables d'une renaissance en facilitant la capture et le partage de données portables et en temps réel pour les masses. L'omniprésence de cette technologie a conduit à une prolifération d'alternatives d'acquisition de données participatives. Crowdsourcing est une méthode de collecte de données par laquelle les utilisateurs contribuent librement à la construction de bases de données spatiales. Cette méthodologie en expansion rapide est utilisée dans des applications telles que l'application MapShare de TomTom, Google Earth, Bing Maps et ArcGIS.

Les données raster obtenues par capture directe proviennent le plus souvent de sources de télédétection (Figure 5.3 "Earth Imaging Satellite Capturing Primary Data"). Les données de télédétection offrent l'avantage d'éviter la nécessité d'un accès physique à la zone imagée. De plus, de vastes étendues de terre peuvent être caractérisées avec peu ou pas de temps et de travail supplémentaires par le chercheur. D'autre part, une validation est requise pour les données de télédétection afin de s'assurer que le capteur fonctionne non seulement correctement, mais également correctement calibré pour collecter les informations souhaitées. Les satellites et les caméras aériennes fournissent les sources les plus omniprésentes de données raster à capture directe (Section 4.3.1 « Imagerie satellite »).

Figure 5.3 Satellite d'imagerie terrestre capturant les données primaires

Capture de données secondaire

Saisie des données secondaires est une méthodologie indirecte qui utilise la grande quantité de données géospatiales existantes disponibles en format numérique et papier. Avant de lancer tout effort SIG, il est toujours sage d'exploiter les ressources en ligne pour les données SIG existantes qui peuvent répondre à vos besoins de cartographie sans l'étape potentiellement intensive de créer les données à partir de zéro. Ces données SIG numériques sont disponibles auprès de diverses sources, notamment des agences internationales (CGIAR, CIESIN, Nations Unies, Banque mondiale, etc.) ; les gouvernements fédéraux (USGS, USDA, NOAA, USFWS, NASA, EPA, US Census, etc.) ; les gouvernements des États (CDFG, Teale Data Center, INGIS, MARIS, NH GIS Resources, etc.) ; collectivités locales (SANDAG, RCLIS, etc.) ; sites Web universitaires (UCLA, Duke, Stanford, University of Chicago, Indiana Spatial Data Portal, etc.) ; et sites commerciaux (ESRI, GeoEye, Geocomm, etc.). Ces données secondaires sont disponibles dans un large éventail de types de fichiers, d'étendues et de tailles, mais elles sont prêtes à l'emploi pour être utilisées dans la plupart des progiciels SIG. Souvent, ces données sont gratuites, mais de nombreux sites facturent des frais pour accéder aux informations exclusives qu'ils ont développées.

Bien que ces sources de données soient tous des cas où les informations ont été converties au format numérique et correctement projetées pour une utilisation dans un SIG, il existe également une grande quantité d'informations spatiales qui peuvent être glanées à partir de sources non numériques existantes. Les cartes papier, par exemple, peuvent contenir des informations actuelles ou historiques sur un lieu qui ne peuvent pas être trouvées en format numérique. Dans ce cas, le processus de numérisation peut être utilisé pour créer des fichiers numériques à partir de la copie papier originale. Il existe trois méthodes principales pour numériser les informations spatiales : deux sont manuelles et une est automatisée.

Numérisation de tablette est une méthode de capture de données manuelle par laquelle un utilisateur entre des informations de coordonnées dans un ordinateur à l'aide d'une tablette de numérisation et d'une rondelle de numérisation. Pour commencer, une carte papier est fixée sur une tablette numérique rétro-éclairée. Le rétroéclairage permet d'observer facilement toutes les caractéristiques de la carte, ce qui réduit la fatigue oculaire. Les coordonnées des entités ponctuelles, linéaires et/ou surfaciques sur la carte papier sont ensuite saisies dans un fichier numérique tandis que l'utilisateur utilise une rondelle, qui est semblable à une souris à plusieurs boutons avec un réticule, pour « cliquer » pour se frayer un chemin autour du sommets de chaque entité souhaitée. Le fichier numérique résultant devra être correctement géoréférencé après l'achèvement de la tâche de numérisation pour s'assurer que ces informations s'aligneront correctement avec les ensembles de données existants.

Numérisation tête haute, la deuxième méthode de saisie manuelle des données, est appelée numérisation « à l'écran ». La numérisation tête haute peut être utilisée sur des cartes papier ou des fichiers numériques existants. Dans le cas d'une carte papier, la carte doit d'abord être numérisée dans l'ordinateur à une résolution suffisamment élevée pour permettre de résoudre toutes les caractéristiques pertinentes. Deuxièmement, l'image désormais numérique doit être enregistrée afin que la carte se conforme à un système de coordonnées existant. Pour ce faire, l'utilisateur peut saisir des points de contrôle sur l'écran et transformer, ou « feuille de caoutchouc », l'image numérisée en coordonnées du monde réel. Enfin, l'utilisateur effectue simplement un zoom sur des zones spécifiques de la carte et trace les points, les lignes et/ou les polygones, comme dans l'exemple de numérisation de la tablette. La numérisation tête haute est particulièrement simple lorsque des fichiers SIG existants, des images satellites ou des photographies aériennes sont utilisés comme base de référence. Par exemple, si un utilisateur envisage de numériser la limite d'un lac vue à partir d'une image satellite géoréférencée, les étapes de numérisation et d'enregistrement peuvent être ignorées et les informations de projection de l'image d'origine peuvent simplement être copiées dans le fichier numérisé.

La troisième méthode automatisée de capture de données secondaires nécessite que l'utilisateur numérise une carte papier et vectorise les informations qu'elle contient. Ce vectorisation La méthode nécessite généralement un progiciel spécifique capable de convertir un balayage raster en lignes vectorielles. Cela nécessite une numérisation très haute résolution et propre. Si l'image n'est pas nette, toutes les imperfections de la carte seront probablement converties en faux points/lignes/polygones dans la version numérique. Si une analyse propre n'est pas disponible, il est souvent plus rapide d'utiliser une méthodologie de numérisation manuelle. Quoi qu'il en soit, cette méthode est beaucoup plus rapide que les méthodes manuelles susmentionnées et peut être la meilleure option si plusieurs cartes doivent être numérisées et/ou si le temps est un facteur limitant. Souvent, une approche semi-automatique est utilisée dans laquelle une carte est numérisée et vectorisée, suivie d'une session de numérisation tête haute pour éditer et réparer les erreurs survenues lors de l'automatisation.

La dernière méthode de saisie des données secondaires à noter est l'utilisation d'informations provenant de rapports et documents. Grâce à cette méthode, on entre les informations des rapports et des documents dans la table attributaire d'un fichier SIG numérique existant qui contient tous les points, lignes et polygones pertinents. Par exemple, de nouvelles informations spécifiques aux secteurs de recensement peuvent devenir disponibles à la suite d'une étude scientifique. L'utilisateur du SIG doit simplement télécharger le fichier SIG existant des secteurs de recensement et commencer à saisir les informations du rapport/document de l'étude directement dans la table attributaire. Si les tableaux de données sont disponibles sous forme numérique, l'utilisation des fonctions « rejoindre » et « relier » dans un SIG (Section 5.2.2 « Joindre et relier ») est souvent extrêmement utile car elles automatiseront une grande partie de l'effort de saisie des données.

Points clés à retenir

  • Les types de données les plus courants pouvant être utilisés dans un SIG sont les chaînes alphanumériques, les nombres, les valeurs booléennes, les dates et les binaires.
  • Les données nominales et ordinales représentent des données catégorielles, tandis que les données d'intervalle et de rapport représentent des données numériques.
  • Les méthodologies de saisie des données sont dérivées de sources primaires ou secondaires.

Des exercices

  1. Les données suivantes sont dérivées de quelle échelle de mesure ?
    1. Mon score de bonheur sur une échelle de 1 à 10 = 7
    2. Mon poids = 192 livres.
    3. La ville dans laquelle je vis = Culver City
    4. Ma température corporelle actuelle = 99,8 ºF
    5. Le nombre de cheeseburgers que je peux manger avant de m'évanouir = 12
    6. Mon numéro de plaque d'immatriculation = 1LUVG1S
  2. Décrivez au moins deux méthodes différentes pour ajouter les informations d'une carte topographique USGS à votre jeu de données SIG.

5.1 Qualité des données géospatiales : validité, exactitude et précision

Les données ne sont pas créées de la même manière que les données varient dans leur qualité. La qualité des données est un concept avec de multiples composants qui incluent des idées de données précision et précision, ce qui permet de déterminer si les données sont suffisamment spécifiques et le degré d'erreur qu'elles contiennent. La qualité des données comprend également les données pertinence, qui détermine si les données conviennent ou non à une application particulière. Les aspects de la qualité des données sont souvent caractérisés globalement comme « l'aptitude à l'emploi ». Le degré d'adéquation des données à une application peut être affecté par un certain nombre de caractéristiques, allant des divergences et des incohérences dans le formatage des données à des données de type incorrect ou comportant trop d'erreurs.

Imaginez que vous êtes l'un des gardes forestiers intéressés qui traquent les grizzlis dans un refuge faunique afin d'identifier les zones où le public pourrait entrer en contact avec les animaux. Les colliers radio portés par les ours envoient de nouvelles données de localisation toutes les cinq minutes, et à chaque mise à jour, les schémas d'activité des ours deviennent évidents. Dans ce cas, il n'y a aucun problème de validité des données : vous êtes intéressé par les positions des ours, et ce sont exactement les données que votre équipement de suivi reçoit.

Étant donné que ces données de suivi fictives et sans erreur sont parfaitement pertinentes pour le problème en question, il n'est pas nécessaire d'envisager des données alternatives. La qualité des données est clairement suffisamment élevée pour l'objectif visé.

Des données d'une qualité aussi élevée par rapport à l'objectif visé ne sont pas la norme et ne sont pas toujours nécessaires. Souvent, nous devons prendre des décisions très prudentes sur les données à utiliser et pourquoi un ensemble de données peut être meilleur qu'un autre. Plutôt que de connaître l'emplacement précis de chaque ours dans le refuge, un scénario beaucoup plus probable impliquerait que les gardes forestiers s'appuient sur une ou plusieurs des autres bases de données dont ils disposent. , et les ventes du centre d'accueil.

Bien que les registres des ventes du centre d'accueil puissent être ignorés car non adaptés à l'objectif visé, les autres données sont toutes potentiellement pertinentes. Dans ce cas, les gardes forestiers devraient décider quelle base de données, ou combinaison de bases de données, serait la mieux adaptée pour identifier les emplacements des parcs où des restrictions d'accès public pourraient être nécessaires pour empêcher les rencontres rapprochées avec les ours.

Ce scénario illustre que la qualité des données peut dépendre non seulement des données mais aussi de l'application prévue. Des données qui peuvent ne pas convenir et ne pas être valables à une fin peuvent très bien convenir à une autre. Les données de localisation qui ne sont certaines qu'au kilomètre près peuvent être d'une qualité suffisamment élevée pour que les gardes forestiers puissent déterminer le nombre d'ours dans le refuge. Un système de défense antimissile avec des capteurs de localisation ayant un potentiel d'erreur similaire ne serait probablement pas considéré comme d'une qualité suffisante à utiliser.

5.1.2 Précision et exactitude

Les positions sont les produits de mesures. Toutes les mesures contiennent un certain degré d'erreur. Avec les données géographiques, des erreurs sont introduites dans l'acte original de mesure des emplacements sur la surface de la Terre. Des erreurs sont également introduites lorsque des données de deuxième et troisième génération sont produites, par exemple lors de la numérisation d'une carte papier pour la convertir en version numérique ou lors de l'agrégation d'entités dans le processus de généralisation de la carte.

En général, il existe trois sources d'erreur de mesure : les êtres humains, l'environnement dans lequel ils travaillent et les instruments de mesure qu'ils utilisent.

Erreurs humaines inclure des erreurs, telles que la lecture incorrecte d'un instrument et des jugements erronés. Le jugement devient un facteur lorsque le phénomène mesuré n'est pas directement collecté (comme le serait un échantillon d'eau) ou a des limites ambiguës (comme le domaine vital d'un grizzli).

Caractéristiques environnementales, telles que les variations de température, de gravité et de déclinaison magnétique dans le temps, entraînent également des erreurs de mesure.

Erreurs d'instruments découlent du fait que l'espace est continu. Il n'y a pas de limite à la précision avec laquelle une position peut être spécifiée. Les mesures, cependant, ne peuvent être aussi précises que les capacités de l'instrument. Quel que soit l'instrument, il y a toujours une limite à la petite différence détectable. Cette limite s'appelle résolution.

Le diagramme de la figure 5.1 montre la même position (le point au centre de la cible) mesurée par deux instruments. Les deux grilles représentent les plus petits objets pouvant être détectés par les instruments. Le motif de gauche représente un instrument à plus haute résolution.

La résolution d'un instrument affecte la précision ou degré d'exactitude, des mesures prises avec. Considérez une lecture de température à partir d'un échantillon d'eau. Un instrument capable d'enregistrer une mesure de 17 °C n'est pas aussi précis que celui qui peut enregistrer 17.032 °C. La précision est également importante dans les données spatiales, comme le montre la figure 5.2. La mesure de gauche a été prise avec un instrument à plus haute résolution et est plus précise que la mesure de droite.

La précision prend un sens légèrement différent lorsqu'elle est utilisée pour désigner un certain nombre de mesures répétées. Dans la figure 5.3, il y a moins de variance parmi les neuf mesures à gauche qu'il n'y en a parmi les neuf mesures à droite. L'ensemble de mesures à gauche est dit plus précis.

La précision est souvent confondue avec précision, mais les deux termes signifient des choses très différentes. Alors que la précision est liée à la résolution et à la variation, la précision se réfère uniquement à la proximité de la mesure par rapport à la valeur réelle, et les deux caractéristiques ne sont pas dépendantes l'une de l'autre (figure 5.4).

  • Haute précision et faible précision: trois points sont condensés au sud-est du point central sur le deuxième anneau à partir du centre.
  • Faible précision et faible précision : trois points sont espacés (un au nord, un au sud, un à l'ouest) tous sur ou au-delà du deuxième anneau à partir du centre.
  • Haute précision et haute précision: trois points sont étroitement espacés sur le point central.
  • Faible précision et haute précision : trois points sont espacés de manière plus lâche et se situent autour du point central, sur ou à l'intérieur du premier anneau à partir du centre.

Lorsque des erreurs affectant la précision ou l'exactitude se produisent, elles peuvent être soit erreurs systémiques ou alors erreurs aléatoires.

Les erreurs systémiques suivent généralement une tendance et démontrent une cohérence dans l'ampleur, la direction ou certaines autres caractéristiques. Étant donné que les erreurs systémiques suivent une tendance, elles peuvent souvent être corrigées en ajustant les mesures par un facteur constant. Par exemple, si les lectures de température sortent systématiquement 17 °C trop élevé, en soustrayant 17 °C à partir des valeurs mesurées ramènerait les lectures à des niveaux précis. Ce type de correction est appelé correction additive. Parfois, des ajustements plus complexes sont nécessaires, et les valeurs peuvent devoir être mises à l'échelle par une équation qui a été déterminée après avoir étudié la tendance des erreurs. C'est ce qu'on appelle correction proportionnelle.

Les erreurs aléatoires ne suivent pas une tendance organisée et peuvent varier à la fois en ampleur et en direction. Sans cohérence prévisible, les erreurs aléatoires sont plus difficiles à identifier et à corriger. En présence d'erreurs de localisation aléatoires, la précision peut souvent être améliorée en prenant la moyenne des points de données à partir de plusieurs mesures pour la même caractéristique. La valeur des données résultante est susceptible d'être plus précise que n'importe laquelle des mesures de base individuelles.

Avant 2000, les signaux GPS étaient intentionnellement dégradés à des fins civiles pour des raisons de sécurité nationale. Le procédé utilisé s'appelle Disponibilité sélective (SA), qui a délibérément introduit une erreur pour dégrader les performances des mesures GPS au niveau du consommateur. La décision de désactiver la SA en 2000 a rendu le GPS immédiatement viable pour un usage civil, et nous avons constaté une augmentation spectaculaire de la technologie grand public compatible GPS depuis ce point. Pour plus d'informations sur la disponibilité sélective, visitez GPS.gov.

Quiz d'entraînement

Les étudiants inscrits à Penn State doivent revenir maintenant pour répondre au questionnaire d'auto-évaluation sur le Qualité des données géospatiales.

Vous pouvez faire des tests pratiques autant de fois que vous le souhaitez. Ils ne sont pas notés et n'affectent en rien votre note.