Suite

Problèmes avec l'outil Découper et intersection

Problèmes avec l'outil Découper et intersection


J'ai un problème avec le clip et l'outil d'intersection sur QGIS Valmiera. J'ai une grande carte vectorielle des sous-localisations d'un pays et j'essaie de les découper au niveau du district car je n'ai pas besoin des données pour l'ensemble du pays. J'ai enregistré les deux dans le projet CRS et je l'ai fait plusieurs fois. En tant que projet CRS, j'utilise le WRS 84/Pseudo Mercator (j'utilise le plugin openlayers pour la référence géographique). Pour découper, la grande carte va dans la zone du vecteur d'entrée et j'ai créé un polygone pour représenter le district que j'ajoute dans le champ "Couche de découpe". Ensuite, lorsque je coupe (ou utilise l'intersection), rien n'apparaît jamais. La couche est créée, mais n'est visible nulle part sur la carte, et la table attributaire, bien que les champs de la grande carte soient présents, n'a aucune valeur.

Comment puis-je résoudre ce problème ?


Si l'étendue du polygone de découpage tombe à l'intérieur de l'étendue de la couche à découper (ce qui est le cas dans votre cas), une géométrie non valide (telle que des segments d'intersection) du polygone de découpage entraînera une couche découpée vide.

Vous pouvez le tester avecVecteur -> Outils de géométrie -> Vérifier la validité de la géométrieou en étiquetant simplement le polygone de découpage (qui ne renverra rien non plus).


J'ai eu le même problème:

  1. Outils de géotraitement " Clip - m'a donné comme résultat un fichier de formes vide - raison : polygone de découpage à l'intérieur de la couche à découper

  2. Utilisation des outils de géotraitement " Intersect - m'a apporté le résultat demandé, même si le fichier de formes de découpage était entièrement dans celui à découper.

Intersect peut être utilisé pour "recadrer" les fichiers de formes après avoir créé le fichier de formes de la zone à recadrer.


Regarder les docs, voici ce qui est écrit :

Cette méthode a été dépréciée dans l'API de niveau 26. Les valeurs Region.Op autres que INTERSECT et DIFFERENCE ont la possibilité d'étendre le clip. Les API de découpage de canevas sont destinées à étendre le clip uniquement à la suite d'une opération de restauration. Cela permet à un parent de vue de découper un canevas pour définir clairement la zone de dessin maximale de ses enfants. Les appels alternatifs recommandés sont clipRect(RectF) et clipOutRect(RectF)

J'ai donc essayé d'utiliser l'une ou l'autre de ces fonctions, mais les deux ont causé des problèmes avec le dessin de ce qu'elles étaient.

En regardant la dépréciation, il semble que la fonction elle-même soit marquée, mais pas Region.Op.REPLACE :

Alors peut-être qu'il n'a pas vraiment d'alternative.


Classements

SchèmeCodeValeur de classement
Identifiant du domaine d'études du module/unité de compétence ASCED 031199 Génie géomatique, N.c.a.

Historique de classement

SchèmeCodeValeur de classementDate de débutDate de fin
Identifiant du domaine d'études du module/unité de compétence ASCED 031199 Génie géomatique, N.c.a. 14/oct/2016

Problèmes avec l'outil Découper et Intersection - Systèmes d'Information Géographique

Minghua Qiu Miller, P.E.
Ingénieur en gestion de programme du personnel

Courriel : [email protected]

Chambre 503
Téléphone : (501) 569-2481
Télécopieur : (501) 569-2623

Cette section est chargée de :

Coordination des programmes locaux d'aide fédérale
Assister les agences publiques locales dans le processus de développement de projets
Rédaction d'accords d'entente
Coordination avec les porteurs de projets locaux
Suivi de projet
Suivi du budget du projet local
Examen du plan et du dossier d'appel d'offres pour les projets d'agences publiques locales

La responsabilité de la section de l'administration des projets locaux est l'administration du programme de partenariat du ministère, du programme attribuable au programme de subventions globales pour le transport de surface (STBGP), du programme attribuable au programme de transport alternatif (TAP), du programme d'amélioration des intersections, du programme de transport alternatif (TAP), du programme de sentiers récréatifs ( RTP) et le programme d'éducation et de sécurité des camions commerciaux de l'Arkansas (ACTSEP).


Cinq innovations exploitent les nouvelles technologies pour les personnes malvoyantes et aveugles

Au cours du Mois de la sensibilisation à la basse vision, le National Eye Institute (NEI), qui fait partie des National Institutes of Health, met en évidence les nouvelles technologies et les nouveaux outils en cours pour aider les 4,1 millions d'Américains vivant avec une basse vision ou la cécité. Les innovations visent à aider les personnes ayant une perte de vision à accomplir plus facilement leurs tâches quotidiennes, de la navigation dans les immeubles de bureaux à la traversée d'une rue. De nombreuses innovations tirent parti de la vision par ordinateur, une technologie qui permet aux ordinateurs de reconnaître et d'interpréter l'assortiment complexe d'images, d'objets et de comportements dans l'environnement environnant.

La basse vision signifie que même avec des lunettes, des lentilles de contact, des médicaments ou une intervention chirurgicale, les gens trouvent les tâches quotidiennes difficiles à accomplir. Cela peut affecter de nombreux aspects de la vie, de la marche dans des endroits surpeuplés à la lecture ou à la préparation d'un repas, a expliqué Cheri Wiggs, Ph.D., directrice du programme de réadaptation pour la basse vision et la cécité au NEI. Les outils nécessaires pour rester engagé dans les activités quotidiennes varient en fonction du degré et du type de perte de vision. Par exemple, le glaucome entraîne une perte de la vision périphérique, ce qui peut rendre la marche ou la conduite difficile. En revanche, la dégénérescence maculaire liée à l'âge affecte la vision centrale, créant des difficultés avec des tâches telles que la lecture, a-t-elle déclaré.

Voici un aperçu de quelques technologies financées par le NEI en cours de développement qui visent à réduire l'impact de la basse vision et de la cécité.

Canne co-robotique

Naviguer à l'intérieur peut être particulièrement difficile pour les personnes malvoyantes ou aveugles. Alors que les appareils d'assistance GPS existants peuvent guider quelqu'un vers un emplacement général tel qu'un bâtiment, le GPS n'est pas d'une grande aide pour trouver des pièces spécifiques, a déclaré Cang Ye, Ph.D., de l'Université de l'Arkansas à Little Rock. Ye a développé une canne co-robotique qui fournit des informations sur l'environnement d'un utilisateur.

La canne co-robotique comprend une pointe de rouleau motorisée qui guide l'utilisateur.

Le prototype de canne de Ye est doté d'une caméra 3D informatisée pour « voir » au nom de l'utilisateur. Il possède également une pointe de rouleau motorisée qui peut propulser la canne vers un emplacement souhaité, permettant à l'utilisateur de suivre la direction de la canne. En cours de route, l'utilisateur peut parler dans un microphone et un système de reconnaissance vocale interprète les commandes verbales et guide l'utilisateur via un écouteur sans fil. L'ordinateur de la taille d'une carte de crédit de la canne stocke des plans d'étage préchargés. Cependant, Ye envisage de pouvoir télécharger des plans d'étage via Wi-Fi en entrant dans un bâtiment. L'ordinateur analyse les informations 3D en temps réel et alerte l'utilisateur des couloirs et des escaliers. La canne mesure l'emplacement d'une personne dans le bâtiment en mesurant le mouvement de la caméra à l'aide d'une méthode de vision par ordinateur. Cette méthode extrait les détails d'une image actuelle capturée par la caméra et les fait correspondre à ceux de l'image précédente, déterminant ainsi l'emplacement de l'utilisateur en comparant les vues qui changent progressivement, toutes par rapport à un point de départ. En plus de recevoir le soutien de NEI, Ye a récemment reçu une subvention du NIH's Coulter College Commercializing Innovation Program pour explorer la commercialisation de la canne robotique.

Le gant robotique trouve des poignées de porte, de petits objets

Dans le processus de développement de la canne co-robotique, Ye a réalisé que les portes fermées représentaient un autre défi pour les personnes malvoyantes et aveugles. "Trouver le bouton ou la poignée de la porte et ouvrir la porte vous ralentit", a-t-il déclaré. Pour aider une personne malvoyante à localiser et à saisir plus rapidement de petits objets, il a conçu un dispositif de gant sans doigts.

Le gant sans doigts de Ye utilise une caméra pour détecter les petits objets tels que les poignées de porte.

Sur la surface arrière se trouvent une caméra et un système de reconnaissance vocale, permettant à l'utilisateur de donner au gant des commandes vocales telles que "poignée de porte", "tasse", "bol" ou "bouteille d'eau". Le gant guide la main de l'utilisateur via des invites tactiles vers l'objet souhaité. "Il est facile de guider la main de la personne vers la gauche ou la droite", a déclaré Ye. « Un actionneur à la surface du pouce s'occupe de cela de manière très intuitive et naturelle. » Il est plus difficile d'inciter un utilisateur à déplacer sa main vers l'avant et vers l'arrière et d'avoir une idée de la façon de saisir un objet.

Le collègue de Ye, Yantao Shen, Ph.D., Université du Nevada, Reno, a développé un nouveau système tactile hybride qui comprend un ensemble de broches cylindriques qui envoient un stimulus mécanique ou électrique. Le stimulus électrique procure une sensation électrotactile, ce qui signifie qu'il excite les nerfs de la peau de la main pour simuler le toucher. Imaginez quatre broches cylindriques alignées sur toute la longueur de votre index. Une par une, en commençant par l'épingle la plus proche du bout de votre doigt, les épingles pulsent selon un schéma indiquant que la main doit reculer.

Un ensemble de petites broches cylindriques invite les utilisateurs à positionner leur main pour saisir l'objet souhaité.

Le motif inversé indique la nécessité d'un mouvement vers l'avant. Pendant ce temps, un système électrotactile plus grand sur la paume utilise une série de broches cylindriques pour créer une représentation en 3D de la forme de l'objet. Par exemple, si votre main s'approche de la poignée d'une tasse, vous sentirez la forme de la poignée dans votre paume afin que vous puissiez ajuster la position de votre main en conséquence. Lorsque votre main se déplace vers la poignée de la tasse, tout léger changement d'angle est noté par la caméra et la sensation tactile sur votre paume reflète ces changements.

Application de passage pour piétons pour smartphone

Les traversées de rue peuvent être particulièrement dangereuses pour les personnes malvoyantes. James Coughlan, Ph.D., et ses collègues du Smith-Kettlewell Eye Research Institute ont développé une application pour smartphone qui donne des invites auditives pour aider les utilisateurs à identifier l'emplacement de passage à niveau le plus sûr et à rester dans le passage pour piétons.

L'application exploite trois technologies et les triangule. Un système de positionnement global (GPS) est utilisé pour localiser l'intersection où se trouve un utilisateur. La vision par ordinateur est ensuite utilisée pour analyser la zone à la recherche de passages pour piétons et de feux de circulation. Ces informations sont intégrées à une base de données du système d'information géographique (SIG) contenant un inventaire détaillé et participatif des particularités d'une intersection, telles que la présence de constructions routières ou d'une chaussée inégale. Les trois technologies compensent les faiblesses de l'autre. Par exemple, alors que la vision par ordinateur peut manquer de la perception de la profondeur nécessaire pour détecter une médiane au centre de la route, ces connaissances locales seraient incluses dans le modèle SIG. Et tandis que le GPS peut localiser adéquatement l'utilisateur à une intersection, il ne peut pas identifier à quel coin un utilisateur se tient. La vision par ordinateur détermine le coin, ainsi que la position de l'utilisateur par rapport au passage pour piétons, l'état des feux de circulation et de circulation, et la présence de véhicules.

Le système CamIO permet d'explorer les objets de manière naturelle

Imaginez un système permettant à des étudiants en biologie malvoyants d'explorer un modèle anatomique en 3D d'un cœur en touchant une zone et en entendant « arc aortique » en réponse. Le même système pourrait également être utilisé pour obtenir une lecture auditive de l'affichage sur un appareil tel qu'un glucomètre. Le système prototype, conçu avec une caméra à faible coût connectée à un ordinateur portable, peut rendre les objets physiques – des cartes 2D aux affichages numériques sur micro-ondes – entièrement accessibles aux utilisateurs malvoyants ou aveugles.

Le système CamIO se compose d'un ordinateur portable et d'une caméra et permet aux utilisateurs d'explorer n'importe quel objet 3D ou 2D. En tenant un doigt sur un objet, les utilisateurs invitent le système à fournir un retour audio.

Le CamIO (abréviation de camera input-output), également en cours de développement par Coughlan, fournit un retour audio en temps réel lorsque l'utilisateur explore un objet de manière naturelle, le fait tourner et le touche. Maintenir un doigt immobile sur des objets 3D ou 2D, signale au système de fournir une étiquette audible de l'emplacement en question ou une image améliorée sur un écran d'ordinateur portable. CamIO a été conçu par Joshua Miele, Ph.D, un scientifique aveugle de Smith-Kettlewell qui développe et évalue de nouvelles interfaces son/tactile pour aider les personnes ayant une perte de vision. Coughlan prévoit de développer une version d'application pour smartphone de CamIO. En attendant, le logiciel pour la version portable sera disponible en téléchargement gratuit. Pour regarder une démonstration du système CamIO, visitez http://bit.ly/2CamIO.

Prismes puissants, périscopes pour vision en tunnel sévère

Les personnes atteintes de rétinite pigmentaire et de glaucome peuvent perdre la majeure partie de leur vision périphérique, ce qui rend difficile la marche dans des endroits surpeuplés comme les aéroports ou les centres commerciaux. Les personnes atteintes d'une grave perte de vision du champ périphérique peuvent avoir un îlot de vision central résiduel qui ne représente que 1 à 2 % de leur champ visuel complet. Eli Peli, O.D., du Schepens Eye Research Institute, Boston, a développé des lentilles constituées de nombreux prismes adjacents d'un millimètre de large qui élargissent le champ visuel tout en préservant la vision centrale. Peli a conçu un prisme de haute puissance, appelé prisme de multiplexage, qui élargit le champ de vision d'environ 30 degrés. "C'est une amélioration, mais ce n'est pas suffisant", a expliqué Peli.

Dans une étude, lui et ses collègues ont modélisé mathématiquement des personnes marchant dans des endroits bondés et ont découvert que le risque de collision est le plus élevé lorsque d'autres piétons s'approchent d'un angle de 45 degrés. Pour atteindre ce degré de vision périphérique, lui et ses collègues utilisent un concept de type périscope. Les périscopes, tels que ceux utilisés pour voir la surface de l'océan depuis un sous-marin, reposent sur une paire de miroirs parallèles qui déplacent une image, offrant une vue qui serait autrement hors de vue. En appliquant un concept similaire, mais avec des miroirs non parallèles, Peli et ses collègues ont développé un prototype qui atteint un champ visuel de 45 degrés. Leur prochaine étape consiste à travailler avec des laboratoires d'optique pour fabriquer un prototype cosmétiquement acceptable qui peut être monté dans une paire de lunettes. "Ce serait idéal si nous pouvions concevoir des lunettes magnétiques à clipser qui pourraient être facilement montées et retirées", a-t-il déclaré.


Voir la vidéo: Add wifi to your Bigtreetech mainboardtouchscreen - ESP-01S guide