Suite

Base de données QGIS et Oracle Spatial - système basé sur des règles dans la future version ?

Base de données QGIS et Oracle Spatial - système basé sur des règles dans la future version ?


Je (un géographe peu familiarisé avec l'informatique) souhaite lancer un projet pilote avec QGIS dans une municipalité pour laquelle je travaille. Nous stockons nos données dans les bases de données Oracle. Lorsque vous essayez d'ouvrir ces bases de données (QGIS 2.2) à l'aide de « l'ajout d'une couche spatiale Oracle », le message d'erreur donne des informations qui ne doivent pas être divulguées, telles que les mots de passe. De plus, je peux voir des bases de données auxquelles je ne devrais pas avoir accès aussi. Par conséquent, la sécurité de la base de données n'est pas garantie et nous ne pouvons pas tester ce logiciel.

Est-ce que quelqu'un sait si QGIS fonctionnera sur les futures versions où un système basé sur des règles (comme dans différents niveaux d'accès et de contrôle) pour Oracle spatial sera possible?

Cela me donnera l'occasion de l'utiliser dans notre municipalité.


"le message d'erreur donne des informations qui ne doivent pas être divulguées, telles que les mots de passe."

Vous voulez dire que lorsque vous essayez de vous connecter en donnant un mot de passe invalide, le message d'erreur émis par QGIS vous informant de l'échec de la connexion affiche le mot de passe invalide que vous venez de taper ? Ce n'est pas vraiment une faille de sécurité puisque vous venez d'entrer ce mot de passe incorrect. Vous devez être plus précis et expliquer précisément ce que vous observez.

La connexion à une base de données Oracle nécessite un nom d'utilisateur et un mot de passe. Ceux-ci (au moins le mot de passe) doivent toujours être demandés par l'utilisateur. Cela dit, j'ai vu de nombreux outils clients (pas seulement des outils SIG) qui proposent de se souvenir du mot de passe que vous avez entré, vous n'avez donc pas à le ressaisir plus tard. C'est bien tant que le client stocke ce mot de passe de manière sûre (c'est-à-dire pas en texte clair dans un fichier de configuration). Si QGIS fait cela, alors c'est un bogue sérieux qui doit être corrigé.

« De plus, je peux afficher des bases de données auxquelles je ne devrais pas avoir accès aussi. »

Les données qu'un utilisateur de la base de données peut voir dépendent des droits que votre DBA a accordés à cet utilisateur. Ils peuvent être restreints ou grands ouverts. Dans la vraie vie, cet utilisateur ne devrait avoir que les droits strictement nécessaires, c'est-à-dire que l'utilisateur ne voit que les tables auxquelles il est autorisé à accéder : rien d'autre. Si vous voyez quelque chose de différent, vous devez en discuter avec votre DBA et lui dire de configurer une sécurité appropriée.

La base de données a des capacités puissantes. Il existe des noms d'utilisateur "système" tels que SYSTEM ou SYS. Vos utilisateurs QGIS doivent jamais se connecter en utilisant un tel nom d'utilisateur : ceux-ci sont strictement réservés à l'usage du DBA (tout comme le racine mot de passe pour Unix n'est utilisé que par un administrateur système). Il est possible de donner à un utilisateur des droits massifs en lui accordant le dba rôle. C'est encore un gros NON NON. Seuls les administrateurs de bases de données peuvent utiliser ce droit.

Enfin, il y a le compte MDSYS, un utilisateur « système » pour Oracle Spatial. Ne vous connectez pas en utilisant ce compte (il est désactivé par défaut). Jamais stocker toutes les données utilisateur dans ce compte !

Toutes les questions liées à la sécurité que j'ai vues avec les bases de données (pas seulement Oracle) se résumaient toujours à une mauvaise configuration, une mauvaise utilisation ou un manque de compréhension des règles de sécurité.


Informatique spatiale : investir dans l'IA, la réalité augmentée, le GPS et la science des données spatiales

L'informatique spatiale est un terme général qui couvre les capacités combinées de certaines innovations technologiques incroyablement perturbatrices qui font leur chemin dans le monde. Ceux-ci inclus:

  • Positionnement (GPS)
  • Intelligence artificielle (IA)
  • L'Internet des objets (IoT)
  • 5G
  • Apprentissage automatique
  • Réalité mixte
  • Chaîne de blocs
  • Télédétection
  • Systèmes d'Information Géographique (SIG)
  • Base de données spatiale et systèmes de gestion (SDBMS)
  • Science des données spatiales

Le mot 'spatial' est utilisé, plutôt que l'emplacement ou la géographie, car il fait référence au temps ainsi qu'à l'espace physique. Et c'est la convergence de nos mondes physique et numérique. Par exemple, la technologie portable aide à surveiller la santé de notre corps ainsi qu'à suivre notre environnement.

Informatique spatiale – Photographe : Mathew Schwartz | Source : Unsplash

Des applications telles que Fitbit, Garmin, Pomme etc peut surveiller la fréquence cardiaque, le pouls, la pression artérielle et la température. Ceux-ci peuvent alors se lier à Strava ou alors Runtastic pour cartographier un trajet ou une course.

Pendant ce temps, les équipes sportives professionnelles utilisent Catapulte (ASX:CAT) technologie portable pour surveiller la vitesse, la direction, la température, le bien-être général des joueurs, etc. Ces mesures sont recueillies à l'aide d'un mélange de magnétomètre, de GPS, de gyroscopes et d'accéléromètres.


2 réponses 2

si vous aviez plusieurs copies du fichier de contrôle (ce que vous devriez - Oracle recommande de multiplexer les fichiers de contrôle en ayant 3 est une bonne chose), vous devriez avoir immédiatement fermé l'instance, regarder les trois fichiers de contrôle et regarder la date /timestamp et tailles des fichiers. En fonction de votre message d'erreur, vous pourriez n'avoir qu'un seul fichier de contrôle, auquel cas la récupération serait très difficile. Si vous avez plusieurs copies (en supposant 3 ici), vous aurez généralement 2 fichiers avec des horodatages similaires, et les mêmes tailles et le même contenu. Vous pouvez vérifier que le contenu est le même à l'aide de la commande DOS comp

Généralement, vous verrez que le fichier répertorié dans le message d'erreur a un contenu différent des 2 autres, vous pouvez alors simplement copier l'un des autres fichiers de contrôle sur le "mauvais" fichier de contrôle et essayer de redémarrer.

Le ou les fichiers de contrôle gardent une trace de tous les tablespaces et de leurs fichiers associés. Ainsi, lorsque vous avez tenté de restaurer des éléments, vous avez probablement copié un fichier de tablespace UNDO qui ne correspondait pas aux informations de contrôle. Les fichiers de contrôle sont mis à jour en permanence lorsque des modifications se produisent dans la base de données, il serait donc inutile d'essayer de restaurer une ancienne sauvegarde de fichier de contrôle (sauf si cela est fait via RMAN - que vous n'utilisez probablement pas).

Donc, si vous n'avez qu'un seul fichier de contrôle, il vaut probablement mieux commencer à partir de zéro avec une nouvelle installation, en vous assurant de le configurer pour multiplexer les fichiers de contrôle. Idéalement, les fichiers de contrôle se trouveraient sur des lecteurs différents, mais si cela n'est pas possible, il vaut mieux avoir 3 fichiers de contrôle sur un lecteur que d'avoir un fichier de contrôle sur un seul lecteur. Récupérer avec un seul fichier de contrôle est assez complexe.


Introduction

Les méthodes basées sur les individus, en particulier les modèles basés sur les agents, ont connu une adoption rapide par les chercheurs des sciences sociales et géographiques au cours des 20 dernières années (Macal 2016). Les modèles à base d'agents ont été formellement proposés pour la première fois au début des années 1990 (par exemple, Epstein et Axtell 1996 ) mais leur lignée remonte beaucoup plus loin au développement de modèles de prise de décision individuelle dans les années 1950 et 1960 dans les travaux influents de Hagerstrand 1953 ), Donnelly et al. (1964) et Schelling (1969) entre autres. Ils atteignent maintenant un point d'acceptation en tant qu'outil de recherche dans les sciences géographiques et sociales, explorant des phénomènes tels que l'épidémiologie (Shook et Wang 2015), les espèces envahissantes (Anderson et Dragićević 2020), les modèles d'établissement (Bura et al. 1996 ), et la ségrégation (Benenson et Hatna 2011 ) (voir Polhill et al. 2019 pour une discussion plus approfondie sur les applications des guichets automatiques bancaires et leur utilisation dans les politiques).

Cependant, il reste des défis méthodologiques importants, par exemple, dans : reconnaître et simuler des phénomènes émergents représentation d'agent construction de règles comportementales calibrage et validation (voir Axelrod 2007 Torrens 2010 Filatova et al. 2013 Lee et al. 2015 ). Axelrod ( 2007 ) a énuméré un certain nombre de défis auxquels est confronté le modélisateur moderne à base d'agents que Crooks, Castle et Batty ( 2008 ) ont étendu. Ces défis ont été présentés à un moment où la modélisation à base d'agents commençait à susciter un réel engouement dans les sciences sociales en raison de son potentiel à simuler le comportement et les actions individuelles. L'augmentation des données au niveau individuel pour enrichir ces modèles, les progrès de la puissance de calcul et les améliorations des bibliothèques logicielles de modélisation à base d'agents ont tous présenté des solutions possibles à certains des défis initiaux mis en avant. Cependant, alors que certaines questions majeures restent en suspens, les progrès des données et de l'informatique ont apporté avec eux un nouvel ensemble de défis. Cet article passera en revue certains des défis auxquels le domaine a été confronté, les opportunités disponibles pour faire progresser l'état de l'art et les perspectives de la discipline au cours de la prochaine décennie. Pour commencer, nous résumons brièvement quelques-uns des récents développements importants qui ont guidé la recherche dans ce domaine.

L'une des principales forces à l'origine de l'intérêt accru pour la modélisation à base d'agents peut être attribuée à un changement notable dans les technologies de l'information et les ressources informatiques disponibles. Au sein des sciences spatiales, cela a entraîné un passage des modèles qui simulent au niveau agrégé à ceux qui peuvent capturer les dynamiques et interactions locales (Batty 2008). Une grande partie de la recherche se concentre maintenant sur le rôle de l'individu et sur la façon dont les décisions et les comportements se déroulent dans l'espace et dans le temps. Ce changement de mentalité a été clairement articulé par O'Sullivan et al. ( 2012 ) et Batty ( 2013 ) qui ont tous deux souligné l'idée que les systèmes sociaux, et les villes en particulier, sont guidés par les décisions humaines et les réseaux qui existent entre les individus. Pour être en mesure de comprendre et d'explorer les systèmes spatiaux et sociaux, une approche qui met l'accent sur les entités individuelles (par exemple, les humains, les entreprises ou les agences) est clairement requise. C'est là que la modélisation à base d'agents intervient dans sa capacité à représenter des décideurs hétérogènes et leurs interactions en ont fait une approche dominante au sein de la discipline de la géographie.

Depuis le filet initial de modèles exploratoires à base d'agents avec une focalisation spatiale explicite (par exemple, Sanders et al. 1997), il y a eu une augmentation rapide du nombre d'applications qui vont de la simulation de piétons en quelques secondes à la montée et la chute des villes. au fil des siècles (par exemple, Pumain 2012 Torrens 2017 ). Avec la croissance de la modélisation à base d'agents, un certain nombre de positions sont apparues qui ont à la fois évalué de manière critique les réalisations du domaine, mais plus important encore, ont défini un programme de défis qui doivent être surmontés si le domaine de la modélisation à base d'agents est de devenir plus mainstream. Dans l'ensemble, ces défis sont méthodologiques et incluent la paramétrisation du modèle, l'établissement de règles comportementales robustes, ainsi que leur étalonnage et leur validation (voir les articles récents d'Elsawah et al. 2020 Filatova et al. 2013 Manson et al. 2020 O'Sullivan et al. 2016 Polhill et al. 2019 qui examinent ces défis plus en détail).

Comme pour de nombreuses techniques de modélisation, le « réalisme » d'un modèle à base d'agents est directement corrélé à la richesse des données saisies. Un changement clé au cours de la dernière décennie est l'apparition de ce qu'on appelle les « données volumineuses », un terme largement utilisé pour décrire de nouvelles formes de données volumineuses, souvent riches et désordonnées, par exemple celles provenant des opérations de téléphonie mobile, des paiements par ou des contributions des médias sociaux (voir Kitchin 2013 pour une discussion). Ces données ont le potentiel d'enrichir nos modèles avec une vue/un aperçu plus robuste des moteurs et des processus que les efforts de modélisation précédents n'ont pu atteindre, par exemple, la capacité d'obtenir des informations en temps quasi réel sur le système sous-jacent (par exemple, Crols et Malleson 2019 ), ou pour éventuellement répondre à la question du « dernier kilomètre » (par exemple, Wise et al. 2018 ). Bien que les outils pour interroger ces données et extraire une valeur réelle et des informations soient encore limités, il s'agit d'un domaine de recherche actif (par exemple, voir Singleton et Arribas-Bel 2019 ). Cependant, les opportunités qu'offrent ces données n'ont d'égal que le nombre de défis qui les accompagnent. Par exemple, comment pouvons-nous facilement relier des ensembles de données entre eux (discussion) ou analyser ces données pour détecter les moteurs et les comportements importants qui émergent dans l'espace et le temps ?

L'intérêt récent pour les approches d'apprentissage automatique (ML) peut potentiellement offrir des outils qui sont mieux à même d'interroger ces nouvelles données que les méthodes existantes. Par conséquent, il y a un intérêt accru à les utiliser dans des modèles à base d'agents (voir Abdulkareem et al. 2019 Heppenstall et Crooks 2019 Runck et al. 2019 ). Dans les sections suivantes, nous expliquons plus en détail à la fois les défis rencontrés par le domaine et les opportunités potentielles que d'autres domaines de recherche tels que les mégadonnées et le ML, offrent la modélisation basée sur les agents. Nous terminons la discussion en offrant une perspective sur la façon dont les nouvelles opportunités peuvent être exploitées dans le développement de modèles géographiques basés sur les agents (Section « Les perspectives d'avenir »).


2 ontologies géospatiales pour le Web

Au fur et à mesure que les technologies habilitantes pour le Web sémantique se sont développées, telles que RDF, OWL, SPARQL et SWRL, beaucoup de travail a été fait pour construire les ontologies requises pour exprimer les éléments communs des artefacts de connaissances disparates. Cela est vrai dans le domaine des concepts et des relations géospatiales et temporelles, mais le travail n'a pas encore atteint un niveau de consensus ou actionnabilité ce qui lui permettrait d'être la base de l'interopérabilité des connaissances. En d'autres termes, il n'est pas encore prêt à prendre en charge la fonctionnalité d'un Web sémantique géospatial, où les propriétés géographiques des ressources de connaissances peuvent être exprimées, découvertes, exploitées par des machines et comprises par diverses communautés.

Le groupe a envisagé un système plus complet d'ontologies de fondation spatiales/géospatiales et a décrit sous forme d'aperçu les exemples critiques suivants.

2.1 Caractéristiques géospatiales

Cette ontologie est destinée à fournir une représentation formelle des normes ISO et OGC pour le discernement des caractéristiques (General Feature Model ou GFM). Le GFM est le modèle général dont le vocabulaire géo a été développé comme un sous-ensemble très restreint. Bien que ce dernier puisse représenter de manière adéquate une grande partie des ressources Web, de nombreuses applications importantes telles que le routage, l'observation de la Terre et l'interprétation d'images nécessitent une représentation plus complète. Les sous-ontologies de l'ontologie d'entités incluses ici couvrent les géométries , les couvertures (principalement les rasters et les grilles) et les observations . Plusieurs projets de traduction des normes ISO et OGC pertinentes en ontologies OWL sont disponibles sur http://loki.cae.drexel.edu/

2.2 Types de fonctionnalités

Cette ontologie pourrait être considérée comme les "50 types de fonctionnalités sur lesquelles tout le monde peut s'accorder".

À titre d'exemple de ce type d'ontologie, l'Ordnance Survey a publié une ontologie des frontières administratives au Royaume-Uni, que l'on peut trouver sur http://www.ordnancesurvey.co.uk/ontology avec des ontologies pour d'autres types d'entités.

2.3 Relations (géo) spatiales

Il existe au moins 8 relations topologiques 2D communément acceptées telles que les relations RCC8 ou Egenhofer, mais il existe probablement un certain nombre d'autres relations « vernaculaires » qui seraient utiles, telles que « à côté de ». L'un des nombreux exemples d'ontologies de relations spatiales a été publié par Ordnance Survey sur http://www.ordnancesurvey.co.uk/ontology/SpatialRelations.owl

2.4 Toponymes (Noms de lieux)

Les noms de lieux sont un moyen important de géolocaliser les ressources, du moins à une certaine approximation. Certains travaux ont été effectués sur des ontologies de noms de lieux utiles à l'échelle mondiale et des taxonomies individuelles existent, mais n'ont pas vraiment été rassemblées en tant que référence commune. Une référence utile est le travail d'ontologie à http://www.geonames.org/ontology/

2.5 Systèmes de coordonnées de référence / Grilles de référence spatiales

La contrepartie numérique d'un schéma de toponymie, dans le même sens que TCP-IP est une contrepartie de DNS, sont les systèmes de référence de coordonnées (CRS) et les grilles de référence spatiale. Alors que WGS84 peut être suffisant à l'échelle mondiale, d'autres CRS sont importants pour la géographie locale, pour la mesure ou pour différentes vues du globe (par exemple polaire). L'OGC et l'ISO fournissent des normes (par exemple, ISO 19111) pour les modèles et les codages XML des systèmes de référence de coordonnées. Un projet d'ontologie pour cette norme a été développé à l'Université Drexel ( http://loki.cae.drexel.edu/

Un moyen quantitatif utile de géolocaliser et d'indexer une ressource consiste à identifier la cellule de grille d'un schéma de grille géospatiale (pyramide de tailles de cellules de plus en plus petites) dans laquelle elle se trouve. La correspondance entre le schéma de grille et le schéma de tuiles de carte permet de découvrir facilement les tuiles de fond de carte et de les présenter avec des ressources colocalisées.

2.6 Métadonnées géospatiales

La qualité et la provenance des données sont essentielles pour tirer un réel avantage de la géographie et de la géolocalisation sur le Web. Une approche générale des métadonnées descriptives est modélisée dans l'ISO 19115 et les règles d'encodage XML sont spécifiées dans l'ISO 19139. Les métadonnées opérationnelles spécifiquement pour une utilisation avec des ressources Web n'ont pas encore été modélisées ou codifiées sous la forme d'une ontologie. Des problèmes fondamentaux tels que la pertinence temporelle et la validité temporelle d'une ressource Web géospatiale (par exemple, une image cartographique) ainsi que la représentation de ces propriétés dans un URI doivent encore être résolus.

2.7 Services Web (géo-spatiaux)

Les normes en évolution telles que OWL-S ont élevé la barre des descriptions formelles et exploitables des services Web, mais des élaborations sont nécessaires sur la manière dont le contenu étroitement couplé de la plupart des services Web géospatiaux affecte leur modèle de processus et le comportement attendu de l'interface. Certains travaux sur les modèles de services sémantiques géospatiaux peuvent être trouvés dans le document de discussion de l'OGC 06-002r1 à l'adresse http://portal.opengeospatial.org/files/?artifact_id=15198


Rapports de conformité d'accessibilité d'Oracle basés sur les modèles d'accessibilité volontaire des produits

Le modèle d'accessibilité volontaire des produits (VPAT) a été développé par l'Information and Technology Council (ITI) et la Government Services Administration (GSA) pour aider les responsables des contrats fédéraux et d'autres acheteurs à faire des évaluations préliminaires concernant la disponibilité des technologies de l'information et de la communication commerciales (TIC). ) produits et services avec des fonctionnalités qui prennent en charge l'accessibilité.

Oracle utilise le VPAT pour créer nos rapports de conformité d'accessibilité afin de représenter le degré de conformité à diverses normes et directives d'accessibilité, y compris la section 508 (telle que publiée en 2001 et révisée en 2017), WCAG 1.0, WCAG 2.0 et WCAG 2.1. Selon le moment où un produit a été développé et publié, différentes normes peuvent être répertoriées. Oracle est un membre actif du groupe ITI qui travaille à améliorer le VPAT pour répondre aux futures normes.

Les produits Oracle sont des applications d'entreprise extrêmement complexes, où l'accessibilité dans le monde réel est obtenue grâce à une configuration correcte de nombreux composants Oracle et tiers (application, système d'exploitation serveur, navigateur et technologie d'assistance, par exemple.) Cette matrice peut parfois entraîner des défauts au moment de la libération. Dans d'autres cas, nous pourrions inclure des applications récemment acquises qui n'ont pas encore été entièrement évaluées pour l'accessibilité. Vous devez lire attentivement nos ACR et évaluer l'applicabilité de tout défaut ou exception répertorié pour votre déploiement particulier. Souvent, les clients n'utilisent qu'un sous-ensemble d'un seul produit, de sorte qu'un défaut ou une exception connu peut ne pas être significatif dans ce contexte.

  • Chaque Oracle ACR répertorie la version minimale et le niveau de correctif d'un produit qu'il traite. Cet ACR s'appliquera aux nouvelles versions ou correctifs, sauf indication contraire dans l'ACR. Les anciennes versions d'un ACR qui ont été remplacées par des versions plus récentes sont disponibles sur la page Archived ACR. Une version d'un produit antérieure à la version minimale et aux niveaux de correctifs indiqués peut ne pas être conforme aux normes applicables.
  • Les ACR d'Oracle peuvent répertorier les défauts et exceptions connus importants dans chaque disposition ou en haut du fichier. Dans les situations où un composant entier d'un produit n'est pas accessible, cela sera indiqué dans le texte en haut de l'ACR, et les réponses aux dispositions techniques ne concerneront que les composants qui n'ont pas été exclus.
  • Un ACR peut énumérer une ou plusieurs « dépendances de produit », qui sont d'autres ACR qui constituent soit les modules d'un produit particulier, soit des produits technologiques sous-jacents. Vous devez lire toute la chaîne des ACR pour évaluer l'état global d'un produit particulier. Notez également que votre déploiement spécifique peut utiliser des versions de composants différentes de celles disponibles lors de la première écriture d'un ACR.
  • Toute norme est sujette à une certaine interprétation. Consultez l'interprétation des normes pour un aperçu détaillé de la manière dont Oracle traite des normes spécifiques.

Notez qu'il n'y a pas toujours un mappage un à un des ACR avec les produits répertoriés dans le magasin Oracle. Dans certains cas, un produit spécifique peut être intégré dans un ACR à plus grande portée, par exemple, « Oracle General Ledger » peut être inclus dans l'ACR d'une suite de produits plus vaste telle que « Oracle Financials ».


Conception et mise en œuvre d'une base de données spatiale et de modèles de géotraitement pour un système de gestion de l'information sur les géorisques routiers et d'évaluation des risques

Cet article présente un processus de développement d'un système Web de gestion de l'information sur les géorisques routiers et d'évaluation des risques, nommé RGHIMS. Deux domaines technologiques, la conception et la mise en œuvre d'une base de données spatiale orientée objet des géo-risques et la construction de modèles pour l'analyse automatique des géo-risques, ont été discutés, respectivement. Au début, cet article présentait une description détaillée de l'architecture de RGHIMS dans laquelle le modèle de présentation était appliqué. En tenant compte des attributs et des comportements des données sur les géorisques routiers, une géodatabase orientée objet a été créée en utilisant un langage de modélisation unifié et des outils de génie logiciel assistés par ordinateur qui ont été fournis par ArcSDE (ESRI). En outre, cet article a discuté des étapes nécessaires pour développer des outils de géotraitement basés sur Python dans ArcGIS et a introduit la réalisation d'un modèle de cartographie de la susceptibilité aux glissements de terrain basé sur la base de données spatiale. Le système a été appliqué dans la province du Guizhou (une région montagneuse située dans le sud-ouest de la Chine) pour aider les unités de construction et de gestion des routes à prendre des décisions pour contrôler les risques géologiques et réduire la vulnérabilité humaine.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Conception d'utilitaires automatisée – La voie à suivre

La semaine dernière, SBS a annoncé que nous avions noué une relation stratégique avec Autodesk. Dans le cadre de cet accord, SBS sera responsable du développement futur, de l'assistance et des licences d'un successeur du produit AutoCAD® Utility Design (AUD) d'Autodesk. Le produit aura un léger changement de marque et sera désormais connu sous le nom de Automated Utility Design™ (AUD, encore une fois).

AUD a été un produit réussi et mature avec un solide niveau d'adoption au sein de l'industrie des services publics. Cela a commencé dans les années 1990 et a accompli plusieurs choses innovantes qui ont ajouté des règles et de l'intelligence au processus de conception des services de distribution. Au fil du temps, le produit a bénéficié d'un niveau d'investissement exceptionnel de la part d'Autodesk et a continué à progresser dans un certain nombre de domaines clés. Le plus notable a été la réingénierie du produit pour prendre en charge la conception basée sur un modèle, qui a transformé le produit du monde de la CAO bidimensionnelle en un environnement multidimensionnel basé sur des objets. La mise en œuvre d'AUD sur la plate-forme sous-jacente d'AutoCAD Map3D a également permis au produit de prendre en charge un niveau d'intégration beaucoup plus avancé avec les applications métier utilitaires de base. La grande question est donc la suivante : où allons-nous à partir d'ici ?

SBS a sollicité l'aide d'un certain nombre de ses clients actuels et potentiels. Nous avons également formulé des opinions internes basées sur l'orientation du secteur dans le contexte des tendances technologiques à fort impact d'aujourd'hui et sur les principaux moteurs commerciaux du secteur des services publics d'aujourd'hui.

Dans cet esprit, SBS propose les orientations générales suivantes pour AUD :

  • Amélioration du débit de travail
  • Prise en charge d'intégration avancée
  • Réduction globale des coûts de mise en œuvre et de support

Orientation 1 : L'amélioration du débit des travaux ne se limite pas à l'amélioration des performances des outils de conception. SBS reconnaît que la performance est importante et continuera à améliorer la performance dans la mesure du possible. Le débit implique également l'ouverture de l'outil de conception afin que les flux de travail entre les points d'intégration puissent être effectués de manière transparente avec un besoin limité de faire des allers-retours manuels entre différents systèmes. Un concepteur ne devrait pas avoir besoin d'ouvrir une session dans SAP ou Maximo pour générer des listes de matériaux et des outils d'ingénierie externes, tels que l'analyse structurelle des poteaux, ne devraient être invoqués que si l'outil de conception identifie des conditions d'ingénierie spéciales. Le SIG, bien que toujours essentiel, sera accessible pour soutenir le partage d'informations sur les terres et les installations. Cela sera généralement effectué avec une intégration basée sur les services et axée sur les normes, en fonction des capacités de la plate-forme SIG impliquée. L'intégration des informations de conception dans le SIG est mieux réalisée via une approche assistée, plutôt qu'une transaction entièrement automatisée. Cela permet aux gestionnaires de données SIG de traiter les différences fondamentales qui existent entre les outils de conception de distribution et les systèmes d'information géographique.

La convivialité est un élément clé de cette orientation, car elle permet aux organisations d'ajouter de manière flexible des ressources pour prendre en charge les périodes de charge de travail accrue sans avoir à faire face à des exigences de formation approfondies et spécialisées. SBS a également reçu de la part des clients d'AUD des directives constantes selon lesquelles notre objectif devrait être davantage d'avoir un environnement de conception utilisable et basé sur des normes plutôt que d'investir davantage dans l'optimisation de la conception technique.

Direction 2 : La prise en charge de l'intégration avancée est fondamentale pour la prochaine génération d'AUD et s'aligne assez étroitement sur la Direction 1. Les services publics constatent que la plupart des efficacités de conception proviennent de la capacité à générer automatiquement des nomenclatures, à gérer les matériaux et à adopter une approche cohérente pour Estimation. SBS se concentrera sur la poursuite de l'amélioration de la capacité d'intégration aux principales plates-formes commerciales des services publics. Notre accent sera mis sur :

  • Plateformes ERP pour les services publics à plus grande échelle, tels que Maximo, SAP, Oracle et autres
  • Plateformes SIG, avec un accent sur Esri, Smallworld, Intergraph et Map3D
  • Intégration transparente avec les outils mobiles et de jalonnement basés sur SIG
  • Une expansion continue pour prendre en charge l'intégration des outils d'ingénierie

Bien qu'une grande partie de ce travail soit déjà prise en charge avec le SBS Utility DataHub™, SBS est désormais en mesure d'avoir une intégration plus étroite avec ces produits tout en affinant davantage notre approche technique.

Orientation 3 : Une réduction globale des coûts de mise en œuvre et de support permet aux entreprises de services publics d'aller de l'avant avec AUD dans le cadre d'une approche hybride pouvant accueillir à la fois la conception basée sur l'ingénierie ainsi que des outils mobiles et basés sur SIG pour des tâches de conception plus légères. Les initiatives d'intégration de services publics traditionnelles et personnalisées ont souvent coûté des millions de dollars pour réaliser des interfaces uniques entre les systèmes d'entreprise de services publics et les outils de conception. Cela a rendu l'intégration entre un outil d'esquisse basé sur SIG et un outil de conception basé sur CAO prohibitif. Notre évaluation est conforme à la plus récente note de recherche GIS Magic Quadrant du Gartner Group, qui identifie une évolution vers ce type de solutions « best-of-breed ».

Ces réductions de coûts se feront par plusieurs moyens :

  • Des méthodologies de mise en œuvre standardisées et semi-agiles qui permettront à nos clients de converger rapidement vers leurs besoins
  • Une utilisation élargie des modèles de conception pour traiter les configurations courantes qui, selon nous, simplifieront considérablement le processus de mise en œuvre
  • L'adoption d'outils de configuration plus intelligents qui sont développés dans l'industrie

Pour réduire le coût et la fréquence des mises à niveau du système, SBS mettra en œuvre une architecture de plug-in AUD. Cela permettra aux utilisateurs d'AUD d'exécuter une version donnée d'AUD sur plusieurs versions de Map3D, résolvant ainsi les problèmes liés au verrouillage dans une version de produit spécifique. Plus de détails seront disponibles lors des prochaines annonces de produits.

Nous pensons que la voie à suivre pour l'AUD et la conception de la distribution des services publics offre une opportunité passionnante aux organisations de services publics d'améliorer leurs flux de travail et de réduire leurs coûts d'exploitation globaux. Comme toujours, nous accueillons et encourageons vos commentaires. Veuillez commenter ou envoyez-nous un message ici à SBS.


Nouveau livre : Une introduction aux statistiques de base pour les biologistes utilisant R

Nous sommes heureux d'annoncer la sortie de notre nouveau livre intitulé ‘An Introduction to Basic Statistics for Biologists using R’.

Cela complète notre gamme existante de livres SIG et utilise la même approche basée sur les diagrammes de flux pour enseigner les compétences clés aux biologistes de manière pratique et facile à suivre. Cela contribue également à notre objectif d'encourager les biologistes à intégrer les SIG et les compétences statistiques à l'aide de logiciels libres tels que QGIS et R.

Il est disponible sur Amazon et dans toutes les bonnes librairies. Plus d'informations à ce sujet sont fournies ci-dessous, tandis que des extraits PDF gratuits peuvent être téléchargés à partir de notre site Web à l'adresse www.gisinecology.com/stats-for-biologists-1.

MacLeod, C.D. et MacLeod, R. (2020) A Introduction to Basic Statistics for Biologists using R. 244 pages. ISBN : 978-1-909832-07-7. Prix ​​conseillé : Royaume-Uni : 22,99 £ États-Unis : 29,99 $ UE : 27,99 €.

‘An Introduction to Basic Statistics for Biologists using R’ est un nouveau livre qui fournit aux biologistes une introduction unique et facile à comprendre à la conduite d'analyses statistiques dans R. Il utilise une série d'exercices pratiques basés sur des des organigrammes pour montrer aux biologistes exactement comment effectuer une variété de tâches clés.

Ceux-ci incluent : 1. Importer des ensembles de données et les préparer pour l'analyse 2. Créer des graphiques à partir de données biologiques 3. Évaluer et transformer les distributions 4. Utiliser l'analyse statistique pour comparer les groupes 5. Utiliser les corrélations et l'analyse de régression.

Ensemble, ils représentent les tâches clés que les biologistes doivent pouvoir effectuer pour commencer à analyser leurs données à l'aide de R. Cela signifie qu'il constitue une introduction pratique parfaite pour tout biologiste souhaitant apprendre à utiliser R pour faire des statistiques.

Ce livre est également bien adapté pour servir de texte de cours pour ceux qui souhaitent enseigner des cours d'introduction aux statistiques utilisant R aux étudiants de premier cycle, de maîtrise ou de troisième cycle dans n'importe quel domaine biologique. Il ne fournit pas seulement un guide pratique adapté pour accompagner l'enseignement de la théorie statistique, il fournit également des exercices prêts à l'emploi, complets avec des ensembles de données appropriés, qui peuvent être utilisés comme base pour des cours pratiques.

Pour plus d'informations, y compris des extraits PDF gratuits, visitez : www.gisinecology.com/stats-for-biologists-1


Surmonter les limites des SIG : comment le secteur public se tourne vers l'analytique convergente pour aller plus loin

Les agences fédérales et civiles du secteur public sont aux prises avec une planification et une réponse de scénarios complexes - des situations critiques à la logistique de livraison des vaccins et du contrôle des incendies de forêt à la croissance démographique. Ils ont besoin d'un moyen d'entrevoir l'avenir, de prédire ce qui pourrait arriver afin qu'ils puissent planifier et se préparer. De plus en plus, leur approche repose sur de grands ensembles de données spatio-temporelles à évolution rapide.

Les agences du secteur public partagent souvent un objectif similaire : une connaissance de la situation et une image opérationnelle commune, construites à partir de données spatiales en flux tendu provenant de diverses sources telles que des satellites et des capteurs. L'ironie est que le manque de données collectées n'est pas le problème, le problème est généralement qu'il y a trop de données à voir de manière holistique et à générer de la valeur.

As organizations in the public sector try to build that common operational picture, they run up against the challenges of the current generation of geospatial intelligence technology, in particular, the limitations of geographic information system (GIS) platforms to explore massive dataset. The majority of those GIS platforms are CPU-based, which at scale imposes speed and throughput limitations of GIS mapping that constrain their ability to interactively interrogate it.

Massive infrastructure underpins geospatial intelligence, supporting countless use cases - census analysis, flood prevention, shipping control. The surface structure entails many different data management systems, with tools running on Oracle Spatial and Graph, SQL Server or PostgreSQL. Each of these run into fundamental constraints in processing given the time consuming volume of data they must analyze. There’s no way to explore it on the fly, which is a problem in scenario planning and for rapid response to disasters.

The public sector has also broadly adopted big data infrastructure, in particular Spark and Hadoop, along with many different data formats and repositories that they want to query against. Many routines are built around these datasets, making the pipeline extremely difficult to accelerate. Today, none of this big data infrastructure is as performant as many agencies would like.

These limitations of GIS analysis have a direct impact on the public sector’s ability to understand and respond to a dynamic array of threats and opportunities.

Accelerating analytics and operationalizing machine learning

Based in San Francisco, OmniSci pioneered the use of NVIDIA GPUs to interactively query and visualize massive datasets in milliseconds. They foresaw the need for a step-change in analytics to harness the massive parallelism of GPUs given the exponential growth of data, especially geospatial data. OmniSci works closely with NVIDIA, which was an early investor in the company. Today, OmniSci is used in multiple government agencies and is backed by In-Q-Tel.

OmniSci provides a converged analytics platform that combines a lightning-fast SQL engine with real-time rendering, supporting up to tens of billion records at a time with native geospatial functions. Running on standard GPU and CPU architectures, OmniSci queries on NVIDIA-Certified Systems run at least 100X faster than the fastest CPU-only based visualization and analytics tools. With an advanced memory management system, OmniSci is built from the ground up to optimize the entire system’s performance specifically for visualization and run analytics.

All government agencies are trying to extract more knowledge from datasets, and they are looking for tools that help them explore data. OmniSci is especially useful for agencies with data that is VAST - Volume (tens of millions to hundreds of billions of rows), Agile (the need to interact and explore the data to make decisions), and Spatio-Temporal (the data includes location and time features).

There are two main users - data scientists looking to build and test ML models and data analysts looking for insights. They face several new challenges relative to those working with conventional approaches such as statistical analysis. Machine learning algorithms require orders of magnitude more data in order to generate reliable models, and they can reach erroneous conclusions if trained on biased or unrepresentative data. Furthermore, the rules used by a model to reach a conclusion can themselves be complex, and require additional work to explain before being suitable to support uses such as policymaking

Effective machine learning relies on data scientists to interactively explore datasets, formulate hypotheses, and then to validate those hypotheses against the data. This ‘human-in-the-loop’ analysis provides two benefits. First, it enables analysts to discover and engineer features and to find meaningful patterns. Those findings can be quickly operationalized and scaled as machine learning algorithms. Second, it provides ‘explainable’ machine learning algorithms - looking inside the black box - which has the potential to expose bias while ensuring that data is representative.

For data analysts, COVID-19 response provides an excellent example of the public sector’s need for big data agility. As understanding of the pandemic evolved, the government’s response to COVID-19 needed to incorporate positivity rates, testing logistics, contact tracing, and vaccine delivery. All of these create VAST GIS data - high volume, agile, and geographically referenced. Few, if any, analytics systems or GIS technologies have proven scalable enough to keep pace.

Use cases: How the public sector uses OmniSci to overcome limitations of GIS

OmniSci has provided a variety of solutions to improve the pandemic response, from social distancing compliance to contact tracing within specific, vulnerable arenas, such as meat-packing plants.

In another public sector case, OmniSci is able to build a common operational picture of navigation on the Mississippi River. Deciding where and when to dredge is a question of critical importance, as siltation and floods regularly shift and obstruct shipping channels. By combining AIS ship transponder data with topographic bathymetry, OmniSci generates real-time insights that show areas that are unsafe for navigation or may require attention. See OmniSci’s interactive Shipping Traffic Demo here.

In Flint, Michigan, OmniSci’s machine-learning platform is being used to identify water pipes which should be inspected for lead pollution. This not only has a huge impact on population health, but also provides efficiency gains in mitigating the issue for service crews.

OmniSci and NVIDIA have helped public sector organizations tackle big data challenges including fleet management, logistics, and even flood prevention. Meanwhile, in healthcare, OmniSci has helped to counter fraud and abuse in Medicare, as well as to track public health phenomena like the opioid crisis.

As the availability of data increases, so do the public’s expectations of government to make the best use of it. There’s a need to make a step-change in the ability to see the big picture and to respond. Together, OmniSci and NVIDIA are helping federal intelligence and civilian agencies harness the power of NVIDIA-Certified Systems featuring NVIDIA GPUs to overcome traditional limitations of GIS and make a difference in public life.

OmniSci is proud to be a Platinum Sponsor at NVIDIA GTC21, running April 12 - 16! Join the OmniSci team and AI innovators, technologists and creatives for five days of sessions, training, and networking with industry leaders. Register for free here.

To learn more about how OmniSci helps federal, state, and local governments handle their largest datasets, visit OmniSci’s public sector page here.

OmniSci (formerly MapD) is the pioneer in GPU-accelerated analytics, redefining speed and scale in big data querying and visualization. The OmniSci platform is used to find insights in data beyond the limits of mainstream analytics tools. Originating from research at MIT, OmniSci is a technology breakthrough, harnessing the massive parallel computing of GPUs for data analytics.


Voir la vidéo: Geoprocessing with QGIS 002B. Download Free Satellite Imagery from within QGIS.