Suite

Déploiement d'OpenLayers : sur quelles bibliothèques selectFeature s'appuie-t-il ?

Déploiement d'OpenLayers : sur quelles bibliothèques selectFeature s'appuie-t-il ?


J'essaie de minimiser mon code en modifiant le fichier de configuration de déploiement d'OpenLayers afin de réduire sontemps de chargement. Cependant, il semble que je ne puisse pas inclure toutes les bibliothèques nécessaires dont OpenLayers.SelectFeature.Control a besoin. Voici le fichier de configuration :

[inclure] OpenLayers/Map.js OpenLayers/Kinetic.js OpenLayers/Projection.js OpenLayers/Handler.js OpenLayers/Control.js OpenLayers/BaseTypes/Pixel.js OpenLayers/BaseTypes/LonLat.js OpenLayers/BaseTypes/BaseTypes /Layer/SphericalMercator.js OpenLayers/Layer/XYZ.js OpenLayers/Layer/WMS.js OpenLayers/Layer/Vector.js OpenLayers/Layer/ArcGISCache.js OpenLayers/Control/TouchNavigation.js OpenLayers/Control/OpenLayers/js Control/Attribution.js OpenLayers/Control/SelectFeature.js OpenLayers/Control/DrawFeature.js OpenLayers/Control/ModifyFeature.js OpenLayers/Control/Snapping.js OpenLayers/Control/Split.js OpenLayers/Control/Panel.js OpenLayers/Control /Button.js OpenLayers/Control/PinchZoom.js OpenLayers/Feature/Vector.js OpenLayers/Feature/WFS.js OpenLayers/Handler/Click.js OpenLayers/Handler/Feature.js OpenLayers/Handler/Hover.js OpenLayers/Handler Box.js OpenLayers/Renderer/SVG.js OpenLayers/Renderer/Canvas.js OpenLayers/Format/GeoJSON.js OpenLayers/Format/KML.js OpenLaye rs/Format/WFS.js OpenLayers/Format/WFSCapabilities.js OpenLayers/Format/WFSCapabilities/v1.js OpenLayers/Format/WFSCapabilities/v1_0_0.js OpenLayers/Format/WFSCapabilities/v1_1_0.js OpenLayers/Felatature/WFSDe Format/XML.js OpenLayers/Request/XMLHttpRequest.js OpenLayers/Protocol/HTTP.js OpenLayers/Protocol/WFS.js OpenLayers/Protocol/WFS/v1.js OpenLayers/Protocol/WFS/v1_0_0.js OpenLayers/WF/Protocol v1_1_0.js OpenLayers/Strategy/Fixed.js OpenLayers/Strategy/BBOX.js

Lorsque je teste la fonctionnalité selectFeature qui a une fenêtre contextuelle d'informations sur la fonctionnalité dans OnSelect, cela me dit toujours l'erreur suivante :

ne peut pas appeler "ajouter" d'undefined

ce qui, je pense, indique que dans le dossier deselectFeature.js, sous "pixelToBounds", la variable "pixel" n'est pas définie, et je suppose alors qu'elle est pertinente pour la reconnaissance de "evt".

quelqu'un pourrait-il me donner des pistes ?

Je vous remercie!


si vous consultez le code de selectFeature Control, vous pouvez voir les fichiers requis comme suit :

/** * @requires OpenLayers/Control.js * @requires OpenLayers/Feature/Vector.js * @requires OpenLayers/Handler/Feature.js * @requires OpenLayers/Layer/Vector/RootContainer.js */

J'espère que ça t'aide…


Vers une intégration des informations des capteurs multi-agences pour la gestion des catastrophes

Étudié le processus d'intégration des données de capteurs multi-agences pour la gestion des catastrophes.

Fondé sur une étude de cas empirique autour de la transaction d'informations de capteurs dans le secteur de la gestion des urgences.

Développement de composants pour l'accès, l'harmonisation et la connexion normalisés des ressources de capteurs multi-agences.

Utilisation des normes d'activation Web des capteurs OGC pour l'intégration de sources de données de capteurs multifournisseurs.

Implémentation d'un outil SIG, IDDSS-Sensor, qui permet l'intégration des données des capteurs en temps réel et facilite la réponse aux inondations.


2 réponses 2

L'activation du débogage non managé ne peut avoir un effet secondaire utile que si vous disposez également du PDB et du code source du composant. Vous ne le faites pas, les vendeurs de ce type de composants ne le divulguent pas. La seule raison pour laquelle vous pouvez voir quoi que ce soit est que vous laissez VS générer le assemblage d'interopérabilité pour le composant COM. Qui convertit les déclarations dans la bibliothèque de types du composant en types .NET équivalents. Comme IGeometry, très probablement en fait une classe C++ sous le capot.

C'est la grande différence entre la vue de dessus et les captures d'écran du bas. À partir de VS2010 et .NET 4.0, cet assembly d'interopérabilité n'est plus nécessaire. Appelée « type embedding », en général une fonctionnalité très utile, elle évite d'avoir à déployer le PIA d'un composant. Un très gros problème en particulier pour l'interopérabilité Office.

Type d'incorporation agressivement supprimé les types et les membres qui ne sont pas utilisés dans le code source. Ce qui reste est intégré dans votre assemblage final, éliminant ainsi le besoin de déployer l'assemblage d'interopérabilité ou PIA. Ou en d'autres termes, vous ne pouvez pas voir IGeometry.Envelope dans le débogueur car votre code source n'utilise pas la propriété. Il a été dépouillé par le type de plomberie encastrée.

C'est facile à corriger. Sélectionnez la référence COM dans le nœud de référence de votre projet et définissez sa propriété "Embed Interop Types" sur False. Vous pouvez le laisser ainsi après le test, n'oubliez pas alors de déployer également l'assembly d'interopérabilité.


Commerce électronique, Infrastructure pour

Manish Agrawal, . Kichan Nam , dans Encyclopédie des systèmes d' information , 2003

VIII.B. Logiciels et applications

Un nouveau choix s'offre en ce qui concerne les applications logicielles. Les ASP sont des entités tierces qui gèrent et distribuent des services et des solutions logiciels aux clients sur un réseau étendu à partir d'un centre de données central. En substance, les ASP sont un moyen pour les entreprises d'externaliser certains ou presque tous les aspects de leurs besoins en technologies de l'information. Des solutions logicielles peuvent également être obtenues auprès de sociétés de conseil en commerce électronique, qui peuvent également fournir des services intangibles tels que le conseil, l'installation de produits et la maintenance. L'adoption rapide de la technologie Internet a ouvert un tout nouvel environnement concurrentiel qui permet même aux plus petites entreprises de rivaliser efficacement avec des concurrents plus importants. En outre, Internet a ouvert de nouvelles voies pour atteindre des partenaires commerciaux de toutes tailles de manière rentable et avec des efforts d'intégration minimes ou nuls. Toutes ces réalisations peuvent être atteintes simplement en déployant des logiciels prêts à l'emploi développés par des entreprises innovantes dédiées au territoire du commerce électronique.

Solutions logicielles de commerce électronique telles que la gestion des transactions, la gestion des achats, la gestion des catalogues, la gestion de la logistique, la gestion des entrepôts, la gestion de la relation client, l'hébergement Web, la gestion de la collaboration entre les acheteurs, les fournisseurs et les transporteurs, etc. avec relativement peu de modifications et de problèmes d'intégration.


Applications SIG pour la socio-économie et l'humanité

3.07.3.3 SIG historique régional et thématique

Ces dernières années, la construction et la recherche de SIG historiques régionaux et thématiques ont été florissantes surtout en Chine. La base de données biographique de Chine est une base de données relationnelle librement accessible contenant des informations biographiques, principalement du 7e au 19e siècle. Avec les versions en ligne et hors ligne, les données sont censées être utiles pour l'analyse statistique, de réseau social et spatiale. Il sert également de référence biographique ( Bol, 2007 ). Su et al. (2011) ont utilisé les informations géographiques sur les reliefs, les villes, la population, les transports, les temples et les écoles de la région de Songjiang à la fin de la dynastie Ming et ont établi la base de données SIG historique de Songjiang à la fin de la dynastie Ming (MSJGIS). Le Centre de recherche en géographie historique de l'Université de Pékin, en coopération avec la Commission municipale d'urbanisme de Pékin, a compilé la carte numérique historique de Pékin ( Tang, 2004 ), et a en outre créé le site Web d'information géographique culturelle historique de Pékin ( Commission municipale d'urbanisme de Pékin, 2015). Chen (2004) a établi la base de données de géographie historique de Jiankang (une ville historique de la période des Six Dynasties dans l'histoire ancienne de la Chine) en utilisant des documents géographiques historiques. Sur la base du SIG Hypermedia, Chen a développé le SIG historique Internet avec des cartes électroniques Hypermedia comme interface et a réalisé les fonctions de cartographie thématique, de navigation d'informations multimédia, de requête d'informations visuelles, de publication et de partage d'informations de la ville de Jiankang. Li et al. (2009) ont utilisé la carte historique de Foshan comme données spatiales de base pour établir la base de données spatiale et la base de données d'attributs de l'ancienne Foshan, et ont réalisé les fonctions d'acquisition et de traitement de données, d'interrogation et d'analyse spatiales, d'affichage de cartes thématiques et de sortie de paysages historiques et culturels. De plus, le projet « International Metropolis (Shanghai) Historical and Human Geographic Information System » a déjà construit des bases de données de base couvrant le contenu détaillé et les changements de divers paysages historiques et humains à Shanghai depuis la dynastie Song et a compilé l'atlas historique urbain de Shanghai qu'il construire progressivement une plate-forme SIG urbaine historique et humaine à Shanghai.

La plate-forme d'application numérique géographique historique de la Chine est un système d'application basé sur les données CHGIS. La plateforme transforme les données toponymiques exprimées par « temps de survie » dans le CHGIS en données toponymiques « année par année ». Les utilisateurs généraux pourraient utiliser la plate-forme pour parcourir et rechercher des cartes historiques. Les utilisateurs de cartes thématiques peuvent dessiner différents types de cartes historiques thématiques en utilisant la plate-forme. Ces cartes incluent des cartes d'événements, qui expriment principalement des informations sur les itinéraires, et des cartes statistiques qui expriment principalement des informations sur les quantités. Un exemple est une carte des allées et venues des personnes ou de la répartition des villes natales. Le système thématique est conçu avec différents thèmes, et il permet à la plate-forme d'étendre ses fonctions systématiques et d'établir des systèmes dédiés : par exemple, le SIG historique de la littérature de la dynastie Tang. Les études d'applications thématiques basées sur le système CCTS se sont développées progressivement. De tels cas incluent l'analyse des zones tampons d'inondation du fleuve Jaune sous la dynastie Tang, l'analyse des changements spatiaux dans les villes du sud de la Chine sous les dynasties Ming et Qing, l'analyse des prix des céréales et de l'intégration de la population sous la dynastie Qing, et l'étude des routes dans les poèmes du sud-est de Su Shi (un célèbre poète chinois de la dynastie Song).

Par l'analyse, la reconstruction et la localisation spatio-temporelle des textes historiques officiels, Xu et al (2013) ont progressivement construit la base de données spatio-temporelle et le SIG de l'histoire officielle avec le temps, le lieu, les personnages, les événements et les scènes comme leurs cinq éléments et ont terminé le base de données et cartographie des livres historiques de Front Four. Liu et Hu (2014) ont extrait, analysé et effectué l'orientation spatiale des noms de lieux dans le livre L'essentiel de la géographie historique, et de cette façon, ils ont établi la base de données des noms de lieux de la dynastie Ming avec des coordonnées géographiques. Il et al. (2013) a pris Shi Ji (Des documents historiques) comme exemple pour concevoir les normes d'expression des facteurs historiques et leurs relations, la méthode d'appariement des facteurs historiques et le cadre spatio-temporel unifié. Les chroniques locales enregistrent l'histoire et la situation actuelle de la nature et de la société sur la base de la division administrative, et elles peuvent être utilisées comme source de données générales du SIG.

La mise en place d'un SIG avec des chroniques locales est la tendance de développement d'un réseau provincial de ressources d'information (bibliothèque) ( ​​Gong et Hu, 2001 ). La généalogie fait des enregistrements temporels des relations de génération et d'héritage d'une famille, et des enregistrements spatiaux de la distribution et de la migration des familles. Chen et Huang (2005) ont discuté de l'application du SIG dans le paysage de la culture clanique, et ils ont proposé de développer un SIG généalogique des maisons et des temples ancestraux des dynasties Ming et Qing. Lu et al. (2010) et Hu et al. (2012) ont proposé de construire le SIG généalogique chinois, de concevoir un modèle de données spatio-temporelles de généalogie et de construire un cadre spatio-temporel unifié basé sur des bases de données de référence temporelle, une base de données de noms de lieux anciens et modernes et une base de données historiques des divisions administratives. En développant la plateforme SIG de généalogie chinoise, ils ont réussi à réaliser la numérisation, l'information, la spatialisation et l'expression visuelle spatio-temporelle de la généalogie. Leurs réalisations enrichissent non seulement les données généalogiques et les données historiques sur les noms de lieux, mais renforcent également l'analyse spatio-temporelle future, l'écoute et l'application des informations généalogiques.

Beaucoup de temps et d'argent ont été consacrés à la construction de bases de données SIG historiques et de systèmes logiciels de différents niveaux et types, ce qui a, dans une certaine mesure, enrichi les données SIG historiques et permis d'interroger, d'analyser et de extraire des données spatio-temporelles basées sur des SIG historiques. Mais en raison du large éventail de l'histoire ainsi que des documents historiques extrêmement riches, davantage d'investissements dans la construction de bases de données SIG historiques de meilleure qualité sont encore nécessaires. C'est très important pour les pays qui ont une longue histoire, comme la Chine. Cependant, nous devons réaliser que ces bases de données SIG historiques et ces systèmes logiciels sont, dans une large mesure, prêtant et transplantant les applications SIG réussies d'autres domaines, et des études suffisantes n'ont pas été faites sur la construction de bases de données SIG historiques et sur ses limites. Par exemple, un consensus et des solutions n'ont pas été atteints quant à la façon d'exprimer l'incertitude des données géographiques historiques dans le SIG, ou comment exprimer l'évolution des informations dans le temps dans le SIG.


Des preuves insondables menant à l'opacité

Des preuves insondables se concentrent sur les problèmes liés au manque de transparence qui caractérisent souvent les algorithmes (en particulier les algorithmes et les modèles de ML), l'infrastructure sociotechnique dans laquelle ils existent et les décisions qu'ils soutiennent. Le manque de transparence - qu'il soit inhérent aux limites de la technologie ou acquis par les décisions de conception et l'obscurcissement des données sous-jacentes (Lepri et al. 2018 Dahl 2018 Ananny et Crawford 2018 Weller 2019) - se traduit souvent par un manque de contrôle et/ou de responsabilité (Oswald 2018 Fink 2018 Webb et al. 2019) et conduit à un manque de « fiabilité » (voir Al-Hleg 2019).

Selon la littérature récente, les facteurs contribuant au manque général de transparence algorithmique incluent l'impossibilité cognitive pour les humains d'interpréter des modèles algorithmiques et des ensembles de données massifs un manque d'outils appropriés pour visualiser et suivre de gros volumes de code et de données, le code et les données qui sont si mal structurés qu'ils sont impossibles à lire et mises à jour continues et influence humaine sur un modèle (Diakopoulos et Koliska 2017 Stilgoe 2018 Zerilli et al. 2019 Buhmann et al. 2019). Le manque de transparence est également une caractéristique inhérente aux algorithmes d'auto-apprentissage, qui modifient leur logique de décision (produisent de nouveaux ensembles de règles) au cours du processus d'apprentissage, ce qui rend difficile pour les développeurs de maintenir une compréhension détaillée des raisons pour lesquelles certains changements ont été apportés (Burrell 2016 Buhmann et al. 2019). Cependant, cela ne se traduit pas nécessairement par des résultats opaques, car même sans comprendre chaque étape logique, les développeurs peuvent ajuster les hyperparamètres, les paramètres qui régissent le processus de formation, pour tester divers résultats. À cet égard, Martin (2019) souligne que, si la difficulté d'expliquer les sorties des algorithmes de ML est certainement réelle, il est important de ne pas laisser cette difficulté inciter les organisations à développer des systèmes complexes pour se soustraire à la responsabilité.

Le manque de transparence peut également résulter de la malléabilité des algorithmes, les algorithmes pouvant être reprogrammés de manière continue, distribuée et dynamique (Sandvig et al. 2016). La malléabilité algorithmique permet aux développeurs de surveiller et d'améliorer un algorithme déjà déployé, mais elle peut également être utilisée à mauvais escient pour brouiller l'historique de son évolution et laisser les utilisateurs finaux dans un état de confusion quant aux possibilités d'un algorithme donné (Ananny et Crawford 2018) . Considérons par exemple l'algorithme de recherche principal de Google. Sa malléabilité permet à l'entreprise d'effectuer des révisions continues, suggérant un état permanent de déstabilisation (Sandvig et al. 2016). Cela nécessite que les personnes affectées par l'algorithme le surveillent en permanence et mettent à jour leur compréhension en conséquence - une tâche impossible pour la plupart (Ananny et Crawford 2018).

Comme le notent Floridi et Turilli (2009, 105), la transparence n'est pas un « principe éthique en soi, mais une condition pro-éthique pour permettre ou entraver d'autres pratiques ou principes éthiques ». Et en effet, une transparence totale peut elle-même poser des problèmes éthiques distincts (Ananny et Crawford 2018) : la transparence peut fournir aux utilisateurs des informations critiques sur les fonctionnalités et les limites d'un algorithme, mais elle peut également submerger les utilisateurs d'informations et ainsi rendre l'algorithme opaque (Kizilcec 2016 Ananny et Crawford 2018). D'autres recherches soulignent qu'une concentration excessive sur la transparence peut nuire à l'innovation et détourner inutilement des ressources qui pourraient plutôt être utilisées pour améliorer la sécurité, les performances et la précision (Danks et Londres 2017 Oswald 2018 Ananny et Crawford 2018 Weller 2019). Par exemple, le débat sur la priorité accordée à la transparence (et à l'explicabilité) est particulièrement controversé dans le contexte des algorithmes médicaux (Robbins 2019).

La transparence peut permettre aux individus de jouer avec le système (Martin 2019 Magalhães 2018 Floridi et al. 2020). Les connaissances sur la source d'un ensemble de données, les hypothèses sous lesquelles l'échantillonnage a été effectué ou les métriques qu'un algorithme utilise pour trier les nouvelles entrées peuvent être utilisées pour trouver des moyens de tirer parti d'un algorithme (Szegedy et al. 2014 Yampolskiy 2018) . Pourtant, la capacité de jouer aux algorithmes n'est à la portée que de certains groupes de la population - ceux qui ont une plus grande culture numérique par exemple - créant ainsi une autre forme d'inégalité sociale (Martin 2019 Bambauer et Zarsky 2018). Par conséquent, confondre la transparence avec une fin en soi, au lieu d'un facteur pro-éthique (Floridi 2017) permettant des pratiques éthiques cruciales, peut ne pas résoudre les problèmes éthiques existants liés à l'utilisation d'algorithmes et, en effet, en poser de nouveaux. C'est pourquoi il est important de distinguer les différents facteurs qui peuvent entraver la transparence des algorithmes, d'identifier leur cause et de nuancer l'appel à la transparence en spécifiant quels facteurs sont requis et à quelles couches des systèmes algorithmiques ils doivent être traités (Diakopoulos et Koliska 2017).

Il existe différentes manières de traiter les problèmes liés au manque de transparence. Par exemple, Gebru et al. proposent que les contraintes de transparence posées par la malléabilité des algorithmes puissent être traitées, en partie, en utilisant des procédures documentaires standard similaires à celles déployées dans l'industrie électronique, où.

« chaque composant, qu'il soit simple ou complexe, est accompagné d'une fiche technique décrivant ses caractéristiques de fonctionnement, les résultats des tests, l'utilisation recommandée et d'autres informations » (Gebru et al. 2020, 2).

Malheureusement, la documentation accessible au public est actuellement rare dans le développement de systèmes algorithmiques et il n'y a pas de format convenu pour ce qui devrait être inclus lors de la documentation de l'origine d'un ensemble de données (Arnold et al. 2019 Gebru et al. 2020).

Bien que relativement naissante, une autre approche potentiellement prometteuse pour faire respecter la transparence algorithmique est l'utilisation d'outils techniques pour tester et auditer les systèmes algorithmiques et la prise de décision. Tester si les algorithmes présentent des tendances négatives, comme une discrimination injuste, et auditer une prédiction ou une piste de décision en détail, peut aider à maintenir un niveau élevé de transparence (Weller 2019 Malhotra et al. 2018 Brundage et al. 2020). À cette fin, des cadres discursifs ont été développés pour aider les entreprises et les organisations du secteur public à comprendre les impacts potentiels des algorithmes opaques, encourageant ainsi les bonnes pratiques (ICO 2020). Par exemple, l'AI Now Institute de l'Université de New York a produit des conseils d'évaluation d'impact algorithmique, qui visent à sensibiliser et à améliorer le dialogue sur les dommages potentiels des algorithmes de ML (Reisman et al. 2018). Cela inclut les deux objectifs de permettre aux développeurs de concevoir des algorithmes de ML plus transparents, et donc plus fiables, et d'améliorer la compréhension et le contrôle des algorithmes par le public. Dans la même veine, Diakopoulos et Koliska ont fourni une liste complète de « facteurs de transparence » à travers quatre couches de systèmes algorithmiques : données, modèle, inférence et interface. Les facteurs comprennent, entre autres.

« incertitude (par exemple, les marges d'erreur), l'actualité (par exemple, quand les données ont-elles été collectées), l'exhaustivité ou les éléments manquants, la méthode d'échantillonnage, la provenance (par exemple les sources) et le volume (par exemple, les données de formation utilisées dans l'apprentissage automatique) » (Diakopoulos et Koliska 2017 , 818).

Des procédures de transparence efficaces sont susceptibles, et devraient en fait, impliquer une explication interprétable des processus internes de ces systèmes. Buhmann et al. (2019) soutiennent que si le manque de transparence est une caractéristique inhérente à de nombreux algorithmes de ML, cela ne signifie pas que des améliorations ne peuvent pas être apportées (Watson et al. 2019). Par exemple, des entreprises comme Google et IBM ont redoublé d'efforts pour rendre les algorithmes de ML plus interprétables et inclusifs en mettant à la disposition du public des outils tels que Explainable AI, AI Explainability 360 et What-If Tool. Ces outils fournissent aux développeurs et au grand public des interfaces visuelles interactives qui améliorent la lisibilité humaine, explorent divers résultats de modèles, fournissent un raisonnement basé sur des cas, des règles directement interprétables et même identifient et atténuent les biais indésirables dans les ensembles de données et les modèles algorithmiques (Mojsilovic 2018 Wexler 2018 ).

Cependant, les explications des algorithmes de ML sont limitées par le type d'explication recherchée, le fait que les décisions sont souvent de nature multidimensionnelle et que différents utilisateurs peuvent nécessiter des explications différentes (Edwards et Veale 2017). L'identification de méthodes appropriées pour fournir des explications est un problème depuis la fin des années 1990 (Tickle et al. 1998), mais les efforts contemporains peuvent être classés en deux approches principales : les explications centrées sur le sujet et les explications centrées sur le modèle (Doshi-Velez et Kim 2017 Lee et autres 2017 Baumer 2017 Buhmann et autres 2019). Dans le premier, la précision et la longueur de l'explication sont adaptées aux utilisateurs et à leurs interactions spécifiques avec un algorithme donné (voir par exemple [Green et Viljoen 2020] et le modèle de type jeu proposé par [Watson et Floridi 2020]) dans le Ces derniers, les explications concernent le modèle dans son ensemble et ne dépendent pas de leur audience.

L'explicabilité est particulièrement importante lorsque l'on considère le nombre croissant de modèles et d'ensembles de données open source et faciles à utiliser. De plus en plus, des non-experts expérimentent des modèles algorithmiques de pointe largement disponibles via des bibliothèques ou des plateformes en ligne, comme GitHub, sans toujours en saisir pleinement les limites et les propriétés (Hutson 2019). Cela a incité les chercheurs à suggérer que, pour s'attaquer au problème de la complexité technique, il est nécessaire d'investir davantage dans l'éducation publique afin d'améliorer la maîtrise du calcul et des données (Lepri et al. 2018). Cela semblerait être une solution appropriée à long terme aux problèmes multicouches introduits par les algorithmes omniprésents, et les logiciels open source sont souvent cités comme essentiels à la solution (Lepri et al. 2018).


Sémantique

Les outils et technologies issus du Web sémantique du World Wide Web Consortium s'avèrent utiles pour les problèmes d'intégration de données dans les systèmes d'information. En conséquence, de telles technologies ont été proposées comme moyen de faciliter l'interopérabilité et la réutilisation des données entre les applications SIG. ⎹] ⎺] et ​​aussi pour permettre de nouveaux mécanismes d'analyse. ⎻]

Les ontologies sont un élément clé de cette approche sémantique car elles permettent une spécification formelle et lisible par machine des concepts et des relations dans un domaine donné. Cela permet à son tour à un SIG de se concentrer sur la signification voulue des données plutôt que sur leur syntaxe ou leur structure. Par exemple, raisonner qu'un type d'occupation du sol classé comme arbres à feuilles caduques dans un jeu de données se trouve une spécialisation ou un sous-ensemble du type de couverture terrestre forêt dans un autre jeu de données plus grossièrement classé peut aider un SIG à fusionner automatiquement les deux jeux de données sous la classification plus générale de la couverture terrestre. Des ontologies provisoires ont été développées dans des domaines liés aux applications SIG, par exemple l'ontologie d'hydrologie développée par l'Ordnance Survey dans le Royaume-Uni et les ontologies SWEET ⎽] développées par le Jet Propulsion Laboratory de la NASA. En outre, des ontologies plus simples et des normes de métadonnées sémantiques sont proposées par le groupe W3C Geo Incubator ⎾] pour représenter les données géospatiales sur le Web. GeoSPARQL est une norme développée par l'Ordnance Survey, le United States Geological Survey, Natural Resources Canada, l'Organisation australienne de recherche scientifique et industrielle du Commonwealth et d'autres pour soutenir la création et le raisonnement d'ontologies à l'aide de littéraux OGC bien compris (GML, WKT), de relations topologiques (Simple Fonctionnalités, RCC8, DE-9IM), RDF et les protocoles de requête de base de données SPARQL.

Des résultats de recherche récents dans ce domaine peuvent être consultés dans la Conférence internationale sur la sémantique géospatiale ⎿] et ​​l'atelier Terra Cognita - Directions to the Geospatial Semantic Web ⏀] à la Conférence internationale sur le Web sémantique.


Déploiement d'OpenLayers : sur quelles bibliothèques selectFeature s'appuie-t-il ? - Systèmes d'information géographique

Environ quatre-vingts pour cent de toutes les données stockées dans les bases de données d'entreprise ont une composante spatiale.

Récemment, l'intérêt pour l'énorme potentiel de la BI géospatiale a augmenté. Il vise à combiner les technologies de système d'information géographique (SIG) et d'intelligence d'affaires (BI). La BI géospatiale combine l'analyse spatiale et la visualisation cartographique avec des outils de BI éprouvés afin de mieux prendre en charge le processus d'analyse des données d'entreprise et d'aider les entreprises à prendre des décisions plus éclairées.

La BI est un terme de gestion d'entreprise qui fait référence aux applications et aux technologies utilisées pour collecter, fournir un accès et analyser des données et des informations sur les opérations de l'entreprise. Les applications de BI sont généralement utilisées pour mieux comprendre les aspects historiques, actuels et futurs des opérations commerciales. Les applications de BI offrent généralement des moyens d'exploiter des données centrées sur les bases de données et les feuilles de calcul pour produire des analyses graphiques, basées sur des tableaux et autres concernant les opérations commerciales. Les systèmes de BI donnent aux entreprises une connaissance plus complète des facteurs affectant leur activité, tels que les mesures des ventes, de la production et des opérations internes, afin de prendre de meilleures décisions commerciales.

Cet article fournit une introduction rapide à certains concepts importants de BI. Il met ensuite en évidence le besoin d'un logiciel de BI géospatial et traite de l'intégration du composant spatial dans une pile logicielle de BI afin d'activer de manière cohérente les outils géo-analytiques. Nous présentons ensuite différents travaux réalisés et outils conçus par le groupe de recherche GeoSOA.

Une introduction rapide à la BI

Les applications de BI reposent sur une architecture logicielle complexe qui est généralement composée de :

Un outil d'extraction/transformation/chargement (ETL) pour extraire des données de différentes sources hétérogènes, assurer l'intégration et le nettoyage des données selon un schéma ou une structure de données cible, et charger les données dans un entrepôt de données.

Un entrepôt de données qui stocke les données historiques de l'organisation à des fins d'analyse.

Un serveur de traitement analytique en ligne (OLAP) qui permet l'exploration et l'analyse rapides et flexibles de la grande quantité de données stockées dans l'entrepôt de données.

Côté client, des outils de reporting, des tableaux de bord et/ou différents clients OLAP pour afficher les informations sous forme graphique et synthétisée aux décideurs et managers. Ces outils offrent des capacités pour explorer les données de manière interactive et prendre en charge le processus d'analyse.

En option, certains outils d'exploration de données pour récupérer automatiquement les tendances, les modèles et les phénomènes dans les données.

La figure 1 illustre l'infrastructure type sur laquelle reposent les applications de BI.

Figure 1 : Architecture classique pour le déploiement d'applications BI

L'entrepôt de données joue un rôle central et crucial dans cette architecture. C'est le référentiel des données historiques d'une organisation. Elles sont distinctes des sources de données opérationnelles mais sont souvent stockées dans des systèmes de gestion de bases de données relationnelles. Les entrepôts de données sont optimisés pour gérer de gros volumes de données, fournir une réponse rapide pendant le processus d'analyse et gérer des requêtes analytiques complexes. Ils s'appuient sur des schémas de données dénormalisés qui introduisent une certaine redondance pour fournir des réponses très rapides aux requêtes chronophages impliquées dans les requêtes analytiques.

Un entrepôt de données se concentre davantage sur l'analyse et la corrélation de grandes quantités de données que sur la récupération ou la mise à jour d'un ensemble précis de données. Ceci est fondamentalement différent des fonctions des systèmes de bases de données transactionnelles utilisés dans les activités quotidiennes d'une entreprise.

Le contenu de l'entrepôt de données est souvent présenté sous une forme résumée principalement pour les analystes et les décideurs. La figure 2 illustre différents outils de Pentaho utilisés pour présenter, explorer et analyser les données.

Figure 2 : Tableaux de bord, outils de reporting et d'exploration de données

Pour interroger l'entrepôt de données, ces outils utilisent généralement le langage de requête MultiDimensional eXpressions (MDX) implémenté par le serveur OLAP. MDX est une norme de facto de Microsoft qui est également implémentée par d'autres serveurs et clients OLAP. MDX est pour les cubes de données OLAP ce que le langage de requête structuré (SQL) est pour les bases de données relationnelles. Les requêtes sont similaires à SQL mais reposent sur un modèle plus proche de celui utilisé dans les feuilles de calcul.

Le logiciel client OLAP propose des modes de représentation alternatifs, tels que des camemberts et des diagrammes, et différents outils pour affiner les requêtes et explorer les données. Ces outils sont basés sur des opérateurs fournis par le langage de requête MDX et sur une logique complexe implémentée dans le client. La composante spatiale des données peut être utilisée pour améliorer l'expérience utilisateur BI avec des affichages cartographiques et des outils d'analyse spatiale pour mieux prendre en charge les processus d'analyse et de décision.

Fusionner les logiciels BI et SIG

Il est difficile pour un décideur de répondre à des questions complexes telles que : où sont les zones urbaines les plus sensibles aux canicules, pluies intenses, inondations ou sécheresses dans une zone géographique spécifique ? Combien de personnes atteintes de maladies cardiovasculaires, respiratoires, neurologiques et psychologiques y aura-t-il en 2025 et 2050 dans une zone géographique précise ? Combien de personnes à faible revenu vivent seules dans un immeuble nécessitant des réparations majeures dans une zone géographique précise ?

Pour répondre à ces questions, vous pouvez utiliser :

1. SIG : implique l'écriture de requêtes SQL très complexes et des ressources humaines dédiées. De plus, ce travail doit être refait à chaque fois que les données changent ou que de nouvelles analyses doivent être réalisées.

2. Outils BI classiques : sont souvent incapables de gérer la dimension spatiale des données ou ne fournissent qu'un support très basique. Certains phénomènes ne peuvent être convenablement observés et interprétés qu'en les représentant sur une carte. C'est particulièrement vrai lorsque l'on veut observer la distribution spatiale d'un phénomène ou son évolution spatio-temporelle.

La BI géospatiale a récemment suscité un intérêt marqué pour l'énorme potentiel de combiner l'analyse spatiale et la visualisation cartographique avec des outils de BI éprouvés.

Tools recently made available on the market rely on a loose coupling between existing GIS software and some proven BI components. They provide first solutions to display maps with summarized and aggregated information stemming from the BI infrastructure while GIS data have to be stored and managed in a separate and transactional database system or GIS data file. These solutions manage geospatial and corporate data in different systems which require additional efforts, resources and costs to consistently feed and maintain them. They also do not fully take advantage of the powerful analytical capabilities of a classical BI infrastructure and usually are not able to handle very large data volumes. This loose coupling often requires the development of dedicated applications each time a new analytical need emerges in the company.

The geometry data type on which geospatial data relies is not handled as any other data type in the BI infrastructure and connections with the GIS have to be carefully initiated and maintained. Drill down and roll-up capabilities in the analytical data to observe data at different levels of detail, time or scale are often not supported by the map display because they are not intrinsic operators available in GIS. This is mainly due to the transactional structure of geospatial data in the underlying GIS software. Dimensional data structures on which BI tools rely are more efficient to quickly reply to complex analytical queries which would have involved numerous time consuming join queries in a transactional system.

Consistently integrating the geospatial component in all parts of the BI architecture is required. Figure 3 illustrates that all components of the BI infrastructure have to be spatially-enabled.

Figure 3: Integrating the Spatial Component into a Classical BI Infrastructure

Some spatial capabilities such as support for reading and writing GIS file formats, coordinate transformations, and spatial reference systems need to be injected into ETL tools. OLAP servers should be extended to become actual Spatial On-Line Analytical Processing (SOLAP) servers. SOLAP should bring the consistent handling of geospatial features, map displays and spatial analysis capabilities. SOLAP servers and clients should “allow a rapid and easy navigation within spatial data warehouses and offer many levels of information granularity, many themes, many epochs and many display modes of information that are synchronized or not: maps, tables and diagrams”.

In this perspective and in order to not reinvent the wheel, the GeoSOA Research Group at Laval University, Quebec, Canada started to consistently and completely integrate the geospatial functionalities into an existing, mature, efficient and reputed open source BI software stack.

A complete open source BI software stack is offered by Pentaho. It includes:

an ETL tool to integrate data from heterogeneous sources to a data warehouse

an OLAP server which provides multidimensional query facilities on top of the data warehouse

reporting and dashboard tools, used to present data to analysts

The integration of the Pentaho software suite with open source GIS components has been investigated to create a complete spatially-enabled BI solution. This work has led to the implementation of GeoKettle, GeoMondrian and SOLAPLayers.

GeoKettle is a spatially-enabled version of Pentaho Data Integration (PDI), formerly known as Kettle. It is a powerful, metadata-driven spatial ETL tool dedicated to the integration of different spatial data sources for building and updating geospatial data warehouses. GeoKettle enables the transparent handling of the geometry data type as any other classical data type to all transformations available in Kettle. It is possible to access geometry objects in JavaScript and to define custom transformation steps. Topological predicates have all been implemented.

GeoKettle has been released under the LGPL. Figure 4 illustrates the GeoKettle user interface showing a basic geospatial data transformation.

Figure 4: GeoKettle Interface

At present, Oracle spatial, PostGIS, and MySQL with ESRI shapefiles are natively supported in read and write modes. At present, Microsoft SQL Server 2008, Ingres, and IBM DB2 can be used with some modification. It is possible to build and feed complex and very large geospatial data warehouses with GeoKettle. Spatial reference systems management and coordinate transformations have been fully implemented. Native support for unsupported geospatial databases and raster and vector based data formats will be implemented in the near future as an active and growing community has federated around the project.

GeoKettle releases are aligned with PDI, allowing GeoKettle to benefit from all the new features provided by PDI. For instance, Kettle is natively designed to be deployed in cluster and web service environments. This makes GeoKettle suitable for deployment as a service in cloud computing environments. It enables the scalable, distributed and on demand processing of large and complex volumes of geospatial data in minutes for critical applications, without requiring a company to invest in an expensive infrastructure of servers, networks and software.

Upcoming features to be implemented in GeoKettle include:

implementation of data matching steps to allow geometric data cleansing and comparison of geospatial datasets

read/write support for other database, GIS file formats and geospatial web services

native support for MS SQL Server 2008 and Ingres

implementation of a spatial analysis step through a graphical interface

GeoMondrian is a spatially-enabled version of Pentaho Analysis Services (Mondrian). It has been released under the EPL.

As far as we know, GeoMondrian is the first implementation of a true SOLAP server. It provides a consistent integration of spatial objects into the OLAP data cube structure, instead of fetching them from a separate spatial database, web service or GIS file. To make a simple analogy, GeoMondrian brings to the Mondrian OLAP server what PostGIS brings to the PostgreSQL database management system. It implements a native geometry data type and provides spatial extensions to the MDX query language, allowing embedding spatial analysis capabilities into analytical queries.

These geospatial extensions to the MDX query language provide many more possibilities, such as:

in-line geometry constructors

member filters based on topological predicates

spatial calculated members and measures

calculations based on scalar attributes derived from spatial features

At present, GeoMondrian only supports PostGIS based data warehouses but other databases should be supported soon.

Formerly known as Spatialytics, SOLAPLayers is a lightweight web cartographic component which enables navigation in SOLAP data cubes. It aims to be integrated into existing dashboard frameworks in order to produce interactive geo-analytical dashboards. The first version of SOLAPLayers stems from a Google Summer of Code (GSoC) 2008 project performed under the umbrella of OSGeo. The client is released under the BSD license and the server under the EPL.

SOLAPLayers is based on the OpenLayers web mapping client and uses olap4j for connection to OLAP data sources. For now, it requires GeoMondrian to display members of a geospatial dimension on a map. SOLAPLayers allows the:

connection with a spatial OLAP server such as GeoMondrian

navigation in geospatial data cubes

cartographic representation of some measures and members of a geospatial dimension as static or dynamic choropleth maps and proportional symbols

A demo application is available online. It demonstrates the interaction with GeoMondrian and how the cartographic navigation in the geospatial data cube is performed.

Upcoming features in the development for SOLAPLayers include:

more map-driven OLAP navigation operators

dimension member selection and navigation controls

new choropleth and graphics mapping styles

styles for other geometry types

This article has highlighted the need for geospatial BI software and has emphasized that spatially-enabling a BI software stack requires the consistent integration of the spatial component and its functionalities into each component of the BI infrastructure. Works performed by the GeoSOA research group have led to the release of three open source building blocks of a consistent and powerful geo-BI software stack.

Based on these key software components, future works deal with the design of a geo-analytical dashboard framework. In order to easily design and deliver dashboards which embed some geospatial components and representations, a highly customisable and flexible geo-analytical dashboard framework is required. A first integration of SOLAPLayers with JasperServer and iReport has recently been performed in the GeoSOA research group. The result of this integration allows displaying information in different ways and the synchronisation between the different representations when the user drills down or rolls up on the map or the charts.

More recently, some experiments dealing with the integration of SOLAPLayers into the Pentaho Community Dashboard Framework (CDF) have been performed in the context of a GSoC 2009, under the umbrella of OSGeo.

The integration work performed by the student during this period allows the display of the SOLAPLayers cartographic component together with a pivot table component in a CDF dashboard. Synchronisation between the map and the pivot table has been implemented. Further work is required in order to more properly and consistently integrate the SOLAPLayers component into CDF, but it represents a good and promising first step towards the design of a highly customisable and flexible geo-analytical dashboard framework. A live demo of the integration work performed by the student will be available shortly. The source code will also be available in the GSoC 2009 repository.

The reader is invited to consult the presentation about the research challenges dealing with the integration of the spatial component in BI tools and the design of intelligent mobile applications for better decision support. These research challenges are currently part of the research agenda of the GeoSOA research group.

This article is a short version of the original paper written for this special issue on Business Intelligence for the OSBR. The full version can be freely downloaded here.


13.7 Setting Up the Auditing System for Enterprise Manager

All operations performed by Enterprise Manager users such as creating users, granting privileges, starting a remote job like patching or cloning, need to be audited to ensure compliance with the Sarbanes-Oxley Act of 2002 (SAS 70). This act defines standards an auditor must use to assess the contracted internal controls of a service organization. Auditing an operation enables an administrator to monitor, detect, and investigate problems and enforce enterprise wide security policies.

Irrespective of how the user has logged into Enterprise Manager, when auditing is enabled, each user action is audited and the audit details are stored in a record.

For Enterprise Manager 12c, BASIC auditing is enabled by default, thus creating an audit trail of credentials being created, edited, accessed, associated and deleted. Named credentials are first-class security objects on which privileges can be granted or revoked privileges. This means that multiple Enterprise Manager administrators will be able to use and modify the credential objects. Because credentials are sensitive data that can be used to perform various operations on the systems, there is a need to audit the operations on credentials.

Enterprise Manger audits all the operations performed on credentials. The auditing information includes, but is not be limited to, the current username, credential name, operation performed, operation status success or failure. The audit logs contain information about the credential owner, action initiator, credential name, user name, and target name, job names along with the date time of the operation. Credential fields like password, private keys are never logged.

The following operations are audited:

Creating a Named Credential : Creating new Enterprise Manager credentials will be audited.

Editing a Named Credential : Editing a credential may consist of changing the username and/or the sensitive credential attributes. Credential edits may also include changing the authentication scheme for the credential.

Delete a Named Credential : Deleting a credential from Enterprise Manager will be audited.

Associating a Named Credential : A named credential can be set as a preferred credential for a credential set at the target level or at target type level. The named credential can also be reference directly from a job. All operations involving the setting of the named credentials as preferred credentials and using it in a job or deployment procedure will be audited.

Accessing a Named Credential : Enterprise Manager subsystems request credentials from the credential store to perform various system management tasks

13.7.1 Configuring the Enterprise Manager Audit System

You can configure the Enterprise Manager Audit System by using the following EM CLI commands:

enable_audit : Enables auditing for all user operations.

disable_audit : Disables auditing for all user operations.

show_operations_list : Shows a list of the user operations being audited.

show_audit_settings : Shows the audit status, operation list, externalization service details, and purge period details.

13.7.2 Configuring the Audit Data Export Service

Audit data needs to be protected and maintained for several years. The volume of audit data may become very large and impact the performance of the system. To limit the amount of data stored in the repository, the audit data must be externalized or archived at regular intervals. The archived audit data is stored in an XML file complying with the ODL format. To externalize the audit data, the EM_AUDIT_EXTERNALIZATION API is used. Records of the format <file-prefix>.NNNNN.xml, where NNNN is a number are generated. The numbers start with 00001 and continue to 99999.

You can set up the audit externalization service for exporting audit data into the file system by using the update_audit_setting -externalization_switch command.

13.7.3 Updating the Audit Settings

The update_audit_settings command updates the current audit settings in the repository and restarts the Management Service.

Example 13-22 Usage of the update_audit_setting command

-audit_switch : Enables auditing across Enterprise Manager. The possible values are ENABLE/DISABLE . Default value is DISABLE .

-operations_to_enable : Enables auditing for specified operations. Enter All to enable all operations.

-operations_to_disable : Disables auditing for specified operations. Enter All to disable all operations.

-externalization_switch : Enables the audit data export service. The possible values are ENABLE/DISABLE . Default value is DISABLE .

-directory : The database directory that is mapped to the OS directory where the export service archives the audit data files.

-file_prefix : The file prefix to be used by the export service to create the file in which audit data is to be stored.

-file_size : The size of the file on which the audit data is to be stored. The default value is 5000000 bytes.

data_retention_period : The period for which the audit data is to be retained inside the repository. The default value is 365 days.

13.7.4 Searching the Audit Data

You can search for audit data that has been generated over a specified period. You can also search for the following:

Audit details of a specific user operation or all user operations.

Audit details of operations with a Success or Failure status or All operations.

From the Setup menu, select Security and then Audit Data . The Audit Data page is displayed. Specify the search criteria in the fields and click Go . The results are displayed in the Summary table.

Figure 13-10 Audit Data Search Page

To view the details of each record that meets the search criteria, select Detailed in the View drop-down list. To drill down to the full record details, click on the Timestamp . The Audit Record page is displayed.


Voir la vidéo: Openlayers 6 Tutorial #6 - Layer Switcher