Suite

Supprimer les bandes blanches indésirables lorsque les calques raster se chevauchent

Supprimer les bandes blanches indésirables lorsque les calques raster se chevauchent


Dans mon projet, lorsque les couches raster se chevauchent, une bande blanche apparaît sur le bord de la couche supérieure.

Comment puis-je le supprimer et obtenir un chevauchement homogène du raster ?

(J'ai essayé de construire un vrt avec ces couches mais les bandes avec sont restées)

Je travaille avec QGIS 2.4

Voici un exemple des phénomènes (chaque couche a 10% de transparence)

Voici la sortie gdalinfo de l'un des rasterPilote : GTiff/GeoTIFF Fichiers : /vdata/scot_009h_georef.tif La taille est 5985, 2349 Le système de coordonnées est : GEOGCS["WGS 84", DATUM["WGS_1984", SPHEROID["WGS 84",6378137,298.257223563, AUTHORITY["EPSG ","7030"]], AUTORITE["EPSG","6326"]], PRIMEM["Greenwich",0], UNITÉ["degré",0.0174532925199433], AUTORITE["EPSG","4326"]] Origine = (-3.87339435408865,58.119237085214102) Taille de pixel = (0.000601740178426, -0.000601740178426) Métadonnées : AREA_OR_POINT=Area Image Structure Metadata : COMPRESSION=LZW INTERLEAVE=PIXEL Coordonnées du coin : en haut à gauche ( -3.8733944, 58.1192371) (3d52'24.22.22 7' 9.25"N) Inférieur gauche ( -3.8733944, 56.7057494) ( 3d52'24.22"W, 56d42'20.70"N) Supérieur droit ( -0.2719794, 58.1192371) ( 0d16'19.13"W, 58d 7' 9.25"N) Inférieur Droite ( -0.2719794, 56.7057494) ( 0d16'19.13"W, 56d42'20.70"N) Centre ( -2.0726869, 57.4124932) ( 2d 4'21.67"W, 57d24'44.98"N) Bande 1 Bloc=5985x1 Type=Byte, ColorInterp=Rouge Valeur NoData=0 Bande 2 Bloc=5985x1 Type=Byte, ColorInterp=Vert Valeur NoData=0 Bande 3 Bloc=59 85x1 Type=Byte, ColorInterp=Bleu Valeur NoData=0


Option 1

Vous avez découvert une option - l'ajout de 255 à "Aucune valeur supplémentaire" dans Propriétés du calque/Transparence.

Option 2

Une autre option consiste à utiliser un VRT, définir 255 comme valeur nodata source et définir 0 comme valeur no data VRT en utilisant gdalbuildvrt.

Par exemple:

gdalbuildvrt -srcnodata 255 -vrtnodata 0 out.vrt in.tif

Pour le faire sur tous les fichiers tiff d'un dossier, utilisez quelque chose comme ce qui suit (en supposant que vous utilisez un shell bash sur OSX/Linux/Unix basé sur le chemin dans votregdalinfoproduction):

pour f dans *.tif; faire gdalbuildvrt -srcnodata 255 -vrtnodata 0 "${f%.*}".vrt "$f" ; terminé

Option 3

Une troisième option qui recadrera réellement les cols blancs de manière permanente et ne transformera pas les pixels blancs sans col en NoData est le GDAL presque noir utilitaire.

Par exemple:

nearblack -of gtiff -nb 0 -color white -near 0 -o decollar.tif collar.tif

Pour le faire sur tous les fichiers tiff d'un dossier, utilisez quelque chose comme ceci :

pour f dans *.tif; do nearblack -of gtiff -nb 0 -color white -near 0 -o "${f%.*}"-decollared.tif "$f"; terminé

Noter"${f%.*}"est la syntaxe d'expansion des paramètres bash pour obtenir le nom de fichier sans l'extension.


Imagerie : modèles de gestion des données et recommandations

Les ensembles de données Mosaic permettent aux utilisateurs d'accéder à une source unique pour obtenir les données dont ils ont besoin, ce qui simplifie la maintenance et le développement d'applications. La table (catalogue) est accessible, ce qui permet aux utilisateurs d'interroger la mosaïque et d'accéder à chaque élément qui y est stocké, tandis que l'image mosaïquée peut être utilisée comme un jeu de données raster - apparaît comme un jeu de données continu et peut être traitée avec les outils utilisés pour traiter une trame.

Ils peuvent être extrêmement volumineux à la fois en taille de fichier totale et en nombre de jeux de données raster. Ils ne contrôlent pas les données source, mais contiennent des pointeurs vers les données source.

Ils sont créés, modifiés et gérés avec les outils du jeu d'outils Mosaic Dataset dans la boîte à outils Data Management.


Le mode Unite d'Illustrator remplit tout le calque

J'essaie de recréer cette section dans un tutoriel que j'ai terminé plus tôt cette semaine. Je commence avec une trace que j'ai faite qui est composée de chemins et de chemins avec des profils de largeur personnalisés et des traits appliqués. L'ensemble du dessin a été regroupé.

Maintenant, en suivant le didacticiel (la référence commence à 3:58), j'étends l'apparence pour convertir les traits en formes et j'étends la composition entière pour convertir les chemins en formes, ce qui me donne des formes individuelles qui se chevauchent.

D'après ce que je comprends, je clique maintenant sur unir pour attacher toutes les formes impliquées dans une seule composition vectorielle. Mais, lorsque je clique sur unir, cela se transforme en un carré noir.

J'ai essayé de relire la fonction d'unité et j'ai vérifié les masques, car j'en avais un plus tôt (que j'ai publié), mais je ne peux pas comprendre ce qui me manque.


Abstrait

Les analyses de visibilité sont devenues monnaie courante au sein de la recherche archéologique paysagère, que ce soit au travers d'une description riche, d'une simple cartographie ou d'une modélisation formelle et d'une analyse statistique, cette dernière étant de plus en plus réalisée à l'aide de la fonctionnalité de champ de vision des SIG. La recherche présentée ici remet en question les obsessions actuelles de ce qui est visible pour se concentrer plutôt sur les avantages interprétatifs de la prise en compte de l'invisible et de l'interaction complexe de la visibilité et de la dissimulation qui accompagnent fréquemment le mouvement et l'expérience du paysage. Après avoir mis en évidence les difficultés d'analyse des propriétés relationnelles telles que l'invisibilité et la dissimulation à l'aide de techniques archéologiques traditionnelles, une série de nouvelles méthodologies SIG sont présentées et évaluées dans le cadre d'une étude originale d'une série de monuments mégalithiques préhistoriques remarquablement petits et visuellement non intrusifs. Les résultats servent à remettre en question les interprétations dominantes de ces sites énigmatiques ainsi qu'à démontrer l'utilité, la valeur et le potentiel des approches basées sur les SIG développées.


5 réponses 5

Objet > Développer l'apparence (si disponible)

Objet > Développer (cliquez sur les remplissages, les traits et les objets [si disponible], puis cliquez sur ok)

Cliquez sur le bouton Fusionner sur le Panneau Pathfinder (noter la panneau ne pas l'élément de menu)

Utilisez l'outil de sélection directe (flèche blanche) et cliquez sur quelque chose de blanc.

Choisissez Sélectionner > Identique > Remplir et amplifier le contour dans le menu.

Développe tous les éléments d'apparence afin qu'ils soient des objets et non plus dynamiques

Développe tous les traits afin qu'ils soient des formes (remplissages) et non des traits. Et décrit tous les types/enveloppes en direct, etc. (cela ne fonctionnera pas bien si vous avez des dégradés ou des objets en filet de dégradé - c'est une tout autre affaire)

  • Tout sélectionner
  • Choisissez Objet> Aplatir la transparence dans le menu et déplacez le curseur jusqu'à "vecteur"

Utilisez l'outil de sélection directe (flèche blanche) et cliquez sur quelque chose de blanc.

Choisissez Sélectionner > Identique > Remplir et amplifier le contour dans le menu.

La première option vous permettra généralement d'avoir un peu plus de contrôle à certains moments. Cela dépend en quelque sorte de la façon dont les choses sont construites (je n'ai pas regardé le tutoriel). En fin de compte, pour la plupart des œuvres d'art non complexes, les deux méthodes vous amènent au même endroit.

En supposant que vous souhaitiez « aplatir » vos vecteurs, puis faites comme Scott le dit, vous pouvez cependant obtenir le même résultat de manière non destructive en utilisant un groupe de suppression. Que vous ayez besoin de le faire de manière destructive ou non dépend de vos besoins, si vous sortez dans un format raster ou si vous l'importez quelque part où vous ne pas besoin des données de chemin alors ceci mai être une meilleure option (plus facile et plus facile à entretenir).

Prenons par exemple cette construction vaguement similaire :

Regroupez le logo (vous pouvez également le mettre sur son propre calque et utiliser le calque).

Ouvrez le panneau Transparence du groupe et cochez « Knockout Group » (vous devrez peut-être cliquer deux fois sur la case pour qu'elle ait une coche et non une ligne).

  1. Sélectionnez tout avec un remplissage blanc à l'aide de l'outil de sélection directe (flèche blanche - A )
  2. Depuis le panneau Apparence, ouvrez le panneau Transparence pour le remplissage blanc (en développant l'entrée "Remplir" et en cliquant sur "Opacité") et définissez l'opacité sur "0".

Si vous avez également des traits blancs, répétez les étapes 3 et 4 pour les traits.


Possibilités d'accès

Obtenez un accès complet au journal pendant 1 an

Tous les prix sont des prix NET.
La TVA sera ajoutée plus tard dans la caisse.
Le calcul des taxes sera finalisé lors du paiement.

Obtenez un accès limité ou complet aux articles sur ReadCube.

Tous les prix sont des prix NET.


le moyen le plus simple est d'utiliser position:absolute sur les deux éléments. Vous pouvez absolument positionner par rapport à la page, ou vous pouvez absolument positionner par rapport à un conteneur div en définissant le conteneur div sur position:relative

Utilisez la grille CSS et définissez tous les éléments de la grille dans la même cellule.

L'ajout de la classe en couches à un élément entraîne la superposition de tous ses enfants.

si les calques n'ont pas la même taille, vous pouvez définir les propriétés justifier-items et align-items pour définir respectivement l'alignement horizontal et vertical.

Vous pouvez utiliser le positionnement relatif pour superposer vos éléments. Cependant, l'espace qu'ils occuperaient normalement sera toujours réservé à l'élément :

Dans l'exemple ci-dessus, il y aura un bloc d'espace blanc entre les deux éléments 'DEFAULT POSITIONED'. Cela est dû au fait que l'élément 'RELATIVE POSITIONED' a toujours son espace réservé.

Si vous utilisez le positionnement absolu, vos éléments n'auront aucun espace réservé, donc votre élément se chevauchera réellement, sans casser votre document :

Enfin, vous pouvez contrôler quels éléments sont au-dessus des autres en utilisant z-index :


Problèmes de qualité d'image et d'apparence

Pourquoi l'intensité semble-t-elle si non uniforme dans les zones lumineuses ?

(De : Bob Myers ([email protected]).)

Il est extrêmement difficile pour un écran CRT de maintenir une luminosité et une uniformité des couleurs parfaites sur l'ensemble de l'image. Juste la géométrie de la chose - le changement de distance entre le pistolet et l'écran lorsque le faisceau est balayé, la taille et la forme changeantes du spot, etc. - rend cela presque impossible, et il peut également y avoir des variations dans l'écran au phosphore, l'épaisseur de la façade, etc. Les spécifications d'uniformité de luminosité typiques sont que la luminosité ne chutera pas à moins de 70 % environ de la valeur centrale (généralement le point le plus lumineux sur l'écran).

Sur les tubes de couleur, le manque d'uniformité parfaite de luminosité est aggravé par le manque d'uniformité et de pureté parfaites de *couleur*. Ce qui semble être des "points sombres" sur une image grise unie peut en réalité être des problèmes d'égarement du faisceau (pureté des couleurs), qui peuvent dans une certaine mesure être résolus en démagnétisant le moniteur.

Encore une fois, *certaines* variations sont normales si vous pensez que vous voyez trop, vous pouvez essayer de démagnétiser la chose et voir si cela aide. Si ce n'est pas le cas, la question est de savoir si le produit répond ou non aux spécifications publiées, et vous devrez en discuter avec le fabricant ou le distributeur.

Commentaires sur la pureté des couleurs, l'orientation définie et le dôme

"Le problème avec mon téléviseur est que les parties lumineuses de l'image changent de couleur. Par exemple, les zones blanches peuvent virer au jaune ou au bleu selon l'orientation de l'appareil.

Quelles sont les causes possibles du doming ? J'ai remarqué que l'amplitude de l'effet de doming varie avec l'orientation du téléviseur même après plusieurs démagnétisations à la nouvelle orientation. Cela aide-t-il à identifier la cause du doming dans mon cas ?"

Le problème avec les masques d'ombre ordinaires est le "doming". En raison du principe inhérent aux masques d'ombre, 2/3 ou plus de toute l'énergie du faisceau est dissipée dans le masque. Lorsque des objets lumineux statiques sont affichés, il chauffe plusieurs centaines de degrés. Cela provoque une dilatation thermique, avec un gauchissement local du masque. Les trous du masque se déplacent à un autre endroit et les projections des faisceaux d'électrons se poseront sur les mauvaises couleurs : des erreurs de pureté. L'utilisation de l'invar permet environ 3 fois plus de courant de faisceau pour les mêmes erreurs de pureté.

Les domings locaux et les champs magnétiques se disputent la réserve d'atterrissage restante. En raison d'une démagnétisation incorrecte, le problème de doming peut être plus visible. Et appliquer un tube conçu pour le mauvais hémisphère peut très bien augmenter les plaintes de doming. Il est possible de décaler volontairement l'atterrissage nominal afin d'avoir plus de réserve de doming (le décalage dû au doming est toujours à l'extérieur du tube). Vous feriez cela en utilisant des aimants de spoiler placés aux bons endroits.

Régler en permanence le contraste plus bas n'est pas un vrai remède car le client pourrait ne pas aimer une image aussi sombre. Un meilleur tube image (masque d'ombre en Invar) *est* un bon remède (dans la plupart des cas) mais il y a l'augmentation du prix de revient. (Cela est principalement dû au fait que le métal Invar est plus difficile à graver.)

Différence de rendu des couleurs entre les tubes cathodiques

  1. Composition de phosphore différente. Au début, tout le monde recherchait les luminophores avec l'efficacité lumineuse la plus élevée. De nos jours, avec la tendance à éviter les métaux lourds, en particulier le cadmium, dans les produits de consommation, la composition a dû être modifiée. Cela déplace le point de couleur.
  2. Diffusion arrière. Tous les électrons qui frappent le masque d'ombre ne sont pas absorbés. En fait, un pourcentage assez élevé est redistribué dans l'espace vide entre le pistolet et le masque. S'ils rebondissent à nouveau sur les pièces métalliques internes, ils peuvent alors trouver leur chemin vers l'écran et activer un élément phosphore arbitraire. Cela augmente le niveau de noir et réduit la saturation des couleurs primaires. Le rouge vire un peu à l'orange. Même avec de bons luminophores, les couleurs de grande surface seront loin d'être parfaites. Les téléviseurs à projection triple CRT n'ont pas ce problème, un rouge fantastique !
  3. Filtres de couleur. Toshiba a développé un processus dans lequel ils placent des filtres de couleur individuels entre le verre et le phosphore. Cela rend le noir bien meilleur et améliore également les points de couleur lorsque les raies spectrales indésirables sont supprimées.
  4. Il peut également y avoir des différences par rapport au système NTSC, comme une mauvaise matrice de YUV à RGB. La définition du système NTSC japonais diffère du système NTSC américain et le traitement du signal doit en tenir compte.

Lignes de contour sur les moniteurs haute résolution - Moiré

Une cause de ces lignes est le moiré (motifs d'interférence) entre la trame et la structure de points du CRT. Ironiquement, meilleure est la mise au point sur le tube, pire cela risque d'être. Les trinitrons, qui n'ont pas de structure de points verticale, devraient être immunisés contre les interférences de ce type provenant des lignes raster (mais pas de la structure de pixels horizontale).

Vous pouvez tester le moiré en ajustant lentement la taille verticale. S'il s'agit d'un moiré, vous devriez voir le motif changer d'emplacement et de fréquence spatiale au fur et à mesure que de légers changements sont apportés à la taille. Les changements de position verticale déplaceront les motifs sans altérer leur structure - mais ils ne resteront pas verrouillés sur l'image en mouvement.

S'ils sont dus à la structure des lignes raster - votre mise au point est trop bonne - les motifs resteront essentiellement fixes en position sur la face du tube cathodique pour les ajustements de taille et de position horizontales - les motifs resteront fixes sous l'image changeante.

Comment l'éliminer ? Si le moiré est votre problème, il n'y a peut-être pas de réponse facile. Pour une résolution et une taille données, ce sera un problème ou non. Vous pouvez essayer de changer la taille et la résolution - le moiré est fonction de la géométrie. Ironiquement, j'ai un moniteur qui est plus agréable à cet égard en 1024x768 entrelacé qu'en 800x600 non entrelacé.

Certains moniteurs disposent d'un commutateur, d'une commande ou d'un mode « Mode de réduction de moiré ». Cela peut être utile ou non. Une façon de le faire est - vous l'avez deviné - de réduire la netteté du spot du faisceau et de rendre l'image plus floue ! Vous pourriez trouver le remède pire que le mal.

Une autre cause de problèmes similaires est une mauvaise terminaison du câble vidéo qui crée des réflexions et des images fantômes qui, dans certaines conditions, peuvent être si graves qu'elles imitent les effets de moiré. Il est peu probable que cela se produise dans toutes les couleurs avec un écran VGA car la terminaison est interne au moniteur et des résistances individuelles sont utilisées pour chaque couleur (RVB).

Je pense qu'il est ironique que certaines personnes finissent par retourner des moniteurs autrement superbes à cause du moiré - alors que dans de nombreux cas, c'est une indication d'une excellente mise au point - quelque chose que beaucoup de gens recherchent ! Vous pouvez toujours vous en débarrasser - l'inverse n'est pas forcément vrai !

Pas de points de moiré et masque d'ombre

La densité des trous dans le masque d'ombre fixe une limite supérieure à la résolution prise en charge par ce moniteur. Les résolutions inférieures fonctionnent très bien, il n'est pas nécessaire que les pixels logiques de l'image soient alignés avec les trous physiques du masque (il n'y a pas non plus de mécanisme pour que cela se produise), et vous pouvez donc considérer cela comme les "pixels plus gros " de l'image en basse résolution recouvrant simplement plus d'un trou ou fente dans le masque.

À mesure que la taille effective des pixels de l'image approche l'espacement des trous de masque, les pixels individuels ne sont plus garantis pour couvrir suffisamment de points de phosphore sur l'écran pour garantir qu'ils sont de couleur constante ou de luminance constante, mais une image sera toujours affichée qui EN MOYENNE (sur une zone raisonnablement grande) semble OK. En fait, le format "haut de gamme" spécifié ("résolution") pour la plupart des moniteurs est généralement égal ou légèrement au-delà de ce point - la taille effective des pixels est quelque peu SOUS le pas de point.

Points isolés sur l'affichage

Vous pouvez facilement faire la distinction entre les problèmes vidéo et les problèmes CRT - les pixels manquants dus à la source vidéo se déplaceront à l'écran lorsque vous changerez la position de la trame. Les défauts du tube cathodique resteront stationnaires par rapport à l'écran et seront généralement également bien plus nettement délimités.

Il existe une spécification pour le nombre et la taille des défauts acceptables du tube cathodique, vous devrez donc peut-être vous plaindre un peu pour convaincre le vendeur de fournir un moniteur de remplacement sous garantie.

Blob violet - ou pire

Y a-t-il une chance que quelqu'un ait agité un aimant pour entendre le tube ? Retirez-le et/ou déplacez tous les éléments comme les haut-parleurs monstres loin de l'ensemble.

Votre enfant expérimentait-il des explosifs nucléaires ? Un IEM magnétiserait le tube cathodique. Les éclairs à proximité peuvent avoir un effet similaire.

Si la démagnétisation n'aide pas, il est possible que quelque chose se soit déplacé sur le tube cathodique - il existe une variété de petits aimants qui sont collés au moment de la fabrication pour ajuster la pureté. Il y a aussi des ajustements de service, mais il est peu probable (mais pas impossible) que ceux-ci aient changé soudainement. Cela peut être une tâche pour un atelier d'entretien, mais vous pouvez vous y essayer si vous obtenez le Photofact ou le manuel d'entretien de Sams - n'essayez pas d'effectuer des ajustements de pureté sans un.

Si le moniteur ou le téléviseur est tombé, le masque d'ombre interne du tube cathodique peut s'être déformé ou s'être détaché et vous avez maintenant un grammage de cent livres. Si la décoloration est légère, des aimants « réfrigérateur » soigneusement placés autour de la périphérie du tube peuvent aider. Voir la section : Correction d'aimant pour les problèmes de pureté - Si le ruban adhésif fonctionne, utilisez-le !.

Il est même possible qu'il s'agisse d'une 'fonctionnalité' complémentaire du constructeur. Si certains composants comme les transformateurs et les haut-parleurs sont de conception inférieure et/ou sont situés trop près du tube cathodique, ils pourraient avoir un effet sur la pureté. Même si vous n'aviez pas remarqué le problème lorsque l'ensemble était neuf, il pouvait toujours avoir été marginal et maintenant une décoloration est visible en raison de légers changements ou du mouvement des composants au fil du temps.

Correction de l'aimant pour les problèmes de pureté - Si le ruban adhésif fonctionne, utilisez-le !

Dans tous les cas, d'abord, déplacez ces haut-parleurs mégablaster et ce scanner IRM avec les aimants supraconducteurs.

L'ajout de quelques aimants de force modérée soigneusement placés pour réduire ou éliminer les problèmes de pureté dus à un masque d'ombre déformé ou disloqué peut suffire à rendre le téléviseur utilisable, voire parfait. Le type d'aimants que vous souhaitez sont vendus sous le nom d'« aimants de réfrigérateur » et autres pour coller des notes sur des surfaces en acier. Ceux-ci seront en ferrite (sans aucun acier) et seront des disques ou des rectangles. Expérimentez avec le placement en utilisant du ruban adhésif pour les maintenir en place temporairement. Démagnétisez périodiquement pour évaluer l'état de vos efforts. Ensuite, rendez la «réparation» permanente en utilisant du ruban adhésif en toile ou un scellant en silicone ou un autre adhésif ménager.

Selon la gravité du problème de pureté, vous aurez peut-être besoin de plusieurs aimants ! Cependant, ne vous laissez pas emporter et utilisez de GRANDS aimants de haut-parleur ou de magnétron - vous aggraverez les problèmes.

Notez également qu'à moins que les aimants ne soient placés près de l'avant du tube cathodique, une distorsion géométrique très importante de l'image se produira - ce qui peut être un remède pire que la maladie.

ATTENTION : Ne vous emballez pas lors du positionnement des aimants - vous serez à proximité de tensions assez désagréables !

(De : M. Caldwell ([email protected]).)

Je me suis retrouvé avec le vieux truc du "coincé sur une île déserte":

J'ai scotché 2 aimants Radio Shack sur le boîtier, de manière à tirer le faisceau vers l'arrière.

Une solution à 2 $ pour un problème à 200 $. Mon ami est heureux comme diable.

RCA vend des aimants pour corriger la convergence des coins, ils ont la forme de chevrons et vous les collez au «bon» endroit à l'arrière du tube cathodique.

Quelle inclinaison est acceptable ?

(De : David Kuhajda ([email protected]).)

Une inclinaison de 1 degré compte tenu de l'effet du champ magnétique terrestre est bien dans la tolérance pour un téléviseur 27". Plus le tube image est grand, plus l'effet d'inclinaison du champ magnétique terrestre est perceptible. Même un haut-parleur blindé peut en avoir juste assez champ magnétique pour provoquer une légère inclinaison. 1 degré, cependant, est tout sauf un problème sérieux. Vous remarquerez probablement que vous avez tourné le téléviseur à 180 degrés sur son axe que l'inclinaison serait alors l'autre était. La norme d'usine est d'avoir l'image bien droite lorsque l'arrière du téléviseur fait face au nord magnétique. L'inclinaison réelle mesurée que nous avons vue atteint 3 degrés sur un téléviseur de 36". C'est pourquoi les téléviseurs haut de gamme plus grands ont un ajustement pour l'inclinaison de l'image.

Qu'est-ce que Doming ?

  1. Le doming est une déformation du masque perforé ou de sa structure de support causée par le chauffage et l'expansion subséquente dans les zones lumineuses (courant de faisceau élevé) de l'image. Ceci provoque un décalage de position des trous ou fentes finement espacés dans le masque. Le résultat sera des problèmes de pureté des couleurs - des variations de décoloration et de luminosité. Pour un tube cathodique à pas de point de 0,28 mm, un changement de seulement 0,14 mm dans la position d'un trou ou d'une fente peut totalement déplacer l'affichage d'une des couleurs primaires à une autre.
  2. Les masques d'ombre InVar peuvent supporter une densité de courant nettement plus élevée que les masques d'ombre en acier (jusqu'à 3:1) sans problèmes notables.

  • Influences des champs magnétiques ambiants (tels que le champ magnétique terrestre).
  • Masque d'ombre en forme de doming.
  • Tolérances apparaissant dans la production de tubes cathodiques.
  • Configuration moins qu'optimale des réglages de pureté (position de la fourche, anneaux sur le col du tube cathodique, etc.

Si des plaintes de décoloration surviennent, cela ne sera normalement pas dû à des modifications du comportement du dôme, mais à des modifications de la protection contre les champs magnétiques.

    Les téléviseurs et les moniteurs qui sont maintenus en mode « veille » pendant une longue période peuvent ne jamais être démagnétisés de manière adéquate car le circuit de démagnétisation ne peut fonctionner que pendant une courte période après que l'appareil est allumé à froid - que ce soit le cas avec votre appareil dépend de la conception). Dans ce cas, ils peuvent capter les champs magnétiques des aimants déplacés à proximité ou d'autres équipements.


3 réponses 3

Vérifiez vos feuilles de style pour quelque chose comme ceci :

Si vous trouvez cela, essayez de supprimer ou de modifier le type d'affichage.

1) Vérifiez votre CSS. Quelque part à l'intérieur :

Vérifiez toutes les feuilles de style incluses pour cette page. Une autre feuille de style peut remplacer celle que vous avez fournie.

2) Essayez de faire du "débogage". Par exemple, utilisez le module complémentaire Firebug pour Firefox, accédez à l'onglet HTML et déplacez votre souris sur cette balise (dans la partie code). Il sera mis en surbrillance (sur la page) avec des couleurs différentes selon qu'il s'agissait d'une marge, d'un rembourrage, etc. Je déplace simplement ma souris sur le code et il met en surbrillance la balise avec des espaces autour de différentes couleurs. Cela peut aider à avoir une idée du mot-clé à trouver dans la feuille de style.

3) Essayez de désactiver toutes les feuilles de style CSS héritées pour la balise "a". Par exemple, placez ce morceau de code sur votre page html :

4) Si vous utilisez DHTML, JavaScript, jQuery onload event - désactivez-le temporairement. Si les espaces reviennent à la normale, alors nous savons exactement que le problème est dans la portée de JavaScript. Déboguez JavaScript étape par étape pour trouver l'endroit exact où le remplissage (ou une autre propriété) est défini sur la balise "a".


Veuillez noter que dans la littérature, les termes région et zone sont souvent utilisés de manière interchangeable, le terme zone étant préféré lorsqu'une région est rectangulaire. Cependant, pour plus de simplicité, nous utiliserons le terme région pour désigner soit une zone, soit une région polygonale dans ce document.

Lucas, S.M., et al. : Concours de lecture robustes ICDAR 2003 : entrées, résultats et orientations futures. Int. J. Doc. Anal. Reconnaître. 7(2–3), 105–122 (2005)

Shahab, A., Shafait, F., Dengel, A. : défi de la compétition de lecture robuste ICDAR 2011 2 : lecture de texte dans des images de scène. Dans : 2011 Conférence internationale sur l'analyse et la reconnaissance de documents (ICDAR), pp. 1491-1496 (2011)

Yin, X.C., Zuo, Z.Y., Tian, ​​S., Liu, C.L. : Détection, suivi et reconnaissance de texte en vidéo : une enquête complète. IEEE Trans. Processus d'image. 25(6), 2752–2773 (2016)

Tran, T.-A., Na, I.-S., Kim, S.-H. : Séparation du texte et du non-texte dans l'analyse de la mise en page des documents à l'aide d'un filtre récursif. KSII Trans. Internet Inf. Syst. 9(10), 4072–4091 (2015)

Yu, C., Song, Y., Zhang, Y. : localisation du texte de la scène à l'aide de l'analyse des contours et du pool de fonctionnalités. Neuroinformatique 175, 652–661 (2016)

Asif, M.D.A., Tariq, U.U., Baig, M.N., Ahmad, W. : Une nouvelle méthode hybride pour la détection et l'extraction de texte à partir de vidéos d'actualités. Moyen-Orient J. Sci. Rés. 19(5), 716–722 (2014)

Sarkar, R., Moulik, S., Das, N., Basu, S., Nasipuri, M., Kundu, M. : Suppression des composants non textuels dans les images de documents manuscrits. Dans : 2011 Conférence internationale sur le traitement de l'information par image (ICIIP)

Wahl, F.M., Wong, K.Y., Casey, R.G. : segmentation par blocs et extraction de texte dans des documents mixtes texte/image. Calcul. Graphique. Processus d'image. 20(4), 375–390 (1982)

Bunke, H. : Interprétation automatique des lignes et du texte dans les schémas de circuits. Dans : Kittler, J., Fu, K.S., Pau, L.F. (éds.) Pattern Recognition Theory and Applications, pp. 297-310. Springer, Berlin (1982)

Fletcher, L.A., Kasturi, R. : Un algorithme robuste pour la séparation de chaînes de texte à partir d'images mixtes texte/graphiques. IEEE Trans. Modèle Anal. Mach. Informer. 10(6), 910–918 (1988)

Kamel, M., Zhao, A. : Extraction d'images de caractères/graphiques binaires à partir d'images de documents en niveaux de gris. Graphique CVGIP. Processus d'image des modèles. 55(3), 203–217 (1993)

Wendling, L., Tabbone, S. : Une nouvelle façon de détecter les flèches dans les dessins au trait. IEEE Trans. Modèle Anal. Mach. Informer. 26, 935–941 (2004)

Bukhari, S.S., Azawi, A., Ali, M.I., Shafait, F., Breuel, T.M. : Documentez la segmentation d'images par apprentissage discriminant sur des composants connectés. Dans : Actes du 9e IAPR International Workshop on Document Analysis Systems, pp. 183-190 (2010)

Okun, O., Drmann, D., Pietikainen, M. : Segmentation des pages et classification des zones : état de l'art, document DTIC (1999)

Chiang, Y.-Y., Leyk, S., Knoblock, C.A. : Une étude des techniques de traitement des cartes numériques. Calcul ACM. Surv. 47(1), 1 (2014)

Dori, D., Wenyin, L. : Conversion CAO automatisée avec le système de compréhension de dessin de machine : concepts, algorithmes et performances. IEEE Trans. Syst. Homme Cybern. Partie A 29(4), 411–416 (1999)

Ye, Q., Doermann, D. : Détection et reconnaissance de texte dans l'imagerie : une enquête. IEEE Trans. Modèle Anal. Mach. Informer. 37(7), 1480–1500 (2015)

Van Phan, T., Nakagawa, M. : classification texte/non-texte dans les documents manuscrits en ligne avec réseaux de neurones récurrents. Dans : 2014 14th International Conference on Frontiers in Handwriting Recognition (ICFHR), pp. 23-28 (2014)

Karatzas, D., Antonacopoulos, A. : Segmentation de texte en couleur dans des images Web basée sur la perception humaine. Image Vis. Calcul. 25, 564–577 (2007)

Van Phan, T., Nakagawa, M. : Combinaison de contextes globaux et locaux pour la classification texte/non-texte dans des documents manuscrits en ligne hétérogènes. Reconnaissance de modèle. 51, 112–124 (2016)

Delaye, A., Liu, C.-L. : Classification contextuelle des traits textuels/non textuels dans les notes manuscrites en ligne avec des champs aléatoires conditionnels. Reconnaissance de modèle. 47(3), 959–968 (2014)

Delaye, A., Liu, C.-L. : Segmentation multi-classes de documents en ligne de forme libre avec des champs aléatoires conditionnels arborescents. Int. J. Doc. Anal. Reconnaître. 17(4), 313–329 (2014)

Degtyarenko, I., Radyvonenko, O., Bokhan, K., Khomenko, V. : classificateur de texte/forme pour applications mobiles avec saisie manuscrite. Int. J. Doc. Anal. Reconnaître. 19(4), 369–379 (2016)

Bresler, M., Pråša, D., Hlaváč, V. : Reconnaissance en ligne de diagrammes esquissés par flèches. Int. J. Doc. Anal. Reconnaître. 19(3), 253–267 (2016)

Lucas, S.M. : texte ICDAR 2005 localisant les résultats des compétitions. Dans : Huitième Conférence internationale sur l'analyse et la reconnaissance de documents, 2005. Actes, pp. 80-84 (2005)

Yao et al., C. : Compréhension du texte de la scène incidente : progrès récents sur le défi du concours de lecture robuste ICDAR 2015 4. arXiv Prepr. arXiv1511.09207 (2015)

Zhong, Y., Zhang, H., Jain, A.K. : localisation automatique des sous-titres dans la vidéo compressée. IEEE Trans. Modèle Anal. Mach. Informer. 22(4), 385–392 (2000)

Ye, Q., Huang, Q., Gao, W., Zhao, D. : Détection de texte rapide et robuste dans les images et les trames vidéo. Image Vis. Calcul. 23(6), 565–576 (2005)

Haritaoglu, I. : Extraction et traduction de textes de scènes pour appareils portables. Dans : Actes de la conférence 2001 de l'IEEE Computer Society sur la vision par ordinateur et la reconnaissance de formes, CVPR 2001, vol. 2, p. II-408 (2001)

Chen, X., Yang, J., Zhang, J., Waibel, A. : Détection et reconnaissance automatique de signes à partir de scènes naturelles. IEEE Trans. Processus d'image. 13(1), 87–99 (2004)

Sermanet, P., Chintala, S., LeCun, Y. : Réseaux de neurones convolutifs appliqués à la classification des chiffres des numéros de maison. Dans : 2012 21e Conférence internationale sur la reconnaissance des formes (ICPR), pp. 3288–3291 (2012)

He, Z., Liu, J., Ma, H., Li, P. : Une nouvelle méthode d'extraction automatique des codes d'identité des conteneurs. IEEE Trans. Informer. Transp. Syst. 6(1), 72–78 (2005)

Lienhart, R., Wernicke, A. : Localisation et segmentation du texte dans les images et les vidéos. IEEE Trans. Système de circuits Technologie vidéo. 12(4), 256–268 (2002)

Lu, S., Chen, T., Tian, ​​S., Lim, J.-H., Tan, C.-L. : Extraction de texte de scène basée sur les contours et la régression des vecteurs de support. Int. J. Doc. Anal. Reconnaître. 18(2), 125–135 (2015)

Weinman, J.J., Learned-Miller, E., Hanson, A.R. : Reconnaissance de texte de scène utilisant la similarité et un lexique avec une propagation de croyance clairsemée. IEEE Trans. Modèle Anal. Mach. Informer. 31(10), 1733–1746 (2009)

Clark, P., Mirmehdi, M. : Reconnaître du texte dans des scènes réelles. Int. J. Doc. Anal. Reconnaître. 4(4), 243–257 (2002)

Perantonis, S.J., Gatos, B., Maragos, V., Karkaletsis, V., Petasis, G. : identification de la zone de texte dans les images Web. Dans : Vouros, G.A., Panayiotopoulos, T. (éd.) Methods and Applications of Artificial Intelligence, pp. 82-92. Springer, Berlin (2004)

Lopresti, D., Zhou, J. : Localiser et reconnaître du texte dans les images WWW. Inf. Rétr. Boston 2(2–3), 177–206 (2000)

Brown, M.K., Glinski, S.C., Schmult, B.C. : analyse de pages Web pour la navigation vocale. Dans : Actes du 1er Atelier international sur l'analyse de documents Web (WDA'2001), pp. 59-61 (2001)

Penn, G., Hu, J., Luo, H., McDonald, R. : analyse flexible de documents Web pour la diffusion sur des appareils à bande passante étroite. Dans : Analyse et reconnaissance de documents (ICDAR), p. 1074 (2001)

Antonacopoulos, A., Hu, J. : Analyse de documents Web : défis et opportunités, vol. 55. World Scientific, Singapour (2003)

Lu, Z. : Détection de zones de texte à partir de dessins techniques numériques. IEEE Trans. Modèle Anal. Mach. Informer. 20, 431–439 (1998)

Haralick, R.M., Queeney, D. : Comprendre les dessins techniques. Calcul. Graphique. Processus d'image. 20(3), 244–258 (1982)

Le, V.P., Nayef, N., Visani, M., Ogier, J.-M., De Tran, C. : Segmentation textuelle et non textuelle basée sur les caractéristiques des composants connectés. Dans : 13th International Conference on Document Analysis and Recognition (ICDAR), pp. 1096–1100 (2015)

Jayadevan, R., Kolhe, S.R., Patil, P.M., Pal, U. : Traitement automatique des images manuscrites de chèques bancaires : une enquête. Int. J. Doc. Anal. Reconnaître. 15(4), 267–296 (2012)

Hönes, F., Lichter, J. : Extraction de mise en page de documents en mode mixte. Mach. Vis. Appl. 7(4), 237–246 (1994)

Images de documents manuscrits. https://goo.gl/images/WyKY7e. Consulté : 08 sept. 2017

Chen, Y.-L., Hong, Z.-W., Chuang, C.-H. : Un système basé sur la connaissance pour extraire des lignes de texte à partir d'images de documents composés de texte/graphiques mixtes et superposés. Système d'experts. Appl. 39(1), 494–507 (2012)

Zagoris, K., Chatzichristofis, S.A., Papamarkos, N. : localisation de texte à l'aide de l'analyse de l'écart type des éléments de structure et des machines à vecteurs de support. EURASIP J. Adv. Processus de signal. 2011(1), 1–12 (2011)

Emmanouilidis, C., Batsalas, C., Papamarkos, N. : Développement et évaluation de techniques de localisation de texte basées sur des caractéristiques de texture structurelle et des classificateurs neuronaux. Dans : 10th International Conference on Document Analysis and Recognition, ICDAR’09, pp. 1270-1274 (2009)

Vu, H.N., Tran, T.A., Na, I.S., Kim, S.H. : extraction automatique de régions de texte à partir d'images de documents par seuillage à plusieurs niveaux et regroupement de k-moyennes. Dans : 2015 IEEE/ACIS 14th International Conference on Computer and Information Science (ICIS), pp. 329–334 (2015)

Sobottka, K., Kronenberg, H., Perroud, T., Bunke, H.: Text extraction from colored book and journal covers. Int. J. Doc. Anal. Recognit. 2(4), 163–176 (2000)

Roy, P.P., Llados, J., Pal, U.: Text/graphics separation in color maps. In: Proceedings—International Conference on Computing: Theory and Applications, ICCTA 2007 (2007)

Chiang, Y.-Y., Knoblock, C.A.: Recognizing text in raster maps. Geoinformatica 19(1), 1–27 (2015)

Oyedotun, O.K., Khashman, A.: Document segmentation using textural features summarization and feedforward neural network. Appl. Informer. 45, 1–15 (2016)

Vil’kin, A.M., Safonov, I.V., Egorova, M.A.: Algorithm for segmentation of documents based on texture features. Pattern Recognit. Image Anal. 23(1), 153–159 (2013)

Lin, M.W., Tapamo, J.-R., Ndovie, B.: A texture-based method for document segmentation and classification. S. Afr. Calcul. J. 36(1), 49–56 (2006)

Shih, F.Y., Chen, S.S.: Adaptive document block segmentation and classification. IEEE Trans. Syst. Man Cybern. Part B 26(5), 797–802 (1996)

Park, H.C., Ok, S.Y., Cho, H.: Word extraction in text/graphic mixed image using 3-dimensional graph model. ICCPOL 99, 171–176 (1999)

Antonacopoulos, A., Ritchings, R.T.: Representation and classification of complex-shaped printed regions using white tiles. In: Proceedings of the 3rd International Conference on Document Analysis and Recognition, August 14–16, pp. 1132–1135 (1995)

Bhowmik, S., Sarkar, R., Nasipuri, M.: Text and non-text separation in handwritten document images using local binary pattern operator. In: Proceedings of the First International Conference on Intelligent Computing and Communication, pp. 507–515 (2017)

Chen, Y.L., Wu, B.F.: A multi-plane approach for text segmentation of complex document images. Pattern Recognit. 42, 1419–1444 (2009)

Strouthopoulos, C., Papamarkos, N., Atsalakis, A.E.: Text extraction in complex color documents. Pattern Recognit. 35(8), 1743–1758 (2002)

Cao, R., Tan, C.L.: Text/graphics separation in maps. In: Blostein, D., Kwon, Y.B. (eds.) Graphics Recognition Algorithms and Applications, pp. 167–177. Springer, Berlin (2001)

Chiang, Y.Y., Knoblock, C.A.: An approach for recognizing text labels in raster maps. In: Proceedings—International Conference on Pattern Recognition (2010)

Velázquez, A., Levachkine, S.: Text/graphics separation and recognition in raster-scanned color cartographic maps. In: Lladós, J., Kwon, Y.-B. (eds.) Graphics Recognition. Recent Advances and Perspectives, pp. 63–74. Springer, Berlin (2003)

Baird, H.S., Jones, S.E., Fortune, S.J.: Image segmentation by shape-directed covers. In: Pattern Recognition, 1990. 10th International Conference on Proceedings, vol. 1, pp. 820–825 (1990)

Ha, J., Haralick, R.M., Phillips, I.T.: Recursive XY cut using bounding boxes of connected components. Proceedings of the Third International Conference on Document Analysis and Recognition 2, 952–955 (1995)

Sun, H.-M.: Page segmentation for Manhattan and Non-Manhattan layout documents via selective CRLA. In: Eighth International Conference on Document Analysis and Recognition (ICDAR’05), pp. 116–120 (2005)

Agrawal, M., Doermann, D.: Voronoi++: a dynamic page segmentation approach based on voronoi and docstrum features. In: 2009 10th International Conference on Document Analysis and Recognition, pp. 1011–1015 (2009)

Ferilli, S., Basile, T., Esposito, F.: A histogram-based technique for automatic threshold assessment in a run length smoothing-based algorithm. In: Proceedings of the 9th IAPR International Workshop on Document Analysis Systems, pp. 349–356 (2010)

Pan, Y., Zhao, Q., Kamata, S.: Document layout analysis and reading order determination for a reading robot. In: TENCON 2010–2010 IEEE Region 10 Conference, pp. 1607–1612 (2010)

Jain, A.K., Yu, B.: Document representation and its application to page decomposition. IEEE Trans. Modèle Anal. Mach. Informer. 20(3), 294–308 (1998)

Smith, R.W.: Hybrid page layout analysis via tab-stop detection. In: 2009 10th International Conference on Document Analysis and Recognition, pp. 241–245 (2009)

Chen, K., Yin, F., Liu, C.L.: Hybrid page segmentation with efficient whitespace rectangles extraction and grouping. In: 2013 12th International Conference on Document Analysis and Recognition, pp. 958–962 (2013)

Fan, K.-C., Wang, L.-S.: Classification of document blocks using density feature and connectivity histogram. Pattern Recognit. Lett. 16(9), 955–962 (1995)

Antonacopoulos, A., Ritchings, R.T.: Representation and classification of complex-shaped printed regions using white tiles. Proceedings of the Third International Conference on Document Analysis and Recognition 2, 1132–1135 (1995)

Pavlidis, T., Zhou, J.: Page segmentation and classification. CVGIP Graph. Models Image Process. 54(6), 484–496 (1992)

Drivas, D., Amin, A.: Page segmentation and classification utilising a bottom-up approach. Proceedings of the Third International Conference on Document Analysis and Recognition 2, 610–614 (1995)

Chowdhury, S.P., Mandal, S., Das, A.K., Chanda, B.: Segmentation of text and graphics from document images. In: Ninth International Conference on Document Analysis and Recognition, ICDAR 2007, vol. 2, pp. 619–623 (2007)

Bloomberg, D.S.: Multiresolution morphological approach to document image analysis. In: Proceedings of the International Conference on Document Analysis and Recognition, Saint-Malo, France (1991)

Bukhari, S.S., Shafait, F., Breuel, T.M.: Improved document image segmentation algorithm using multiresolution morphology. In: IS&T/SPIE Electronic Imaging, pp. 78740D–78740D (2011)

Ablameyko, S.V., Uchida, S.: Recognition of engineering drawing entities: review of approaches. Int. J. Image Graph. 7(4), 709–733 (2007)

Tombre, K., Tabbone, S., Pélissier, L., Lamiroy, B., Dosch, P.: Text/graphics separation revisited. In: Lopresti, D., Hu, J., Kashi, R. (eds.) Document Analysis Systems V, pp. 200–211. Springer, Berlin (2002)

Lin, S.-C., Ting, C.-K.: A new approach for detection of dimensions set in mechanical drawings. Pattern Recognit. Lett. 18(4), 367–373 (1997)

Ah-Soon, C., Tombre, K.: Variations on the analysis of architectural drawings. Proceedings of the Fourth International Conference on Document Analysis and Recognition 1, 347–351 (1997)

Lai, C.P., Kasturi, R.: Detection of dimension sets in engineering drawings. IEEE Trans. Modèle Anal. Mach. Informer. 16(8), 848–855 (1994)

Do, T.-H., Tabbone, S., Ramos-Terrades, O.: Text/graphic separation using a sparse representation with multi-learned dictionaries. In: 2012 21st International Conference on Pattern Recognition (ICPR), pp. 689–692 (2012)

De, P., Mandal, S., Bhowmick, P., Das, A.: ASKME: adaptive sampling with knowledge-driven vectorization of mechanical engineering drawings. Int. J. Doc. Anal. Recognit. 19(1), 11–29 (2016)

Favreau, J.-D., Lafarge, F., Bousseau, A.: Fidelity vs. simplicity: a global approach to line drawing vectorization. ACM Trans. Graph. 35, 120 (2016)

Dori, D., Velkovitch, Y.: Segmentation and recognition of dimensioning text from engineering drawings. Calcul. Vis. Image Underst. 69(2), 196–201 (1998)

Casey, R., Ferguson, D., Mohiuddin, K., Walach, E.: Intelligent forms processing system. Mach. Vis. Appl. 5(3), 143–155 (1992)

Yu, B., Jain, A.K.: A generic system for form dropout. IEEE Trans. Modèle Anal. Mach. Informer. 18(11), 1127–1134 (1996)

Wang, D., Srihari, S.N.: Analysis of form images. Int. J. Pattern Recognit. Artif. Informer. 8(5), 1031–1052 (1994)

Hori, O., Doermann, D.S.: Robust table-form structure analysis based on box-driven reasoning. Proceedings of the Third International Conference on Document Analysis and Recognition 1, 218–221 (1995)

Dzuba, G., Filatov, A., Gershuny, D., Kil, I., Nikitin, V.: Check amount recognition based on the cross validation of courtesy and legal amount fields. Int. J. Pattern Recognit. Artif. Informer. 11(4), 639–655 (1997)

Heutte, L., et al.: Multi-bank check recognition system: consideration on the numeral amount recognition module. Int. J. Pattern Recognit. Artif. Informer. 11(4), 595–618 (1997)

Knerr, S., Anisimov, V., Baret, O., Gorski, N., Price, D., Simon, J.-C.: The A2iA intercheque system: courtesy amount and legal amount recognition for French checks. Int. J. Pattern Recognit. Artif. Informer. 11(4), 505–548 (1997)

Govindaraju, V., Srihari, S.N.: Separating handwritten text from interfering strokes. In: From Pixels to Features. III Front. Handwritten Recognition, pp. 17–28 (1992)

Dimauro, G., Impedovo, S., Pirlo, G., Salzo, A.: Removing underlines from handwritten text: an experimental investigation. In: Impedovo, S., Downton, A.C. (eds.) Progress in Handwriting Recognition, pp. 497–501. World Scientific (1997)

Akiyama, T., Hagita, N.: Automated entry system for printed documents. Pattern Recognit. 23(11), 1141–1154 (1990)

Liu, K., Suen, C.Y., Cheriet, M., Said, J.N., Nadal, C., Tang, Y.Y.: Automatic extraction of baselines and data from check images. Int. J. Pattern Recognit. Artif. Informer. 11(4), 675–697 (1997)

Hase, H., Shinokawa, T., Yoneda, M., Suen, C.Y.: Character string extraction from color documents. Pattern Recognit. 34(7), 1349–1365 (2001)

Clavelli, A., Karatzas, D.: Text segmentation in colour posters from the Spanish civil war era. In: 10th International Conference on Document Analysis and Recognition, ICDAR’09, pp. 181–185 (2009)

Li, L., Nagy, G., Samal, A., Seth, S., Xu, Y.: Integrated text and line-art extraction from a topographic map. Int. J. Doc. Anal. Recognit. 2, 177–185 (2000)

Dhar, D.B., Chanda, B.: Extraction and recognition of geographical features from paper maps. Int. J. Doc. Anal. Recognit. 8(4), 232–245 (2006)

Cordeiro, A., Pina, P.: Colour map object separation. In: Proceedings of the ISPRS Mid-Term Symposium 2006, Remote Sensing: From Pixels to Processes, pp. 243–247 (2006)

San, L.M., Yatim, S.M., Sheriff, N.A.M., Isrozaidi, N.: Extracting contour lines from scanned topographic maps. In: International Conference on Computer Graphics, Imaging and Visualization, CGIV 2004. Proceedings, pp. 187–192 (2004)

Chen, Y., Wang, R., Qian, J.: Extracting contour lines from common-conditioned topographic maps. IEEE Trans. Geosci. Remote Sens. 44(4), 1048–1057 (2006)

Leyk, S.: Segmentation of colour layers in historical maps based on hierarchical colour sampling. In: International Workshop on Graphics Recognition, pp. 231–241 (2009)

Kasturi, R., Bow, S.T., El-Masri, W., Shah, J., Gattiker, J.R., Mokate, U.B.: A system for interpretation of line drawings. IEEE Trans. Modèle Anal. Mach. Informer. 12(10), 978–992 (1990)

Raveaux, R., Eugen, B., Locteau, H., Adam, S., Héroux, P., Trupin, E.: A graph classification approach using a multi-objective genetic algorithm application to symbol recognition. In: International Workshop on Graph-Based Representations in Pattern Recognition, pp. 361–370 (2007)

Raveaux, R., Burie, J.-C., Ogier, J.-M.: Object extraction from colour cadastral maps. In: The Eighth IAPR International Workshop on Document Analysis Systems, DAS’08, pp. 506–514 (2008)

Pezeshk, A., Tutwiler, R.L.: Automatic feature extraction and text recognition from scanned topographic maps. IEEE Trans. Geosci. Remote Sens. 49, 5047–5063 (2011)

Chiang, Y.-Y., Knoblock, C.A.: Recognition of multi-oriented, multi-sized, and curved text. In: International Conference on Document Analysis and Recognition, pp. 1399–1403 (2011)

Chiang, Y.-Y., Knoblock, C.A.: A general approach for extracting road vector data from raster maps. Int. J. Doc. Anal. Recognit. 16(1), 55–81 (2013)

Nazari, N.H., Tan, T., Chiang, Y.-Y.: Integrating text recognition for overlapping text detection in maps. Electron. Imagerie 2016(17), 1–8 (2016)

Kavitha, A.S., Shivakumara, P., Kumar, G.H., Lu, T.: Text segmentation in degraded historical document images. Egypt. Informer. J. 17, 189–197 (2016)

Shivakumara, P., Sreedhar, R.P., Phan, T.Q., Lu, S., Tan, C.L.: Multioriented video scene text detection through Bayesian classification and boundary growing. IEEE Trans. Circuits Syst. Video Technol. 22(8), 1227–1235 (2012)

Cohen, R., Asi, A., Kedem, K., El-Sana, J., Dinstein, I.: Robust text and drawing segmentation algorithm for historical documents. In: Proceedings of the 2nd International Workshop on Historical Document Imaging and Processing, pp. 110–117 (2013)

Mendelson, E.: ABBYY finereader professional 9.0. PC Mag. (2008)

Breuel, T.M.: The OCRopus open source OCR system. Electron. Imagerie 2008, 68150F–68150F (2008)

Smith, R.W.: History of the Tesseract OCR engine: what worked and what didn’t. In: IS&T/SPIE Electronic Imaging, p. 865802 (2013)

Lichman, M.: UCI Machine Learning Repository, University of California, School of Information and Computer Science, Irvine, CA, (2013). http://archive.ics.uci.edu/ml. Accessed Oct 2017

Antonacopoulos, A., Bridson, D., Papadopoulos, C., Pletschacher, S.: A realistic dataset for performance evaluation of document layout analysis. In: 10th International Conference on Document Analysis and Recognition, ICDAR’09, pp. 296–300 (2009)

The MediaTeam document database II. http://www.mediateam.oulu.fi/downloads/MTDB/. Accessed Oct 2017

Islamic Heritage Project (IHP) Collection. http://ocp.hul.harvard.edu/ihp/. Accessed Oct 2017

6-Inch Historical Ordnance Survey Maps of the United Kingdom (UK). http://maps.nls.uk/os/6inch-england-and-wales/info2.html. Accessed Oct 2017

Wang, D., Srihari, S.N.: Classification of newspaper image blocks using texture analysis. Calcul. Vis. Graph. Image Process. 47(3), 327–352 (1989)

Liu, W.Y., Dori, D.: A proposed scheme for performance evaluation of graphics/text separation algorithms. Graph. Recognit. Algorithms Syst. 1389, 359–371 (1998)

Shafait, F.: Camera-Based Document Analysis and Recognition. Springer, Berlin (2007)

Kasar, T., Kumar, J., Ramakrishnan, A.G.: Font and background color independent text binarization. In: Second International Workshop on Camera-based Document Analysis and Recognition, pp. 3–9 (2007)

Drivas, D., Amin, A.: Page Segmentation and Classification Utilising Bottom-Up Approach. In: Proceedings of the 3rd International Conference on Document Analysis and Recognition, Aug 14–16, pp. 0–4 (1995)

Tran, T.A., Oh, K., Na, I.-S., Lee, G.-S., Yang, H.-J., Kim, S.-H.: A robust system for document layout analysis using multilevel homogeneity structure. Expert Syst. Appl. 85, 99–113 (2017)

Tran, T.A., Na, I.S., Kim, S.H.: Page segmentation using minimum homogeneity algorithm and adaptive mathematical morphology. Int. J. Doc. Anal. Recognit. 19(3), 191–209 (2016)

Maderlechner, G.: Symbolic subtraction of fixed formatted graphics and text from filled in forms. In: Proceedings of the IAPR Workshop on Machine Vision and Applications, Tokyo, November 1990, pp. 457–459 (1990)

Doermann, D.S., Rosenfeld, A.: The interpretation and reconstruction of interfering strokes. De face. Handwrit. Recognit. 3, 41–50 (1993)

Tang, Y.Y., Suen, C.Y., De Yan, C., Cheriet, M.: Financial document processing based on staff line and description language. IEEE Trans. Syst. Man. Cybern. 25(5), 738–754 (1995)

Moghaddam, R.F., Cheriet, M.: A multi-scale framework for adaptive binarization of degraded document images. Pattern Recognit. 43(6), 2186–2198 (2010)

Hedjam, R., Moghaddam, R.F., Cheriet, M.: A spatially adaptive statistical method for the binarization of historical manuscripts and degraded document images. Pattern Recognit. 44(9), 2184–2196 (2011)

Howe, N.R.: Document binarization with automatic parameter tuning. Int. J. Doc. Anal. Recognit. 16(3), 247–258 (2013)

Mitianoudis, N., Papamarkos, N.: Document image binarization using local features and Gaussian mixture modeling. Image Vis. Calcul. 38, 33–51 (2015)

Mandal, S., Das, S., Agarwal, A., Chanda, B.: Binarization of degraded handwritten documents based on morphological contrast intensification. In: Third International Conference on Image Information Processing (ICIIP), pp. 73–78 (2015)

Adak, C., Maitra, P., Chaudhuri, B.B., Blumenstein, M.: Binarization of old halftone text documents. In: TENCON 2015–2015 IEEE Region 10 Conference, pp. 1–5 (2015)

Das, B., Bhowmik , S., Saha, A., sarkar, R.: An adaptive foreground-background separation method for effective binarization of document images. In: 8th International Conference on Soft Computing and Pattern Recognition (2016)

Kang, L., Doermann, D.: Template based segmentation of touching components in handwritten text lines. In: International Conference on Document Analysis and Recognition (ICDAR), pp. 569–573 (2011)

Liu, C.-L., Sako, H., Fujisawa, H.: Effects of classifier structures and training regimes on integrated segmentation and recognition of handwritten numeral strings. IEEE Trans. Modèle Anal. Mach. Informer. 26(11), 1395–1407 (2004)

Wang, Y., Liu, X., Jia, Y.: Statistical modeling and learning for recognition-based handwritten numeral string segmentation. In: 10th International Conference on Document Analysis and Recognition, ICDAR’09, pp. 421–425 (2009)

Papavassiliou, V., Stafylakis, T., Katsouros, V., Carayannis, G.: Handwritten document image segmentation into text lines and words. Pattern Recognit. 43(1), 369–377 (2010)

Wshah, S., Shi, Z., Govindaraju, V.: Segmentation of Arabic handwriting based on both contour and skeleton segmentation. In: 10th International Conference on Document Analysis and Recognition, ICDAR’09, pp. 793–797 (2009)


Voir la vidéo: Erase a Difficult Background in PaintShop Pro