Suite

Créer un Mapbook avec des textes hyperliens au format PDF à l'aide de QGIS Atlas?

Créer un Mapbook avec des textes hyperliens au format PDF à l'aide de QGIS Atlas?


J'utilise QGIS 2.8.1 Atlas et je crée un mapbook à l'aide d'une couche de grille contenant un attribut contenant une URL.

Je souhaite utiliser l'URL de l'attribut comme lien hypertexte dans le PDF une fois publié.

Y a-t-il juste une expression que je peux utiliser pour faire cela?


Malheureusement, QGIS ne semble pas gérer l'exportation d'hyperliens au format PDF pour le moment. Ainsi, même si vous parvenez à créer ces liens dans la mise en page, le lien ne sera pas actif.

Question connexe : lien HTML cliquable dans QGIS print composer pdf export ?

Problème de suivi des bogues QGIS.


ÉDITER: Voici un extrait de code Python pour créer un mapbook PDF à partir d'images QGIS Atlas en ajoutant des liens vers des tuiles voisines sur chaque page.

J'ai utilisé ce script pour ajouter des liens vers des images générées à partir d'un atlas QGIS et les lire sur ma liseuse au format PDF. Cela fonctionne très bien !


Dans QGIS 3 (et éventuellement dans votre version), vous pouvez ajouter une boîte HTML (menu du haut : Ajouter un élément > Ajouter du HTML) où vous pouvez ajouter un lien hypertexte. Si votre couche de grille est utilisée comme couche de couverture, l'ajout de l'URL doit être simple : vous pouvez utiliser l'expression [% "name-of-your-url-attribute" %] pour extraire le lien.

Dans la fenêtre de propriétés de votre cadre HTML, votre code ressemblerait à ceci :

[% "lien-titre" %]

Vous pouvez simplement ajouter un lien texte tel que http://www.google.com et lorsque vous créez le pdf, il s'agit d'un lien hypertexte cliquable.


Comparer différentes sources de données en examinant les associations entre les espaces verts environnants et le poids des enfants

Les études sur l'association entre les espaces verts environnants et le surpoids pendant l'enfance montrent des résultats incohérents, peut-être parce qu'elles diffèrent considérablement dans leur définition et leur mesure des espaces verts environnants. Notre objectif était d'évaluer si l'association des espaces verts avec le surpoids dépend de la mesure des espaces verts dans différentes sources de données.

Méthodes

Sur la base des données des examens d'entrée à l'école de 22 678 enfants dans la ville de Hanovre, en Allemagne, de 2010 à 14, l'association entre la disponibilité des espaces verts et le surpoids a été examinée. Trois sources différentes de disponibilité d'espaces verts ont été dérivées pour un ensemble de 51 zones de la ville : l'indice de végétation par différence normalisée (NDVI), l'ensemble de données OpenStreetMap (OSM) et l'ensemble de données Atlas urbain européen (UA). La concordance entre les indicateurs sur la quantité de couverture d'espaces verts a été comparée. L'association avec le score z de l'IMC des enfants, y compris les termes d'interaction potentiels, a été évaluée à l'aide d'une analyse de régression à plusieurs niveaux.

Résultats

La disponibilité des espaces verts par zone de district dérivée du NDVI était en moyenne de 42 %, de l'OSM de 29 % et de l'UC de 22 %, l'OSM et l'UA étant fortement corrélées. Seule la disponibilité des espaces verts dérivée du NDVI a montré une association avec le score z de l'IMC des enfants : plus la disponibilité des espaces verts était élevée, plus l'IMC était faible. La tendance à l'association était plus élevée pour les garçons et les enfants migrants que pour les filles et les non-migrants et se limitait aux niveaux les plus élevés de disponibilité d'espaces verts.

Conclusion

Les associations d'espaces verts avec le statut pondéral des enfants dépendent de la mesure d'espaces verts choisie. Les espaces verts environnants ont été mesurés de manière plus complète par le NDVI. Les sources de données basées sur des catégories d'utilisation des terres telles que l'AU et l'OSM peuvent être moins adaptées pour refléter les espaces verts environnants pertinents pour les résultats en matière de santé. Les mécanismes potentiels justifient une analyse et une enquête plus approfondies.


Malheureusement, j'ai essayé plusieurs choses différentes en utilisant les couches de verrouillage et en verrouillant divers éléments, etc. Tout fonctionne pour moi, vous voudrez peut-être mettre à jour votre version de QGIS si vous n'avez pas la plus récente. Si vous le faites, vous pouvez le signaler à QGIS.

Pour contourner le problème, si vous essayez de créer un seul compositeur avec plusieurs pages, vous souhaiterez peut-être échanger pour avoir plusieurs compositeurs, chacun avec une seule carte. Ou vous pourriez avoir le compositeur 'contrôlé par atlas'. Vous pouvez ensuite utiliser chaque polygone comme couche de couverture, en appliquant une petite marge pour que tout s'adapte parfaitement à la page. Voici la formation QGIS sur atlas : https://docs.qgis.org/2.8/en/docs/training_manual/forestry/forest_maps.html


L'inscription à l'atelier SIG pour l'automne 2016 est maintenant ouverte

Les inscriptions sont maintenant ouvertes pour le stage SIG (systèmes d'information géographique) du semestre d'automne, Introduction au SIG à l'aide de logiciels libres (avec QGIS). Les sessions auront lieu dans le GIS Lab du Baruch College :

L'atelier d'une journée se déroule de 9h à 16h30. Les étudiants diplômés actuels de la CUNY, les professeurs et le personnel, ainsi que les étudiants de premier cycle à temps plein de Baruch sont éligibles pour s'inscrire. L'inscription à l'avance est requise, les frais sont de 30 $ et comprennent un manuel d'instruction détaillé et un petit-déjeuner léger. Les participants doivent apporter leur propre ordinateur portable avec QGIS pré-installé afin de suivre le cours. Visitez la page GIS Practicum pour en savoir plus et pour vous inscrire : http://guides.newman.baruch.cuny.edu/gis/gisprac.

Bibliothécaires Baruch : n'hésitez pas à diffuser cette information aux étudiants et aux professeurs, mais n'hésitez pas à ne pas publier sur des listes de diffusion.


Tous les romans d'Austen sont dans le domaine public et disponibles gratuitement, par exemple auprès de Project Gutenberg.

« Persuasion » de Jane Austen dans le projet Gutenberg en ligne sur http://www.gutenberg.org/files/105/105-h/105-h.htm.

Art public par édition piétonne, en ligne sur http://www.pavementpoetry.com.

Des livres audio de Jane Austen, par exemple, sont également disponibles auprès de Project Gutenberg.

Les jardins de Hamilton sont les jardins publics locaux des auteurs, voir www.hamiltongardens.co.nz.

Les participants faisaient partie d'un cours sur l'IHM et les études d'utilisateurs et avaient été encouragés à poser des questions et à être critiques. Aucun participant n'avait étudié les bibliothèques numériques dans le cadre de sa formation formelle et les bibliothèques numériques n'ont été spécifiquement mentionnées à aucun participant.


Lorsqu'ils sont invités à publier une définition de Humanities Computing/Digital Humanities sur le forum en ligne « Day of Digital Humanities » :

Mots clés : Humanities Computing, Digital Humanities, discipline, interdiscipline, modes d'engagement, interactivité 2.0, visualisation, spatialisation, code

À une époque où de nombreuses personnes se tournent vers Internet pour obtenir des informations, la recherche par mot-clé est une stratégie tentante pour définir un domaine. Cependant, le terme de recherche le plus évident — humanités numériques — ne donne qu'une image partielle. Ce n'est pas une vedette-matière reconnue dans le système de classification de la Bibliothèque du Congrès des États-Unis et, selon Willard McCarty, des équivalents proches de « Informatique en sciences humaines » apparaissent en conjonction avec d'autres termes tels que sciences humaines, arts, philosophie et variantes de l'informatique, de l'informatique, de la technologie. , informatique , numérique et multimédia ( Humanities Computing , 2-3, 215). Certains sujets tels que les « arts » étaient également en dehors du champ d'application de l'informatique des sciences humaines dominée par l'imprimé. Les mots numérique et médias, trouvés par Andy Engel en faisant une recherche par mot-clé pour ce livre, apparaissent souvent dans les titres de publications, de programmes éducatifs, d'appels à communications et de descriptions de poste. Pourtant, à mesure qu'ils gagnaient en popularité, leur utilité s'est diluée (courriel du 13 juillet 2010). L'enquête sur les bases de données n'est donc qu'un instrument contondant. Une analyse plus approfondie de six énoncés principaux fournit une image plus nuancée de la façon dont le domaine est défini. Ce chapitre situe ensuite la définition dans le contexte de trois disciplines majeures où les nouvelles technologies et les nouveaux médias changent la nature de la pratique : l'anglais, l'histoire et l'archéologie. Il se termine par une réflexion sur trois lignes de tendance qui ont émergé dans ces disciplines et les humanités numériques au sens large : la visualisation, la spatialisation et un virage informatique sur le terrain.

Déclarer

Cette collection marque un tournant dans le domaine des humanités numériques : pour la première fois, un large éventail de théoriciens et praticiens, ceux qui sont actifs dans le domaine depuis des décennies, et ceux récemment impliqués, experts disciplinaires, informaticiens et bibliothèque et spécialistes des études de l'information, ont été réunis pour considérer les humanités numériques comme une discipline à part entière, ainsi que pour réfléchir à la façon dont elles se rapportent aux domaines de l'érudition traditionnelle des humanités.

—Susan Schreibman, Ray Siemens et John Unsworth, « The Digital Humanities and Humanities Computing : An Introduction », dans A Companion to Digital Humanities (Malden, MA Oxford : Blackwell, 2004), xxiii

La publication d'une anthologie Blackwell en 2004 suggérait que les Humanités Numériques étaient arrivées à maturité dans une histoire traditionnellement tracée à la recherche de machines capables d'automatiser l'analyse linguistique des textes écrits. L'année 1949 est inscrite dans la plupart des histoires d'origine, référencée par les efforts du père Robert Busa pour créer un verborum d'index automatisé de tous les mots dans les œuvres de Thomas d'Aquin et des auteurs connexes. Dans le premier chapitre, Susan Hockey divise l'histoire du terrain en quatre étapes : les débuts (1949-début des années 1970), la consolidation (1970-milieu des années 80), les nouveaux développements (milieu des années 80-début des années 90) et l'ère de la Internet (années 1990 avant). Le hockey est conscient du défi d'écrire l'histoire d'un domaine interdisciplinaire. Toute tentative soulève des questions de portée, de chevauchement, d'impact sur d'autres disciplines et de différence entre une chronologie simple et des digressions à partir d'une chronologie linéaire (« L'histoire », 3). Willard McCarty met également en garde contre la « théorie de la boule de billard de l'histoire », affirmant l'impact de certains développements tout en réservant d'autres à une importance moindre ou nulle (Humanities Computing, 212-13). Jan Hajic, par exemple, retrace l'émergence jusqu'en 1948, citant des développements scientifiques, économiques et politiques plus larges avant et pendant la Seconde Guerre mondiale. L'intérêt pour le langage naturel est né dans des domaines éloignés de la linguistique et d'autres disciplines des sciences humaines, notamment l'informatique, le traitement du signal et la théorie de l'information. L'année 1948 marque également les travaux fondateurs de Claude Shannon en théorie de l'information et en description probabiliste et statistique des contenus de l'information (80).

Néanmoins, le domaine a une forte identité historique avec la linguistique et l'étude assistée par ordinateur des textes, signifiée par les premiers noms de linguistique computationnelle et informatique des sciences humaines. Les activités typiques comprenaient l'informatique textuelle, la miniaturisation et l'analyse stylométrique du matériel textuel codé qui a aidé les études de paternité et de datation. Les études de vocabulaire générées par les programmes de concordance étaient prédominantes dans les publications et, pendant la période de Consolidation, l'informatique littéraire et linguistique dans les présentations de conférence. Pourtant, les articles expliquaient également l'utilisation des ordinateurs dans l'enseignement de l'écriture et des langues, de la musique, de l'art et de l'archéologie. Dans l'ensemble, l'accent avait tendance à être mis sur l'entrée, la sortie et la programmation, bien que la première reproduction soit plus adaptée aux revues et aux livres qu'à la poésie et au théâtre. Les mathématiques pour le calcul du vocabulaire dépassaient également les compétences traditionnelles des humanistes, et le travail sur ordinateur n'était pas largement respecté en sciences humaines (Hockey, « The History », 7-10).

La période des Nouveaux Développements a été marquée par plusieurs avancées. À la fin des années 1980, les stations de travail puissantes offraient une mémoire, une résolution d'écran, une capacité de couleur et une interface utilisateur graphique plus importantes, facilitant l'affichage non seulement des logiciels de notation musicale, mais également des caractères non standard en vieil anglais, grec, cyrillique et autres alphabets. Des éléments textuels et visuels pourraient également être incorporés dans des substituts numériques de manuscrits et de documents (Hockey, « The History »). Les attentes en matière de qualité graphique ont augmenté, Burdick et al. rappelons-le également, à mesure que la bande passante augmentait et que des formes multimédias de recherche humaniste dans les environnements numériques émergeaient (9, 20). Et, ajoute Melissa Terras, des investissements et un développement sans précédent dans la numérisation étaient apparents dans le secteur du patrimoine et de la culture, ainsi que des changements dans les politiques publiques qui ont accru la disponibilité des financements (« Numérisation », 51). La rhétorique de la « révolution », préviennent les rédacteurs du Companion, était plus prédictive dans certaines disciplines que d'autres (Schreibman, Siemens et Unsworth, « The Digital Humanities », xxiv). Même ainsi, un enregistrement historique faisant autorité pourrait maintenant être compilé pour ce qu'ils appelaient alternativement un «domaine» et une «discipline» avec un «noyau interdisciplinaire» situé dans «Humanities Computing». Ce label marquait également une orientation forte vers les outils et méthodes renforcée dans les chapitres sur les principes, les applications, la production, la diffusion et l'archivage.

L'avènement des ordinateurs personnels et du courrier électronique à l'« ère d'Internet » a inauguré une nouvelle relation entre les sciences humaines et la technologie. Burdick et al. caractériser le changement comme l'accélération d'une transition dans l'érudition numérique du traitement à la mise en réseau (8). Les implications étaient évidentes dans l'un des premiers foyers de l'informatique en sciences humaines. Nancy Ide décrit la période à partir des années 1990 comme un « âge d'or » dans les corpus linguistiques. Avant Internet, l'ensemble de la littérature pour l'analyse stylistique, les études de paternité et les corpus pour le langage général en lexicographie étaient généralement créés et traités à des endroits uniques. La vitesse et la capacité accrues de l'ordinateur ont facilité le partage de textes plus nombreux et plus volumineux tout en élargissant les possibilités de collecte de statistiques sur les modèles de langage, et un nouveau logiciel de traitement du langage a stimulé un regain d'intérêt pour la composition de corpus en linguistique informatique. Des corpus parallèles contenant le même texte dans deux langues ou plus sont également apparus et des techniques automatiques ont été développées pour annoter les données linguistiques avec des informations sur les propriétés linguistiques. Pourtant, des limites persistaient. En 2004, peu d'efforts avaient été faits pour compiler des échantillons de langues équilibrés pour représenter différents genres et dialectes (289-90).

Même avec des limites permanentes, ajoute Hockey, au début des années 1990, de nouveaux projets d'éditions savantes électroniques étaient en cours, les bibliothèques mettaient le contenu des collections sur Internet et la Text Encoding Initiative a publié la première version complète des directives pour la représentation des textes en format numérique. forme. Les services étaient en train d'être consolidés et les travaux théoriques en informatique des sciences humaines et les nouveaux programmes universitaires ont signalé une acceptation plus large. Et, les premières combinaisons multimédias de texte avec des images, de l'audio et de la vidéo apparaissaient également (« History », 10-16). Le changement radical provoqué par Internet est également devenu la base de nouvelles périodisations du domaine. Cathy Davidson appelle le temps de 1991 au buste dot-com à l'automne 2001 "Humanities 1.0". Il se caractérisait par le passage « du petit nombre au grand nombre ». Les sites Web et les outils ont facilité des quantités massives d'archivage, de collecte de données, de manipulation et de recherche. Pour la plupart, cependant, les outils ont été créés par des experts ou des intérêts commerciaux. « Humanities 2.0 » se caractérisait par de nouveaux outils et relations entre les producteurs et les consommateurs d'outils, favorisant un modèle « plusieurs-à-plusieurs » marqué par une plus grande interactivité, la participation des utilisateurs et le contenu généré par les utilisateurs. Ce changement était apparent dans le réseautage d'entreprise et social de Google et MySpace, la construction collaborative de connaissances de Wikipedia, le partage de photos générées par les utilisateurs de Flickr, la publication de vidéos de YouTube et les blogs, wikis et environnements virtuels. « Si le Web 1.0 visait à démocratiser l'accès », résume Davidson, « le Web 2.0 visait à démocratiser la participation » (« Humanities 2.0 », 205).

Steven E. Jones met en évidence un calendrier plus récent sur une période de dix ans qui a pris de l'ampleur entre 2004 et 2008. De nouveaux produits numériques ont émergé avec les plateformes de réseaux sociaux et d'autres développements tels que Google Books et Google Maps. Le changement n'était pas tant un changement de « paradigme » qu'une « fourchette » dans l'informatique des sciences humaines qui a établi une nouvelle « branche » de travail et un « nouveau type de pensée interdisciplinaire de plate-forme ». Empruntant à William Gibson, Jones qualifie le changement d'« éversion » du cyberespace, un « retournement de lui-même » marqué par un ensemble diversifié de changements culturels, intellectuels et technologiques. Eversion est parallèle à la conception de Katherine Hayles d'une nouvelle phase de la cybernétique qui est passée de la « virtualité » à une « réalité mixte ». Ce phénomène n'est pas isolé à l'académie : il s'inscrit dans un mouvement culturel plus large marqué par l'émergence et la convergence. La nouvelle DH associée à ce changement est évidente dans la criminalistique numérique, les études de code et de plate-forme critiques, les études de jeu et une nouvelle phase de recherche utilisant des données linguistiques, de grands corpus de textes et des visualisations documentées dans la seconde moitié de ce chapitre dans les disciplines d'anglais, d'histoire et d'archéologie. Une expérience plus stratifiée et hybride des données numériques et des médias numériques, ajoute Jones, se produit dans tous les contextes, des manuscrits archivés aux circuits imprimés Arduino. Conceptualisée en termes de la notion d'« intermédiation » de Hayles entre les humains et les machines dans les « boucles de rétroaction et d'anticipation récursives », cette expérience est évidente dans les nouveaux flux de travail et les relations de collaboration examinés plus en détail au chapitre 6 (3–5, 11, 13, 31– 32, 83, 91, 173).

La déclaration 2 signale un autre événement de référence qui est apparu trois ans après la publication du Companion, le premier numéro de Digital Humanities Quarterly ( DHQ ) :

Les humanités numériques sont par nature un domaine hybride, traversant les frontières disciplinaires et aussi les barrières traditionnelles entre théorie et pratique, mise en œuvre technologique et réflexion savante. Mais au fil du temps, ce domaine a développé ses propres orthodoxies, ses lignes internes d'affiliation et de collaboration qui sont devenues des voies intellectuelles de moindre résistance. Dans un monde - peut-être à peine imaginé il y a vingt ans - où les enjeux et les questions numériques sont liés à presque tous les domaines d'activité, nous ne pouvons pas tenir pour acquis une position de centralité.

—Julia Flanders, Wendell Piez et Melissa Terras, « Welcome to Digital Humanities Quarterly », Digital Humanities Quarterly 1, no. 1 (2007): ¶3

En accueillant les lecteurs dans la nouvelle revue, Flanders, Piez et Terras refusent de définir le domaine comme une discipline. Ils reportent également la question sous-jacente « Qu'est-ce que les humanités numériques ? » Orthodoxies, codifications et pratiques dominantes s'étaient déjà formées, risquant d'ossifier prématurément l'histoire d'un jeune champ. Ils plaident plutôt pour laisser la définition émerger de la pratique, permettant aux soumissions de représenter les contours du domaine de l'informatique en sciences humaines, d'autres variétés de travail numérique, et des initiatives et des individus pas nécessairement classés comme « humanités numériques ». DHQ a été conçu comme un modèle expérimental.Son architecture technique innovante permettait une publication en ligne en libre accès sous une licence Creative Commons qui permettait la copie, la distribution et la transmission d'œuvres à des fins non commerciales. Le droit d'auteur est resté avec les auteurs, permettant une publication ou une réutilisation ultérieure. Donner à tous les articles un codage XML détaillé a également facilité le marquage des genres, des noms et des citations, tandis que d'autres fonctionnalités ont favorisé une recherche plus nuancée, des outils de visualisation et d'autres modes d'exploration et de suivi de la nature évolutive du domaine. De plus, les éditeurs étaient impatients de tester si la nature de l'argument allait changer avec la capacité d'inclure des médias interactifs, des liens vers des ensembles de données, des diagrammes et des documents audiovisuels.

Conscients des multiples organisations servant des intérêts connexes en 2007, les rédacteurs espéraient également que le DHQ deviendrait un lieu de rencontre et un espace de rencontre mutuelle. Ils espéraient jeter un pont entre les circonscriptions historiques des humanités numériques représentées par l'Alliance des organisations d'humanités numériques (ADHO) et les domaines étroitement liés qui émergeaient à ce stade. L'engagement de la revue à la largeur a été confirmé dans la portée multidisciplinaire des articles. Les sujets ont couvert les études de jeux et les bandes dessinées, les ressources de la bibliothèque numérique, les médias numériques temporels, l'édition numérique, les connaissances visuelles et les graphiques, le son, le calcul haute performance, le droit d'auteur, les textes en danger et la littérature électronique, ainsi que l'enseignement, l'apprentissage, et le programme d'études et le système de récompense de la permanence, de la promotion et de la publication. Des grappes et des numéros spéciaux se sont également concentrés sur les cycles de vie des projets, l'exploration de données, les études classiques, les études textuelles numériques, la littérature/les études, les sciences électroniques pour les arts et les sciences humaines, la théorisation de la connectivité, l'avenir des études numériques et les histoires orales des premières sciences humaines. .

Un an après le lancement de Digital Humanities Quarterly, en mai 2008, une autre référence de l'évolution du domaine est apparue lorsque le National Endowment for the Humanities a élevé une initiative au niveau du programme au rang de Office of Digital Humanities (ODH) à part entière. Brett Bobley, directeur du bureau, a abordé la question de la définition dans une présentation au Conseil national des sciences humaines :

Nous utilisons les « humanités numériques » comme terme générique pour un certain nombre d'activités différentes qui entourent la recherche en technologie et en sciences humaines. Sous la rubrique humanités numériques, j'inclurais des sujets tels que le libre accès aux matériaux, les droits de propriété intellectuelle, le développement d'outils, les bibliothèques numériques, l'exploration de données, la préservation numérique née, la publication multimédia, la visualisation, les SIG, la reconstruction numérique, l'étude de l'impact de la technologie sur de nombreux domaines, la technologie pour l'enseignement et l'apprentissage, les modèles de durabilité et bien d'autres.

—Brett Bobley, « Pourquoi les humanités numériques ? » Directeur, Office of Digital Humanities, National Endowment for the Humanities http://www.neh.gov/files/odh_why_the_digital_humanities.pdf

La mission de l'ODH est de soutenir des projets innovants qui utilisent les nouvelles technologies pour faire avancer l'objectif traditionnel de la dotation de rendre les matériaux du patrimoine culturel accessibles pour la recherche, l'enseignement et la programmation publique. L'élévation à un nouveau bureau était largement considérée comme un signe de maturité, signifié comme un « basculement » ou un « tournant ». Dans son rapport sur DH pour 2008, Lisa Spiro appelle cela une marque de crédibilité, et, dans un article sur « The Rise of Digital NEH », Andy Guess remarque que ce qui a commencé comme un « mouvement populaire » était maintenant ancré par des agences de financement et un réseau de centres. L'impact de la technologie sur les sciences humaines, a résumé Bobley, se caractérise par quatre grands changements :

  1. la relation changeante entre un érudit et les matériaux étudiés
  2. l'introduction d'outils et de méthodologies basés sur la technologie
  3. l'évolution des relations entre les universitaires, les bibliothèques et les éditeurs
  4. la montée du travail collaboratif et interdisciplinaire en sciences humaines.

L'ODH a considérablement élargi le soutien de la fondation au travail numérique. Il finance des instituts sur des sujets avancés et des centres de DH. Son programme de subventions de mise en œuvre soutient un large éventail d'activités, y compris le développement de méthodes, de techniques ou d'outils informatiques, l'achèvement et la durabilité des ressources existantes, souvent en alliance avec des bibliothèques et des archives, des études sur les implications philosophiques ou pratiques des technologies émergentes dans des contextes disciplinaires et interdisciplinaires. et les modes numériques de communication savante qui facilitent l'examen par les pairs, la collaboration ou la diffusion de l'érudition. L'ODH s'associe également à d'autres bailleurs de fonds, branches du gouvernement, organisations et programmes à l'étranger. De plus, son programme de subventions de démarrage en sciences humaines numériques soutient le prototypage et l'expérimentation à plus petite échelle. Prenant l'annonce d'avril 2013 de vingt-trois nouveaux récipiendaires de subventions de démarrage comme un ensemble représentatif d'exemples, les projets couvrent des collections numériques de matériel visuel, textuel et audio du début à l'époque moderne, une initiative de musée mobile, le développement de jeux et intérêts recoupant les domaines des études médiévales, des études afro-américaines et des études cinématographiques. Des outils plus anciens de linguistique informatique sont également utilisés dans de nouveaux contextes et de nouveaux contextes développés pour la modélisation de sujets, la visualisation de métadonnées, l'accès open source et la préservation.

Le défi Digging into Data, en particulier, a accéléré le franchissement des frontières entre les sciences humaines et sociales en finançant des recherches utilisant des bases de données massives de matériaux, y compris des livres et des journaux numérisés, de la musique, des données transactionnelles telles que des recherches sur le Web, des données de capteurs et des données cellulaires. relevés téléphoniques. L'initiative « Big Data » a également accru le besoin de collaboration et de coopération interinstitutionnelle pour travailler avec de grands ensembles de données sur des sujets complexes au fil du temps, tels que les modèles de créativité, la paternité et la culture. De plus, l'accès aux données à grande échelle améliore les perspectives de recherche et d'enseignement interdisciplinaires en facilitant des vues plus complètes. Décrivant la portée multidisciplinaire du projet Civil War Washington, Kenneth Price répertorie l'histoire, les études littéraires, la géographie, les études urbaines et la cartographie assistée par ordinateur. L'une des raisons pour lesquelles si peu de recherches s'étaient concentrées sur la ville au cours de cette période, spécule Price, était que la forme de bourse auparavant disponible ne pouvait pas représenter de manière adéquate l'interaction complexe des éléments littéraires, politiques, militaires et sociaux (293-94). Cependant, des recherches à cette échelle sont coûteuses et ravivent le débat sur la relation des sciences humaines avec les entreprises commerciales qui fixent les conditions d'accès et d'utilisation des données. Il a également stimulé un débat sur la marginalisation des petits projets en force de « Big Humanities ».

Pris ensemble, les déclarations 1 à 3 documentent les développements importants dans l'institutionnalisation de nouveaux domaines - une littérature déterminante, une revue spécialisée et un soutien financier. Les énoncés 4 et 5 marquent un développement supplémentaire, un débat croissant sur la définition du domaine. Lus comparativement, ils révèlent de nouveaux positionnements.

L'informatique spéculative est née d'une tension productive avec le travail dans ce que l'on appelle désormais les humanités numériques. Ce domaine, constitué par des travaux à l'intersection des sciences humaines traditionnelles et de la technologie informatique, utilise des outils numériques pour étendre l'enquête humaniste. Les méthodes de calcul enracinées dans la logique formelle ont tendance à se voir accorder plus d'autorité dans ce dialogue que les méthodes fondées sur un jugement subjectif. Mais l'informatique spéculative inverse cette relation de pouvoir, soulignant le besoin d'outils de sciences humaines dans les environnements numériques.

—Johanna Drucker, SpecLab : Digital Aesthetics and Projects in Speculative Computing (Chicago : U of Chicago P, 2009), xi

Drucker distingue les « humanités numériques », caractérisées par une philosophie de Mathesis, de « l'informatique spéculative », caractérisée par une philosophie d'Aesthésie. Sa distinction est basée sur des expériences au cours des années 1990 et au début des années 2000 à l'Institute for Advanced Technology in the Humanities, dans des projets qui sont devenus le cœur du Speculative Computing Laboratory (SpecLab). En privilégiant les principes d'objectivité, de logique formelle et d'applications instrumentales en mathématiques, la formulation de Drucker des « humanités numériques » donne la priorité à l'autorité culturelle de la rationalité technique manifestée dans la méthode quantitative, le traitement automatisé, la classification, une vision mécaniste de l'analyse et une dichotomie de sujet. et objet. En privilégiant la subjectivité, l'esthétique, l'interprétation et les phénomènes émergents, le « calcul spéculatif » priorise les questions de textualité, les propriétés rhétoriques de la graphité dans le design, les modes visuels de savoir et la critique épistémologique et idéologique de la façon dont nous représentons la connaissance. Les revendications mécanistes de vérité, de pureté et de validité sont en outre contestées par une vision probabiliste de la connaissance et des processus hétéroglossiques, informée par les théories du constructivisme et du post-structuralisme, les sciences cognitives et les domaines de la culture/des médias/et des études visuelles (Drucker, Spec Lab , xi–xvi, 5, 19, 22–30 voir aussi Drucker et Nowviskie).

La distinction de Drucker élève l'esthétique du travail informatique à la frontière de l'interprétation humaniste et de l'informatique. Dans une démarche comparable, Burdick et al. amener une conception des sciences humaines du design - définie par la conception de l'information, les graphiques, la typographie, les modèles formels et rhétoriques - au centre du champ encadré par les préoccupations traditionnelles des sciences humaines - définies par la subjectivité, l'ambiguïté, la contingence et les variables dépendantes de l'observateur dans la production de connaissances ( vii, 92). Comme Drucker, ils reconceptualisent également la conception d'un processus linéaire et prédictif à la générativité dans un processus itératif et récursif. Le design, ajoute Drucker, devient une « forme de médiation », pas seulement la transmission et la livraison de faits. La visualisation de l'information, note-t-elle ailleurs, devient véritablement humaniste, incorporant la pensée critique et la force rhétorique du visuel (« Humanistic Theory », 86). Cependant, tout le monde n'assimile pas étroitement les « humanités numériques » à Mathesis. Le positionnement de Drucker de l'informatique spéculative comme « l'autre » de DH, a répondu Katherine Hayles, ouvre le champ. Pourtant, son contraste frappant aplatit sa diversité. Beaucoup diraient également qu'ils font de l'informatique spéculative (How We Think, 26). De plus, Drucker contourne le travail de délimitation de l'énoncé 5.

La déclaration 5 émane d'un groupe affilié au programme Digital Humanities and Media Studies de l'UCLA. Le groupe s'est concentré directement sur la tâche de définition dans un séminaire financé par Mellon en 2008-2009 à l'UCLA, un Manifeste des humanités numériques 2.0 et un livre blanc de mars 2009 de Todd Presner et Chris Johanson sur « La promesse des humanités numériques ».

Les Humanités numériques ne sont pas un domaine unifié mais un ensemble de pratiques convergentes qui explorent un univers dans lequel : les configurations multimédias et b) les outils, techniques et médias numériques ont modifié la production et la diffusion des connaissances dans les arts, les sciences humaines et sociales.

—Jeffrey Schnapp et Todd Presner, « Manifeste des sciences humaines numériques 2.0 », http://www.humanitiesblast.com/manifesto/Manifesto_V2.pdf

La périodisation du Manifeste et du Livre blanc est parallèle à la distinction de Davidson entre Humanities 1.0 et 2.0. Une première vague d'humanités numériques à la fin des années 1990 et au début des années 2000 a mis l'accent sur les projets de numérisation à grande échelle et les infrastructures technologiques. Il reproduisait le monde que l'imprimé avait codifié pendant cinq siècles et était de nature quantitative, caractérisé par la mobilisation des pouvoirs de recherche et de récupération des bases de données, l'automatisation de la linguistique de corpus et l'empilement des HyperCards dans des tableaux critiques. En revanche, la deuxième vague a été de nature qualitative, interprétative, expérientielle, émotive et générative. Il est allé au-delà de la primauté du texte vers des pratiques et des qualités qui peuvent être inhérentes à n'importe quel médium, y compris les formes d'art basées sur le temps telles que le cinéma, la musique et l'animation, les traditions visuelles telles que le graphisme et les pratiques spatiales de conception telles que l'architecture et la géographie et les pratiques de conservation associées avec musées et galeries. L'agenda du domaine s'est également élargi pour inclure l'impact culturel et social des nouvelles technologies et des matériaux nés numériques tels que la littérature électronique et les artefacts basés sur le Web. DH est devenu un terme générique pour un éventail multidisciplinaire de pratiques qui s'étendent au-delà des départements de sciences humaines traditionnels pour inclure l'architecture, la géographie, les études de l'information, les études cinématographiques et médiatiques, l'anthropologie et d'autres sciences sociales.

L'interdisciplinarité est un mot-clé dans la deuxième vague, avec le collaboratif, l'engagement social, le global et l'accès ouvert. Leur combinaison n'est pas une simple somme des parties. Le Manifeste 2.0 invoque une « révolution numérique » et le Livre blanc qualifie l'effet des nouveaux médias et des technologies numériques de « profondément transformateur ». Les auteurs rejettent la prémisse d'un champ unifié au profit d'un jeu de tensions et de frictions. Schnapp et Presner ne suggèrent pas que les humanités numériques remplacent ou rejettent les humanités traditionnelles. Ce n'est pas non plus une nouvelle culture générale proche de l'humanisme de la Renaissance, ni une nouvelle alphabétisation universelle. Ils y voient une excroissance et une expansion naturelles dans un « domaine transdisciplinaire émergent » comprenant à la fois l'informatique des sciences humaines antérieure et de nouveaux problèmes, genres, concepts et capacités. La vision d'un domaine transdisciplinaire est parallèle à la Transdisciplinarité transsectorielle . Le Manifeste pénètre dans les sphères publiques du Web, de la blogosphère, des réseaux sociaux et du secteur privé de la conception de jeux. En même temps, elle rejoint l'impératif de l'interdisciplinarité critique. Si les nouvelles technologies sont dominées et contrôlées par les intérêts des entreprises et du divertissement, se demandent les auteurs, comment notre héritage culturel sera-t-il rendu dans les nouveaux formats médiatiques ? Par qui et pour quoi ? Ailleurs, Presner a rapporté qu'on lui avait dit que son projet HyperCities utilisant Google Maps et Google Earth le mettait "au lit avec le diable" (cité dans Hayles, How We Think, 41).

L'élan transdisciplinaire de l'énoncé 5 se manifeste davantage dans des déclarations comparables, notamment l'Affiche du Manifeste des Humanités numériques. Diffusé lors d'un ThatCamp à Paris en mai 2010, le manifeste français embrasse l'ensemble des sciences sociales et humaines. Il reconnaît la dépendance vis-à-vis des disciplines, mais considère les humanités numériques comme une « transdiscipline » qui incarne toutes les méthodes, systèmes et perspectives heuristiques liés au numérique au sein de ces domaines et communautés avec des objectifs interdisciplinaires. Comme son homologue américain, le Manifeste couvre un large éventail de pratiques : y compris l'encodage de sources textuelles, la lexicométrie, les systèmes d'information géographique et la cartographie du Web, l'exploration de données, la représentation 3D, les archives orales, les arts numériques et les littératures hypermédia, ainsi que la numérisation. du patrimoine culturel, scientifique et technique. L'Affiche appelle également à intégrer la culture numérique dans la définition de la culture générale au XXIe siècle.

L'énoncé 6 esquisse l'image la plus large du domaine dans la typologie de Svensson des cinq modes paradigmatiques d'engagement entre les sciences humaines et les technologies de l'information ou « le numérique ».

Engageant

La typologie de Svensson s'appuie sur la conception de Matthew Ratto des « engagements épistémiques ». Des engagements différents influencent l'identification des objets d'étude, des procédures méthodologiques, des pratiques représentatives et des cadres interprétatifs.

Ci-dessous, j'examinerai plus en détail cinq grands modes d'engagement : l'informatique comme outil, comme objet d'étude, comme moyen d'expression, comme laboratoire expérimental et comme lieu militant. Les trois premiers modes recevront le plus d'attention. Il est important de noter que ceux-ci ne doivent pas être considérés comme s'excluant mutuellement ou trop distincts, mais plutôt comme des couches coexistantes et codépendantes, et en effet, les frontières entre les deux semblent de plus en plus floues. Cela ne signifie pas, cependant, qu'il peut ne pas être fructueux de les analyser et de les discuter individuellement dans le cadre de la cartographie des humanités numériques.

— Patrik Svensson, « Le paysage des humanités numériques », Digital Humanities Quarterly 4, no. 1 (2010) : 102 http://digitalhumanities.org/dhq/vol/4/1/000080/000080.html

Dans le premier mode d'engagement de Svensson, en tant qu'outil, le domaine présente un fort investissement épistémique dans les outils, la méthodologie et les processus allant des schémas de métadonnées à la gestion de projet. Il y a également un fort accent sur l'analyse de texte, illustré par l'utilisation de systèmes de codage et de balisage de texte dans la stylistique de corpus, la numérisation, la préservation et la conservation. Ce premier mode aligne DH avec le concept d'Interdisciplinarité Méthodologique. Dans son livre Humanities Computing, McCarty identifie la méthode, et non le sujet, comme la plate-forme scientifique déterminante du domaine (5-6). L'entrée Wikipédia sur les Humanités numériques conserve une forte orientation méthodologique. Tom Scheinfeld soutient qu'à l'heure actuelle, l'érudition concerne davantage les méthodes que la théorie (125). Et, des affiches sur le forum en ligne « Day of Digital Humanities » sur la question « Comment définissez-vous l'informatique des sciences humaines/les humanités numériques ? » associer fortement le domaine aux « outils » et à « l'application » de la technologie. McCarty et Harold Short ont cartographié les relations dans les « communs méthodologiques » (voir fig. 1).

Les octogones au-dessus des communs dans la figure 1, explique McCarty dans son livre, délimitent les groupes disciplinaires d'application. Les formes nuageuses indéfinies sous les communs suggèrent des « corps de connaissances perméables » qui sont constitués socialement, même s'ils manquent d'aspects départementaux ou professionnels. Cependant, toutes les disciplines n'ont pas le même type de rapport au terrain. McCarty désigne l'histoire comme la discipline principale (en particulier l'histoire des sciences et de la technologie), avec la philosophie et la sociologie. Tous les autres sont secondaires ( Humanities Computing , 4, 33, 119, 129). Dans un discours en mars 2013, Raymond Siemens a comparé les versions de la figure. La première version, a-t-il rappelé, était axée sur des contenus orientés vers la modélisation numérique (en privilégiant la numérisation). La deuxième version, ci-dessus, est plus inclusive des types de médias et des partenaires extra-universitaires tout en reconnaissant la modélisation des processus (en mettant l'accent sur l'analyse). En se tournant vers l'avenir, Siemens a proposé qu'il soit temps de se concentrer sur la modélisation basée sur les problèmes qui dépasse la rhétorique de la révolution vers un programme durable orienté vers l'action.

Toutes les formes de la figure 1, il faut le dire, ne sont pas strictement des « disciplines », ce qui souligne la nécessité du quatrième terme majeur dans le vocabulaire de base pour comprendre l'interdisciplinarité — l'interprofessionnalisme . La figure présente également un mélange de disciplines traditionnelles et de domaines interdisciplinaires, dans ce dernier cas comprenant les sciences cognitives, les études de performance, les études culturelles et l'histoire et la philosophie des sciences et de la technologie. De plus, le métier d'ingénieur apparaît. Les communs au milieu de la figure sont une plaque tournante pour transcender les limites des domaines spécialisés. Dans une réflexion distincte mais complémentaire sur la relation de l'interdisciplinarité et de la transdisciplinarité dans les Humanités numériques, Yu-wei Lin appelle modèles et outils de modélisation « porteurs d'interdisciplinarité ». Leur capacité de charge favorise des projets qui peuvent conduire à un mouvement « transdisciplinaire » plus radical au-delà des disciplines mères grâce à un cadre conceptuel partagé qui intègre des concepts, des théories et des approches de différents domaines d'expertise dans la création de quelque chose de nouveau (296-97).

Dans le deuxième mode d'engagement de Svensson, en tant qu'objet d'étude, le numérique est un objet d'analyse fortement axé sur la culture numérique et les effets transformateurs des nouvelles technologies de communication. Les études sur la cyberculture et les études numériques critiques, par exemple, accentuent les approches critiques des nouveaux médias et de leurs contextes. La portée des formulaires est large : englobant les innovations en réseau telles que les blogs, les podcasts, les flashmobs, les mashups et les flux RSS, ainsi que les sites Web de partage de vidéos tels que MySpace et YouTube, Wikipedia et les jeux de rôle en ligne massivement multijoueurs (MMORPG). La création et le développement d'outils, ajoute Svensson, ne sont pas des activités importantes dans ce mode, et l'utilisation des technologies de l'information ne s'étend généralement pas au-delà des outils standard et des données accessibles dans les environnements en ligne. La différence entre les deux premiers modes illustre comment la définition varie selon l'endroit où se situe le poids de la priorité : l'algorithme ou la théorie critique. Même les termes les plus fondamentaux, tels que accès , sont utilisés différemment. D'un point de vue technique, l'accès implique disponibilité, rapidité et facilité d'utilisation. Du point de vue de l'analyse culturelle, elle connote le partage de matériaux et la revitalisation de la notion d'« humanités publiques » sur le terrain numérique.

Dans le troisième mode d'engagement, en tant que laboratoire expérimental, les centres et laboratoires de DH sont des sites pour explorer des idées, tester des outils et modifier des ensembles de données et des objets complexes. Ce type d'environnement est familier en science et en technologie, mais est relativement nouveau pour les sciences humaines. Svensson cite le Stanford Humanities Laboratory (SHL) et son propre HUMlab à l'Université d'Umeå. Les plateformes numériques telles que Second Life, ajoute-t-il, peuvent fonctionner comme des espaces virtuels pour des expériences difficiles à monter dans des espaces physiques. Svensson assimile de telles structures à la notion d'Adam Turner de travail « paradisciplinaire » né de l'échange d'idées, du partage des connaissances et de la mise en commun des ressources. Turner compare les modes d'interaction et de créativité dans ces espaces à la collaboration communautaire au cœur de la « culture hacker/maker ». Que le site soit un hangar ou un garage, « l'espace insuffle la vie à la communauté » (cité dans Svensson, « Paysage »). Dans leur modèle d'une nouvelle artéréalité, Schnapp et Michael Shanks appellent le SHL à la fois « un réseau multimodal et fluide » et « une écologie diversifiée d'activités et d'intérêts ». Créé en 2001, le Stanford Lab a été calqué sur la plate-forme de la « Big Science ». Les activités au sein de cet environnement collaboratif comprennent une forme de « artisanat » où les participants apprennent en faisant.

De manière comparable, Saklofske, Clements et Cunningham comparent l'espace des laboratoires de sciences humaines à des « bacs à sable expérimentaux » (325) et Ben Vershbow appelle le New York Public Library Lab une sorte de « startup technologique interne ». Le laboratoire est occupé par "une équipe improbable d'artistes, de hackers et de réfugiés des arts libéraux" qui se concentrent sur la mission publique et les collections de la bibliothèque. Considéré comme « intrinsèquement interdisciplinaire », leur travail a permis aux conservateurs « de penser davantage comme des technologues et des concepteurs d'interaction, et vice versa ». Vershbow attribue leur succès à leur capacité à « travailler avec agilité et en dehors des limites des structures institutionnelles habituelles » (80). Bethany Nowviskie compare en outre ces espaces à des skunkworks, un terme adopté par de petites équipes d'ingénieurs en recherche et développement de la société aéronautique Lockheed Martin dans les années 1940. Les skunkworks DH basés sur des bibliothèques fonctionnent comme des « laboratoires de prototypage et de création d'espaces » semi-indépendants où les bibliothécaires assument de nouveaux rôles en tant que « chercheurs-praticiens ». Dans le Scholars' Lab de la bibliothèque de l'Université de Virginie, la recherche et le développement collaboratifs ont conduit non seulement à des travaux d'érudition numérique innovants, mais également à des cadres techniques et sociaux nécessaires au soutien et à la durabilité. Le laboratoire était une fusion de trois centres existants. Il a ouvert en 2006 dans un espace rénové de la bibliothèque de recherche en sciences humaines et sociales, propice à une communication ouverte et à une utilisation flexible de l'espace (53, 56, 61).

Dans le quatrième mode d'engagement, en tant que moyen d'expression, la numérisation accrue a permis un accès sans précédent à des types de contenus et de médias hétérogènes. Une grande partie de ce contenu est né numérique sous des formes multimodales qui peuvent être manipulées dans un environnement unique, y compris des images animées, du texte, de la musique, des conceptions 3D, des bases de données, des détails graphiques et des visites virtuelles. Certains domaines, tels que les études visuelles, médiatiques et numériques, ont été considérablement touchés et, selon Svensson, le travail a tendance à se concentrer sur l'étude des objets plutôt que sur leur production. Néanmoins, les troisième et quatrième modes augmentent la créativité. Pour les constructeurs d'outils, Thomas Crombez a posté à la « Journée des humanités numériques 2010 », DH est un « terrain de jeu pour l'expérimentation ». L'innovation a conduit à des avancées technologiques sous la forme de nouveaux logiciels et de plates-formes plus puissantes pour les archives numériques. Il a également favorisé de nouveaux objets nés du numérique et des formes esthétiques d'art et de littérature. Postant sur le forum 2009, Jolanda-Pieta van Arnhem a appelé DH "à propos de la découverte et du partage autant que de l'archivage et de la visualisation des données". Il fait progresser la communication ouverte, la collaboration et l'expression. En même temps, il reflète son propre processus artistique en incorporant l'art, la recherche et la technologie.

Dans le cinquième mode d'engagement de Svensson, en tant que lieu militant, la technologie numérique est mobilisée dans des appels au changement. Il met en évidence plusieurs exemples. Public Secrets, le travail de Sharon Daniel sur les femmes en prison et le système carcéral, est une forme hybride d'érudition qui est à la fois installation artistique, critique culturelle et intervention militante. Daniel passe de la représentation à la participation, générant un contexte dans une structure de base de données qui permet l'auto-représentation. Elle décrit sa pièce d'accompagnement, Blood Sugar, comme « transdisciplinaire » dans son mouvement au-delà des nouvelles façons de penser les rubriques traditionnelles pour contester ces rubriques sous des formes ouvertes (cité dans Balsamo, 87-88). Le site Web Mukurtu: Wampurrarni-kari de Kimberly Christen sur les artefacts, les histoires et les images autochtones offre aux utilisateurs autochtones une interface qui offre un accès plus étendu que le grand public. Et, une autre forme d'engagement militant se produit dans les conversations sur la fabrication en tant que forme de réflexion sur la conception et l'utilisation. Preemptive Media est un espace pour discuter des politiques et technologies émergentes à travers des tests bêta, des essais et des évaluations d'impact. Elizabeth Losh cite également l'Electronic Disturbance Theatre qui a adapté les principes du Critical Art Ensemble dans des sit-in virtuels, le b.a.n.g. laboratoire du California Institute for Telecommunications and Information Technology, les recherches du réseau « Electronic Democracy » sur les pratiques en ligne de participation politique et les actes de « codage politique » et de « piratage performatif » par les dissidents des nouveaux médias (168-69, 171).

Svensson n'inclut pas l'interdisciplinarité critique et les connotations « transgressives » et « transsectorielles » de la transdisciplinarité dans le cinquième mode. Pourtant, ils peuvent être considérés comme des modes d'érudition militants. Les questions de justice sociale et de démocratie occupent une place prépondérante dans les études culturelles des technologies numériques et des nouveaux médias. Et les sujets plus anciens de la subjectivité, de l'identité, de la communauté et de la représentation sont revigorés. Les technologies numériques sont aussi des sources d'empowerment. Les communautés autochtones, par exemple, ont utilisé les technologies géospatiales pour protéger les ressources tribales, documenter la souveraineté, gérer les ressources naturelles, créer des bases de données et créer des forums de réseautage et des guides. Pourtant, les mêmes technologies sont sources de surveillance, de stéréotypes et d'assujettissement. Amy Earhart a également interrogé l'exclusion des textes non canoniques par les femmes, les personnes de couleur et la communauté GLBTQ. En examinant les données des subventions de démarrage des sciences humaines numériques du NEH entre 2007 et 2010, Earhart a constaté que seulement 29 des 141 prix étaient axés sur des communautés diverses et seulement 16 sur la préservation ou la récupération des textes de communautés diverses (314).

Aussi distincts soient-ils, les modes d'engagement ne sont pas des catégories hermétiques. Ils peuvent se chevaucher, et même dans le même mode, des différences apparaissent. Dans une interview avec Svensson, Charles Ess cite la tension lors d'une conférence de l'Association of Internet Researchers (AoIR) entre les sens allemand et philosophique de la théorie critique et les critiques radicales du point de vue de la race, du genre et de la sexualité dans la tradition anglophone. De plus, bien que la plupart des chercheurs étudient Internet comme un artefact plutôt que de s'engager dans l'expérimentation, il existe en Scandinavie une forte tradition de conception. La recherche sur Internet, ajoute Ess, pourrait également être considérée comme un sous-ensemble de la recherche sur les télécommunications, des études numériques ou d'autres domaines lorsqu'elle prend leur identité. De plus, l'intérêt croissant pour la recherche et l'enseignement dans les arts, le design et la culture multimédias a aligné l'informatique en sciences humaines avec les arts visuels et du spectacle. Le suivi statistique de Svensson des vingt à cinquante mots les plus fréquents dans les programmes des conférences AoIR de 1999 à 2008 a également révélé que l'accent dans un autre exemple du deuxième mode - les études Internet - était sur l'espace, la division, la culture, le soi, la politique et les phénomènes de confidentialité, artefacts et processus culturels. Une orientation militante est apparue qui est rare dans le discours plus ancien de l'informatique des sciences humaines, où l'accent prédominant est les bases de données, les modèles, les ressources, les systèmes et les éditions.

Cela dit, les organisations de DH s'ouvrent à de nouveaux sujets. La réunion annuelle de l'Alliance of Digital Humanities Organizations (ADHO) met toujours l'accent sur les sciences humaines plutôt que sur les nouveaux médias et les intérêts culturels qui trouvent plus de place dans des groupes tels que HASTAC. Pourtant, un nouveau groupe d'intérêt spécial « Perspectives mondiales » (GO::DH) s'est formé pour surmonter les obstacles qui entravent la communication et la collaboration entre les arts, les sciences humaines et le secteur du patrimoine culturel ainsi que les niveaux de revenu. L'analyse de Scott Weingart des acceptations à la conférence ADHO 2013 révèle que les études littéraires et les soumissions d'exploration de données/textes étaient plus nombreuses que les études historiques. Le travail d'archives et les visualisations sont également apparus plus souvent que le multimédia. Cela dit, malgré sa petite taille, le multimédia au-delà du texte n'était pas un sous-groupe insignifiant. Les études de genre ont également eu un taux d'acceptation élevé de 85 pour cent, et le programme comprenait un panel sur l'avenir des sciences humaines numériques de premier cycle. Les thèmes traditionnels de l'édition de texte, de la numérisation, de la stylistique informatique et de la conservation sont toujours invités pour l'organisation de la conférence de l'Australasian Association en 2015, tout comme les arts et la performance, les études sur les nouveaux médias et Internet, les études de code, les jeux, les programmes et la pédagogie, et la critique points de vue.

Localisation

L'histoire des humanités numériques est peinte à la fois en traits larges, révélant des besoins et des intérêts communs, et en traits fins, révélant des sous-histoires distinctes. Comme les linguistes, les classiques ont investi dans la création de lexiques et d'encyclopédies numériques, et ils ont bénéficié des progrès des capacités graphiques et des technologies linguistiques qui facilitent la traduction automatique, la recherche d'informations multilingues et les bases de données syntaxiques. À l'instar des spécialistes de la littérature, les linguistes ont également créé des éditions de textes électroniques améliorées par la capacité d'annoter des interprétations et des liens hypertextes. Et, impliqués comme ils le sont dans un travail gourmand en données, les classiques, les archéologues et les historiens ont tous bénéficié d'une capacité accrue de tenue de dossiers et de traitement statistique. L'introduction d'intérêts en humanités numériques génère souvent une revendication d'identité interdisciplinaire dans une discipline. Pourtant, les identités diffèrent. S'il existe une relation étroite entre une discipline et un objet d'étude infléchi numériquement, a constaté Patrik Svensson en cartographiant les modes d'engagement, le travail peut manquer d'une identité forte en tant qu'« humanités numériques ». Un chercheur en études des médias intéressé par les récits d'actualité dans les médias en ligne, par exemple, peut considérer que ce travail est ancré dans les études des médias plutôt que dans un domaine distinct. En revanche, si le langage médiatisé numériquement ou les modèles de communication dans Second Life sont incorporés en tant qu'objets d'étude, une discipline peut changer pour inclure des objets numériques et développer des intersections avec d'autres disciplines et domaines. La nature changeante des pratiques de travail et les perceptions du rôle du numérique sont évidentes dans les exemples de l'anglais, de l'histoire et de l'archéologie.

Les sciences humaines numériques et l'anglais entretiennent une relation de longue date que Pressman et Swanstrom attribuent au fait que de nombreux projets révolutionnaires étaient centrés sur des sujets littéraires. Dans un essai souvent cité, Matthew Kirschenbaum identifie six raisons pour lesquelles les départements d'anglais ont été des foyers favorables («What is Digital Humanities», 8-9). La raison de départ n'est pas surprenante : « Premièrement, après la saisie numérique, le texte est de loin le type de données le plus facile à manipuler pour les ordinateurs. » En revanche, les images présentent des défis de représentation plus complexes. La deuxième raison marque la portée multidisciplinaire de l'anglais. Les sous-domaines des études littéraires et culturelles, de la rhétorique et de la composition, et de la linguistique ont atteint un statut disciplinaire distinct, mais ils sont toujours généralement hébergés dans le même département. Au fil du temps, ajoutent Pressman et Swanstrom, la conception du « littéraire » s'est étendue au-delà des textes traditionnels. En accueillant les lecteurs dans une « disanthologie » en ligne d'articles sur les études littéraires à l'ère numérique, les éditeurs ont qualifié les études littéraires de « confluence de domaines et de sous-domaines, d'outils et de techniques ». Étant donné que les approches informatiques proviennent de sources variées, un éventail croissant de méthodologies est engagé et les pratiques et méthodologies de l'érudition numérique mènent à d'autres domaines des sciences humaines ainsi qu'à l'informatique, à la bibliothéconomie et aux sciences de l'information.

En définissant la deuxième raison, Kirschenbaum met en évidence, en particulier, la relation de longue date entre l'ordinateur et la composition. Les professeurs d'écriture et de rhétorique, se souvient Jay David Bolter, ont été parmi les premiers à accueillir les nouvelles technologies dans la salle de classe, d'abord les traitements de texte, puis les salles de discussion, les MOO, les wikis et les blogs. Ils ont constitué de nouveaux espaces pour la pédagogie, et la recherche sur les ordinateurs et la composition s'est finalement étendue de l'alphabétisation et de l'écriture textuelles aux nouveaux médias numériques, aux jeux vidéo et aux réseaux sociaux (« Théorie critique »). En 2011, la relation avec les humanités numériques était au centre d'un panel lors de la conférence annuelle Computers and Writing. Le panéliste Douglas Eyman s'est qualifié d'« humaniste numérique avoué », mais a admis qu'il était toujours perplexe sur la question de son adéquation et du domaine de la rhétorique numérique. Sur la liste de diffusion TechRhet Digest qui a suscité la session, Dean Rehberger a mis en garde contre l'assimilation de DH à un domaine tel que la composition et l'écriture, ou un domaine subsumant l'autre. « L'astuce », a-t-il conseillé, « sera de démêler les points d'intersection et d'interaction. »

Tout au long de son histoire, les études de composition ont recoupé de multiples disciplines et domaines, notamment les études littéraires et la rhétorique, les études d'alphabétisation, les études technologiques et les études sur les nouveaux médias. L'une de ces intersections, avec la rhétorique, est également liée au domaine des études de communication. La communication assistée par ordinateur a été l'un des premiers sites d'études sur le comportement dans les communautés en ligne, un travail qui se poursuit à la fois dans les départements de communication et d'anglais. Dans un rapport sur l'émergence de la « rhétorique numérique », Laura Gurak et Smiljana Antonijevic appellent à une nouvelle « rhétorique interdisciplinaire » capable de comprendre les fonctions de persuasion des communications numériques qui englobent le texte, le son, les signaux visuels, non verbaux, les espaces matériels et virtuels. . La rhétorique numérique, soutiennent-ils, doit affirmer un nouveau canon qui s'appuie sur des constructions antérieures tout en reconnaissant les changements dans la tradition vieille de 2 000 ans qui constitue le domaine de la rhétorique occidentale. « La rhétorique de l'écran », ajoutent Gurak et Antonijevic, ne sont pas un accompagnement des études sur le discours public et l'adresse publique. Ils sont au centre de ce que les théoriciens et les critiques devraient étudier, et intéressent les linguistes, les psychologues et d'autres qui explorent la communication humaine.

La troisième raison reconnaît le lien entre les départements d'anglais et les conversations convergentes autour de la théorie et de la méthode éditoriales dans les années 1980, amplifiée par les avancées ultérieures dans la mise en œuvre des archives et des éditions électroniques. Ces discussions ne peuvent pas être entièrement comprises, note Kirchsenbaum, sans tenir compte des conversations parallèles sur la quatrième raison : l'hypertexte et d'autres formes de littérature électronique. Dans les années 1990, se souvient Bolter, certains critiques positionnaient les médias numériques comme une réalisation électronique de la théorie poststructuraliste. George Landow a soutenu que l'hypertexte avait beaucoup en commun avec les théories littéraires et sémiologiques contemporaines, même s'il était initialement aligné sur la théorie formaliste et que l'imprimé continuait à dominer (« Theory and Practice », 19-20, 26) . La « révolution » envisagée par les premiers théoriciens de l'hypertexte et des modes électroniques de paternité a appelé à une restructuration radicale de la textualité, de la paternité et du lectorat tout en favorisant l'analyse de la culture matérielle numérique. Il a cependant fallu du temps pour que des pratiques plus transformatrices d'hypermédiation et de remixage multimodal fassent l'objet d'études.

La cinquième raison tient à l'ouverture aux cultural studies. Les départements d'anglais ont été les premiers foyers d'intérêts connexes, favorisant les interactions avec d'autres domaines interdisciplinaires tels que les études de la culture populaire, les domaines de l'identité et les études postcoloniales. Le champ d'étude s'est également élargi avec de nouveaux objets. Autrefois confinée à l'imprimé, la notion sous-jacente de « texte » s'est élargie pour inclure les formes d'expression verbale, visuelle, orale et autres.Signe de cette tendance, le Texas Institute for Literary and Textual Studies (TILTS), affilié au département d'anglais de l'Université du Texas, s'est concentré sur une conception élargie du « littéraire » et du « textuel ». La série TILTS 2011 sur « Le numérique et les humains » englobe des œuvres traditionnelles, des formes non textuelles et des genres populaires. Le Symposium 1 - Accès, autorité et identité - a examiné des sujets plus anciens d'édition savante ainsi que les réseaux sociaux, la corporatisation et Google, ainsi que la fragmentation des connaissances et la sape des canons traditionnels. Le Symposium 2 - Humanités numériques, enseignement et apprentissage - a examiné les innovations pédagogiques et l'apprentissage numérique, les nouveaux sujets de jeux et de code, les subjectivités des étudiants, les matériaux d'origine numérique et la composition multimédia. Symposium 3 – Le numérique et les humains – comprenait l'automatisation, le vernaculaire numérique, la nature changeante de l'argumentation, la justice et les droits des étudiants et des citoyens. La sixième et dernière raison de Kirschenbaum reconnaît également la montée en puissance des appareils de lecture et de livres électroniques, ainsi que des projets de numérisation de texte à grande échelle tels que Google Books, l'exploration de données et la visualisation dans des lectures à distance.

La discipline de l'histoire a également une implication de longue date avec les humanités numériques. Dans son rapport dans le Blackwell Companion, William G. Thomas a identifié trois phases dans l'utilisation des technologies informatiques par les historiens. Au cours de la première phase dans les années 1940, certains historiens ont utilisé des techniques mathématiques et construit de grands ensembles de données. Au cours de la deuxième phase commençant au début des années 1960, le domaine émergent de l'histoire des sciences sociales a ouvert de nouvelles histoires sociales, économiques et politiques qui se sont appuyées sur des quantités massives de données, permettant aux historiens de raconter l'histoire « de bas en haut » plutôt qu'à l'élite. perspectives qui dominaient les comptes traditionnels. La troisième et actuelle phase est marquée par une plus grande capacité de communication via Internet, dans un réseau de systèmes et de données combiné aux progrès de l'ordinateur personnel et des logiciels. Les systèmes d'information géographique (SIG) historiques sont également prometteurs pour améliorer l'analyse spatiale assistée par ordinateur non seulement en histoire et en démographie, mais également en archéologie, géographie, droit et sciences de l'environnement. Le nombre et la taille des collections de données nées numériques ont également augmenté, ainsi que des outils qui permettent une exploration indépendante et une association interprétative.

Le changement, cependant, a suscité le débat. Au cours de la deuxième phase, la cliométrie a été un point d'éclair, avec des critiques particulières visant le livre de 1974 de Robert Fogel et Stanley Engerman, Time on the Cross: The Economics of American Negro Slavery. Les critiques ont remis en question le manque d'attention aux méthodes traditionnelles, y compris l'analyse narrative, textuelle et qualitative ainsi que l'étude interdisciplinaire des forces sociales et politiques. Une autre initiative lancée dans les années 1970, le Philadelphia Social History Project, a rassemblé un ensemble multidisciplinaire de données tout en visant à créer des lignes directrices pour des bases de données relationnelles à grande échelle. Il a été critiqué, cependant, pour être en deçà d'une plus grande synthèse de l'histoire urbaine. D'autres projets ont agrégé des matériaux multidisciplinaires. Qui a construit l'Amérique ? , par exemple, film, texte, audio, images et cartes compilés dans l'histoire sociale. Pourtant, les premiers produits se limitaient à des CD-ROM autonomes, des VHS-DVD et des technologies d'impression dépourvues de connectivité Internet. Au fur et à mesure que de nouvelles technologies sont devenues disponibles, l'idée d'"histoire hypertexte" est apparue dans des projets tels que La Vallée de l'Ombre, qui a rassemblé des lettres, des documents et d'autres documents de la guerre civile. Thomas suppose que le terme d'histoire numérique est originaire du Virginia Center for Digital History. Au cours de l'année universitaire 1997-98, il a dirigé le centre. Lui et William Ayers ont utilisé le terme pour décrire le projet. En 1997, ils ont enseigné « l'histoire numérique de la guerre civile » et ont commencé à appeler ces cours « séminaires d'histoire numérique ». Par la suite, Steven Mintz a lancé un site de manuels numériques nommé Digital History (Thomas, 57-58, 61-63).

Les progrès ont annoncé de nouvelles façons d'étudier et d'écrire l'histoire. Cependant, elles soulèvent également de nouvelles questions sur la nature de l'interprétation. Dans un forum en ligne de 2008 sur « La promesse de l'histoire numérique », William Thomas prévient que la fluidité ou l'impermanence du support numérique signifie que les chercheurs ne cesseront peut-être jamais d'éditer, de changer et d'affiner à mesure que de nouvelles preuves et technologies apparaissent. Où vont donc l'interprétation et la saillance dans les projets en ligne qui sont continuellement en mouvement ? Et quel impact les technologies ont-elles sur la compréhension de l'histoire en tant que mode d'investigation, de sens et de contenu, et de création de connaissances ? Douglas Seefeldt s'est joint à Thomas pour avertir que l'accès élargi ne répond pas à la question de savoir à quoi ressemble l'histoire dans un support numérique. La production, l'accès et la communication sont précieux. Pourtant, à un autre niveau, l'histoire numérique est une approche méthodologique encadrée par le pouvoir hypertextuel des technologies pour créer, définir, interroger et annoter des associations dans l'enregistrement du passé et pour tirer parti d'un problème. L'échelle et la complexité des sources numériques nées nécessitent davantage de collaboration interdisciplinaire et d'initiatives coopératives, ainsi que des ressources numériques adaptées et une exposition pour les étudiants diplômés. Des exemples bien définis, des lignes directrices pour les meilleures pratiques et des normes d'examen par les pairs sont également nécessaires. Et, l'accent doit passer des expositions ou des sites Web uniquement axés sur les produits vers le travail axé sur les processus consistant à utiliser les nouveaux outils médiatiques dans la recherche et l'analyse.

Des progrès parallèles sont également évidents dans la troisième discipline. Dans son rapport sur « L'informatique pour les archéologues » dans le Blackwell Companion, Harrison Eiteljorg II retrace l'histoire de l'informatique et de l'archéologie jusqu'à la tenue de dossiers et le traitement statistique à la fin des années 1950. Cependant, les premières limites de coût et d'accès ont entravé les progrès. Les cartes perforées et le ruban adhésif étaient les seuls moyens d'entrer les données, et les résultats n'étaient disponibles que sur papier. Les archéologues devaient également apprendre des langages informatiques. Au milieu des années 1970, les logiciels de base de données rendaient la tenue des dossiers plus efficace, augmentant la quantité de matériel collecté et facilitant la récupération d'informations sans avoir besoin d'apprendre des langages de programmation. Dans les années 1980, des micro-ordinateurs et de nouveaux logiciels faciles à utiliser étaient disponibles, et les systèmes d'information géographique (SIG) et les programmes de conception assistée par ordinateur (CAO) amélioraient la création de cartes et capturaient la tridimensionnalité des sites et des structures archéologiques. Les systèmes de réalité virtuelle basés sur des modèles CAO promettaient également un plus grand réalisme, mais les représentations précises étaient encore limitées par des données inadéquates. Comme d'autres disciplines, l'archéologie avait également besoin de logiciels et de normes d'utilisation plus spécifiques à la discipline. En outre, l'abondance croissante d'informations et la préservation des collections de données nécessitent une gestion prudente, des doutes sur l'acceptabilité de l'érudition numérique persistent et un nombre insuffisant de chercheurs sont formés à l'utilisation des ordinateurs à des fins archéologiques. Même avec des avancées notables, conclut Eiteljorg, la transformation de l'enregistrement papier à l'enregistrement numérique reste incomplète.

Dans un article de blog sur « Defining Digital Archaeology », Katy Meyers situe historiquement « l'archéologie numérique » dans le cadre de la récente montée des « disciplines numériques ». Pourtant, rapporte-t-elle, les archéologues ne se sont pas engagés avec le plus actif d'entre eux - le groupe interdisciplinaire des humanités numériques - ou sur la manière dont la technologie modifie leur travail. Les technologies numériques sont largement utilisées et intégrées dans la discipline au point que les SIG, les programmes statistiques, les bases de données et la CAO sont désormais considérés comme faisant partie de la boîte à outils de l'archéologue. Pourtant, il n'y a pas d'équivalent disciplinaire des « humanités numériques » qui rende compte de manière exhaustive d'une archéologie des matériaux numériques, y compris l'excavation de code, l'analyse de l'informatique ancienne et l'interprétation des premiers matériaux Web. Ou encore, l'archéologie numérique conçue comme une approche pour étudier les sociétés humaines du passé à travers leurs vestiges matériels, plutôt qu'un outil ou une méthode de support. Meyers fait également écho aux préoccupations de longue date concernant l'écart entre les approches génériques et les besoins spécifiques à la discipline, en l'occurrence les limites de la norme Dublin Core pour les métadonnées. Plutôt qu'une discipline et une approche distinctes, le numérique peut constituer une spécialisation différente telle qu'un accent sur la céramique, l'analyse lithique ou la théorie des systèmes.

Un livre en libre accès récemment publié, Archéologie 2.0 , donne un aperçu des nouvelles approches qui s'implantent dans la discipline. Il n'explore pas les initiatives numériques en dehors de l'Amérique du Nord et du Royaume-Uni, mais il couvre un large éventail de sujets qui transcendent les frontières disciplinaires et géographiques. L'archéologie, note Eric C. Kansa dans l'introduction, a longtemps été considérée comme « une entreprise intrinsèquement multidisciplinaire, avec un pied dans les sciences humaines et sociales interprétatives et un autre dans les sciences naturelles ». La capacité technologique a augmenté en raison d'outils plus puissants pour la gestion des données, de plates-formes pour rendre les artefacts culturels plus accessibles et d'interfaces pour rendre la communication plus ouverte et la collaboration possible. Pourtant, ces avancées ont aggravé les défis de l'archivage, de la préservation et de la maintenance des données, tout en créant une surcharge d'informations. Même avec une utilisation accrue des blogs de recherche thématiques et des dispositifs de communication sur le terrain, la revue savante à comité de lecture reste également dominante. De plus, l'archéologie est confrontée à des défis uniques dans la conception d'une infrastructure informatique. Il traite des horizons plus longs de « temps profond » et des projets multidisciplinaires complexes avec des ensembles de données pour décrire des relations contextuelles complexes qui sont générées par différents spécialistes. En outre, il a des liens avec le tourisme et la commercialisation du patrimoine culturel impliquant des mécanismes de communication et de partage d'informations contrôlés commercialement dans les sphères professionnelles et publiques.

En revenant sur la trajectoire du changement dans ces disciplines, trois lignes de tendance se dégagent : la visualisation, la spatialisation et un virage computationnel dans l'érudition. La visualisation n'est pas nouvelle. Les conversations sur la visualité se déroulent à travers les disciplines et les domaines. L'étiquette culture visuelle, raconte Nicholas Mirzoeff, a gagné du terrain parce que l'ère contemporaine est saturée d'images, de l'art et des genres multimodaux à la conception assistée par ordinateur et à l'imagerie par résonance magnétique (1-3). Le développement le plus frappant pour les humanités numériques a été l'amélioration de la capacité à visualiser l'information, favorisant un virage « spatial » et « géographique » sur le terrain facilité par les technologies de Google Earth, MapQuest, le système de positionnement global (GPS) et la modélisation en trois dimensions. . Patricia Cohen, qui couvre « Humanities 2.0 » pour le New York Times, appelle ce développement la fondation d'un nouveau domaine des sciences humaines spatiales. Des outils de cartographie avancés, se souvient-elle, ont été utilisés pour la première fois dans les années 1960, principalement pour l'analyse environnementale et la planification urbaine. À la fin des années 1980 et dans les années 1990, les systèmes d'information géographique historique ont permis de tracer les changements d'un emplacement au fil du temps à l'aide d'informations de recensement et d'autres données quantifiables. Au milieu des années 2000, les avancées technologiques permettent de dépasser les formats cartographiques restreints et d'ajouter des photos et des textes.

Le caractère interdisciplinaire du virage spatial se manifeste de trois autres manières. Visualisation en sciences humaines, Burdick et al. rapport, repose en grande partie sur des techniques empruntées aux sciences sociales, aux applications commerciales et aux sciences naturelles (42). La portée multidisciplinaire des matériaux rend également les motifs plus visibles. Un projet de création d'un atlas numérique des religions en Amérique du Nord, par exemple, a révélé des modèles changeants complexes de préférence politique, d'affiliation religieuse, de migration et d'influence culturelle en les reliant géographiquement. David Bodenhamer, du Polis Center, appelle les résultats de la capture de perspectives multiples « cartes profondes » (cité dans Patricia Cohen). Un autre projet, le partenariat Mapping Texts de Stanford et de l'Université du Texas du Nord, permet aux utilisateurs de cartographier et d'analyser les modèles linguistiques intégrés dans 230 000 pages de journaux historiques numérisés du Texas couvrant la fin des années 1820 jusqu'au début des années 2000. Avec l'une des deux visualisations interactives, pour n'importe quelle période, géographie ou titre de journal, les utilisateurs peuvent explorer les mots les plus courants, les entités nommées telles que les personnes et les lieux, et les mots corrélés qui produisent des modèles de sujet.

Pourtant, avertit Drucker, les compétences humanistes traditionnelles d'interprétation culturelle et historique sont toujours nécessaires. Mapping the Republic of Letters est un projet basé à Stanford qui a tracé des données géographiques pour les expéditeurs et les destinataires de correspondance, permettant de voir les modèles d'échange intellectuel dans le monde des premiers temps modernes. Des lignes de lumière exposent les connexions entre les points d'origine et de livraison au XVIIIe siècle. Drucker prévient que les écarts de temps et de flux sont masqués par l'apparition d'un « mouvement fluide, homogène et unitaire » (« Théorie humaniste », 91). Néanmoins, le projet rend les réseaux visibles pour l'interprétation. Une autre initiative basée à Stanford, le Spatial History Project, fournit une communauté pour une analyse visuelle créative dans la culture organisationnelle d'un environnement de laboratoire et un large réseau de partenariats et de collaborations. Les bases de données géospatiales facilitent l'intégration des données spatiales et non spatiales, puis l'analyse visuelle rend les modèles et les anomalies. Ces exemples soulignent les limites floues des données et des arguments. Dans le forum en ligne HASTAC Scholars sur la visualisation à travers les disciplines, Dana Solomon appelle la pratique de la visualisation de l'information une forme d'analyse textuelle avec le potentiel d'historiciser et de théoriser un processus technique. Il peut également être situé dans une constellation plus large de pratiques esthétiques et de représentations visuelles dans les traditions de la statistique, de l'informatique et de la conception graphique et dans l'industrie du patrimoine culturel grâce à l'utilisation de la réalité virtuelle et de la réalité augmentée dans la restauration de sites.

La troisième ligne de tendance est indiquée par le tour de calcul de l'étiquette. David Berry appelle cela une troisième vague, s'étendant au-delà des première et deuxième vagues de Schnapp et Presner. Le virage informatique passe des notions plus anciennes de maîtrise de l'information et de culture numérique à la littérature sur le numérique et à la culture numérique partagée facilitée par le code et les logiciels. Ce développement est évident dans les flux de données en temps réel, la géolocalisation, les bases de données en temps réel, Twitter, les médias sociaux, les romans pour téléphones portables et d'autres formes numériques processuelles et en évolution rapide telles qu'Internet lui-même. En se concentrant sur la composante numérique de la DH, ajoute Berry, elle accentue non seulement la spécificité du médium, mais aussi la manière dont les changements médians produisent des changements épistémiques. Dans le même temps, il problématise les prémisses sous-jacentes de la recherche « normale » basée sur l'imprimé tout en reconfigurant le domaine comme des « humanités computationnelles » (4, 15). La traduction de tous les médias aujourd'hui en données numériques, souligne également Lev Manovich, signifie que non seulement les textes, les graphiques et les images en mouvement sont devenus calculables, mais aussi les sons, les formes et les espaces (5-6).

Les noms culturnomics et cultural analytics accentuent l'analyse algorithmique de quantités massives de données culturelles se produisant au cours du virage informatique. Dans le processus, Burdick et al. notez également que le canon des objets et du matériel culturel s'élargit et que de nouveaux modèles de connaissance au-delà de l'imprimé émergent (41, 125). La capacité d'analyse du « Big Data » permet de construire une image des voix et des œuvres jusque-là silencieuses ou entrevues seulement à une échelle microscopique et par segments isolés. Le projet People of the Founding Era, par exemple, fournit des informations biographiques sur les dirigeants ainsi que des faits sur des personnes moins connues, permettant de savoir comment ils ont changé au fil du temps et éventuellement de visualiser les réseaux sociaux de relations personnelles et institutionnelles. Il combine un glossaire biographique avec une étude de groupe de près de 60 000 Américains nés dans le pays et naturalisés nés entre 1713 et 1815, leurs enfants et petits-enfants.

Comme les virages visuels et spatiaux dans l'érudition, le virage informatique dans les humanités numériques est révélateur d'un changement culturel plus large. En définissant les « Humanités numériques 2.0 », Todd Presner traite le code informatique comme un indice de culture plus généralement, et les changements médians qu'il offre favorisent une herméneutique du code et des approches critiques du logiciel (« Hypercities »). Dans le même temps, le virage informatique a généré de nouveaux sous-domaines qui se chevauchent d'études de code, d'études de logiciels et d'études de plate-forme. Lors de l'atelier de l'Université de Swansea sur le virage informatique, Manovich a daté le début du mouvement de 2008. L'utilisation de l'analyse quantitative et de la visualisation interactive pour identifier des modèles dans de grands ensembles de données culturelles permet aux chercheurs de s'attaquer à la complexité des processus culturels et des artefacts. De nouvelles techniques, cependant, doivent être développées pour décrire les dimensions des artefacts et des processus qui ont reçu peu d'attention dans le passé, tels que les changements historiques graduels sur de longues périodes. Des techniques et des interfaces de visualisation, a ajouté Manovich, sont également nécessaires pour explorer les données culturelles à plusieurs échelles, allant des détails d'un seul artefact ou processus, comme un plan dans un film, à des ensembles/flux de données culturelles massifs, tels que des films réalisés en le 20ème siècle.

L'attention accrue portée aux opérations du code et des logiciels a également favorisé l'interdisciplinarité critique dans des domaines qui se chevauchent dans les études sur la race et le genre. Amy Earhart a remis en question la façon dont les normes technologiques telles que la sélection de balises de la Text Encoding Initiative construisent la course dans les documents textuels (« Can Information », 314, 316). Jacqueline Wernimont a critiqué la politique des outils et des pratiques de codage d'un point de vue féministe, et Tara McPherson a examiné la manière dont les premiers systèmes de conception tels que le système d'exploitation UNIX donnaient la priorité à la modularité et aux enclaves isolées sur les intersections, le contexte, la relation et les réseaux. Répondant dans son blog à l'accusation de non-inclusion, Melissa Terras a abordé la manière dont les directives de la Text Encoding Initiative attribuaient la sexualité dans un document en encodant 1 pour les hommes et un secondaire 2 pour les femmes. En tant que président du programme d'une conférence sur les humanités numériques, Terras visait également à élargir les protocoles au-delà de la considération des disciplines, des intérêts et de la géographie pour inclure l'égalité des sexes ainsi que la diversité économique, ethnique, culturelle et linguistique.

Les différents modes d’engagement et pratiques examinés dans ce chapitre confirment la conclusion de Svensson : « Le territoire des humanités numériques est actuellement en négociation. Il a évolué historiquement à mesure que le corps du contenu s'étendait, que de nouvelles revendications apparaissaient et que des constructions alternatives étaient affirmées. Et, comme nous allons le voir, les constructions du champ se sont aussi enracinées dans des cultures institutionnelles différentes.


Un fichier PDF peut-il contenir un virus ?

De nombreuses fonctionnalités du PDF peuvent être utilisées de manière malveillante sans exploiter une vulnérabilité. Un exemple est donné ici par Didier Stevens. Fondamentalement, il embarque un exécutable et le lance lors de l'ouverture du fichier. Je ne sais pas comment les versions actuelles des lecteurs gèrent cela, mais c'est une bonne méthode pour utiliser les fonctionnalités PDF de manière malveillante.

Oui il peut. PDF est un format riche qui, outre le contenu statique, peut contenir des éléments dynamiques. Ce dernier peut par exemple contenir JavaScript, et d'autres éléments. Cependant, les visionneuses PDF modernes ont tendance à avertir l'utilisateur d'une activité malveillante potentielle.

Si vous voulez un exemple de malware, consultez pidief.

Et généralement, les logiciels malveillants PDF ne seront principalement que le compte-gouttes, pas la charge utile elle-même.

Pour en savoir plus sur les vulnérabilités associées aux fichiers pdf et les moyens de les détecter avant qu'ils ne causent des dommages, lisez cette documentation kali sur peepdf.

Qu'un fichier soit malveillant ou non, ne dépend pas de l'extension du fichier (dans ce cas PDF). Cela dépend des vulnérabilités du logiciel qui l'analysera. Ainsi, par exemple, le lecteur PDF que vous utilisez contient potentiellement une vulnérabilité de dépassement de mémoire tampon, un attaquant peut alors créer un fichier PDF spécial pour exploiter cette vulnérabilité.

Par conséquent, se prémunir contre de telles attaques est également facile, assurez-vous simplement que votre lecteur PDF est à jour.

Une simple recherche sur Google m'a permis d'accéder à la vue d'ensemble du SANS Institute sur les logiciels malveillants PDF, ce qui semble être une bonne chose pour commencer.


Inégalités dans l'environnement alimentaire urbain d'une ville brésilienne

L'environnement alimentaire fait référence aux contextes physiques, sociaux, culturels, économiques et politiques dans lesquels les gens s'engagent dans les systèmes alimentaires afin d'acquérir, de préparer et de consommer des aliments. En 2016, nous avons étudié l'environnement alimentaire des quartiers de Juiz de Fora, Minas Gerais, Brésil, selon différents niveaux socio-économiques. Nous avons proposé une catégorisation des établissements alimentaires selon la classification alimentaire NOVA, élaboré des cartes thématiques, testé la significativité des agglomérations de détaillants alimentaires par fonction K univariée et détecté des grappes de district à l'aide de variables d'intérêt. Au total, 23 districts (19,1%) présentaient une vulnérabilité élevée ou très élevée. Les établissements vendant uniquement ou principalement des aliments ultra-transformés présentaient des fréquences plus élevées (52,7 %) par rapport aux autres catégories de la ville. Le quartier du centre-ville comptait le plus d'établissements de tous types. Les quartiers les plus vulnérables comptaient moins d'établissements. Les iniquités environnementales que nous avons identifiées renforcent la nécessité de mettre en œuvre des politiques publiques qui favorisent des environnements alimentaires urbains sains.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Méthodes d'apprentissage automatique pour les études de sensibilité aux glissements de terrain : un aperçu comparatif des performances des algorithmes

Les glissements de terrain sont l'un des risques naturels catastrophiques qui se produisent dans les zones montagneuses, entraînant des pertes de vie, des dommages aux propriétés et des perturbations économiques. Les modèles de sensibilité aux glissements de terrain préparés dans un environnement intégré de système d'information géographique (SIG) peuvent être essentiels pour formuler des mesures de prévention des catastrophes et atténuer les risques futurs. L'exactitude et la précision des modèles de susceptibilité évoluent rapidement des modèles fondés sur l'opinion et de l'apprentissage statistique vers une utilisation accrue des techniques d'apprentissage automatique. Des revues critiques sur les modèles fondés sur l'opinion et l'apprentissage statistique dans la cartographie de la sensibilité aux glissements de terrain ont été publiées, mais un aperçu des modèles actuels d'apprentissage automatique pour les études de sensibilité aux glissements de terrain, y compris des informations de base sur leur fonctionnement, leur mise en œuvre et leurs performances, fait actuellement défaut. Ici, nous présentons un aperçu des techniques d'apprentissage automatique les plus populaires disponibles pour les études de sensibilité aux glissements de terrain. Nous constatons que seule une poignée de chercheurs utilisent des techniques d'apprentissage automatique dans les études de cartographie de la susceptibilité aux glissements de terrain. Par conséquent, nous présentons l'architecture de divers algorithmes d'apprentissage automatique (ML) en langage clair, de manière à être compréhensible par un large éventail de géoscientifiques. De plus, une étude complète comparant les performances de divers algorithmes de ML est absente de la littérature actuelle, ce qui rend difficile une évaluation des performances comparatives et des capacités prédictives. Nous entreprenons donc une analyse approfondie et une comparaison entre différentes techniques de ML à l'aide d'une étude de cas en Algérie. Nous résumons et discutons de la précision, des avantages et des limites de l'algorithme en utilisant une gamme de critères d'évaluation. Nous notons que les algorithmes d'ensemble basés sur des arbres obtiennent d'excellents résultats par rapport à d'autres algorithmes d'apprentissage automatique et que l'algorithme Random Forest offre des performances robustes pour une cartographie précise de la susceptibilité aux glissements de terrain avec seulement un petit nombre d'ajustements requis avant la formation du modèle.


2 MÉTHODES

2.1 Échantillonnage, mesures et isotopes stables des plumes

Nous avons capturé temporairement des myrtes et des parulines d'Audubon entre le 18 avril et le 10 mai 2014 à l'observatoire d'oiseaux de l'île Iona, situé dans un habitat riverain du delta du fleuve Fraser, dans le sud de la Colombie-Britannique. Au cours de la migration printanière 2014, 311 Parulines d'Audubon et 235 Parulines myrtes ont été baguées à l'observatoire (WildResearch 2014 ). Nous avons concentré l'échantillonnage pour l'analyse actuelle sur 6 jours pendant la migration printanière (19-21, 23, 27 et 28 avril) lorsqu'il y avait un grand nombre de parulines se déplaçant dans la région. Nous avons déterminé l'âge et le sexe de chaque individu et classé chacun, en fonction du plumage, comme Audubon, myrte ou hybride (bien que nous n'ayons identifié qu'un seul hybride). Nous avons pris des photographies de chaque oiseau et mesuré plusieurs traits morphométriques, rapportant ici la corde des ailes et la longueur de la queue. Nous avons concentré notre analyse sur les oiseaux mâles uniquement, car ils sont classés avec le plus de confiance dans les espèces en fonction du plumage. Pour comparer les parulines aux mesures d'individus de l'ensemble de l'aire de répartition, nous avons utilisé les données recueillies par Brelsford et Irwin (2009) ainsi que Hubbard (1970).

Pour un sous-ensemble de parulines mâles de l'île Iona, nous avons déterminé le rapport d'hydrogène stable (δ 2 Hf) dans leurs plumes secrètes (m = 59 individus, répartis à peu près également entre le myrte, m = 30, et les fauvettes d'Audubon, m = 29) échantillonnés sur toute la période migratoire. Le rapport d'hydrogène stable fait ici référence aux quantités relatives des deux formes stables d'hydrogène (deutérium sur protium) divisées par ce rapport dans un matériau standard. Nous appelons ce rapport de rapports la « valeur isotopique » de la plume. Nous avons profité d'un schéma distinctif dans le cycle de mue de ces parulines : à l'automne, chaque oiseau mue toutes ses plumes lors d'une mue prébasique, qui a lieu sur les aires de reproduction (Pyle, 1997). Avant la migration printanière, ces oiseaux muent à nouveau de trois à quatre de leurs grandes plumes intérieures sur leurs aires d'hivernage au cours de leur mue préalterne (Gaddis, 2011 ). Ainsi, sur un même individu capturé au printemps, il existe deux générations de plumes que l'on peut facilement distinguer visuellement (par l'étendue du liseré blanc) : l'une fixée avec les valeurs isotopiques de l'aire de reproduction précédente et l'autre de l'hivernage le plus récent. surface. Pour tous les individus sauf sept, nous avons analysé les données d'isotopes appariés (c'est-à-dire les plumes de base et les plumes alternatives du même individu), ce qui a donné lieu à m = 111 plumes avec données hydrogène associées. L'analyse isotopique a été effectuée au laboratoire d'isotopes stables de l'Université Cornell et des corrections isotopiques ont été effectuées à l'aide d'étalons de kératine établis. Les échantillons ont été analysés sur 2 jours. Les informations sur les standards internationaux (KHS et CBS), ainsi que sur les standards de kératine internes, sont rapportées dans le tableau S1 (sur l'ensemble de l'échantillon, l'écart type de l'échantillon de kératine interne était de 2‰). Les échantillons expérimentaux ont été pesés à une moyenne de 0,848 mg (±0,005 Dakota du Sud). Les valeurs des isotopes de l'hydrogène sont rapportées comme la valeur corrigée de 2 H mesurée par rapport à la moyenne de l'eau océanique standard de Vienne (c'est-à-dire δ 2 HVSMOW). Pour comparer les valeurs isotopiques entre le myrte et les parulines d'Audubon, nous avons utilisé deux échantillons t tests tels qu'implémentés dans R 3.4.0 (R Core Team 2017 ). Nous avons également combiné des données isotopiques et morphométriques pour mieux affecter les individus à des populations reproductrices spécifiques. Pour cela, nous avons utilisé une régression linéaire entre les mesures aile-plus-queue et la valeur d'hydrogène des plumes, en utilisant la fonction « lm » dans R.

2.2 Analyse IsoMAP

Nous avons estimé l'origine géographique des plumes à l'aide d'IsoMAP, un cadre permettant de modéliser, de prédire et d'analyser des « isoscapes » (Bowen et al., 2014 http://www.isomap.org, consulté le 4-6- 2015). Les rapports d'hydrogène stables sont fortement corrélés avec les précipitations et varient, à grande échelle, selon la latitude (les latitudes plus élevées ayant moins de deutérium Meehan, Giermakowski et Cryan, 2004 Hobson et al., 2012 ), bien qu'il existe une grande variation locale liée à d'autres différences biotiques et abiotiques, telles que l'altitude. Nous avons utilisé la même approche d'affectation géographique que celle décrite dans Toews et al. (2014). Dans cette étude, nous avons utilisé un modèle de précipitation d'hydrogène dans une plage longitudinale de 168,4° à 51°W et une plage latitudinale de 16,6° à 71,5°N (IsoMAP jobkey : 46203).

Il n'y a pas de relation 1:1 entre l'hydrogène dans les précipitations (δ 2 Hp) et l'hydrogène dans les plumes (δ 2 Hf). Pour les échantillons organiques, comme la kératine de plumes (δ 2 Hf), il est donc important de générer une fonction de transfert empirique entre les deux (Bowen et al., 2014 ). Nous avons utilisé la fonction de transfert linéaire en deux parties de Toews et al. ( 2014 ), qui a été modifié à partir de Hobson et al. ( 2012 ) et est basé sur les valeurs isotopiques de l'hydrogène de plumes de passereaux cultivées dans des endroits connus. Pour les plumes avec δ 2 Hf inférieur à −53,6 ‰, nous avons utilisé δ 2 Hf = 0,5765*δ 2 Hp-61,34 comme fonction de transfert pour les valeurs plus élevées, nous avons utilisé δ 2 Hf = 1,345*δ 2 Hp-20,17. Avec IsoMAP, nous avons ensuite généré une surface d'affectation de vraisemblance géographique pour chaque plume à l'aide de la fonction « affectation individuelle », y compris l'écart type des résidus de la fonction de transformation eau/plume (9,96‰). Les surfaces de probabilité résultantes ont ensuite été moyennées entre les individus, séparés par espèce et par type de plume, à l'aide du calculateur raster de QGIS (QGIS Development Team 2017).


Discussion et conclusions

Nous avons discuté de trois axes de recherche où les mégadonnées sociales peuvent compléter les approches existantes pour fournir des méthodes de résolution sur de petits domaines et à haute résolution pour l'analyse de la migration. En termes d'estimation des flux et des stocks, certaines recherches existent déjà pour essayer d'utiliser les mégadonnées sociales pour projeter l'immigration. Cependant, les modèles doivent encore être affinés et validés. Un problème important ici est qu'il n'existe pas d'étalon-or approprié : les taux d'immigration actuels exacts sont inconnus, et ceux du passé peuvent être bruyants, de sorte que la validation des modèles actuels n'est pas simple. Trouver les relations entre les politiques et l'immigration pourrait être un pas en avant dans la recherche de moyens de valider la sortie du modèle. Un autre type de mégadonnées qui n'a pas été inclus ici et qui peut aider à faire des prédictions en termes de migration liée au climat sont les données satellitaires. Pour mesurer l'intégration des migrants, nous pensons que plusieurs nouveaux types de données peuvent être utilisés pour introduire de nouveaux indices d'intégration, basés sur le comportement des consommateurs de détail, les données mobiles, le langage OSN, le sentiment et l'analyse du réseau. La recherche dans cette direction est légèrement moins développée, principalement en raison de la faible disponibilité d'ensembles de données prêts à l'emploi. Notre consortium fait des pas dans cette direction, en utilisant des ensembles de données existants, en participant à des défis de données ou en collectant de nouvelles données. Pour le retour des migrants, là encore, la recherche est limitée, bien qu'il existe un potentiel dans les données telles que le commerce de détail, le mobile ou l'OSN.

Dans les trois dimensions, la recherche doit examiner attentivement les problèmes liés aux données utilisées. Il est important que chaque étude comprenne une phase de collecte de données bien planifiée où les données disponibles sont analysées pour identifier les lacunes et concevoir des stratégies pour combler les lacunes en intégrant d'autres types de données. Ceci afin de s'assurer que le problème étudié est bien couvert par les données utilisées. Dans ce processus, les infrastructures de recherche telles que SoBigData peuvent être d'une grande aide. D'une part, ils peuvent fournir des moyens de cataloguer les données, de sorte que de nouveaux ensembles de données soient disponibles pour la communauté pour intégration. D'autre part, ils permettent à la communauté de partager des méthodes et des expériences afin que les lacunes identifiées et les solutions prises pour combler ces lacunes puissent être réutilisées. Cela s'applique non seulement aux sources de données traditionnelles, mais aussi aux mégadonnées sociales. La complexité de la démographie numérique implique qu'il n'y a pas non plus de repas gratuit avec des traces numériques [106]. Un problème concerne la représentativité des échantillons collectés. Par exemple, les taux de pénétration de Facebook et Twitter sont différents dans le monde et ont tendance à être différents selon l'âge considéré des utilisateurs [184]. Ne pas être en mesure de suivre des catégories spécifiques d'utilisateurs peut orienter les politiques de migration dans une direction qui perpétue à contrecœur les discriminations ou néglige les besoins des groupes invisibles. Pour les raisons ci-dessus, les défis analytiques et techniques pour extraire du sens de ce type de données, en synergie avec des sources de données plus traditionnelles, restent un domaine de recherche ouvert et très important, avec quelques efforts récents réalisés dans ce sens [93]. La validation du modèle à l'aide des statistiques existantes et de la relation avec les politiques migratoires est importante. En outre, une intégration minutieuse des données pourrait aider à surmonter certains biais de sélection, ce qui entraînerait de nouveaux indices à plusieurs niveaux basés sur les mégadonnées.

Une autre question est celle liée à la dimension éthique du traitement des données personnelles, y compris les données personnelles sensibles, décrivant les individus et les activités humaines. Comme indiqué également dans [187], la première règle qu'un chercheur doit suivre est de reconnaître que les données sont des personnes et peuvent faire du mal. En particulier, le contexte migratoire est très sensible à ce problème, car les individus décrits dans les données sont souvent particulièrement vulnérables : les réfugiés et leurs familles peuvent être persécutés dans leur pays d'origine, il est donc essentiel d'éviter leur réidentification. De plus, les médias de masse et les médias sociaux ont un impact sur notre société et l'intégration elle-même, car un ton négatif est systématiquement lié à des taux d'acceptation plus faibles des pratiques d'asile [102], il faut donc être extrêmement prudent dans la publication des résultats. Néanmoins, les études sur les migrations peuvent avoir un impact significatif pour améliorer notre société et aider le processus d'inclusion des migrants. Ainsi, encourager le partage de données est l'un de nos principaux objectifs pour atteindre le bien public.

Pour toutes ces raisons, il est essentiel que les exigences et contraintes légales soient complétées par une solide compréhension des opinions et valeurs éthiques et juridiques telles que la confidentialité et la protection des données, constituant un véritable cadre éthique et juridique. À cette fin, un certain nombre de principes infrastructurels, organisationnels et méthodologiques ont été développés par le projet SoBigData, afin d'établir une infrastructure de recherche responsable, permettant aux utilisateurs d'utiliser pleinement les fonctionnalités et les capacités que les mégadonnées peuvent offrir pour nous aider à résoudre nos problèmes, tout en leur permettant de respecter les droits fondamentaux et d'accueillir des valeurs partagées, telles que la vie privée, la sécurité, la sûreté, l'équité, l'égalité, la dignité humaine et l'autonomie [66]. En particulier, nous nous appuyons fortement sur les méthodologies Value Sensitive Design et Privacy by Design, afin de développer des technologies améliorant la confidentialité, des processus d'exploration de données sociales respectueux de la confidentialité et des méthodologies d'évaluation des risques liés à la confidentialité. Ces méthodes sont principalement développées dans les domaines des données de mobilité (telles que les trajectoires GPS), des données mobiles et commerciales, qui font partie des mégadonnées (non conventionnelles) utilisées dans nos études de migration. De plus, d'autres outils généraux ont été mis en œuvre pour aider les chercheurs dans leurs activités, créer une nouvelle classe de scientifiques des données responsables et informer les personnes concernées et la société de notre travail et de nos objectifs, tels qu'un cours en ligne, des notes d'éthique et des informations publiques. documents.


Voir la vidéo: ATLAS Maps Map Bookin QGIS: Data Driven Pages # QGIS Tutorial.