Conférence | Page 3

Conférence France

Analyse réseaux complexes — Jour 3

J’ai l’énorme privilège de participer à l’École thématique CNRS sur l’Analyse de réseaux et complexité. Voici quelques notes.

Détecter des communautés scientifiques, à grande et petite échelle – Yves Gingras & Béatrice Milard

Yves Gingras & la grande échelle

Prof. Gingras propose un survol de ses résultats qui sont disponibles sur la plateforme DigitalHistoryOfScience.org pour le domaine économique. Il utilise des données bibliographiques pour représenter l’agglomération de diverses entités autour de disciplines. Ces entités peuvent être les auteurs ou certaines de leurs propriétés tels leur institution d’attachement, leur ville… Les liens sont surtout les co-auteurs d’articles, les citations.

Béatrice Milard & la petite échelle

À partir d’entretiens et d’un corpus de leurs publications internationales, prof. Milard vise à découvrir les entourages sociocognitifs et la structure des mondes scientifiques. Entre autres éléments, elle désire explorer les liens affectifs entre les auteurs des articles cités (connaissez-ils – car c’est surtout des hommes – ceux que vous citez).

Détecter les communautés disciplinaires et les ponts inter-disciplinaires – Pablo Jensen

Titre réel: Limites des communautés scientifiques

Quelle unité pour les systèmes complexes? « faire des patates » – de beaux réseaux avec des sommets en tailles variées. Qu’est-ce qui fait lien entre ses communautés? voir: Grauwin et al, JASIST (2012)

Atelier 1 – statistiques des réseaux

Hypothèse globale des statistiques: indépendance des observation

Hypo de la stat des réseaux: traquer la dépendance => on inverse l’hypo de base. Pauvreté des données (une seule vague de données), grandeur (nombre de dyades)

Avant les outils, 3 questions: que veut-on expliquer?; Quelles sont les variables explicatives  Variables indépendantes) c-a-d lien, attributs, les deux?; 3. réseauxdynamiques ou statiques

Outils statistiques

  • Analyse descriptives
    • mesures de centralité sur l’acteur => source de centralité
    • étude sur la structure globale => modèles de blocs ou blockmodels (voir première partie de la présentation)
  • Analyse explicatifs (stochastique) – c.f. QUANTITATIVE MODELING
    • étude de la variable performance selon les attributs des acteurs et leurs relations (modèles ALAAM)
    • Étude des effets d’attributs non structuraux sur l’existence d’un lien entre acteurs (modèles LRQAP) => voir 2e partie de la présentation (logistical regression)
    • Étude de la structure globale par un positionnement à l’échelle du voisinage relationnel (modèle ERGM)
  • Demain, autre atelier: modèle SCIENA: dynamique, mélange, le réseau est la variable

Avantage des modèles longitudinaux: on capte beaucoup de données et on décide ensuite les variables dépendantes ou indépendantes.

Blockmodeling et équivalence structurale

Mesure descriptive (de moins en moins présente) mais que le présentateur veut défendre

Simplifier et dégager les caractéristiques fondamentales des réseaux (un peu comme l’analyse factorielle)… enlever le bruit et de garder la structure essentielle

Sources du blockmodel

  • Lorrain & White : structural equivalence
  • White, Boorman, Breiger
  • R. Burt : positions in networks
  • Interprétation: Borgatti & Everett (1992) / Faust Wasseman (1992)

Logiciels

  • Pajek.imfm.sl/doku.php
  • Packages R
    • blockmodeling (un peu ancien
    • blockmodels (JB Leger)
    • Celui de pierre barbillon à Paris…
  • Blocks (Snijders)

L’équivalence structurale:

  • des noeuds ont la même position dans le réseau;
  • identifier des rôles sociaux, des groupes. Regrouper les acteurs en blocks (ou positions).
  • De Lorrain & White, 71
  • Exemple: deux individus ont les mêmes relations, mêmes amis et ennemies = ces noeuds sont équivalents
  • Simplification des noeuds par classe de participants homogènes; structurellement équivalents; mêmes flux de relations; fonctionne bien sur les réseaux dirigés mais peut s’appliquer au non-dirigé

2 notions (faust et wasserman) ppour sortir du paradigme de la dynamique du centre et de la périphérie

  • position
  • rôle

Exemple: Doreian et al. 2005 pour un salon de chaîne de télévision en Afrique

  • Ceux qui ont des relations « entre eux » permettent de distinguer les groupes entre eux
  • On représente ces relations « entre eux » par une boucle récursive entre les entités du réseau blockmodelisé
  • Un peu comme de « Analyse factorielle sur le clustering « 

Super pour faire émerger des domaines sémantiques dans un corpus de documents se citant en appliquant le « blockmodeling général » plutôt que la branche stochastique

Blockmodeling vs détection de communautés == pas utile pour détecter communautés

The Louvain algorithm

Deux types d’équivalence: voir Beaugritte 2011

Étapes: 1. Matrice d’adjacente; 2. permutation algorithmique; 3. matrice image

Batagelj 2002 == types de blocs

Interprétation du blockmodel, 3 possibilités (Faust & Wasserman 1992), aussi utilisé par Lazega en 2001 pour parler de niches sociales, positions denses

  1. Description des attributs des acteurs dans chaque block
  2. Description des positions (comment chacune des positions est reliée aux autres?), c-a-d est-ce que les block reçoivent ou envoient des liens
  3. Description de l’ensemble du blockmodel, description de sa structure

L’autre présentation de Julien

Trois trucs

  1. Tests statistiques simples: est-ce que mes données collent à un modèle? Par exemple, le tirage d’un dé est-il aléatoire? Hypothèse est oui. Est-ce que les observations sont significativement différentes d’un modèle => suivent la loi normale (ou non). On connaît déjà la loi/distribution que l’on veut utiliser (chi-2, student, poisson…)
  2. LRQAP test: on ne connaît pas la loi de probabilité – il faut « deviner » la loi de dépendance car on ne la connaît pas exactement
    1.  voir Krackardt 1987
      1. Modèle de régression logistique
      2. variable dyadique
      3. permutation des variables pour obtenir des coefficients de beta pour voir si on a un effet significatif
    2. on tente de créer de l’aléatoire pour dessiner la dépendance
Conférence France

Analyse réseaux complexes — Jour 2

J’ai l’énorme privilège de participer à l’École thématique CNRS sur l’Analyse de réseaux et complexité. Voici quelques notes.

Collecte de données – Marie-Pierre Bès; Guillaume Favre; Claire Lemercier

Guillaume Favre

Types de collecte: questionnaires sur les relations; questionnaires sociométriques; expérimentation; entretiens: narrations qualifiées; traces de pratique ou sources écries; observations: plus rare?

Exemples:

  • Héran (1988) sociologue français sur les égoréseaux
  • ISSP 1986, 2001, 2017 dans « social networks »
  • Panel ELLIPSS – capital social des individus
  • Grossetti (2005, 2007) dans social networks – avec générateurs de noms (champs pré-populés avec options de type à choix multiples)
  • American Global Social Survey de McPherson et al en 2006
    • Résultats controversés (Fisher 2009, Wang…….

Marie Pierre Bès

Classes d’informations ou de questionnaires ou d’approches théoriques

Claire Lemercier

Utilisation des « traces » comme source. Les traces peuvent être des documents (d’archive, images, vidéos, etc.), des médias sociaux, …

Idée: extraire les juris de thèse à partir de la page de couverture <- travail à faire ->

Le potentiel est infini quand on explore les sources: à condition d’être spécifique sur les relations ou types de liens que nous allons explorer (parfois, être exhaustif étourdit et distrait)

Coda: quelle population étudier: toujours se demander à propos de quoi on veut et on a les moyens d’être systématique

Analyser un système urbain à partir de son réseau viaire et de son réseau parcellaire – Claire Lagesse & Cécile Rivals

Claire: Morphologies des villes – extraire le réseau de rues – sommets aux intersections – rues les arcs

Cécile: parcelles de terres (arpenteurs) – relations mitoyennes sont les arcs et les parcelles sont les noeuds

Claire: univers de la théorie des graphes: regarder les relations des réseaux des voies et des parcelles

Cécile: exemple des sources historiques : plan et registre fiscal du 18e et 19e siècle – avant, on perd les plans mais on a les Compoix et les Terriers – registres fonciers où l’on peut obtenir les réseaux parcellaires.

Représentation des sources historiques dans une base de données – reconstitution de cartes à la main (travail de moine)

Registres fiscaux: base de données Tercomp : matrice d’adjacence des parcelles: graphe d’adjascence des parcelles: comparer pour ….. [trop rapide]

Analyse de corpus de décisions juridiques : quel apport de la science des réseaux ? – Fabien Tarissan

Voir les publications de Fabien Tarissan.

Création du Cour pénale internationale (CPI) en 2002 et premier jugement en 2012. Masse importante de documents; procédures longues et complexes; chaînes de décisions techniques; pas de recueil de jurisprudence.

Réseau dirigé; acyclique; statique; biparti (articles de loi et jugements)

Toutes les décisions: http://www.legal-tools.org

Questions de la science du réseau: quelle place pour les réseaux juridiques; interprétation des métriques habituelles; nouveau schémas relations/modèles; structure biparties et unimodal

Juridiques, entre autre: modèles droit civil et common law

Analyse statique

Distribution des degrés

Pour l’interprétation des impacts juridiques, voir: 

« réutiliser des métriques classiques, connues »

Évolution de l’importance au cours du temps (CJUE)

Comment tenir compte du temps?

Graphe orienté acyclique (CAG)

Temps versus degré: les décisions récentes ont moins d’occasion d’être citées; les décisions importantes continuent d’être citées au cours du temps

Deux variations proposées:

  • Au lieu du degré entrant on regarde le degré relatif: relie le nombre de citations au nombre de citations possibles; valeur entre 1 et 0
  • Longévité: distance temporelle moyenne séparant deux décisions

Quand on regarde le degré relatif: on constate des décisions que les juristes n’ont pas nécessairement relevé mais pertinente pour le cas

Longévité moyenne: les décision procédurale importante qui n’est pas commentée par les juristes

AUTRE ÉTUDE
Est-ce que la citation reflète l’importance réelle; est-ce que les métriques réseaux……… [trop vite]

Exploiter les structures uni- et biparties

Inférer le contenu d’une décision: comment identifier les décisions dont la citation d’un article de loi ne concerne pas la cause principale?

Regarder le sous-graphe de l’égoréseau dirigé autour de la décision cible pour identifier les articles cités par les décision subséquentes. Définir le profil d’un jugement

Mesurer la polyvalence: cristalliser un raisonnement juridique particulier plutôt que son « sujet » en droit ou son domaine juridique == regarder aussi les PARAGRAPHES importants, polyvalents en plus des jugements

Formes des réseaux personnels sur Facebook – Raphaël Charbier

Application AlgoPol

Les 30 graphlets de taille 5 ou moins sans îlots – la couleur représente la centralité des petits réseaux – analyse de l’émergence de ces structures dans l’égoportrait d’un réseau d’ami d’un participant à une étude de ses données d’amis sur Facebook, associé à la CNIL.

Table ronde : Sources et réseaux : quels enjeux interdisciplinaires ?

Discussion sur les perspectives épistémologiques et herméneutiques des participants de la matinée.

Atelier de l’après-midi: Gephi, Cytoscape, R

Gephy – Fabien Tarissan

Importer les données; aller dans Layout et choisir l’algorithme de visualisation « ForceAtlas2 » – jouer avec les paramètres

Demander la distribution des degrés sous Statistics > Network overview ; aussi Betweenness, Eccentricity Distribution

À chaque fois que l’on demande des données à Gephy via ce menu, le logiciel ajoute des colonnes de données à la Data Table (table de données sur les noeuds et sur les liens)

Ensuite, export table en CSV

Comment importer les données? File > Open. Mais, il faut préparer le fichier avant. Le plus simple, c’est une liste de liens (deux sommets liés). Ceci dit, le graph résultant n’aura pas beaucoup de détail.

Cytoscape

Introduction rapide

RStudio

Pour aller plus loin : http://kateto.net/network-visualization
Traduit en français ici : https://arshs.hypotheses.org/403

Conférence France

Analyse réseaux complexes — Jour 1

J’ai l’énorme privilège de participer à l’École thématique CNRS sur l’Analyse de réseaux et complexité. Voici quelques notes.

Pierre Mercklé – Introduction à l’analyse en réseaux

Surtout, la perspective sociologique des réseaux sociaux [personnels], son histoire et son émergence:

Pierre Bourdieux, La Distinction 1979 p.140-141; Raisons pratiques

Blogue: mondegeonumérique.wordpress.com Thierry Joliveau

John Scott, 2012, Social Network Analysis: A Handbook, Sage, p.12

Freeman, Development of Social Network Analysis: a Study in the Sociology of Science, Empirical Press, 2004, p.131

Moreno, Who Shall Survive, 1934

John Barnes, Classes sociales et réseaux dans une Île de Norvège, Réseaux, 2013 [1954], p.217 : pour une distinction terminologique entre web et réseau, « tisser » et réseau social, réseau informel, points reliés par des lignes

S. Milgram, 1967, « the small world problem » Psychology Today, 1, pp. 62-67

Merklé, Sociologie des réseaux sociaux, Paris, La Découverte

Bertrand Jouve – Introduction à l’analyse des réseaux complexes

« Ce que j’ai envie de faire »  « comme matheu » : s’attacher à comprendre la structure et sa dynamique, en mesurant, en construisant des modèles qui les reproduisent: variables pertinentes, dépendances…

1. Introduction

Mathématicien et physicien: apportent des outils différents

Math sont moyens pour simplifier un problème avec des outils génériques: approche formelle suppose des hypothèses même bien cachées derrière des équations

Un système complexe est constitué de nombreuses entités dont les interactions conduisent à l’apparition d’un comportement global dit « émergeant » qui peut être expliqué en considérant uniquement les propriétés individuelles de ses constituants. Nécessité d’identifier: des interactions multi-échelles, des boucles de rétroaction, des bifurcations, des phénomènes en cascade.

Par ailleurs,

Réseau complexe: système complexe dont les interactions interindividuelles sont dyadiques

Et

Réseau social (complexe) : réseau complexe dont les interactions sont régies par des liens sociaux

(Green & Sadedin, 2014)

(Alan Kirman)

Les SHS [sciences humaines et sociales], SDV [science de la vie], SPI [sciences pour ingénieurs] abordent différemment le traitement de la complexité ;  l’objectif doit maintenant être de construire la continuité des concepts, méthodes et outils sur des objets partagés.

L’objet est de comprendre les logiques qui sous-tendent la dynamique du réseau et d’en construire un modèle simplifié

Que doit-on disposer pour étudier un réseau cokmplexe

  1. Identifier et décrire l’hétérogénéité des noeuds (sommets, vertex)
  2. Identifier et décrire la diversité des interactions entre les noeuds
  3. Analyser la structure du réseau et identifier les échelles perfinentes
  4. Caractériser la dynamique et les logiques qui la sous-tend

(3) et (4) sont fortement liés: la structure des interactions entre les individus est une contrainte importante sur la dynamique et donc l’existence de comportement émergents du système. (épidémies)

2. Réseaux complexes

  • Ce qui nous intéresse c’est quand la structure globale d’un réseau observé s’écarte d’une structure « classique » , appelé modèle nul
  • Un modèle nul est un ensemble de graphes qui ont le même nombre de sommets que le graphe étudié et qui conservent un certain nombre de caractéristiques locales (degré, clustering, …)
  • Il faut donc être capable de produire des graphes avec ces propriétés voulues
  • et de les comparer au graphe initial (en général, on vérifie seulement si la propriété globale est conservée)

Donc, on se trouve à générer une multitude de graphes ayant les mêmes propriétés pour les sommets afin de voir si notre graphe est « surprenant » ou non. Il s’agit de

  • « modèles de référence » ou graphes élémentaires:
  • réseau réguliers; graph Erdos-Rényi (nombre de sommets fixés, les arêtes sont tirées indépendamment suivant une loi uniforme de paramètre p) dans ce cas, on obtient une distribution des probabilités des degrés.
  • The configuraiton model: nombre de sommets fixés, distribution de degrés fixés [Fosdick, 2018, SIAM]

3. Des modèles statistiques des réseaux sociaux

En fixant de plu en plus de contraintes sur les modèles nuls, on va in fine basculer dans une autre logique qui est de chercher un modèle statistique générique qui explique assez bien l’observation qu’on a. On s’intéresse au codage, dans le modèle, de configuration récurrentes (ie. dépendances dans des données relationnelles)

[il saute le reste de la partie 3 et blitz la partie 4]

4. Quid des modèles génériques?

Small world, scale free, …

Watts-Strogatz model

Barabasi model

5. Big data

bertrand stigler sur canal-u.tv

On fouille pour trouver ce qu’on cherche – La data Science doit servir la science (des concepts).

Atelier 1 – Claire Lemercier

Format du fichier « classique » en réseau: entité 1 + entité 2 + lien + source

Deux inspirations:

  • réfléchir aux classes distinctes d’entités au-delà du classique personne, place, temps, objet. Pour mes recherches, je crois que les liens sémantiques en droit sont très pertinents
  • explorer et chercher le moment « woah hoo » donc, viser l’itération d’hypothèses ou de versions de réseaux sans trop s’embêter avec la conceptualisation théorique de l’approche. Peut-être une approche inductive en amont.

Suggestions de lecture personnelles par Claire pour l’idée de l’analyse en réseau du droit :

Atelier 2 – Guillaume Cabanac et Gilles Hubert

Récupération de données bibliographiques du web.

  1. Données par tabulation: base bibliographique Web of Science tout est payant, sauf si votre institution est abonné; limite de 500 notices à la fois; téléchargement et utilisation de la fonction de « text to columns » de votre tableur préféré; utiliser l’outil Voyant Tools pour traiter rapidement le corpus rapidement.
  2.  Données structurées JSON, outil http://www.altmetric.com : permet de générer certaines de mesures de popularité pour un article scientifique selon une certaine quantité de sources de données; permet d’interroger le système via l’API selon le DOI d’un article; utilisation de « ./jq » pour interroger l’arbre JSON pour les données que l’on désire dans le schéma
  3. « Web scraping » (sic) ou moissonnage ou aspirateur de site web. Structure des pages: Document Object Model; idée: demander à archive.org d’indexer une page web pour avoir un permalien afin de publier celui-ci comme source dans une bibliographie d’un article; visualisation des chercheurs dans un labo de recherche oeuvrant dans divers thèmes et axes avec Gephi

Question de la salle:

 

Conférence Jeux vidéos Universités

Présentations à l’UQAC demain

Je donne deux présentations sur le droit d’auteur demain dans la belle région de la Sagamie, l’une sur les jeux vidéo et l’autre sur l’enseignement à distance. Voici les fichiers et les résumés de celles-ci:

Les jeux vidéo dans l’étau du droit d’auteur

Les cours en ligne sous la loupe du droit d’auteur

9h00 : Les jeux vidéo dans l’étau du droit d’auteur

90 minutes suivi d’une période de questions (optionnelle) de 60 minutes

De tous les régimes juridiques applicables à l’industrie des jeux vidéo, le droit d’auteur représente à la fois un outil indispensable et un écueil éventuel à la pleine réalisation du potentiel des technologies numériques. D’un côté, il s’agit d’un régime où sont édictés les droits économiques autour desquels se greffent les marchés qui font voyager les œuvres numériques protégées. De l’autre, certains se heurtent aux droits qui freinent leur créativité, sans oublier ces titans numériques qui imposent leur pratiques par des contrats inflexibles. Afin d’outiller les étudiantes et étudiants en jeux vidéo à s’approprier le droit d’auteur, nous proposons de déconstruire le jeu vidéo comme objet communicationnel afin de mieux saisir comment chacune de ses parties constituantes tombent sous l’emprise du droit. Nous guidant par quelques jugements récents, nous exposerons également ce à quoi peuvent s’attendre des futurs diplômés lançant un studio ou intégrant une entreprise existante. Pour tout dire, nous offrons un tour guidé du droit d’auteur pour le contexte précis des jeux vidéo.

14h00 : Les cours en ligne sous la loupe du droit d’auteur

90 minutes suivi d’une période de questions (optionnelle) de 60 minutes

Le droit d’auteur, pris dans le maelström numérique d’une réforme perpétuelle et de pratiques commerciales et technologiques en mutation, exacerbe les tensions entre les acteurs des marchés d’information, de savoir et de culture. D’une part, le droit d’auteur semble être noyé au Canada et aux États-Unis par le rôle réservé par le législateur et les tribunaux aux exceptions accordées dans le contexte l’enseignement. D’autre part, ces institutions, telles que les universités et leurs bibliothèques, désirent naviguer les environnements numériques grâce à leurs budgets d’acquisition afin de négocier des accès à des corpus d’œuvres. Suite à une présentation des dispositions édictées par la Loi sur le droit d’auteur au Canada, nous discuterons d’une approche professionnelle que nous avons développé au cours de notre pratique à l’Université Concordia. Cette approche permet de contextualiser les questions en droit d’auteur qui surviennent dans le contexte de l’enseignement à distance et propose un cadre de gouvernance de celles-ci dans le contexte universitaire québécois.

Note biographique :

Olivier Charbonneau est bibliothécaire et chercheur à l’Université Concordia, où il est membre du centre de recherche TAG (Technoculture Art and Games). Il s’intéresse aux questions du droit d’auteur dans divers contextes, dont ceux du libre accès et des jeux vidéo. Il est docteur en droit depuis 2017 (Faculté de droit de l’Université de Montréal), où il a comparé les pratiques commerciales des éditeurs scientifiques aux exceptions en droit d’auteur des bibliothèques universitaires. Il est impliqué dans la vie associative du milieu des bibliothèques et de la culture depuis le dernier millénaire. Il détient deux maîtrises de l’Université de Montréal, une en science de l’information et une en droit, ainsi qu’un baccalauréat en commerce de l’Université McGill. Il tient un carnet de recherche depuis 2005 à www.culturelibre.ca et un carnet de travail en anglais depuis 2011 à OutFind.ca.

Conférence

Notes de la plénière de Caroline Bassett à #DHN2018

Caroline Bassett a présenté la conférence d’ouverture de la dernière journée de #DHN.

Elle approche les humanités numériques par la perspective des « media studies » et, tout particulièrement, sa propre expérience de la culture indigeste – à ses yeux – de la culture « pre-hippie » des laboratoires d’Apple Computers lors d’une visite à titre de journaliste scientifique (ses mots, à peu près: « indigestibility of pre-hippie tech culture of apple labs »). De plus, l’information oublie (« information is forgetful ») – puisque l’industrie nous revend à perpétuité ce qui est nouveau.

Sous le thème de l’utopie technologique et de ses promesses, et, surtout, Bassett se distance des approches pessimistes de Adorno et Bleach, qui précisent que la technologie déçoit invariablement puisqu’elle s’articule à l’extérieur du cadre de notre propre espace temps (analogie du voyage). Bassett désire explorer une relation plus tenue entre la technologies et l’utopie – essentiellement afin de permettre l’émergence de plusieurs utopies.

Bassett identifie trois époques d’utopies dans l’ère contemporaine de l’information.

I. « Freedom claims 1984 »

Citant le moment charnière de la diffusion de la publicité de Apple computers en 1984, Bassett identifie un nouveau chapitre dans la manière de réfléchir à l’information.

II. 1990 et le boom d’Internet

Citant spécifiquement la couverture de Wired Magazine qui présente Pain, the théoricien britannique du 19e siècle, et qui identifie Marshall Mcluhan comme son apôtre, Bassett repasse certains moments de la découverte du cyberespace (vous souvenez-vous de la déclaration d’indépendance de J. C. Barlow?). Bassett propose deux visions de l’utopie à cette époque.

1. Utopie vue selon Wired Magazine et Sillicon Valley: la foi inébranlable (fataliste) envers la technologie et les marchés… et espérant vivre la singularité.

2. Un pessimisme assumé de l’Europe, que Bassett nuance grâce à Eagleton. Ce dernier distingue entre l’esport et l’optimisme, un espace qui permet d’entrevoir le futur. L’espoir embrasse l’incertitude radicale tandis que l’optimisme évoque la certitude du progrès (approche lié à Walter Benjamin). La vision de Eaglon, sans être pessimiste, permet une critique du progrès.

Les natifs du numérique vivent un désillusionnement envers le numérique en partie lié à l’échec de cet optimisme, espoir et foi…

III. Aujourd’hui: l’anti-informatique (anti-computing)

« Que s’est-il passé à l’utopie?  » demande Bassett. Nous sommes un peu déçu. L’école anti-utopique identifie l’emphase de notre société pour le contrôle, la sécurité, la satisfaction au lieu des plans normatif des humanités… nous sommes dans une société utilitariste à la Bentham. Les alternatives sont l’accélérationisme, qui positionne la rapidité croissante à une utopie par incréments, ou une vision de l’utopie reformée par l’espoir comme réponse à la dystopie apocalyptique.

Conclusion: anti-cologie ou, est-ce que l’utopie nous a coûté la terre?

Historiquement, surtout du point de vue de l’hégémonie de l’ouest politique, l’utopie est liée au vol de terres et au positivisme qui s’arrogent le temps et l’espace. Bassett cite Bruno Latour qui a déjà appelé à délaisser la mondialisation techno-économique ainsi que le nationalisme pour favoriser une nouvelle vision de « soins ». Barrett cite aussi la figure du Cyborg de Donna Harroway, surtout l’idée qu’il y a de la joie dans l’infidélité et que l’homme et l’outil ne font pas l’histoire humaine. Si Harroway précise qu’il faut être dans le trouble (stay in trouble), Basset dit: faites le trouble (make trouble).

Accès libre Bibliothécaire Conférence Europe Histoire et sciences sociales Lettres

Notes de la conférence d’ouverture de prof. Alan Liu #DHN2018

J’ai l’énorme plaisir de participer à la Digital Humanities in Nordic Countries Conference à Helsinki cette semaine. J’y présente demain (jeudi après-midi) ma thèse doctorale, financée en partie par la Foundation Knight. Les thèmes de cette troisième version de cet événement sont: « cultural heritage; history; games; future; open science. »

Suivez la conférence sur Twitter grâce au mot-clic #DHN2018.

La conférence a été précédée par un séminaire sur l’utilisation d’outils de traduction simultanée dans le processus créatif. J’y reviendrai peut-être…

Je désire offrir mes notes de la communication d’ouverture du professeur Alan Liu, portant les protocoles de travail ouverts et reproductibles en humanités numériques. Il divise sa présentation en trois parties: la vue au rez-de-chaussée ; la vue à la cime des montagnes et la vue stratosphérique. Trois points de vue du même phénomène pour mieux saisir les défis à saisir.

Avant tout, Liu définit les humanités en citant la loi habilitante du National Endowment for the Humanities aux USA (National Foundation for the Arts and the Humanities Act, 1965). En réalité, il articule « humanities » en cinq vecteurs théoriques: les humanities au sens classique platonique de la rhétorique, de la logique et de la grammaire; des social sciences; des science (au sens de STEM; et des creative & performing arts. Ces cinq vecteurs définissent les forces à l’oeuvre pour les humanités numériques. Il indique que les humanités sont essentielles dans le concert des disciplines intellectuelles, il collabore à l’initiative 4humanities.org pour en faire la promotion.

I. Vue du rez-de-chaussée

Prof. Liu présente son projet qui emploie l’outil DFR Browser pour son projet WhatEveryone1Says. Afin de proposer une méthode qui est ouverte et reproductible, Liu propose deux étapes, suivant cette structure:

A. Un système de gestion du cycle de vie virtuel (virtual workflow manager)

Utilisant un « Jupyter » notebook comme outil, l’équipe de Liu peut moissonner (scrape), gérer la provenance et le cycle de travail (workflow), les processus analytiques (analytical processes of topic modelling and word embedding), et l’interprétation. Sans le dévoilement de ces éléments, les humanités numériques ne peuvent espérer devenir une science ouverte et reproductibles.

B. Provenance

L’équipe de prof. Liu utilise des bibliothèques JSON pour l’identification du corpus et la confection de notes d’accès, les points de données (data nodes along the wy: raw data, processed data, scripts). Le tout est consigné dans une base de donnée MongoDB.

II. Vue à la cime des montagnes

Dans ce cas, il est essentiel pour un cycle de travail ouvert de se formaliser. Liu utilise « Wings » qui est une ontologie OWL. Il mentionne aussi le protocole W3C PROV (PROV-O; PROV-datamodel; PROV-OWL).

III. Vue stratosphérique

Liu cite la page 6 du rapport suivant: Our cultural commonwealth: Report on the American Council of Learned Societies on Cyberinfrastructure (2006). Liu cite aussi son rôle au sein de la nouvelle revue Journal of Cultural Analytics, basée à l’Université McGill à Montréal. Il cite aussi un article intitulé « Towards an automated data narrative » par Gil et al. dans Communications of the ACM.

Questions

J’ai posé la dernière quesiton à prof. Liu, à propos du rôle des bibliothèques et des bibliothécaire dans son « nouveau modèle » des humanités. Il précise que nous devons déconstruire le cycle de vie d’un projet pour identifier tous les microdocuments générés. Il faut aussi analyser les environnements numériques de travail: ceux de développement, de production, d’infonuagique. Il faut aussi bâtir des dépôts institutionnels et des dépôts de code informatique.