Thermodynamique de l'information

Tous les vendredis matins de l’été seront réservés pour effectuer de la recherche (sauf pour mes vacances, où je pourrai poursuivre mes activités de recherche tous les jours entre deux tâches ménagères) – je remercie mon employeur les Bibliothèques de l’Université Concordia pour ce temps. Enfin, le temps d’écrire, de réfléchir et de faire progresser mon doctorat

L’histoire commence avec la naissance de l’histoire. En fait, pas exactement. Il faut bien mentionner la formation de groupes sociaux et l’émergence du langage (en passant, bien sûr, par les tambours africains). Vient ensuite l’écriture, qui permet à l’Histoire (avec un grand « H ») de prendre racine, de devenir une institution sociale. Déjà, on comprend que le projet est ambitieux – celui de tracer l’émergence du concept « d’information » et d’en étudier les contours tentaculaires autour des autres sciences. Du moins, c’est la mission que s’est donné James Gleick dans son récent « The information : a history, a theory, a flood » (Pantheon Books, 2011, 526 p).

Gleick relate avec un style parfois saccadé les théories et réflexions de plusieurs penseurs clés: le trio Socrate-Aristote-Platon, Leibniz, Babbage, Boole, Morse, Vanévar Bush, von Neuwmann, Shannon, Turing… mais aussi l’émergence d’outils d’information colossaux de la langue anglaise, comme la Bible de Gutenberg ou l’autoritaire Oxford English Dictionnary. En plus des volets scientifiques et autres découvertes, l’auteur épate par l’effort de recherche en ce qui concerne la vie personnelle des individus (amitié entre Babbage et Ada Lovelace, Turing et son malheureux suicide). L’utilité de l’information dans la société n’est pas à démontrer, mais ce tour guidé passe par l’évolution de la logique, la cryptographie, l’automatisation des mathématiques, l’apparition des télécommunication, le retour de la cryptographie, la physique quantique ainsi que la biologie moléculaire.

On comprend rapidement que le point central du livre concerne Claude Shannon et sa Mathematical Theory of Communication. Gleick amène le lecteur vers ce physicien et chercheur américain en premier par un détour historique, puis en exposant comment sa théorie a su imprégner les concepts qu’il expose d’un nouveau sens autoritaire. L’auteur voit (avec raison) sa contribution comme fondamentale et tente de confirmer la place de Shannon dans le panthéon des grands cerveaux du 20e siècle.

À l’origine, comme l’explique Gleick, Shannon tente d’optimiser les systèmes de communications – il est physicien pour Bell Labs qui détient le monopole sur la téléphonie aux USA à l’époque et a passé la 2e guerre mondiale à calculer des trajectoires balistiques. Gleick précise que Shannon expose (p. 219) l’information comme étant un choix effectué parmi l’ensemble de tous les messages possibles, messages dont le sens n’est pas important. Ce qui compte, c’est la probabilité qu’un message soit choisi parmi l’ensemble de tous les messages possibles. Plus il y a de choix (donc d’incertitude dans la sélection d’un message précis), plus il y a de l’information et plus il y a de l’entropie.

L’entropie est généralement associée à la physique élémentaire et particulièrement aux lois de la thermodynamique. En effet, la 2e loi de la thermodynamique indique que l’entropie d’un système augmente naturellement et se stabilise. On peut comprendre l’entropie dans un système comme étant l’énergie négative (le café chaud que je suis en train de boire se refroidit car la fenêtre est ouverte). La force du modèle de Shannon repose justement au recours à ces concepts établis dans un autre domaine scientifique afin d’unifier les questions d’ingénierie des communications sous un modèle mathématique simple, robuste et évolutif, qui a permit l’émergence et l’évolution de plusieurs domaines scientifiques. Et comme Gleick le précise à la dérobée, le cher Shannon a fait tout ça dans la jeune trentaine.

La seule critique que je peux apporter de l’oeuvre de Gleick concerne la portée du recensement – il ne porte son attention surtout sur les « sciences dures » (biologie, physique, mathématique) et semble écarter le domaine des sciences sociales et particulièrement des sciences de l’information et de la bibliothéconomie. On peut comprendre pourquoi, le seul sujet de l’impact de la théorie mathématique de la communication de Shannon est complexe à fondamentale et il est difficile d’en exposer les contours. Mais la section où une tentative molle de traiter du sujet de l’appropriation de l’information par les sciences sociales est pathétique et manque la rigueur qui a su animer les recherches et la passion de l’auteur dans le reste de l’ouvrage. J’en suis d’autant plus déçu qu’il s’agissait de la section que je cherchais personnellement – en vain.

Aussi, je dois avouer que l’aspect mathématique de la théorie de Shannon m’échappe. Suite à la lecture de Gleick, j’ai entamé la lecture du livre où sont groupés l’essai de Shannon (initialement paru dans le Bell Systems Technical Journal Juillet-Octobre 1948) ainsi qu’une explication très accessible de Weaver, initialement parue dans Scientific American de Juillet 1949. Le travail de vulgarisation contemporain de Gleick et plus ancien de Weaver comportaient déjà des éléments complexes, mais l’analyse de Shannon lui-même me passe complètement par dessus la tête. Il faudrait que j’apprenne à lire les mathématiques – c’est ma faute et non la leur – car tout ce qui est sommations, dérivées et intégrales, processus stochastiques ou suites Markoff et les analyses statistico-mathématiques me dépassent.

Ceci dit, je recommande fortement la lecture de Gleick pour la simple raison qu’il m’a fait réaliser à quel point un gouffre sépare les sciences sociales et les sciences dures dans le domaine de l’information. Comme quoi, le regard de l’autre sur ce qui nous est cher nous fait réaliser notre propre cécité !

Ce contenu a été mis à jour le 2011-06-10 à 8 h 10 min.