[page précédente]    [sommaire]    [page suivante]  
esprit libre

[à l'université]
 
 
 
Vous avez dit " théorie de l'information " ?

La maîtrise de l'information a toujours procuré un avantage sérieux sur le plan stratégique et économique. Notre époque, volontiers définie comme l'ère de l'information et de la communication, n'y échappe pas. Nous sommes régulièrement avertis de la menace que représente tout retard dans la maîtrise des nouvelles technologies de l'information. Plus ! À titre individuel, chacun se doit de dominer à son tour ces outils sous peine d'exclusion numérique. Dès lors, un colloque sur la théorie de l'information est certainement le bienvenu pour nous aider à réussir ce défi. Sans doute ! Mais encore faut-il s'entendre sur le concept d'information dont il est question ici. En effet, les participants au colloque ne vont pas s'interroger sur les méthodes les plus efficaces pour exprimer les idées et les faire appréhender par un interlocuteur, pas plus que de définir le bon usage que chacun peut faire des nouvelles technologies de la communication.

Un homme informé en vaut deux !

Pour les théoriciens de l'information, l'objectif est de trouver les meilleures conditions pour transférer un maximum d'information via le canal de transmission le plus approprié et avec un maximum de fiabilité, le tout indépendamment du sens véhiculé par le message. Pour ce faire, le message va être transformé en une suite de symboles aisément manipulables. L'invention de l'alphabet, suite de symboles abstraits correspondant aux sons élémentaires de la langue, s'inscrit déjà dans cette logique. En effet, ces matériaux, assortis d'outils comme l'orthographe et la grammaire, nous permettent de communiquer par écrit par delà le temps et l'espace.

La nécessité de transmettre les informations à distance a beaucoup fait travailler l'imagination créatrice. Des combinaisons de signaux lumineux correspondant aux lettres de l'alphabet étaient déjà utilisées par les Grecs de l'Antiquité. Dans la même logique, au XVIIIe siècle, un réseau de sémaphores permettait la transmission d'un symbole alphabétique par minute sur une distance de 2000 km. Transférer des informations rapidement et sur de longues distances a conduit à une réflexion sur la simplification des représentations symboliques des messages par la mise au point de codes. Les systèmes binaires de transmission, apparus de façon indépendante à différentes époques et en différents lieux du globe, se sont révelés très puissants, du fait même de leur simplicité et leur puissance combinatoire. Les plus connus sont le tam-tam en Afrique, les signaux de fumée des Indiens d'Amérique et surtout le Morse, en Occident.

Simplifier...

Parallèlement à la simplification des représentations, la réflexion porte aussi sur la définition de la quantité minimum de symboles à transférer sans perte d'information. En effet, le désir d'une grande précision conduit à la redondance dans l'information. Ainsi le Français, avec sa grammaire rigoureuse, multiplie les signes. Il n'en va pas de même dans d'autres langues et même dans d'autres formes d'écriture où certaines lettres ne sont pas toujours écrites, sans que, pour autant, le message ne devienne ambigu. Nous avons tous fait l'expérience de lire, sans peine, un texte où les lettres les plus usuelles, le e par exemple, sont omises. Les règles du scrabble ne font que traduire en points cette réalité, en hiérarchisant les lettres selon leur fréquence dans la langue. Ainsi, comme au scrabble, plus un symbole est rare, plus il est porteur d'information significative et plus la justesse de sa transmission est cruciale.

Beaucoup de chercheurs, surtout des ingénieurs en télécommunications, se sont attaqués à la résolution de ces problèmes. En 1948, Claude Shannon, publie un article remarquable considéré comme le départ de la Théorie de l'information. En s'appuyant sur les travaux de ses prédécesseurs, Shannon introduit la mesure de quantité d'information, en définit l'unité (le bit) et jette les bases d'un formalisme mathématique pour traiter la transmission de l'information avec plus d'efficacité. La théorie de l'information est probabiliste et quantitative dans la mesure où elle quantifie l'information d'un signe comme une fonction croissante de la réduction de l'incertitude qu'il apporte.

Applications concrètes

Les applications de cette théorie sont partout, tant au niveau de notre quotidien que dans des secteurs de recherche les plus porteurs. Nous ne pouvons qu'en citer quelques-uns ici, tels les mécanismes de correction d'information sur les supports digitaux comme les DVD ou le transfert d'information par paquets dans les réseaux Internet ou GSM, qui nous assurent des communications rapides et très fiables. Au niveau de la recherche, nous ne citerons que la bioinformatique ou l'intelligence artificielle. Par ailleurs, la cryptographie est devenue essentielle dans les domaines militaire et économique, ceux-là même où l'espionnage fait rage. Au quotidien, chacun se sert de ces outils, entre autres pour ses transferts bancaires. Le recours de plus en plus fréquent aux paiements par carte de crédit via Internet augmente considérablement l'effort de recherche sécuritaire, pour lequel la Belgique est leader.

Marie José Gama
Actusciences

Ces 19 et 20 mai, l'ULB accueillera le 26e symposium international sur la Théorie de l'information. Cette rencontre est organisée par des chercheurs de l'ULB et de l'UMH(*) et réunit des spécialistes européens de ce domaine-clé pour le développement des sociétés modernes.



Pour en savoir plus : www. ulb.ac.be/inforsciences/actusciences

(*) Les coordinateurs de cette rencontre sont : Jean Cardinal, Nicolas Cerf et Olivier Markowitch de l'ULB ainsi que Olivier Delgrange de l'UMH.

 
  ESPRIT LIBRE > AVRIL 2005 [ n°30 ]
Université libre de Bruxelles