Vous avez dit " théorie de l'information " ?
La maîtrise de l'information a toujours procuré un avantage sérieux sur le plan stratégique et économique. Notre époque, volontiers
définie comme l'ère de l'information et de la communication, n'y échappe pas. Nous sommes régulièrement avertis de la menace
que représente tout retard dans la maîtrise des nouvelles technologies de l'information. Plus ! À titre individuel, chacun
se doit de dominer à son tour ces outils sous peine d'exclusion numérique. Dès lors, un colloque sur la théorie de l'information
est certainement le bienvenu pour nous aider à réussir ce défi. Sans doute ! Mais encore faut-il s'entendre sur le concept
d'information dont il est question ici. En effet, les participants au colloque ne vont pas s'interroger sur les méthodes les
plus efficaces pour exprimer les idées et les faire appréhender par un interlocuteur, pas plus que de définir le bon usage
que chacun peut faire des nouvelles technologies de la communication.
Un homme informé en vaut deux !
Pour les théoriciens de l'information, l'objectif est de trouver les meilleures conditions pour transférer un maximum d'information
via le canal de transmission le plus approprié et avec un maximum de fiabilité, le tout indépendamment du sens véhiculé par
le message. Pour ce faire, le message va être transformé en une suite de symboles aisément manipulables. L'invention de l'alphabet,
suite de symboles abstraits correspondant aux sons élémentaires de la langue, s'inscrit déjà dans cette logique. En effet,
ces matériaux, assortis d'outils comme l'orthographe et la grammaire, nous permettent de communiquer par écrit par delà le
temps et l'espace.
La nécessité de transmettre les informations à distance a beaucoup fait travailler l'imagination créatrice. Des combinaisons
de signaux lumineux correspondant aux lettres de l'alphabet étaient déjà utilisées par les Grecs de l'Antiquité. Dans la même
logique, au XVIIIe siècle, un réseau de sémaphores permettait la transmission d'un symbole alphabétique par minute sur une
distance de 2000 km. Transférer des informations rapidement et sur de longues distances a conduit à une réflexion sur la simplification
des représentations symboliques des messages par la mise au point de codes. Les systèmes binaires de transmission, apparus
de façon indépendante à différentes époques et en différents lieux du globe, se sont révelés très puissants, du fait même
de leur simplicité et leur puissance combinatoire. Les plus connus sont le tam-tam en Afrique, les signaux de fumée des Indiens
d'Amérique et surtout le Morse, en Occident.
Simplifier...
Parallèlement à la simplification des représentations, la réflexion porte aussi sur la définition de la quantité minimum de
symboles à transférer sans perte d'information. En effet, le désir d'une grande précision conduit à la redondance dans l'information.
Ainsi le Français, avec sa grammaire rigoureuse, multiplie les signes. Il n'en va pas de même dans d'autres langues et même
dans d'autres formes d'écriture où certaines lettres ne sont pas toujours écrites, sans que, pour autant, le message ne devienne
ambigu. Nous avons tous fait l'expérience de lire, sans peine, un texte où les lettres les plus usuelles, le e par exemple,
sont omises. Les règles du scrabble ne font que traduire en points cette réalité, en hiérarchisant les lettres selon leur
fréquence dans la langue. Ainsi, comme au scrabble, plus un symbole est rare, plus il est porteur d'information significative
et plus la justesse de sa transmission est cruciale.
Beaucoup de chercheurs, surtout des ingénieurs en télécommunications, se sont attaqués à la résolution de ces problèmes. En
1948, Claude Shannon, publie un article remarquable considéré comme le départ de la Théorie de l'information. En s'appuyant
sur les travaux de ses prédécesseurs, Shannon introduit la mesure de quantité d'information, en définit l'unité (le bit) et
jette les bases d'un formalisme mathématique pour traiter la transmission de l'information avec plus d'efficacité. La théorie
de l'information est probabiliste et quantitative dans la mesure où elle quantifie l'information d'un signe comme une fonction
croissante de la réduction de l'incertitude qu'il apporte.
Applications concrètes
Les applications de cette théorie sont partout, tant au niveau de notre quotidien que dans des secteurs de recherche les plus
porteurs. Nous ne pouvons qu'en citer quelques-uns ici, tels les mécanismes de correction d'information sur les supports digitaux
comme les DVD ou le transfert d'information par paquets dans les réseaux Internet ou GSM, qui nous assurent des communications
rapides et très fiables. Au niveau de la recherche, nous ne citerons que la bioinformatique ou l'intelligence artificielle.
Par ailleurs, la cryptographie est devenue essentielle dans les domaines militaire et économique, ceux-là même où l'espionnage
fait rage. Au quotidien, chacun se sert de ces outils, entre autres pour ses transferts bancaires. Le recours de plus en plus
fréquent aux paiements par carte de crédit via Internet augmente considérablement l'effort de recherche sécuritaire, pour
lequel la Belgique est leader.
Marie José Gama Actusciences
|
Ces 19 et 20 mai, l'ULB accueillera le 26e symposium international sur la Théorie de l'information. Cette rencontre est organisée
par des chercheurs de l'ULB et de l'UMH(*) et réunit des spécialistes européens de ce domaine-clé pour le développement des
sociétés modernes.
|
Pour en savoir plus : www. ulb.ac.be/inforsciences/actusciences
(*) Les coordinateurs de cette rencontre sont : Jean Cardinal, Nicolas Cerf et Olivier Markowitch de l'ULB ainsi que Olivier
Delgrange de l'UMH.
|