La théorie mathématique de la communication de l’information, vous connaissez ? Oui ? Parfait. Non ? Superbe ! Parce que c’est de ça dont on va parler aujourd’hui. Ça, et son application à la va-comme-je-te-pousse à propos de la littérature.
Petit disclaimer pour commencer. J’ai longtemps hésité à publier cet article parce qu’il consiste en bonne partie à appliquer des lois scientifiques strictes à un domaine qu’elles ne régissent qu’indirectement : si elles sont capables de décrire mathématiquement ce qu’est l’information, la justesse des équations ne peut que se perdre quand on passe au cran de la littérature elle-même. Vous voilà ainsi prévenus : la rigueur scientifique ne sera pas trop de mise ci-dessous, et ça va extrapoler pas mal (néanmoins, vous vous doutez que si j’ai finalement choisi de publier ce texte, le raisonnement ne me semble pas dénué d’intérêt).
La théorie de l’information, donc. Il s’agit d’une théorie énoncée par Claude Shannon en 1948. Alors ingénieur en télécoms chez Bell, son problème était de maximiser la transmission d’un message au travers d’un canal. Cela a conduit Cloclo (oui, je l’appelle comme ça, j’ai suffisamment usé mes culottes d’étudiant sur un amphi qui portait son nom pour me le permettre) a définir ce qu’est l’information, et à établir un moyen de la mesurer, quand bien même on est infoutu de l’observer.
Et savoir mesurer quelque chose qu’on ne peut observer, c’est quand même la classe américaine.
C’est tellement la classe que la théorie de l’information a servi de prémisse à plusieurs œuvres de SF, avec des titres aussi évocateurs que His Master’s Voice, The Communicants ou encore The Library Of Babel (les titres sont jolis mais je préviens, j’en ai lu aucun).
Mais ce n’est pas le sujet du jour : je ne veux pas parler ici de la théorie de l’information dans les fictions, mais appliquées à ces dernières. Effectivement, quand on entend Shannon parler de « maximiser la transmission d’un message », on voit facilement quel lien on peut tisser avec la littérature. Transmettre un message, sinon des messages, reste d’une manière ou d’une autre le but finfine de toute œuvre de fiction. Et optimiser ladite transmission peut être un talent utile à tout auteur.
L’idée de base de ce brave Shannon, c’est que l’information est de l’entropie, autrement dit de l’incertitude. Si vous savez ce qu’on va vous dire, c’est inutile de vous le dire. Ce ne serait pas de l’information, ce serait une perte de temps.
Le corollaire est immédiat : plus une information est probable, moins elle est intéressante. Ou, à l’inverse, plus une information est improbable (ou surprenante), plus elle a de la valeur.
Prenons deux exemples :
Jean-Michel entre dans les bureaux de la COGIP. Il est à l’intérieur du bâtiment.
Jean-Michel entre dans les bureaux de la COGIP. Il est chasseur de vampires.
Dans le premier cas, la seconde partie n’apporte aucune information : on le sait déjà, on le déduit sans aucun souci de la première phrase. J’ai donc consommé de la ressource (lettre, encre, temps de lecture, ce que vous voulez) pour rien. Alors que le deuxième exemple nous fournit du nouveau : rien ne nous permettait de prévoir que Jean-Michel ait une vie si palpitante.
Dit comme ça, ça paraît très con, mais ça entraîne l’idée suivante : il ne sert à rien de transmettre une donnée que le destinataire sait retrouver tout seul.
Qu’est-ce que que ça veut dire en pratique ? Pour la littérature, attendez un peu. Pour le point de vue de Shannon, ingénieur en télécoms, ça signifie qu’on peut réduire le nombre de bits à transmettre pour une même information. Notez au passage que son raisonnement s’appliquait aux caractères mêmes du message, non à leur signification ou à leur sens.
Par exemple, si je retire la dernière lettre de chaque mot d’une phrase, vou pouve quan mêm l comprendr ; j’ai amélioré de fait la transmission car j’ai augmenté le rapport info / coût (ici, le nombre de lettres à transmettre).
Les langues humaines sont bourrées de ces redondances la plupart du temps inutiles. L’hébreu n’inscrit aucune voyelle car il n’en a pas besoin, et le français pourrait faire pareil. Pr xmpl, vs pvz trs bn cmprndr ctt phrs.
Alors ok, soit, mais bon, on va pas retirer toutes les voyelles dans nos bouquins, ça serait ridicule, quand même, non ?
C’est vrai. La syntaxe, la grammaire et l’orthographe sont autant de règles tacites qu’on ne peut altérer qu’avec parcimonie tant elles se posent en contrat de compréhension entre l’émetteur et le destinataire. Ce ne sont pas des contrats optimisés, mais nous n’avons d’autre choix que de les suivre. Par contre, ce n’est pas le cas des figures littéraires, des effets de styles, et tout simplement de ce que l’auteur choisit de montrer, de raconter, ou d’ignorer. Ici, la liberté est bien plus grande.
C’est pourquoi l’idée que je me propose de formuler ici, c’est que la théorie de l’information peut s’appliquer aux procédés littéraires en eux-mêmes, et non pas aux mots ou aux phrases à proprement parler.
Reprenons ce fameux « il ne sert à rien de transmettre une donnée que le destinataire sait retrouver tout seul ». Ça veut dire que dans un texte, tout ce que le lecteur peut retrouver de lui-même ou ce qu’il sait déjà n’a pas lieu d’être écrit noir sur blanc. Pourquoi dire que Jean-Michel entre dans les bureaux, si vous pouvez commencer votre récit après qu’il soit entré, et si le fait d’y entrer ne porte aucune information ? Le lecteur est assez grand pour comprendre qu’il a bien dû y rentrer à un moment ou à un autre.
Vous avez probablement déjà entendu ou lu comme conseil d’écrivain que chaque chapitre, paragraphe, phrase et mot doit avoir une utilité dans votre narration. Ou alors, que lors des corrections vous devez retirer tout ce qui ne sert à rien. Bah voilà, c’est la même chose, mais dit par un scientifique en blouse blanche, cette fois.
But wait, there’s more! Car la théorie de l’information peut marcher aussi pour la création de fiction. Un auteur ne raconte pas quelque chose de vrai, il n’a donc pas de contrainte de ce côté là et peut choisir, entre plusieurs « mensonges », celui qui sera le plus intéressant. Ainsi, un texte aura d’autant plus de valeur qu’il est inattendu. Un lecteur qui est capable de deviner la suite de l’histoire sans l’avoir encore lue est un lecteur qui s’ennuie. Un roman qui raconte la énième même histoire de vampire lycéen n’apporte que peu de nouveauté à son lecteur. Dès lors, foin des clichés et des stéréotypes que le lecteur voit arriver à des kilomètres, haro sur les fins qu’on peut prévoir depuis le premier chapitre, et fi des rebondissements éculés.
Ray Bradbury avait une formulation élégante de la chose. Il disait (à peu près, je ne retrouve pas la citation exacte) que pour avoir une histoire originale, il fallait lister les cinq premières solutions qui vous venaient à l’esprit, puis les rayer et trouver la sixième.
Cependant, si vous avez été attentif, vous aurez remarqué que j’ai répété une de mes phrases. « Il ne sert à rien de transmettre… » bla bla bla.
Est-ce à dire que je me fous de vos gueules, prêchant une absence de répétition après en avoir usé moi-même ? Eh bien non. Parce que Shannon a également pris en compte un autre élément dans sa théorie : le bruit du canal de transmission, et plus exactement le ratio signal / bruit.
Si je m’amusais à retirer toutes les voyelles d’un texte, la moindre petite typo risquerait de le rendre incompréhensible ou d’en déformer le sens. Si je ne mentionnais qu’une seule et unique fois que Jean-Michel est chasseur de vampire, l’information apparaîtrait comme un détail qui passerait vite aux oubliettes. Il est donc nécessaire de renforcer le signal pour qu’il couvre le bruit.
Mais ce bruit, dans une œuvre littéraire, d’où vient-il ? On ne parle pas de perte de transmission radio, de caractères mal imprimés, ou de pages arrachées. Alors d’où vient-il ?
D’une part, de l’œuvre elle-même. La totalité des lettres, mots et paragraphes ne peut pas servir le message à proprement parler. Il y a des liaisons logiques à établir, des explications à donner pour satisfaire le lecteur curieux, des dialogues à instaurer pour fluidifier les rencontres, des petites actions intermédiaires, etc. Une histoire, en somme, c’est un ensemble de messages qui se superposent, où chacun est le bruit de l’autre.
D’autre part, de ce coquin de lecteur. Le lecteur oublie vite, oublie fort, oublie bien. Il lit ce qu’il a envie de lire. Il lit parfois sans trop s’en rendre compte, ne retenant que l’idée générale sans prêter attention aux détails. Il lit en diagonale, il lit en surveillant les stations de son métro, il lit en tendant l’oreille à la discussion d’à côté. Bref, le lecteur est un récepteur terriblement défectueux et imprévisible.
L’important est donc de s’assurer que le signal couvre tout ce bruit. Les répétitions sont ainsi bienvenues si elles remettent en lumière une donnée significative. Expliciter ce qu’un lecteur peut deviner lui-même n’est pas forcément une perte d’encre : c’est lui rappeler que ce fait, et ce fait là tout particulièrement, est important et mérite son attention. Cela permet de renforcer le signal (l’histoire) par rapport au bruit ambiant (le décor, les personnages tertiaires, les petites explications bouche-trou mais sans conséquence, etc.). À l’inverse, une répétition qui renforce le bruit fait pire que mieux.
On peut même pousser l’analyse du bruit de réception un peu plus loin, en cherchant à trouver les filtres, les tamis qui vont complétement élaguer le message de l’œuvre.
Adrian Mc Donough, un autre théoricien de l’information, donne une vision plus globale de la transmission dans Information economics : l’information, ce n’est pas juste une donnée. L’information, c’est une donnée qui rencontre un problème ou un besoin. La réception du message dépend donc – et ça paraît évident quand on le dit – du récepteur lui-même.
Il explicite ça dans un modèle plus complet que celui de Shannon :
données → information → connaissance → sens → motivation
Là ou Shannon ne considérait que les deux premières étapes, pour Mc Donough, toute donnée devient information quand elle fait sens. Une information, c’est une interprétation. Ce qui est du bruit dans un texte sera le message lui-même dans un autre, destiné à un autre lecteur, et réciproquement.
Imaginons que nous apprenons que Hervé, comptable de la COGIP, est malade et se fait porter « pâle ». Si nous ne savons rien d’Hervé, pour le moment c’est du bruit. Mais la même donnée prend tout son sens si nous savons que Jean-Michel le soupçonne d’être un vampire.
De même, une fiction dans sa globalité doit répondre aux attentes d’un lecteur, faire sens à ses yeux pour qu’il ne la considère pas comme du bruit. Voilà pourquoi il est intéressant de connaître son lectorat avant d’attaquer une histoire. Et voilà pourquoi aussi il est pertinent de connaître le lectorat d’une œuvre avant de la lire – pour la lire au travers du bon prisme. Si vous promettez du space opera épique mais que la moitié des pages est occupée par une idylle adolescente, vous bruitez le message attendu.
Enfin, pour terminer, un petit mot sur l’entropie.
On l’a vu, l’information, c’est de l’incertitude. Mais si vous êtes un tenant de l’interprétation bayésienne des probabilités (et qui ne le serait pas, hein), vous serez d’accord pour dire que l’incertitude est une caractéristique non pas du système, mais de l’observateur.
Exemple très simple : si je vais vous envoyer un message, il est inconnu pour vous (l’entropie est forte : de quoi ce coquin de Xavier va-t-il parler ?), alors que pour moi, l’entropie est nulle (je sais très bien ce que je vais vous raconter).
Du coup, tout ce que je vous ai dit jusqu’à maintenant, il faut le repenser en se disant que pour chaque lecteur, l’expérience transmise par le message va être différente (comme si écrire un livre n’était déjà pas compliqué, je vous jure).
Un lecteur qui ne connaît rien des Annales du Disque-Monde ne va pas considérer Mémé Ciredutemps du même œil qu’un fan qui la suit depuis déjà dix tomes. Pour un lecteur qui a déjà lu la Trilogie Sprawl de Gibson, Fragments de rose en hologramme aura un goût différent d’un non-initié aux mondes du papa de Neuromancien. La Belgariade vous fera sourire si vous êtes un vieux briscard de la fantasy, mais vous impressionnera si c’est votre première saga du genre.
En résumé, les théories de l’information nous permettent d’un peu mieux comprendre ce qui compose la qualité perçue d’une œuvre : son originalité, son impact, le sens de l’histoire pour le lecteur, etc.
Elles nous rappellent aussi que lorsqu’on raconte une histoire, on transmet toujours un message et qu’il y en aura autant d’interprétations qu’il y aura de lecteurs. Et ça, ça me semble être une bonne chose que de s’en souvenir lorsqu’on prend la plume.
L’artiste du jour est Beeple et son tumblr rempli de réalisations 3D aussi géométriques que psychédéliques.
Laurent Gidon
septembre 2, 2016 at 6:29Et, si au lieu de vouloir transmettre de l’information on souhaite transmettre de l’émotion, ça se complique encore au niveau analyse…