« J’ai pris un cours de lecture rapide et j’ai pu lire “Guerre et Paix” en vingt minutes. Ça parle de la Russie. » Woody Allen

Je me suis récemment procuré un livre de la collection “3 minutes pour comprendre” traitant des théories philosophiques. Et plus je le lis, plus je me dis que c’est l’occasion d’écrire quelque chose au sujet de l’art délicat de la synthèse et de la vulgarisation.

3 minutes pour comprendre les 50 plus grandes théories philosophiques

Avant d’entrer dans le vif du sujet, rappelons qu’un livre est une suite finie de mots, ce que nous notons $L = (m_k)$ avec $1 \leq k \leq n$. Ici le livre $L$ est constitué de n mots $m_k$ consécutifs. Contrairement aux précédents articles où nous considérions le cas particulier des livres dictionnaires, nous imposons ici aux mots d’être ordonnés : les livres ne sont plus des ensembles mais des suites. Ainsi le livre “LE LOUP MANGEA L’AGNEAU” n’est pas égal au livre “L’AGNEAU MANGEA LE LOUP”. Remarquons au passage que nous utilisons la convention de représenter les livres par des guillemets.

Si nous notons $\mathcal{L}$ l’ensemble des livres, alors nous pouvons définir la fonction $\sigma$ qui à tout livre lui associe son nombre de mots. Formellement, nous écrivons donc :

\[\begin{array}{ccccc} \sigma & : & \mathcal{L} & \to & \mathbb{N} \\ & & L & \mapsto & \sigma(L) = n \\ \end{array}\]

Maintenant nous pouvons nous gratter le menton et nous interroger sur la finalité des livres : à quoi sert un livre ?

Ensemble des livres, ensembles des idées

Pour répondre à cette question, nous allons introduire un nouvel ensemble, que nous notons $\Omega$ et que nous allons appeler « ensemble des idées ». Les idées sont notées entre crochets, par exemple : [IL LANÇA LA BALLE DANS LE PANIER].

L’idée de base est que tout livre quel qu’il soit pointe toujours vers une idée bien précise, c’est-à-dire un élément de l’ensemble $\Omega$.

Par exemple, le livre “LA PRINCESSE EMBRASSA LA GRENOUILLE QUI SE TRANSFORMA EN PRINCE” fera naître en vous une certaine idée : un mélange nébuleux d’impressions visuelles, tactiles ou sonores ainsi que certaines réminiscences de vos souvenirs personnels.

La nature profonde des idées n’entre pas du tout dans le cadre de cet article. Néanmoins, on pressent tout de même que le passage du livre vers l’idée n’est pas nécessairement univoque et peut porter une certaine part d’ambiguïté : le sens du livre peut varier d’une personne à l’autre. Le livre serait ainsi porteur d’une certaine ambivalence : pour un livre donné, plusieurs sens peuvent être apportés.

Quoiqu’il en soit, nous décidons ici de ne pas prendre en compte cette ambivalence intrinsèque des livres, afin de simplifier un peu nos notations. Nous pouvons donc dire qu’un livre pointe toujours vers une idée précise.

A ce stade, nous avons donc deux ensembles : l’ensemble des livres $\mathcal{L}$ et l’ensemble des idées $\Omega$. Partant d’un livre donné, nous pouvons lui associer une idée. Formellement, nous notons que cela s’effectue à l’aide d’une fonction que nous appelons $\Psi$ :

\[\begin{array}{ccccc} \psi & : & \mathcal{L} & \to & \Omega \\ & & L & \mapsto & \Psi(L) = \omega \\ \end{array}\]

Nous avons convenu par hypothèse que pour tout livre, on ne pouvait lui associer qu’une et une seule idée : $\psi$ est donc bien une fonction.

Maintenant, il y a plein de questions sexy que nous pouvons nous poser. Quelles sont les tailles relatives des livres et des idées ? Y-a-t-il plus de livres que d’idées ? Existe-t-il des livres qui pointent vers la même idée ? Toute idée peut-elle être exprimée par un livre ?

On admettra que le monde dans lequel nous vivons est incroyablement plus riche que l’ensemble des idées accessibles par les livres. Autrement dit, $\Psi$ est une injection et on a :

\[Im(\mathcal{L}) \subset \Omega\]

René Char dans “Sous ma casquette amarante”, ses entretiens avec France Huser, déclarait :

[…] le mot, non seulement désigne, mais représente, impose immédiatement une ou plusieurs figures. Un convalescent, je peux ainsi le “voir” de différentes façons : un homme qui va mourir ? Quelqu’un qui se bat contre la mort ? Une femme - est-elle celle dont je soutiens le bras, ou celle qui se refuse, ou celle encore qui rit de moi ? Le mot donne une représentation tandis qu’une sorte de décor se creuse autour de lui. Mais, tout à coup, le rideau tombe, ce spectacle disparaît : arrive le mot suivant, semblable à un très lointain orchestre, de préférence de chambre. Les musiques que j’aime y retentissent, mais pas fort du tout, en sourdine. Et cela provoque une sorte de bonheur, comme une prairie irriguée un soir d’été, voisine de hauts acacias odorants.

Nous le voyons, il est extrêmement malaisé de cerner totalement une idée donnée.

De fait, l’ensemble des idées se scinde en deux catégories.

La première, de même “taille” que l’ensemble des livres, est l’ensemble des idées exprimables, c’est-à-dire des quelques rares idées pouvant être exprimées exactement par un livre. Nous notons cet ensemble $E = Im(\mathcal{L})$.

La seconde catégorie, définie comme étant le complémentaire dans $\Omega$ de $Im(\mathcal{L})$ est l’ensemble des idées ne pouvant jamais être totalement cernées par un livre, aussi long soit-il. Nous notons cet ensemble $P = \bar{E}$.

Nous voyons au passage que notre convention de noter les idées entre crochets est extrêmement pernicieuse : nous ne pouvons représenter ainsi que les idées exprimables !

Avant d’en venir au cœur du problème et de parler de ce qu’on pourrait appeler l’entendement du monde, nous allons parler de la distance séparant deux idées données. Nous conviendrons volontiers que la distance séparant [SOCRATE] de [UN HOMME] est plus faible que la distance séparant ce même Socrate de, mettons, [UNE BANANE FLAMBÉE]. C’est un résultat assez intuitif et nous allons supposer qu’il existe une fonction mathématique permettant d’estimer la distance séparant deux idées. Autrement dit une fonction $d$ vérifiant les hypothèses d’une norme (séparation, homogénéité et sous-additivité) définie par :

\[\begin{array}{ccccc} d & : & \Omega^2 & \to & \mathcal{R}^+ \\ & & (\omega_1, \omega_2) & \mapsto & d(\omega_1, \omega_2) \\ \end{array}\]

Axiome d’entendement

Nous pouvons maintenant introduire l’axiome d’entendement : pour toute idée $\omega$, il existe une suite d’idées exprimables $(\omega_k) = (\Psi(L_k))$ qui converge vers $\omega$. Autrement dit, l’ensemble des idées exprimables est dense dans l’ensemble des idées. Autrement dit, on peut entendre le monde et le mettre en mots, en beaucoup de mots. Formellement, on écrira :

\[\forall \omega \in \Omega,\quad \exists (L_k) \in \mathcal{L}^N \;/\; lim_{k \to \infty}\; d(\Psi(L_k), \omega) = 0\]

Ce qui au passage traduit uniquement l’existence d’une limite :

\[\forall \omega \in \Omega,\; \forall \varepsilon > 0,\quad \exists L \in \mathcal{L} \;/\; d\left(\Psi(L), \omega\right) < \varepsilon\]

Soit $\omega$ une idée non-exprimable et soit $(\omega_k) = (\Psi(L_k))$ une suite d’idées exprimables convergeant vers $\omega$. Considérons maintenant la suite d’entier $\sigma(L_k)$ ; autrement dit pour chaque livre qui se rapproche de notre idée non-exprimable, on considère sa taille. Cette suite admet-elle une limite ?

Nous pouvons démontrer assez simplement que cette suite diverge nécessairement dans le cas des idées non-exprimables. En effet si on considère un alphabet de M mots, alors les livres d’exactement N mots existent en quantité finie égale à $M^N$. Supposer que la suite $\sigma(L_k)$ converge vers une valeur finie $\sigma_0$ revient à dire qu’au delà d’une certaine étape, la taille des livres est égale à $\sigma_0$. Or il existe exactement $M^{\sigma_0}$ livres de $\sigma_0$ mots. Cela reviendrait dont à dire qu’au delà d’un certain stade, la suite devient constante ou cyclique 1. Dans les deux cas, nous aurions trouvé des idées exprimables qui sont égales à notre idée non-exprimable ce qui est tout de même un peu contradictoire. Donc, nous venons de démontrer qu’on peut s’approcher autant qu’on le souhaite d’une idée non-exprimable, mais que le nombre de mots nécessaire divergera nécessairement. Cette notion nous amène à considérer le degré d’exprimabilité d’une idée.

Degré d’exprimabilité et accessibilité

Pour une idée donnée $\omega$, nous introduisons son degré d’exprimabilité que nous notons $\epsilon(\omega, N)$ et qui, pour tout entier N, associe la plus petite distance séparant notre idée $\omega$ de toutes les idées exprimées en au plus N mots.

En introduisant $L_n$ l’ensemble des livres d’au plus n mots, c’est-à-dire $L_n = \{ l \in \mathcal{L} / \sigma(l) \leq n\}$, nous pouvons définir exactement le degré d’exprimabilité $\epsilon(\omega, N)$ par :

\[\begin{array}{ccccc} \epsilon & : & (\Omega, N) & \to & \mathcal{R}^+ \\ & & (\omega, n) & \mapsto & min(d(\omega, Im(L_n)))\\ \end{array}\]

La formule est obscure, j’en conviens. Illustrons-la par un exemple bien choisi : prenons mon chien Pongo. Pongo est un sympathique labrador, placide et amical. Notons [PONGO] l’idée représentant Pongo. Comment pouvons-nous cerner [PONGO] en au plus N mots ?

En au plus un mot pour commencer, nous avons l’embarras du choix : choisirons-nous “CHIEN”, “LABRADOR”, “PINCE-A-LINGE” ou encore “COURGETTE” ? L’étude de la fonction $\Psi$ m’incite à choisir “LABRADOR”, car c’est ce mot qui minimise sa distance à [PONGO]. Bien évidemment, “PONGO” n’appartient pas à mon dictionnaire car sinon ce serait trop simple.

Le degré 1 d’exprimabilité de [PONGO] est donc la distance séparant [PONGO] de [LABRADOR] : les deux idées sont certes proches mais pas identiques, [PONGO] est quelque part dans le voisinage de [LABRADOR].

Résumer [PONGO] en au plus deux mots fait émerger la combinaison “SYMPATHIQUE LABRADOR” qui semble être la plus efficace. L’idée pointée par “SYMPATHIQUE LABRADOR” est plus proche de [PONGO] que ne l’était celle pointée par “LABRADOR”.

De proche en proche, nous sommes ainsi amené à écrire par construction un livre sur [PONGO] dont l’idée se rapprochera de plus en plus de [PONGO], mais sans jamais pouvoir l’atteindre totalement : [PONGO] n’est pas exprimable, il est infiniment complexe et les mots ne sauraient l’épuiser totalement.

Remarquons ici que l’unicité de la méthode n’est pas garantie ! En effet, “SYMPATHIQUE LABRADOR” et “LABRADOR SYMPATHIQUE” ont la même distance à [PONGO], alors même que ce sont deux livres différents. Par ailleurs, ce n’est pas parce qu’un mot apparaît à une étape donnée, qu’il sera toujours nécessairement présent dans les étapes suivantes.

Quoiqu’il en soit, en faisant croître N, nous pouvons tomber sur des livres comme “UN SYMPATHIQUE LABRADOR, AFFABLE ET AVENANT, DE COULEUR SABLE, PARFOIS UN PEU BOULET MAIS DE BONNE VOLONTÉ” ou encore si on augmente drastiquement la valeur de N : “UN CHIEN EXCEPTIONNEL. CHAPITRE I : ASPECT PHYSIQUE DE PONGO. SECTION A : DEFINITION DE LA TETE. SOUS-SECTION 1 : LA TRUFFE. PARAGRAPHE A : TEXTURE ET COULEUR etc…”.

Ainsi à chaque fois qu’on augmente le nombre de mots, on se rapproche de plus en plus de l’idée de [PONGO]. L’allure de la fonction $\epsilon([PONGO], n)$ est donnée ci-dessous.

Allure de la fonction \epsilon de mon chien

Il peut-être intéressant de s’attarder quelques instants sur les propriétés de cette fonction. Tout d’abord, elle est monotone décroissante : plus on augmente le nombre de mots, plus on se rapproche de notre idée initiale. Cela s’écrit :

\[\forall \omega \in \Omega,; \forall n \in N,\quad \epsilon(\omega, n+1) \leq \epsilon(\omega, n)\]

Par ailleurs, l’axiome d’entendement implique que notre fonction tend nécessairement vers 0 lorsqu’on augmente le nombre de mots : toute idée est limite d’une suite de livre. Encore une fois, dans le langage des mathématiques, cela s’écrira :

\[\forall \omega \in \Omega,\quad lim_{n \to \infty}\epsilon(\omega, n) = 0\]

Si $\omega$ est une idée exprimable, alors il existe un plus petit entier $c(\omega)$ pour lequel l’idée est exactement exprimée en un livre d’exactement $c(\omega)$ mots. La encore, la traduction mathématique de cette proposition s’écrit :

\[\forall \omega \in E,\; \exists\; c(\omega) \in N \;/\; \forall n \geq c(\omega) \;\epsilon(\omega, n) = 0\]

La valeur de $c(\omega)$, également appelée complexité de l’idée exprimable $\omega$ représente le nombre de mots minimal pour cerner totalement notre idée : plus ce nombre est grand, plus l’idée est dite complexe.

Le fait que la fonction $\epsilon$ tende vers 0 pourrait a priori nous réconforter : toutes les idées semblent être accessible à l’entendement par le biais de livres. Néanmoins, j’avais écrit ici qu’un homme, au cours de sa vie, ne saurait lire plus de 5000 livres. A raison de 500 pages en moyenne par livre et de 500 mots par page (ce sont de grandes pages), on peut affirmer qu’il est impossible à un homme de lire un livre de plus de un milliard de mots. Les implications sont catastrophiques : par le biais de la lecture, un homme peut au cours de sa vie concevoir au plus UNE SEULE idée de complexité $c(\omega)$ = 1 milliard (c’est-à-dire une idée qui s’exprime parfaitement en exactement un milliard de mots). Ce même homme est totalement incapable de concevoir par la lecture une idée de complexité supérieure à 1 milliard. Parallèlement un homme peut tout à fait pressentir une idée de complexité arbitrairement grande, mais si cette complexité est trop élevée, il n’aura jamais le temps de la mettre totalement en mots. D’où la nécessité critique des résumés, mais ce faisant on perd une petite partie du sens original de l’idée.

Supposons à ce propos que [LE SENS DE LA VIE] soit une idée exprimable avec une complexité de 10 milliards : la résumer en un petit livre de 100 pages reviendrait exactement à résumer Guerre et Paix par “ça parle de la Russie”. Percevez-vous l’ordre de grandeur du biais introduit par le résumé ?

Du pseudo-problème du réalisme et de l’inventaire

On le voit bien : on pourrait théoriquement capturer toute réalité (ou du moins, toute idée aussi complexe soit-elle) par l’intermédiaire de livres de taille arbitrairement grande. Ce faisant, nous pourrions alors tomber dans le biais trompeur de trop décrire : “suggérer c’est créer, décrire c’est détruire” disait Robert Doisneau. Comment cela entre-t’il en compte dans notre étude ? Les livres descriptifs sont certes complets et précis et exhaustifs et tout ce que vous voulez… mais le prix à payer est là : qui se lancerait dans une saga en 10 volumes juste pour connaître mon chien ? Georges Perec, qui a tout de même écrit un essai sur l’art et la manière de ranger ses livres, disait au sujet des descriptions :

Rien ne semble plus simple que de dresser une liste, en fait c’est beaucoup plus compliqué que ça n’en a l’air : on oublie toujours quelque chose, on est tenté d’écrire etc., mais justement un inventaire, c’est quand on écrit pas etc. L’écriture contemporaine, à de rares exceptions (Butor), a oublié l’art d’énumérer : les listes de Rabelais, l’énumération linnéenne des poissons dans Vingt Mille Lieues sous les mers, l’énumération des géographes ayant exploré l’Australie dans les Enfants du capitaine Grant…

D’un autre côté, rentrer dans une description minutieuse, précise et implacable de l’anatomie de mon chien (sa truffe, sa trogne, ses oreilles) n’est peut-être qu’une méthode comme une autre de le cerner. Peut-être même que l’excès de réalisme nous éloigne in fine de l’idée à décrire. Peut-être enfin que l’axiome d’entendement n’est pas vérifié dans notre Univers.

Plein de questions auxquelles je suis incapable de répondre. Et de toute façon, la réponse importe peu : en acceptant l’axiome d’entendement, il suffit de savoir que ces livres existent, sans nécessairement connaître leur contenu.

Livres nuls, livres parfaits

Partant d’un livre donné, comment fabriquer des livres de taille supérieure sans que le sens (l’idée pointée par le livre) en soit modifié ? En supposant qu’il existe une idée “nulle” notée $\omega_0$ qui serait aux idées ce que le zéro est aux nombres pour l’addition, et en supposant que cette idée là soit exprimable, alors nous pourrions définir l’ensemble des livres qui pointent vers l’idée nulle par :

\[L_0 = \psi^{-1}(\omega_0)\]

Cet ensemble de livres, également appelé ensemble des livres nilpotents, est régulièrement cité dans les médias et je crains que l’ensemble $L_0 = \psi^{-1}(\omega_0)$ soit de très grande taille.

En supposant qu’on puisse “additionner” les livres comme les idées, alors on peut envisager de parler de morphisme de groupe entre l’ensemble des livres muni de son addition et l’ensemble des idées muni de son addition. Dans ce cas, rajouter un livre nilpotent à n’importe quel livre donné ferait pointer l’idée de la somme uniquement sur l’idée initiale :

\[\forall l \in \mathcal{L},\; \forall l_0 \in L_0 \quad \Psi(l+L_0) = \Psi(l) + \Psi(L_0) = \psi(l) + \omega_0 = \psi(l)\]

Remarquons toutefois que toutes les hypothèses introduites ici sont purement spéculatives : j’ignore s’il est effectivement possible d’additionner les idées ou les livres.

J’ajoute pour terminer, une dernière définition : celle de livre parfait. Un livre est parfait s’il exprime son idée avec le minimum de mots requis, ni plus ni moins. En notant P l’ensemble des livres parfaits, cela s’écrit :

\[l \in P \;\iff\; c(\Psi(l)) = \sigma(l)\]

J’ignore à quoi ressemblerait un livre parfait nilpotent : un livre qui pointe exactement sur l’idée nulle avec la plus extrême concision possible. Il faudrait demander son avis à Bernard Henri-Levy.

Maintenant que nous avons vu comment rallonger la taille des livres sans changer l’idée initiale, on pourrait s’interroger sur le processus inverse : comment, partant d’un livre donné, écrire un livre plus petit qui pointerait vers la même idée ?

Dans le cas des livres parfaits, la réponse est triviale : c’est par définition impossible. Dans le cas général, réduire le nombre de mots sans altérer le sens de l’idée est un problème complexe et demande de bien connaître le comportement de la fonction $\Psi$. Dans cet article, nous avons juste postulé l’existence de cette fonction sans introduire la moindre hypothèse sur sa nature ou son comportement.

Concision des idées exprimables : trahisons et analogies

Venons en maintenant à la question de la synthèse. Supposons qu’un philosophe donné, appelons-le Emmanuel, supposons qu’Emmanuel donc ait un jour une idée exprimable que nous notons $\omega_0$.

Emmanuel décide d’écrire un livre L pour décrire son idée. Son livre s’appellerait par exemple “Critique de la Raison Pure” et ferait mettons mille pages. On suppose qu’Emmanuel possède une maîtrise parfaite de sa langue de sorte que son livre est parfait : on ne saurait écrire de meilleur livre que le sien pour décrire son idée $\omega_0$.

Maintenant, essayons d’imaginer un livre $L_n$ qui décrirait du mieux qu’il peut l’idée pointée par $L_0$ mais qui serait limité à exactement n mots (avec donc $n < n_0 = 1000$). Emmanuel ayant écrit un livre parfait, l’idée pointée par $L_n$ sera nécessairement différente de $\omega_0$ car sinon cela signifierait que sa critique contiendrait des mots superflus. C’est une hypothèse offensante que nous ne saurions prendre au sérieux.

Si nous notons $\Delta{}n$ la différence de mots entre le livre et son résumé (donc $\Delta{}n = n_0 - n$), alors nous pouvons tracer l’allure de l’erreur introduite par le résumé en fonction de $\Delta{}n$ :

Erreur introduite par l’opération de concision

Il pourrait être intéressant de vérifier dans quelle mesure différentes idées exprimables de même complexité résistent à cette opération de concision. On peut à ce propos se rappeller la citation introductive de Woody Allen en début d’article : “J’ai pris un cours de lecture rapide et j’ai pu lire “Guerre et Paix” en vingt minutes. Ça parle de la Russie.”.

D’un autre côté, il existe peut-être un ou des entiers qui maximisent la réduction tout en minimisant la perte de sens. En effet, il y a des cas d’idées où on peut dire l’essentiel en peu de mots : repensons par exemple à l’analogie de la boule posée sur un tissu élastique pour visualiser la Relativité Générale. Ce sont ces valeurs de pas de réduction qu’il faut à tout prix trouver, à supposer qu’elles existent toujours. On pourrait par exemple postuler l’existence d’idées exprimables irréductibles pour lesquelles toute opération de concision serait nécessairement une opération de (profonde) trahison. On en revient grosso modo à une idée sous-jacente de régularisation et de L-curve; ainsi que l’illustre la figure ci-dessous : trouver une bonne taille pour un résumé, c’est trouver la valeur seuil (ici 80) au-delà de laquelle le résumé déforme l’idée intiale de façon inacceptable.

L-curve

La définition de l’inacceptable est par ailleurs subjective, ce qui se traduit par la minimisation de $\epsilon$ en introduisant une régularisation pondérée par un facteur $\lambda$ :

\[\epsilon = \Delta{}\omega + \lambda \cdot{}\Delta{}n\]

La collection “3 minutes pour comprendre” quoiqu’il en soit, décide de travailler à pas de réduction constant : trois minutes, ni plus ni moins. En revanche, le coefficient de trahison est quant à lui variable : certaines idées sont à peu près correctement transcrites, d’autres en deviennent totalement absconses.

Classe d’idées, degré de séparation

Notons pour terminer que cette opération de concision pourrait permettre d’ordonner le monde. Avec une concision extrême (résumer une idée en un seul mot), nous faisons apparaitre des classes d’idées, que nous notons $C_1$. Deux idées appartiennent à la même classe de $C_1$ si et seulement si elles sont résumées par le seul même mot. Ainsi, [FEU], [ATRE], [FLAMME], [BRULURE] etc… sont des idées exprimables qui pourraient être résumées par le livre-mot “FEU”.

A l’ordre deux, nous pourrions rassembler sous une même bannière toutes les idées qui se résument au mieux par les deux mêmes mots. Et ainsi de suite….

On peut alors définir le degré de séparation entre deux idées $\omega_1$ et $\omega_2$ comme étant le plus petit entier k pour lequel $C_k(\omega_1) \neq C_k(\omega_2)$. Plus ce nombre est petit, plus les idées sont distantes. Plus ce nombre est élevée (i.e. plus il devient difficile de séparer deux idées données par le biais des livres) et plus ces idées entretiennent des affinités profondes.

Regardons par exemple l’évolution de la synthèse des trois idées suivantes : [L’ÎLE AU TRÉSOR], [LES ENFANTS DU CAPITAINE GRANT] et [UNE COURGETTE] :

Degré [L’ÎLE AU TRÉSOR] [LES ENFANTS DU CAPITAINE GRANT] [UNE COURGETTE]
1 “LIVRE” “LIVRE” “COURGETTE”
2 “LIVRE AVENTURE” “LIVRE AVENTURE” “COURGETTE COURGETTE”
3 “LIVRE AVENTURE PIRATE” “LIVRE AVENTURE EXPLORATION” “COURGETTE COURGETTE COURGETTE”

Le degré séparant les livres de Stevenson et Jules Verne avec une courgette est ainsi de 1 : ils n’appartiennent pas à la même classe $C_1$. Par contre, le degré séparant L’Île au trésor avec Les enfants du capitaine Grant est de 3. On remarque ici que l’idée [L’ÎLE AU TRÉSOR] présente la particularité d’être l’idée d’un livre. Ce livre fait exactement 71 590 mots. Si on cherche le meilleur livre l’exprimant en exactement 71 590 mots, on tombera sur le livre de l’Île au trésor. Notons que les liens entre livres et idées peuvent être intriqués : [L’ÎLE AU TRÉSOR], [L’IDÉE DE L’ÎLE AU TRÉSOR], [L’IDÉE DU LIVRE DE L’ÎLE AU TRÉSOR], [LE LIVRE DE L’IDÉE DU LIVRE DE L’IDÉE DU LIVRE DE L’IDÉE DU LIVRE DE L’ÎLE AU TRÉSOR] etc.

Quoiqu’il en soit, soulignons qu’il existe forcément des idées qui sont en désaccord total, c’est-à-dire des idées pour lesquelles le degré de séparation k est minimal. Un exemple trivial serait par exemple [LE SOCIALISME] et [LA POLITIQUE DE HOLLANDE], mais je m’égare.

Concision des idées non exprimables, haïkus et aphorismes

On l’a vu, l’art de la concision entraîne mécaniquement une perte de sens dans le cas des idées exprimables.

Dans le cas des idées non-exprimables, l’art de la concision peut parfois s’avérer magique. On peut penser aux haïkus japonais, Bashô écrivait par exemple :

un vieil étang

une grenouille plonge

le bruit de l’eau

Ici on arrive à pressentir la distance séparant le haïku de Bashô de l’idée absolument non-exprimable sous jacente, mais sans jamais réussir à la saisir totalement. Quel massacre cela serait si, plein de bonne volonté, nous tentions de préciser un peu plus le haïku en décrivant précisement l’étang et la grenouille (était-ce une rainette ?).

C’est probablement cette même idée qui fait la force des aphorismes : dire beaucoup en peu de mots.

Terminons sur cette citation attribuée à Ernest Hemingway, qui aurait affirmé qu’on pouvait tout-à-fait écrire un roman dramatique en six mots :

For sale : baby shoes, never worn

  1. ou pour être encore plus général, on peut plutôt affirmer qu’on peut en extraire une sous-suite constante qui converge vers notre idée