Les 2326 kWh de civilisation

Mon éditorial sur You Tube

Je reviens à ma recherche sur le marché de l’énergie. Je pense que l’idée théorique a suffisamment mûri. Enfin j’espère.

Dans un marché donné d’énergie il y a N = {i1, i2, …, in} consommateurs finaux, M = {j1, j2, …, jm} distributeurs et Z = {k1, k2, …, kz} fournisseurs primaires (producteurs). Les consommateurs finaux se caractérisent par un coefficient de consommation individuelle directe EC(i). Par analogie, chaque distributeur se caractérise par un coefficient de quantité d’énergie négociée EN(j) et chaque fournisseur primaire se caractérise par un coefficient individuel de production EP(k).

Le marché est à priori ouvert à l’échange avec d’autres marchés, aussi bien au niveau de la fourniture primaire d’énergie qu’à celui du négoce. En d’autres mots, les fournisseurs primaires peuvent exporter l’énergie et les distributeurs peuvent aussi bien exporter leurs surplus qu’importer de l’énergie des fournisseurs étranger pour balancer leur négoce. Logiquement, chaque fournisseur primaire se caractérise par une équation EP(k) = EPd(k) + EPx(k), où EPd signifie fourniture primaire sur le marché local et EPx symbolise l’exportation de l’énergie.

De même, chaque distributeur conduit son négoce d’énergie suivant l’équation EN(j) = ENd(j) + EI(j) + ENx(j)ENx symbolise l’énergie exportée à l’étranger au niveau des relations entre distributeurs, EI est l’énergie importée et ENd est l’énergie distribuée dans le marché local.

L’offre totale OE d’énergie dans le marché en question suit l’équation OE = Z*[EPd(k) – EPx(k)] = M*[ENd(j) + EI(j) – ENx(j)]. Remarquons qu’une telle équation assume un équilibre local du type marshallien, donc le bilan de l’offre d’énergie et de la demande pour énergie se fait au niveau microéconomique des fournisseurs primaires et des distributeurs.

La consommation totale ET(i) d’énergie au niveau des consommateurs finaux est composée de la consommation individuelle directe EC(i) ainsi que de l’énergie ECT(i) consommée pour le transport et de l’énergie incorporée, comme bien intermédiaire ECB(i), dans les biens et services finaux consommés dans le marché en question. Ainsi donc ET(i) = EC(i) + ECT(i) + ECB(i).

La demande totale et finale DE d’énergie s’exprime donc comme

N*ET(i) = N*[EC(i) + ECT(i) + ECB(i)]

et suivant les assomptions précédentes elle est en équilibre local avec l’offre, donc

Z*[EPd(k) – EPx(k)] = N*[EC(i) + ECT(i) + ECB(i)]

aussi bien que

M*[ENd(j) + EI(j) – ENx(j)] = N*[EC(i) + ECT(i) + ECB(i)].

Avant que j’aille plus loin, une explication. Pour le moment j’assume que les coefficients individuels mentionnés plus haut sont des moyennes arithmétiques donc des valeurs espérées dans des ensembles structurées suivant des distributions normales (Gaussiennes). C’est une simplification qui me permet de formaliser théoriquement des « grosses » idées. Je pense que par la suite, j’aurai à faire des assomptions plus détaillées en ce qui concerne la distribution probabiliste de ces coefficients, mais ça, c’est pour plus tard.

Ça, c’était simple. Maintenant, le premier défi théorique que je perçois consiste à exprimer cette observation que j’avais faite il y a des mois de ça : les pays les plus pauvres sont aussi le moins pourvus en énergie. Au niveau du bilan énergétique la pauvreté se caractérise soit, carrément, par la quasi-absence de la consommation d’énergie niveau transport et niveau énergie incorporée dans les biens et services, soit par une quantité relativement petite dans ces deux catégories. C’est à mesure qu’on grimpe les échelons de richesse relative par tête d’habitant que les coefficients ECT(i) et ECB(i) prennent de la substance.

La seconde observation empirique à formaliser concerne la structure de la fourniture primaire d’énergie. Dans les pays les plus pauvres, l’énergie primaire est très largement fournie par ce que l’Agence Internationale d’Énergie définit élégamment comme « combustion des bio fuels » et qui veut tout simplement dire qu’une grande partie de la société n’a pas d’accès à l’électricité et ils se procurent leur énergie primaire en brûlant du bois et de la paille. Formellement, ça compte comme utilisation d’énergies renouvelables. Le bois et la paille, ça repousse, surtout cette dernière. Encore faut se souvenir que ce type d’énergétique est renouvelable au niveau de la source d’énergie mais pas au niveau du produit : le processus relâche du carbone dans l’atmosphère sans qu’on ait une idée vraiment claire comment faire retourner ce génie dans la lampe. La morale (partielle) du conte des fées est que lorsque vous voyez des nombres agrégés qui suggèrent la prévalence d’énergies renouvelables en Soudan du Sud, par exemple, alors ces renouvelables c’est du feu de paille très littéralement.

La différence empirique entre ces pays les plus pauvres et ceux légèrement plus opulents réside dans le fait que ces derniers ont un réseau de fourniture primaire d’électricité ainsi que de sa distribution et ce réseau dessert une large partie de la population. Ce phénomène se combine avec une percée originale d’énergies renouvelables dans les pays en voie de développement : des populations entières, surtout des populations rurales, gagnent l’accès à l’électricité vraiment 100% renouvelable, comme du photovoltaïque, directement à partir d’un monde sans électricité. Ils ne passent jamais par la phase d’électricité fournie à travers des grosses infrastructures industrielles que nous connaissons en Europe.

C’est justement la percée d’électricité dans une économie vraiment pauvre qui pousse cette dernière en avant sur la voie de développement. Comme j’étudie la base des données de la Banque Mondiale à propos de la consommation finale d’énergie par tête d’habitant, je pose une hypothèse de travail : lorsque ladite tête d’habitant dépasse le niveau de quelques 2326 kilowatt heures de consommation finale d’énergie par an, soit 200 kg d’équivalent pétrole, une société quasiment dépourvue d’économie régulière d’échange se transforme en une société qui produit et fait circuler des biens et des services.

Une fois ce cap franchi, le prochain semble se situer aux environs d’ET(i) égale à 600 ± 650 kg d’équivalent pétrole, soit 6 978,00 ± 7 559,50 kilowatt heures par an par tête d’habitant. Ça, c’est la différence entre des sociétés pauvres et en même temps instables socialement ainsi que politiquement d’une part, et celles dotées d’institutions bien assises et bien fonctionnelles. Rien qui ressemble à du paradis, au-dessus de ces 6 978,00 ± 7 559,50 kilowatt heures par an par tête d’habitant, néanmoins quelque chose qui au moins permet de construire un purgatoire bien organisé.

L’étape suivante est la transgression d’un autre seuil, que je devine intuitivement quelque part entre 16 240 kWh et 18 350 kWh par an par tête d’habitant. C’est plus ou moins le seuil officiel qui marque la limite inférieure de la catégorie « revenu moyen » dans la terminologie de la Banque Mondiale. C’est alors qu’on commence à observer des marchés bien développés est des structures institutionnelles tout à fait stables. Oui, les hommes politiques peuvent toujours faire des conneries, mais ces conneries sont immédiatement projetées contre un fonds d’ordre institutionnel et de ce fait sont possibles à contrecarrer de façon autre qu’une guerre civile. Une fois dans la catégorie « revenu moyen », une économie semble capable de transition secondaire vers les énergies renouvelables. C’est le passage des réseaux typiquement industriels, basés sur des grosses centrales électriques, coexistantes avec des réseaux de distribution fortement oligopolistes, vers des systèmes de fourniture d’énergie basés sur des installations locales puisant leur jus des sources renouvelables.

Finalement, à partir de quelques 3000 kg d’équivalent pétrole = 34 890 kWh par an par tête d’habitant c’est la catégorie des pays vraiment riches. En ce qui concerne les énergies renouvelables, des investissements vraiment systémiques commencent au-dessus de ce seuil. C’est une transition secondaire à forte vapeur.

Bon, je formalise. Une variable parmi celles que j’ai nommées quelques paragraphes plus tôt vient au premier plan :  la consommation totale d’énergie par tête d’habitant ou ET(i) = EC(i) + ECT(i) + ECB(i). Les observations empiriques que je viens de décrire indiquent que dans le processus de développement économique des sociétés, le côté droit de l’équation ET(i) = EC(i) + ECT(i) + ECB(i) se déploie de gauche à droite. D’abord, il y a du EC(i). Les gens consomment de l’énergie pour leurs besoins le plus individuels et le plus directement possible. On brûle du bois ou de la paille et on a de l’énergie thermique pour faire de la cuisine, pour décontaminer l’eau et pour se chauffer. Si ça marche, des habitats humains permanents s’établissent.

Je sais que ça sonne comme le compte rendu d’évènements qui se passèrent à l’aube de la civilisation, mais après que j’ai étudié la situation des nations les plus pauvres du monde je sais aussi que c’est bien ce qui se passe dans des pays comme Niger ou Soudan. Le premier défi de ces populations consiste à faire marcher la structure sociale de base, donc à arriver au point quand les communautés locales sont capables de se développer et pour se développer lesdites communautés locales ont tout simplement besoin de s’établir sur une base relativement stable de nourriture et d’énergie.

Une fois que ce cap est franchi, donc une fois qu’ET(i) passe un seuil critique ET1(i), il y a un surplus d’énergie qui peut se traduire comme le développement du transport, ainsi que celui des marchés des biens et des services. En d’autres mots :

ET1(i) = 2 326 kWh

[EC(i) ≤ EC1(i)] => [ET(i) = EC(i) et ECT(i) ≈ 0 et ECB(i) ≈ 0]

[EC(i) > EC1(i)] => [ET(i) = EC(i) + ECT(i) + ECB(i) ; ECT(i) > 0 et ECB(i) > 0]

[EC(i) > EC1(i)] <=> [ECT(i) + ECB(i) = ET(i) – 2 326 kWh]

La seconde valeur critique, que je nomme ET2(i), donne lieu à l’émergence d’une structure institutionnelle suffisamment stable pour être appelée « ordre institutionnel ». Je sais que :

6 978,00 kWh ≤ ET2(i) ≤ 7 559,50 kWh

et que

4652 kWh < [ET2(i) – ET1(i)] ≤ 5233,5 kWh

et de même

{4652 kWh < [ECT(i) + ECB(i)] ≤ 5233,5 kWh}

ainsi que

[6 978,00 kWh ≤ ET2(i) ≤ 7 559,50 kWh] => ordre institutionnel

Alors vient ce troisième seuil, 16 240 kWh ≤ ET3(i) ≤ 18 350 kWh où la transition secondaire vers les énergies renouvelables devient possible. Cette transition prend donc lieu lorsque

13 914 kWh ≤ [ECT(i) + ECB(i)] ≤ 16 024 kWh

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Vous pouvez donner votre support financier à ce blog

€10.00

Coefficients explosifs court-terme

Mon éditorial sur You Tube

Je savais que ça allait arriver : pour moi, l’avènement du semestre d’hiver, à la fac, c’est inévitablement un changement profond de rythme de vie et de travail. Sur toute l’année académique, donc à partir du mois d’octobre jusqu’au mois de juin, plus de 70% de mon volume horaire d’enseignement prend lieu précisément entre le 1er Octobre et le 30 Janvier. Ce plus de 70%, cette année-ci, cela veut dire 630 heures de cours sur 4 mois.

Quoi qu’il en soit, je tiens à maintenir ne serait-ce qu’un rythme lent d’écriture sur mon blog. Un rythme lent vaut mieux que pas de rythme du tout. Je sais que le fait de blogger régulièrement me donne une sorte d’apprentissage additionnel, comme un processus supplémentaire de traitement d’information dans mon cerveau.

Les deux mois qui viennent de s’écouler m’ont amené à quelques réalisations capitales. Je pense que la première d’entre elles est que l’enseignement est vraiment mon élément. « Eh bien voilà qu’il vient de découvrir l’Amérique, le gars » vous rigolerez, « Il a été prof pour douze ans et voilà qu’il vient de découvrir qu’il aime le job. Vaut mieux tard que jamais ». Oui, ça me fait rigoler, moi aussi, donc j’explique. Les deux premières semaines avec ce plan de cours super chargé, à la fac, ça me faisait un peu irrité (et irritable, par ailleurs). C’était une matinée il y a à peu près dix jours que je m’étais rendu compte que la perspective de cinq heures de cours ce jours précis ça me branchait. Oui, ça me branchait. Je sentais ce flot extrêmement plaisant d’adrénaline et de sérotonine, le mélange d’excitation et de volonté d’action.

L’enseignement est donc ce qui met mon système nerveux en vitesse de compétition, en quelque sorte. Banal et fondamental en même temps. Je veux approcher la chose de façon scientifique. Objectivement, l’enseignement en classe c’est de la communication et c’est précisément ce qui met mon système nerveux central en cet état d’excitation plaisante. Subjectivement, lorsque j’y pense, la communication en classe me procure deux sensations majeures : celle de connecter très vite des parcelles d’information, en des phrases intelligibles, et celle de dire ces phrases à un public.

Puisque j’y suis à la connexion des parcelles d’information, je peux aussi bien me vanter d’en avoir connecté un peu. Je viens de pondre un article sur le marché d’énergie, sous un titre de travail « Apprehending energy efficiency : what is the cognitive value of hypothetical shocks ? ».  Je donne ce titre en lien hypertexte pour que vous puissiez accéder le brouillon que j’ai déposé comme proposition de publication chez « Energy Economics ».  Je donne ici un sommaire de mon raisonnement. J’avais commencé par connecter deux types de phénomènes : tous les trucs que j’eusse observés par rapport au marché d’énergie, durant ces deux dernières années, d’une part, avec un phénomène de toute autre nature, c’est-à-dire le fait que l’économie de notre planète est en train de traverser la plus longue période de croissance économique ininterrompue depuis 1960. En même temps, l’efficacité énergétique de l’économie mondiale – mesurée avec le coefficient de PIB par kilogramme d’équivalent pétrole de consommation finale d’énergie – continue de croître paisiblement. Je m’étais demandé : y-a-t-il un lien entre les deux ? Est-il concevable que l’accalmie présente du cycle macroéconomique vienne du fait que notre espèce avait appris quelque chose de plus en ce qui concerne l’exploitation des ressources énergétiques ?

Comme j’y pense, j’ai quelques intuitions (obsessions ?) qui reviennent encore et encore. Intuition no. 1 : l’intensité de consommation d’énergie est liée au niveau général de développement socio-économique, y compris développement institutionnel (stabilité politique etc.). Je l’ai déjà exprimée, celle-là, dans « Les 2326 kWh de civilisation ». Intuition no. 2 : la vitesse de changement technologique est plutôt une cadence rythmée dans un cycle qu’une vitesse proprement dite. En d’autres mots, les technologies, ça change de génération en génération. Toute technologie à un cycle de vie et ce cycle de vie se reflète dans son coefficient d’amortissement. Changement au niveau de l’efficience énergétique d’un système économique se passe au rythme d’un cycle de vie des technologies. Intuition no. 3 : les marchés financiers, y compris les systèmes monétaires, jouent un rôle similaire au système endocrinien dans un organisme vivant. L’argent, aussi bien que d’autres titres financiers, c’est comme des hormones. Ça transmet l’information, ça catabolise quelque chose et anabolise quelque chose d’autre. S’il y a quoi que ce soit d’important qui se passe niveau innovation, ça engage les marchés financiers.

Dans la science, il est bon de prendre en considération l’avis d’autres personnes, pas seulement mes propres intuitions. Je veux dire, c’est aussi une bonne habitude dans d’autres domaines de la vie. Après avoir donc fait ce qui s’appelle ‘revue de la littérature’, j’avais trouvé une corroboration partielle de mes propres intuitions. Il y a un modèle intéressant d’efficience énergétique au niveau macroéconomique appelé « MuSIASEM » qui appréhende la chose précisément comme s’il était question du métabolisme d’un organisme vivant (consultez, par exemple, Andreoni 2017[1] ou bien Velasco-Fernández et al. 2018[2]).

De tout en tout, j’avais formulé un modèle théorique que vous pouvez trouver, en détail, dans ce manuscrit brouillon. Ce que je voudrais discuter et explorer ici est une composante particulière de cette recherche, un truc que j’avais découvert un peu par hasard. Lorsque je fais de la recherche quantitative, j’aime bien jouer un peu avec les données et avec les façons de les transformer. D’autre part, en sciences économiques, lorsqu’on fait des tests économétriques sur des séries temporelles, l’une des choses les plus fondamentales à faire est de réduire les effets de la non-stationnarité ainsi que ceux de la différence entre des échelles de mesure. De ce fait, une procédure commune consiste à prendre ce qu’on appelle le moment d’observation au lieu de l’observation elle-même. La première dérivée est un moment, par exemple. Le moment est donc la dynamique de quelque chose. Pour ceux qui sont un peu familiers avec l’économie, les coefficients tels que la valeur marginale ou bien l’élasticité sont des moments.

Je voulais donc jouer un peu avec les moments de mes données empiriques. Entre temps, j’avais presque automatiquement calculé les logarithmes naturels de mes données, histoire de les calmer un peu et éliminer des variations accidentelles à court-terme. Le logarithme naturel c’est la puissance à laquelle il faut élever la constante mathématique e = 2,71828 pour obtenir le nombre donné. C’est alors que je m’étais souvenu d’une interprétation possible des logarithmes naturels et de la constante « e », celle de la progression exponentielle. Je peux construire une fonction mathématique de forme générale « y = et*a » où t est le numéro de série d’une période spécifique de temps et a est un paramètre. La progression exponentielle a la réputation de représenter particulièrement bien les phénomènes qui se déploient dans le temps comme la construction d’un mur, où chaque brique consécutive repose sur les briques posées auparavant. On appelle ce type de développement « hystérèse » et en général, cela veut dire que les résultats obtenus dans la période précédente forment une base pour les choses qui se passent dans la période suivante.

Normalement, dans la version scolaire de la progression exponentielle, le paramètre « a » est constant, seulement moi, je voulais jouer avec. Je me suis dit que si j’avais déjà calculé les logarithmes naturels de mes observations empiriques, je peux aussi bien assumer que chaque logarithme est l’exposante « t*a » de la fonction « y = et*a ». J’ai donc un « a » local pour chaque observation empirique et ce « a » local est un moment (une dynamique locale) de cette observation. Question : comment extraire le « t » et le « », séparément, du « t*a » ? La réponse était toute bête : comme je veux. Je peux créer une ligne temporelle arbitraire, donc assigner à chaque observation empirique une abscisse de période selon mon gré.

A ce moment-là, je me suis dit qu’il y a deux lignes temporelles alternatives qui m’intéressent particulièrement dans le contexte donné de recherche sur l’efficience énergétique des économies nationales. Il y a une ligne de changement lent et séculaire, la cadence de mûrissement des civilisations en quelque sorte et d’autre part il y a une ligne de changement explosif à court terme. Mes observations empiriques commençaient toutes en 1990 et continuaient jusqu’en 2014. Je pouvais donc simuler deux situations alternatives. Premièrement, je pouvais considérer tout ce qui s’était passé entre 1990 et 2014 comme partie d’un processus exponentiel initialisé il y a longtemps. Un siècle auparavant, c’est longtemps, tenez. Je pouvais donc prendre chaque abscisse temporelle entre 1990 et 2014 et lui assigner une coordonnée spéciale, égale à « année – 1889 ». L’année 1990 serait donc « 1990 – 1889 = 101 » pendant que 2014 correspondrait à « 2014 – 1889 = 125 » etc.

Deuxièmement, je pouvais assumer que ma période de 1990 à 2014 représente les conséquences de quelque évènement hypothétique qui venait d’avoir pris lieu, par exemple en 1989. L’année 1990 aurait alors l’abscisse temporelle t = 1990 – 1989 = 1, et 2014 serait t = 2014 – 1989 = 25. J’avais fait ces deux transformations : pour chaque observation empirique j’avais pris son logarithme naturel et ensuite je l’avais divisé, respectivement, par ces deux abscisses temporelles alternatives, l’une sur une ligne s’étendant depuis 1889 et l’autre initialisée en 1989. Comme je ruminais ces résultats, j’avais remarqué quelque chose que j’aurais dû prévoir si j’étais un mathématicien et non pas un économiste sauvage qui utilise les maths comme un Néanderthalien utiliserait une calculatrice. Lorsque j’assume que mon histoire commence en 1990, donc que t = 1990 – 1989 = 1 etc., chaque « t » consécutif est beaucoup plus grand que son prédécesseur, mais cette différence décroit très vite. Tenez, t(1991) = 1991 – 1989 = 2 et ça fait deux fois plus que t(1990) = 1990 – 1989 = 1. Cependant t(1995) = 1995 – 1989 = 6 et ça fait juste 20% de plus que t(1996) = 1994 – 1989 = 5. Si je divise donc mes logarithmes naturels par ces « t » qui grimpent vite, mes moments « a » locaux décroissent tout aussi vite et la cadence de cette décroissance ralentit tout aussi vite.

Quel genre de phénomène dans la vie réelle une telle progression mathématique pourrait bien représenter ? Je me suis dit que si un choc profond avait pris lieu en 1989 et avait envoyé des ondes de choc de force décroissante dans l’avenir, ce serait à peu près ça. C’est alors que vient le truc vraiment intéressant dans cette recherche que je viens de faire. Les données transformées en cette onde de choc relativement courte, se répandant depuis 1989, donnent le plus grand pouvoir explicatif dans mon modèle et lorsque je parle de « plus grand » cela veut dire un coefficient de détermination qui se balance vers R2 = 0,9 et un coefficient de signifiance statistique de p < 0,001.

Encore une fois. Je prends un modèle de changement niveau efficience énergétique d’économies nationales. Je veux dire mon modèle. Je le teste avec trois types de données transformées : les logarithmes naturels, genre de calmer le jeu, ensuite des coefficients exponentiels locaux long-terme, qui commencent leur histoire en 1889, et enfin des coefficients exponentiels qui racontent une histoire explosive à partir de 1989. Les derniers, je veux dire les explosifs court-terme, racontent l’histoire la plus cohérente en termes de pouvoir explicatif. Pourquoi ? Qu’y a-t-il de si exceptionnel dans cette représentation particulière des données quantitatives ? Honnêtement, je ne sais pas. Tout ce qui me vient à l’esprit est ce créneau de recherche sur l’innovation et le changement technologique qui perçoit ces phénomènes comme une série d’à-coups et de virages soudains plutôt qu’une ligne continue d’évolution progressive (consultez, par exemple, Vincenti 1994[3], Edgerton 2011[4]).

Je me suis dit que – puisque je discute le mécanisme de changement de l’efficience énergétique des économies nationales, mesurée en unités de PIB par unité d’énergie consommée – il est intéressant de regarder du côté des projections officielles à long terme. Ces derniers jours, deux rapports ont été largement publicisés à cet égard : celui d’OECD et celui de PriceWaterhouse Coopers. Niveau conclusions, ils sont tous les deux plutôt optimistes et semblent contredire les pronostics alarmants de certains économistes qui augurent une crise imminente. Ce qui m’intéresse le plus, toutefois, sont les méthodologies de prédictions utilisées dans les deux rapports. Celui de PriceWaterhouse Coopers se réfère au modèle classique de Solow de 1956[5] pendant qu’OECD vogue plutôt dans la direction de la fonction de production de Cobb-Douglas, transformée en logarithmes naturels. La différence entre les deux ? La fonction de production assume un état d’équilibre macroéconomique. En fait, la fonction de production en elle-même est un équilibre et cet équilibre sert comme point de repère pour prédire ce qui va se passer le plus probablement. En revanche, le modèle de Solow ne requiert pas nécessairement un équilibre. Enfin, ça gène pas, mais ce n’est pas absolument nécessaire. Quand j’y pense, la méthodologie que je viens d’employer dans mon article est plus proche de celle de Solow, donc du rapport de PriceWaterhouse Coopers que de celui d’OECD.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Vous pouvez donner votre support financier à ce blog

€10.00

[1] Andreoni, V. (2017). Energy Metabolism of 28 World Countries: A Multi-scale Integrated Analysis. Ecological Economics, 142, 56-69

[2] Velasco-Fernández, R., Giampietro, M., & Bukkens, S. G. (2018). Analyzing the energy performance of manufacturing across levels using the end-use matrix. Energy, 161, 559-572

[3] Vincenti, W.G., 1994, The Retractable Airplane Landing Gear and the Northrop “Anomaly”: Variation-Selection and the Shaping of Technology, Technology and Culture, Vol. 35, No. 1 (Jan., 1994), pp. 1-33

[4] Edgerton, D. (2011). Shock of the old: Technology and global history since 1900. Profile books

[5] Solow, R. M. (1956). A contribution to the theory of economic growth. The quarterly journal of economics, 70(1), 65-94.

L’aventure innocemment analytique

 

J’ai remarqué que j’utilise mon blog pour couvrir un éventail de plus en plus large des sujets. Il y a un an, je sur ce blog, je rédigeais surtout une forme de journal de ma recherche « officielle », plus quelques randonnées intellectuelles un peu échevelées lorsque je voulais me décontracter la cervelle. Maintenant, je suis en train de transformer mon écriture en une sorte de journal intellectuel généralisé : je couvre tous mes sujets de réflexion, plus ou moins en parallèle. C’est l’une des raisons qui m’ont incité à inclure des mises à jour en polonais, ma langue natale. Je suis en train d’explorer un phénomène dont j’eus pris conscience déjà l’année dernière : écrire et publier ça m’aide à penser, ou plutôt à structurer mes pensées de façon intelligible.

Chez moi, à la fac, le mois de Septembre c’est la saison des syllabus. Je me concentre donc sur ce sujet précis. Je réassume, une fois de plus, tout ce que j’ai écrit durant les trois derniers mois à ce sujet. Je commence par les compétences de base que je voudrais enseigner. Comme vous avez pu le lire dans quelques-unes de mes mises à jour précédentes, j’ai une idée qui m’obsède, celle d’enseigner les sciences sociales comme si j’enseignais la navigation, donc comme une méthode de trouver sa propre localisation dans l’espace social ainsi que de tracer une route à travers ledit espace. Deux compétences viennent à mon esprit plus ou moins spontanément : la modélisation des comportements, d’une part, et l’analyse quantitative – surtout financière – d’autre part.

Tout ce qui se passe dans une société est fait de comportement humain. Tout comportement humain survient comme une séquence plus ou moins récurrente d’actions, préalablement apprise. Les séquences de comportement sont pour une société ce que les éléments de construction – briques, panneaux, poteaux etc. – sont pour une structure architectonique. L’apprentissage qui conduit à la formation de ces séquences de comportement est comme la production de ces éléments.

J’encourage mes étudiants à observer les structures sociales, avec la méthode scientifique à l’appui, et à tirer des conclusions tout aussi scientifiques de cette observation. Il serait donc avisé d’expliquer ce qu’est une structure sociale. Si je parle d’être de quoi que ce soit, je parle de quelque chose qui soit n’existe pas du tout soit nous n’en avons qu’un aperçu très succinct. C’est le problème avec l’approche ontologique : aussitôt que je demande ce qu’est une chose, un raisonnement vraiment rigoureux impose une autre question, celle qu’est-ce que ça peut bien signifier « être ». C’est une intuition profonde que nous pouvons trouver, par exemple, chez Martin Heidegger. Pour expliquer la nature des structures sociales, je vais donc prendre un tournant similaire à ce que fait la physique en ce qui concerne la nature de la matière : je vais me concentrer sur ce comment nous vivons la présence des structures sociales, ou bien leur absence. Je vais donc aller vers leur phénoménologie.

Nous expérimentons plusieurs situations sociales. Certaines d’entre eux nous percevons comme passagères, pendant que d’autres semblent avoir une sorte de permanence et de solidité en elles. Un premier ministre, ça ne dure pas (nécessairement) très long. En revanche, la procédure constitutionnelle de nommer un premier ministre, ainsi que de lui donner un vote de confiance, c’est beaucoup plus stable et répétitif. Les pâtés vendus par le traiteur du coin peuvent avoir un goût variable, de jour en jour, mais la présence dudit traiteur dans le quartier, ainsi que la profession des traiteurs en général, c’est du beaucoup plus solide et prévisible.

Nous pouvons donc mettre un ordre hiérarchique parmi toutes les situations sociales que nous vivons, en commençant par celles qui sont les plus récurrentes et les plus prévisibles, en passant par celles qui sont un peu fofolles dans leur occurrence et néanmoins on peut leur faire confiance de survenir, pour finir avec les situations sociales que nous percevons –souvent à cause de nos propres limitations cognitives – comme vraiment uniques et rares. La structure sociale autour de nous est faite de ces pièces de comportement humain qui – selon notre perception – surviennent le plus souvent et de façon la plus prévisible.

Si vous voyez donc, dans un manuel de sociologie, par exemple, la représentation d’une structure sociale en forme d’organigramme, avec des polygones ou des bulles, connectées par des traits fléchés, alors souvenez-vous : ça n’existe pas, c’est juste la carte d’un territoire qui en lui-même est observable comme un ensemble des comportements humains hautement répétitifs. Voilà donc tout le sens d’enseigner – et d’apprendre – les techniques d’identification des schémas de comportement. Ces techniques nous aident à comprendre comment fonctionne la structure sociale autour de nous.

L’analyse quantitative, quant à elle, comme je l’enseigne, a surtout et avant tout la mission de réveiller l’instinct mathématique de mes étudiants. Il y a beaucoup de parallèle avec les techniques d’identification des schémas de comportement. Les nombres ont une signification – c’est une vérité profonde que les anciens Grecs et les anciens Chinois eussent découvert il y a des millénaires. Je suis beaucoup plus proche de la philosophie Grecque en la matière que de l’approche Chinoise. Cette dernière à tendance – au moins pour autant que je la connaisse – à verser dans le mystique et la numérologie. C’est plutôt une sorte de magie mathématique, où les ensembles des nombres correspondent à des destinées et des entités métaphysiques.

En revanche, les Grecs, ils étaient beaucoup plus terre-à-terre dans leur appréhension des maths. Ces derniers étaient un outil. Les théorèmes les plus puissants que nous avons hérité des Grecs – comme celui de Pythagore, ceux de Thalès ou d’Euclide – avaient une application pratique dans le bâtiment, la navigation ou le militaire et ils étaient basées sur l’observation empirique des proportions. C’est par ailleurs de là que vient la notion de nombre rationnel, donc d’un nombre qui est égal à un quotient de deux nombres entiers relatifs. Alors, lorsque j’enseigne les concepts fondamentaux de l’analyse quantitative, je commence par cette recommandation pratique de base : observez les proportions rationnelles et récurrentes dans les phénomènes que vous étudiez.

L’analyse quantitative trouve son application dans l’étude directe des comportements humains aussi bien que dans l’analyse financière. C’est donc ainsi que je viens à une question vraiment importante : comment expliquer la logique de base des finances d’entreprise, aux gens qui n’y avaient jamais ou presque jamais affaire ?

Je commence cette explication par attirer l’attention de mes étudiants sur un fait quotidien : nous attachons de l’importance à tout ce qui est habituellement mesuré en argent. Le montant de notre revenu mensuel ou annuel, le loyer à payer, le prix des transports publics, la valeur de notre immobilier ainsi que celle de l’hypothèque qui y pèse – tout ça c’est important. Bien sûr, l’argent n’est pas la seule chose importante dans la vie, néanmoins elle est importante.

Voici un fait empirique que beaucoup d’étudiants peuvent remarquer par eux-mêmes, par ailleurs : la plupart de pognon qui nous intéresse c’est de l’argent immatériel, en principe ce sont juste des nombres (ou bien des « soldes » comme on les appelle dans la finance) que nous associons, plus ou moins intuitivement, à des trucs importants dans la vie.

Je passe aux finances d’une entreprise et à les expliquer de façon la plus simple possible. Lorsqu’on veut faire du business, il nous faut des ressources, matérielles aussi bien qu’immatérielles. Le compte synthétique qui montre l’état des ressources d’une entreprise est appelé « bilan ». Le bilan possède un trait unique, par rapport aux autres comptes synthétiques : il a deux faces, comme un dieu antique. Il y a la face active et la face passive. Avant d’expliquer leurs technicités, le truc de base à comprendre est la philosophie de division en deux faces distinctes. La voilà : toute ressource qui a de la valeur socialement reconnue possède cette valeur parce que et aussi longtemps qu’elle est à la fois limitée et accessible. Toute ressource que nous possédons dans notre entreprise, nous l’avons acquise – donc transférée de quelque part ailleurs dans la structure sociale – et cette ressource a donc deux aspects : son application courante et sa provenance.

Quant à la provenance des ressources, l’expérience accumulée des générations d’hommes d’affaires, petits et grands, avait conduit à distinguer deux situations différentes : l’emprunt et l’investissement. La logique de cette distinction est basée sur l’observation de comportement humain. Nous nous engageons dans des projets d’entreprise avec deux niveaux de prudence : soit on y plonge tête la première, en échange de la capacité de gérer le projet comme il se développe – c’est la logique générale de l’investissement – soit on se fait des pare-chocs divers qui nous assurent la possibilité de nous retirer, mais cette assurance a une contrepartie en la forme d’influence beaucoup moins marquée sur la gestion du projet – c’est l’approche de celui qui prête plutôt qu’investit.

Suivant cette dichotomie de l’action, le côté passif du capital accumulé dans une entreprise distingue les capitaux propres d’une part et les emprunts (capitaux extérieurs) d’autre part. Pourquoi cette distinction-ci et non pas une division selon les personnes qui fournissent le capital ou bien selon la chronologie de flux de trésorerie correspondants ? Avant de répondre à cette objection directement, laissez-moi attirer votre attention sur un fait très simple et courant : nos façons de communiquer les quantités d’argent dont nous disposons sont hautement standardisées et nous les aimons voir comme telles. Lorsque vous utilisez un logiciel mobile pour des paiements courants, PayPal ou autre, n’êtes-vous pas légèrement irrités lorsque la composition visuelle change radicalement et vous ne pouvez plus retrouver les chiffres-clés là où vous aviez l’habitude de les voir ?

C’est la même chose avec les comptes financiers des entreprises. Quelqu’un commence à rapporter sa situation financière selon un schéma donné. Si une autre personne – un banquier, par exemple – veut être capable de comparer ces comptes avec ceux d’un autre entrepreneur, il veut voir ces derniers présentés selon le même schéma. C’est plus confortable. Vous souvenez-vous de la définition de la structure sociale que je viens de donner quelques paragraphes en arrière ? Voilà un exemple rêvé : la structure logique des comptes, ça se reproduit de façon récurrente et crée ce que nous appelons un système socialement reconnu de comptabilité.

Je viens donc d’introduire en douce une assomption : à un moment donné de l’histoire quelqu’un quelque part avait commencé à présenter le capital de son business divisé en capitaux propres et capitaux extérieurs et les gens auxquels cette personne avait présenté ses comptes selon cette logique avaient trouvé l’idée bien judicieuse et l’avaient reproduite, jusqu’à ce qu’elle soit devenue coutume. Qu’est-qui est donc de si judicieux dans cette distinction ? Eh bien, on peut voir les capitaux propres d’une entité – personne physique ou légale – comme la différence résiduelle entre la valeur brute de tout le capital accumulé et les dettes qui pèsent sur ladite valeur brute. En d’autres mots, la division en capitaux propres et capitaux extérieurs permet de se faire une idée rapide de la liquidité financière de celui qui présente ses comptes.

Alors, un entrepreneur accumule ses ressources à travers deux types de transactions. Certaines personnes, lui-même inclus, investissent leur capital dans ce business et créent ainsi le capital propre. D’autres, plus prudents et moins enthousiastes, signent avec l’entrepreneur des contrats de prêt. Une fois accumulé, le capital est utilisé et c’est alors sur le côté actif du bilan que nous pouvons observer les modalités de cette utilisation.

Le côté actif du bilan est composé d’actifs, c’est à dire des choses et des droits que l’entité donnée possède au moment donné. Pour expliquer le concept essentiel d’un actif, je me réfère à Airbus et à leur rapport financier annuel pour l’année fiscale 2017. Si vous ouvrez ce document (publié en anglais), allez donc à leur bilan, qu’ils désignent comme « Consolidated Statements of Financial Position » en anglais et regardez la catégorie « Assets », donc actifs.

Encore une fois, faisons donc usage de la capacité la plus élémentaire d’observation, avec un minimum d’assomptions. Ce que nous voyons sur le côté actif du bilan d’Airbus est un ensemble de catégories, comme « Propriété, usine et équipement » (ANG : Property, plant and equipment), « Actifs intangibles » (ANG : Intangible assets) et ainsi de suite. En face de chaque nom de catégorie, nous voyons un solde financier, en millions d’euros. Maintenant, question (apparemment) bête : est-ce qu’un euro donné, sur un compte bancaire appartenant à Airbus, est comme signé ? Est-ce que vous pouvez trouver des euros signés « j’appartiens à la catégorie d’actifs intangibles » ? Pour autant que je sache, non. Les soldes en euros que vous voyez en face de ces catégories sont comme des niveaux de liquide dans un ensemble des vases distincts, dont on aurait pris une photo au même moment dans le temps, le 31 Décembre dans le cas des bilans.

Les euros, ça flotte et ça coule dans le business et néanmoins, comme vous pouvez le constater, ça a tendance à se coaguler selon une certaine structure. Vous vous souvenez de la définition de structure sociale que j’avais donnée auparavant ? Si nous appelons quelque chose « structure », ça veut dire que les phénomènes se passent selon un schéma suffisamment répétitif pour qu’il nous donne une impression de permanence. Les euros du bilan d’Airbus, ils flottent et ils coulent selon un schéma qui, photographié le 31 Décembre chaque année, donne une structure répétitive.

Les euros, ils flottent et ils coulent là où les gens engagés dans ce business font quelque chose de valeur économique. Les proportions entre les soldes écrits dans le bilan d’actifs d’Airbus reflètent la concentration relative d’activité économique dans certains types (catégories) d’action plutôt que dans d’autres. Si la catégorie « Inventaires courants » (31,5 milliards d’euros), parmi les actifs d’Airbus, est presque deux fois plus grande financièrement que la catégorie « Propriété, usine et équipement non-courants » (16,6 milliards d’euros), cela veut dire que les activités relatives à l’accumulation d’inventaires courants reflètent à peu près deux fois plus de valeur économique que celles relatives à l’accumulation des gros trucs fixés à la terre. C’est la logique de la mathématique Grecque : observer les proportions.

J’explique brièvement ce qui est vraiment intéressant dans cette proportion particulière. Dans le capital d’une entreprise, tout ce qui est désigné comme « courant » épuise sa capacité de générer de la valeur économique en une année maximum. Tout actif classé comme « courant » est quelque chose qui travaille à courte haleine et n’a pas de cycle de vie prolongé. En revanche, les actifs « non-courants » ont par définition, une vie économique de plus d’un an. Dans une boutique de vêtements d’occasion, des inventaires deux fois plus gros que la propriété immobilière et son équipement, ça ne serait pas étonnant. Néanmoins, chez Airbus, donc dans une entreprise qui semble être ancrée dans une technologie imposante installée dans des usines tout aussi imposantes, ça étonne. Nous avons une entreprise qui est durable par excellence, ne serait-ce que pour assurer le support technique pour leurs avions, et en même temps le capital ce cette entreprise semble être investi dans quelque chose de plutôt éphémère, qui s’épuise en moins d’un an.

J’utilise l’occasion offerte par le rapport financier d’Airbus et je montre la façon d’utiliser ce qu’on appelle « notes explicatives ». Dans beaucoup – en fait dans la plupart – des rapports financiers nous pouvons trouver des notes explicatives qui affèrent spécifiquement à une catégorie donnée. Dans le rapport financier d’Airbus pour l’année 2017, la catégorie « Inventaires courants » est expliquée dans la note no. 20, pendant que le sous-ensemble d’actifs baptisé « Propriété, usine et équipement non-courants » trouve une explication approfondie dans la note no. 18.

J’y fonce et je trouve l’explication de cette proportion financière étrange. La note no. 20 explique qu’à l’intérieur de la catégorie « Inventaires courants », la plus grande sous-catégorie, dans les 75%, consiste de ce qui est appelé « Travaux en cours ». C’est comme dans la « Guerre des étoiles » : le plus gros actif dans les parages était cette diabolique Etoile de la Mort. Une bonne partie de ce multi-film est faite des vues panoramiques des travaux en cours. Même chose chez Airbus. Je veux dire : je ne pense pas qu’ils soient en train de construire une station spatiale à fins militaires, seulement que le gros de leur capital est investi dans ces avions et hélicoptères en voie de construction. Ces machines semi-finies valent plus que les usines qui les produisent.

Voilà que l’aventure innocemment analytique avec le bilan d’Airbus nous conduit à découvrir l’une des composantes-clés du modèle d’entreprise aéronautique : la technologie est plus dans le produit lui-même que dans l’usine qui le manufacture. C’est un cas rare. La plupart des industries de haute technologie montre des proportions inverses : les usines présentent plus de valeur économique que le stock des produits semi-finis. Seulement dans l’aéronautique, le produit semi-fini, je veux dire un avion, il représente souvent la valeur économique d’une petite ville.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Vous pouvez donner votre support financier à ce blog

€10.00

Des choix faits sous incertitude

Mon éditorial

J’ai remarqué que ce début d’année académique, ça a sacrément déstabilisé mon cours de travail intellectuel. Par « travail intellectuel » je comprends le fait que j’écrive quelque chose sur mon blog ou dans un article scientifique. Depuis l’avènement de la psychologie behavioriste il n’est pas tout à fait clair si le fait d’utiliser le langage, même dans le haut registre grammatical, est une preuve d’intelligence. Il y a des cas pour et il y a des cas contre. J’espère être un cas pour. Bon, assez de psychanalyse, faut faire ce travail intellectuel dont je parle. Depuis que j’avais pondu ce dernier article, je réfléchis comment je pourrais bien développer cette idée sous la forme d’un livre et, en même temps, comment je peux inclure les résultats de ma recherche dans mon enseignement à la fac. Procédons par ordre : il serait bon de faire un petit sommaire de ce que j’avais fait en termes de recherche, cette année.

Tout d’abord, l’idée que j’avais nourri depuis printemps, cette année, et qui pour le moment n’a abouti à aucune conclusion : le Wasun ou la monnaie virtuelle attachée au marché d’énergies renouvelables. Mon idée de base était que la création d’une telle monnaie – « création » semble être un terme plus approprié que l’émission, dans ce cas précis – pourrait faciliter la transition des communautés locales vers une base énergétique verte à 100%. Bien que j’avais tourné et retourné cette idée sous – comme je pense – tous les angles possibles, rien ne semblait coller. Après, comme je me suis fait une base empirique à propos d’énergies vertes, j’ai un peu compris pourquoi ça ne collait pas. Un, la transition vers les énergies renouvelables, ça se fait à une cadence de plus en plus accélérée, un peu partout dans le monde, et cette accélération est peut-être le fait le plus important dans toute ma recherche cette année. Deux, je viens de prouver que – ou, comme on dit dans le langage élégant et barbant de la science, de contribuer à clarifier les présomptions qui laissent poser l’hypothèse que – la grande majorité des populations locales sur Terre peut se stabiliser et même croître significativement autour d’énergies renouvelables. Pas vraiment besoin de fouetter ces chevaux. Ils sont déjà en plein galop. Trois, j’avais produit une preuve scientifique convaincante que le changement technologique accéléré, ça produit notoirement un surplus de masse monétaire. Là aussi, il n’est pas vraiment impératif de pousser plus : ça roule tout seul.

Par contre, un truc qui semble avoir marché d’une façon très intéressante, c’est l’équivalent de cette astuce où on tire la nappe d’une table, d’un coup sec, sans renverser les couverts. Les couverts sont les faits empiriques. La vie, quoi, juste exprimée en nombres. La nappe que j’avais tirée d’en-dessous ces couverts c’est l’assomption que notre civilisation devrait économiser l’énergie. Je suis fermement convaincu et j’ai une méthode scientifique de prouver que le comportement collectif de notre espèce – y compris la transition vers les énergies vertes – s’explique d’une façon beaucoup plus raisonnable avec  l’assomption contraire, c’est-à-dire que nous maximisons, systématiquement, l’absorption de l’énergie de notre environnement. Nous demander d’économiser l’énergie c’est comme demander à un tigre de se convertir au véganisme.

Bon, tout ça, ci-dessus, c’est ce que j’avais plus ou moins prouvé ou présenté sous forme d’une preuve scientifique. Ensuite, il y a mes idées : ces trucs importuns dans ma tête dont je ne sais pas comment les présenter d’une façon 100% scientifique et donc je ne sais pas s’ils sont vrais ou faux. Je pourrais les appeler hypothèses, seulement voilà, là, il y a comme un petit problème : une hypothèse scientifique, ça devrait être vérifiable, et pour ces trucs-là, je ne sais même pas comment les vérifier. Alors, première idée : le changement technologique s’effectue par expérimentation qui, à son tour, est un processus évolutif dans une structure sociale où des entités femelles – des gens avec du pognon qui en connaissent d’autres avec du pognon – recombinent des technologies initialement crées par des entités mâles (des gens avec des idées). Ce processus crée des hiérarchies des technologies, ou plutôt des hiérarchies des entités mâles, suivant les préférences des entités femelles. Idée no. 2 est que la hiérarchisation due aux mécanismes évolutifs s’effectue à travers trois processus de base : définition (et distribution) des rôles sociaux, définition d’identités de groupe, et enfin le gain d’accès aux ressources. Enfin, la troisième idée est qu’à présent nous traversons, comme espèce, une période d’expérimentation sociale accélérée et ceci pour deux raisons. Premièrement, plus on est du monde sur la Terre, plus on a d’interactions mutuelles. C’est comme une rue de grande ville : plus il y a du monde dans le quartier, plus il est probable qu’on croise quelqu’un dans la rue. Plus on a d’interactions, plus vite on apprend et plus on expérimente. Par ailleurs, cette période de 2007 – 2008, quand le marché d’énergies renouvelables avait tout à coup accéléré sa croissance, c’était précisément le moment quand la population urbaine mondiale avait franchi le cap des 50% de l’humanité. Deuxièmement, dans ma recherche j’ai découvert que l’intensité de l’innovation est la plus grande dans les pays où le déficit alimentaire est entre zéro et 88 kilocalories par jour par personne. Eh bien, il se fait que le déficit alimentaire moyen de la population globale vient de franchir ces 88 kilocalories par jour par personne. Nous sommes cette bête qui est déjà acceptablement nourrie mais pas encore tout à fait à sa faim.

Côté enseignement, j’ai déjà commencé à inclure l’étude du marché de l’énergie dans l’enseignement de la microéconomie, mais le truc le plus intéressant est comment enseigner à mes étudiants les façons d’étudier le phénomène d’intelligence collective et d’apprentissage collectif. J’avoue que je suis conscient de mes propres limites dans le domaine : l’intelligence collective c’est plutôt le truc d’informaticiens, mais j’ai quelques idées en tête. Je pense utiliser des fondements de la théorie des jeux pour montrer le mécanisme des choix faits sous incertitude. Peut-être j’utiliserai le rectangle Bayésien . Ce dernier truc, ça peut captiver l’attention des étudiants, avec toute cette histoire du philosophe (Thomas Bayes) mort plus d’un an avant la publication de son article. C’est que je veux c’est d’aller un peu à travers les disciplines. Ceci peut consister, par exemple, à montrer comment la définition des rôles sociaux peut induire du changement dans l’équilibre local d’un marché.

Un peu de parallélisme avec un organisme vivant

Mon éditorial d’aujourd’hui, sur You Tube

Dans les sciences sociales, beaucoup dépend du point de vue qu’on adopte. « Eh ben oui, c’est évident », dirait Milton Friedman, « Tu explores et tu conclus sur la base d’une hypothèse, toujours. Même si tu n’en as pas formulé une explicitement, t’en a une dans ta tête, quelque part. Tu cherches des trucs que tu sais tu devrais chercher, pour réduire la dissonance cognitive engendrée par la présence d’hypothèses dans ton esprit. Une hypothèse, c’est comme une question que tu as transformée en une énonciation avant de finir d’y répondre. C’est pour ça qu’il vaut mieux se rendre compte consciemment de nos hypothèses »

Ce que j’ai dans l’esprit, moi, c’est l’idée générale d’apprentissage collectif par l’expérimentation collective. Au sens plus large, quand je regarde les changements sociaux et technologiques dans l’économie mondiale, j’ai presque toujours une association d’idées avec le concept d’intelligence collective. Quand je lis les dernières nouvelles du front de combat que professeur Jordan Peterson, de l’université de Toronto, mène contre les postmodernistes ainsi que contre l’idée de pronoms transgenres, je me demande toujours : « Et si toute cette situation, apparemment idiote, était une manifestation d’intelligence collective qui s’est mise au travail pour trouver une solution ? Et si ce que cette intelligence collective essaie de faire était la solution d’un problème dont nous ne nous rendons même pas compte ? ». J’ai un peu les mêmes réflexions quand je regarde les combats épiques – et purement verbaux, heureusement – entre les trumpistes et les anti-trumpistes aux Etats-Unis ou entre la gauche globaliste et la droite nationaliste dans mon propre pays, la Pologne. J’ai l’impression que les comportements qui semblent franchement cons à première vue pourraient bien être une manifestation d’une expérimentation collective et d’un apprentissage collectif par une intelligence collective.

Bon, il serait peut-être bon que je clarifie mes idées un peu. Je procède par l’ordre de mes impressions, sans essayer, pour le moment, de créer une structure théorique solide. Je me souviens d’avoir lu, chez Orhan Pamuk, l’écrivain Turque honoré avec le Prix Nobel en littérature, que les gens de l’Occident souffrent d’une incompréhension fondamentale eu égard au jeu d’échecs. Dans l’Occident, nous interprétons les échecs comme une guerre simulée, pendant que l’idée originale de ce jeu – selon Orhan Pamuk – est de représenter le fonctionnement de l’esprit humain. Quoi qu’on n’essaie de faire, on a trois mouvements de base – droit devant, en diagonale ou bien en courbe du cavalier (trois pas en avant, un de côté) – plus une hiérarchie quant au pouvoir d’action : le roi, le pion et le cavalier ont une rangée limitée, pendant que la reine, le fou et la tour peuvent aller aussi loin qu’ils veulent. Quoi qui se passe, sur l’échiquier, il y a toujours deux ensembles qui font un choix répété, en séquence, entre ces trois mouvements, dans ces deux rangées d’action. Le talent du joueur d’échecs se voie par sa capacité à soumettre la séquence de ces mouvements simples à un objectif stratégique et à minimiser l’incidence des mouvements purement réactifs vis à vis ceux de l’adversaire ainsi que de mouvements illogiques, faits juste pour faire quelque chose, sans même une tactique momentanée pour les justifier.

Lorsque nous mettons en place de nouvelles institutions dans notre société – c’est-à-dire des nouvelles composantes de langage, des lois ou des coutumes nouvelles, des nouvelles hiérarchies ou de nouveaux réseaux – nous avons, comme collectivité, une gamme assez restreinte des moyens d’action. On peut redéfinir et redistribuer les rôles sociaux, on peut redéfinir les frontières entre les groupes sociaux et on peut se pencher sur les mécanismes d’appropriation de ressources. C’est à peu près tout. Si nous regardons la société comme une structure, les changements structurels de base sont ceux-ci : rôles, identité des groupes, accès aux ressources. Par-dessus l’arrangement courant de ces trois éléments, on crée une culture verbale qui a pour but de faire cet arrangement intelligible et communicable. Tout comme les mouvements de base du jeu d’échecs, les trois réarrangements de base dans la structure sociale – rôles, identité de groupes, accès aux ressources – peuvent être plus ou moins cohérents par rapport à une stratégie. Le « plus ou moins » peut s’étendre, en fait, d’une absence complète de cohérence stratégique, à travers des séquences cohérentes comme tactiques, sans qu’une logique de long terme soit visible, jusqu’aux réarrangements sociaux marqués par une cohérence stratégique profonde.

Le jeu d’échecs nous apprend encore une chose : dès qu’il y a plus d’un cerveau dans la combine, même une stratégie apparemment parfaite peut s’avérer inefficace, de même qu’une séquence aléatoire et peu cohérente peut mener à la victoire. A l’échelle de la société entière, cela peut se traduire comme une impossibilité de fait de construire une stratégie parfaitement cohérente : comme des séquences nouvelles des mouvements sont initialisées tout le temps, chaque stratégie perd en cohérence à mesure que des stratégies alternatives soient déployées par d’autres agents sociaux.

Bon, mais j’en étais au professeur Jordan Peterson de l’université de Toronto et sa croisade contre l’unicorne transgenre introduit dans les programmes éducatifs d’écoles de province d’Ontario. Professeur Peterson y voit un danger. Sincèrement, moi aussi je vois un danger dans une imposition, forcée par la loi, sous peine d’amende, d’utiliser certains pronoms (peu importe lesquels) au lieu d’autres. Néanmoins, quand le regarde toute cette situation au Canada dans une autre perspective, je vois une société qui expérimente avec l’un des outils fondamentaux de construction sociale, c’est-à-dire avec l’identité de groupe. Tout ce langage d’oppression et de la nécessité de la combattre, même si, parfois, il semble un peu schizophrène, est comme une sorte d’expérience collective, basée sur l’hypothèse générale que si on change quelque chose dans le système d’identités des groupes, on peut obtenir un ordre social différent et peut-être meilleur.

Il y a un phénomène intéressant dans le domaine que je suis en train d’étudier maintenant, dans le cadre de mon contrat de recherche pour cette année, c’est-à-dire l’innovation. Le phénomène consiste dans une disparité croissante de la génération d’idées, à travers l’économie mondiale. Dans l’étude économique sur l’innovation, l’une des mesures de base quant à l’intensité des changements technologiques est le coefficient du nombre des demandes de brevet par un million d’habitants. J’ai utilisé les données de la Banque Mondiale pour calculer la moyenne de cette variable, ainsi que sa variance, à travers les différents pays du monde, dans les années consécutives de la période 1960 – 2014. Le fichier Excel correspondant est à trouver sous ce lien hypertexte-ci. Ce que vous pourrez constater, c’est qu’à un certain moment, aux alentours de l’année 1990, la variabilité de la distribution géographique de ce coefficient avait commencée à croître visiblement, et ça continue de se diversifier. En d’autres mots : notre civilisation, à l’échelle globale, devient de plus en plus diversifiée dans la capacité locale de générer des inventions brevetables. Une invention brevetable c’est simplement une idée avec du capital à l’appui. Le monde se diversifie de plus en plus dans sa capacité de générer des idées qui, à leur tour, se gagnent le support capitaliste. Des pôles d’innovation se forment.

Il y a deux remarques importantes à faire quant à cette polarisation. Premièrement, les sciences physiques sont plutôt claires sur ce point-là : une polarisation croissante témoigne d’une accumulation d’énergie dans le système. C’est comme si de plus en plus d’énergie intellectuelle était présente dans la société humaine, et l’énergie, ça ne se dépense pas à la légère : il doit y avoir une bonne raison pour qu’une civilisation entière se remue les méninges. Précisément, quand on parle des raisons, il y a une deuxième remarque à propos de ce coefficient de demandes de brevet par un million d’habitants : sa disparité spatiale a commencé à croître, donc la polarisation du système a commencé à s’accentuer, donc l’énergie intellectuelle en jeu a commencé à s’accumuler, aux alentours de 1990, c’est-à-dire au moment-même quand la croissance de la population des migrants dans le monde a commencé à croître beaucoup plus vite que la population générale. Quant à cette dernière constatation, vous pouvez trouver du matériel empirique dans ce fichier Excel ici .

En d’autres mots, deux grand moteurs de changement structurel dans notre civilisation se sont mis en marche, à cadence accélérée, vers 1990 : les migrations et la génération du capital intellectuel. Comme civilisation, nous avons commencé à expérimenter avec notre propre structure. Hier, j’ai regardé une interview avec docteur Andy Galpin , un physiologiste de sport, qui fait une distinction intéressante dans les stratégies d’entrainement. Il distingue entre l’optimisation et l’adaptation. L’optimisation consiste à aligner toutes nos ressources physiologiques pour atteindre un objectif spécifique, par exemple une médaille olympique, tandis que l’adaptation est une exposition consciente à des conditions externes atypiques – comme un type radicalement différent d’effort physique, jeûne, climat différent – pour développer notre capacité d’adaptation en tant que telle. Docteur Galpin affirme que l’optimisation et l’adaptation sont les deux mécanismes fondamentaux d’apprentissage au niveau physiologique dans notre organisme. Comme matière vivante, nous suivons une séquence d’adaptation et d’optimisation, et les proportions entre les deux dépendent surtout des facteurs exogènes. Quand l’environnement est stable, notre organisme essaie d’optimiser ses fonctions. Lorsqu’il y a du nouveau, au niveau physiologique, notre corps passe en mode « adaptation » et les priorités changent : au lieu de développer des stratégies optimales, notre organisme essaie surtout de développer des stratégies alternatives.

Dans les sciences sociales, il y a cette trace très nette de parallélisme avec un organisme vivant. C’est pratiquement le fondement-même d’utilitarisme social qui, à son tour, est à la base des sciences économiques. Bien sûr, il faut se garder des parallèles trop faciles, néanmoins cette piste à sa logique qui tient le coup. On peut se demander si les changements sociaux que nous pouvons observer dans le monde, même s’ils semblent stupides et incohérents à première vue, ne sont pas, par hasard, la manifestation des tentatives intensifiées de mettre au point une civilisation nouvelle.