De quoi parler à la prochaine réunion de faculté

Je change un peu de style par rapport à mes dernières mises à jour sur ce blog et je change parce que c’est le début de l’année académique, chez moi. C’est donc le chaos habituel que je commence à aimer, par ailleurs. Cette mise à jour est donc une mise en ordre dans mes idées et mes projets.

Je commence par essayer de résumer la recherche que j’ai faite pendant les vacances. Je pose donc l’hypothèse générale que le changement technologique est un phénomène émergent, qui survient comme intégration des phénomènes partiels dans le système social dont la complexité est essentiellement insaisissable pour nous. L’hypothèse d’émergence impose par ailleurs une distinction entre le terme de changement technologique et celui de progrès technologique. Le progrès technologique est un terme fortement subjectif, basé sur un système des valeurs communes dans une société. Le progrès c’est donc du changement, comme phénomène émergent, plus notre interprétation de ce phénomène.

Cette hypothèse a d’autres conséquences, dont la plus importante et la plus pratique c’est une mise en question radicale du concept de politique technologique ou politique d’innovation, au niveau agrégé d’état, de communauté internationale ou même au niveau des grandes entreprises. Dans les soi-disant « politiques technologiques » leurs créateurs assument que nous pouvons collectivement décider de développer nos technologies dans une direction donnée et que ça va marcher. Pour autant que je sache, c’est problématique déjà au niveau des grandes entreprises. Les politiques d’innovation des années 1990 dans l’industrie automobile, par exemple, étaient dans ce style. C’était comme « tout le monde se concentre sur la création de la technologie AVBG pour les 10 années à venir et pas de discussion ». Dans la plupart des cas, les résultats étaient désastreux. Des milliards des dollars dépensés sur des projets qui échouaient de façon spectaculaire au moment de confrontation au marché. Je pense que la seule technologie fondamentale dans l’automobile qui avait émergé avec succès des années 1990 c’était la propulsion hybride (moteur électrique plus moteur à combustion interne). C’était une technologie à laquelle personne de donnait arbitrairement la priorité dans les stratégies des grandes entreprises du secteur. Le pionnier dans ce domaine, Toyota, approchait le développement de la propulsion hybride de façon très prudente et pragmatique, comme une série heuristique d’expériences contrôlées, très loin des stratégies du type « tout le monde à bord ».  

Après les échecs des politiques centralisées d’innovation des années 1990, les grandes entreprises sont devenues beaucoup plus prudentes dans ce domaine. La meilleure politique semble être celle d’expérimentation abondante avec plusieurs idées nouvelles à la fois, avec une composante de compétition interne. Eh bien, lorsque je regarde les politiques qui se donnent l’étiquette « climatiques », quoi que cela veuille dire au juste, je me dis que ces hommes et femmes politiques (à propos, peut-on dire « les gens politiques » ?) feraient bien de prendre exemple des grandes entreprises. Les politiques qui commencent avec « Nous devons tous… » sont déjà suspectes. Si une telle politique assume, en plus, que la meilleure façon de stimuler l’innovation est d’introduire des nouveaux impôts, je suis contre. Oui, pour être clair : je suis vigoureusement contre le soi-disant « impôt carbone ». Je trouve cette idée dysfonctionnelle sur plusieurs niveaux, mais j’y reviendrai à une autre occasion.

Mon plat scientifique à emporter, après les vacances d’été AD 2021, est donc celui de changement technologique comme phénomène émergent qui intègre un système social complexe en ce qui concerne l’usage des ressources. Je me réfère fortement à la théorie des systèmes complexes en général et plus particulièrement à quatre modèles mathématiques là-dedans : le modèle d’automates cellulaires, celui d’essaim d’oiseaux, celui de fourmilière, et enfin celui des chaînes imparfaites de Markov.   

Avec cette perspective générale dans l’esprit, je me tourne vers un projet de recherche qui est en train de prendre forme parmi moi et mes collègues à l’université. Nous pensons qu’il serait intéressant d’étudier les développements possibles dans le marché européen des véhicules électriques, plus particulièrement en ce qui concerne les modèles d’entreprise. Par « modèle d’entreprise » je veux dire la même chose que le terme anglais « business model », donc la façon d’intégrer et de gérer la chaîne de valeur ajoutée dans le marché en question.

J’explique. Si on prend le marché global des véhicules électriques, on a essentiellement trois modèles d’entreprise : Tesla, les sociétés automobiles classiques et les startups. Tesla est idiosyncratique, c’est pratiquement une industrie en soi. Leur modèle d’entreprise est basé sur une intégration verticale très poussée, aussi bien au niveau des technologies qu’à celui d’organisation. Tesla avait commencé par faire des bagnoles électriques, puis ils ont enchaîné avec des stations de chargement et du photovoltaïque. C’est une chaîne de plus en plus longue des technologies verticalement connectées. D’autre part, le concept de « giga factory », chez Tesla, c’est de l’intégration verticale opérationnelle. L’idée consiste à convaincre les fournisseurs de localiser, dans la mesure du possible, leurs centres de fabrication dans la même usine où Tesla fait ses voitures. Simple et génial, j’ai envie de dire.

Tesla a donc un modèle d’entreprise très fortement intégré à la verticale et – comme j’ai pu le constater en observant leurs finances au fil des années – ça a pris du temps d’apprendre comment gérer cette chaîne de façon à capter proprement la valeur ajoutée. Ce n’est que récemment que tout ce bazar a commencé à être profitable. Là, il y a une question qui me fascine : pourquoi est-ce qu’autant de gens avaient mis autant d’effort dans l’expérimentation tellement coûteuse avec un modèle d’entreprise qui, pendant des années (pendant presque une décennie, en fait), semblait n’avoir aucune perspective réaliste de dégager du profit ?

Oui, je sais, Elon Musk. Le gars est fascinant, je suis d’accord. Seulement une organisation de la taille de Tesla, ça ne se crée pas autour d’une seule personne, même aussi géniale qu’Elon Musk, qui, par ailleurs, tout en étant un génie, n’est pas vraiment charismatique. Les grandes organisations, ça émerge de la complexité du tissu social, en intégrant certaines parties de ce tissu. Il est très dur de créer une grande organisation et il est encore plus dur de la tenir en place à long terme. Il doit y avoir des mécanismes sociaux sous-jacents qui soutiennent et stimulent ce phénomène.      

A côté de Tesla, il y a les producteurs automobiles établis, comme Daimler Chrysler, Toyota, le groupe PSA etc. Aujourd’hui, c’est devenu presque un impératif pour un producteur automobile de faire des véhicules électriques. Seulement ces producteurs-là, ils maintiennent le modèle d’entreprise bien morcelé verticalement, avec du outsourcing poussé et aucune tentative marquée d’adopter le modèle super-intégré de Tesla.

A côté de tout ça, il y a beaucoup des startups dans le marché des voitures électriques et ça, c’est même plus fascinant que Tesla. Pendant des décennies, l’automobile semblait être complétement fermé à ce type de petite entreprise créative, agile et coriace dont en voit plein dans l’informatique, la nanotechnologie ou bien la biotechnologie. Paradoxalement, le moment où Tesla a réussi de stabiliser financièrement sont modèle d’entreprise super intégrée, des startups ont commencé à proliférer. C’est comme si l’émergence d’un organisme géant très spécifique avait enclenché l’émergence des petites bestioles expérimentales de toute sorte.

Je me demande donc quel peut bien être ce mécanisme sous-jacent d’émergence des modèles nouveaux d’entreprise avec l’avènement des véhicules électriques. Voilà mon hypothèse de travail no. 1 à ce sujet : l’émergence rapide de nouveaux modèles d’entreprise manifeste une tendance poussée de la société à expérimenter et ceci, à son tour, témoigne de l’orientation collective sur un certain type de résultat.

Il y a ce principe, formulé, je crois, par Sigmund Freud. Si nous voulons découvrir les motivations réelles et profondes d’une personne qui ne sait pas comment les articuler, regardons les conséquences de ses actions. Ces conséquences disent beaucoup sur les valeurs et les tendances personnelles. La civilisation est une histoire. C’est un peu comme une personnalité. La prolifération des véhicules électriques à deux conséquences majeures. D’une part, nous réduisons notre dépendance du pétrole. Ceci contribue à protéger l’environnement, mais ça permet aussi de remuer un peu l’équilibre géopolitique. En Europe, par exemple, nous n’avons pas de pétrole local et aussi longtemps que nous roulons sur des moteurs à combustion interne, notre système de transport routier est stratégiquement dépendant d’une ressource que nous n’avons pas. A l’échelle globale, l’abandon du combustible en faveur des véhicules électriques, ça réduit la dépendance stratégique vis-à-vis des pays pétroliers et c’est in changement géopolitique majeur.   

La seconde conséquence majeure de la transition vers le véhicule électrique est une accélération spectaculaire dans le développement des technologies de stockage d’énergie. Remarquons, par ailleurs, que chaque voiture est un réservoir mobile d’énergie. Ça concerne toutes les voitures, celles à combustion interne aussi. Le réservoir d’essence est un réservoir mobile d’énergie. Le développement d’automobile en général, donc des moyens de transport qui bougent avec leur propre énergie, équivaut au développement d’un réseau géant de petits réservoirs mobiles d’énergie.

Notre civilisation s’est largement développée, à travers des millénaires, sur la base des technologies de stockage. Le stockage de nourriture semble avoir joué un rôle crucial, mais le stockage d’énergie est important aussi. Toute l’industrie des carburants fossiles est largement l’histoire de découverte comment stocker et transporter une source d’énergie. Les véhicules électriques, ça peut être la génération 2.0 dans ce domaine.

Voilà donc que je peaufine mon hypothèse de travail, comme no. 2 : l’émergence rapide de nouveaux modèles d’entreprise dans l’industrie des véhicules électriques est un phénomène émergent d’expérimentation collective orientée sur le réaménagement des relations géopolitiques basées sur la dépendance du pétrole ainsi que sur le développement des technologies de stockage d’énergie.

Eh bien voilà une jolie hypothèse. De quoi parler à la prochaine réunion de la faculté.

États transcendants par rapport à cette réalité

Je continue de réfléchir sur les fondements théoriques de ma méthode de simulation d’intelligence collective dans les sociétés humaines. Je sens le besoin de résumer les points les plus importants, d’une part, ainsi que d’explorer le lien théorique entre la structure logique d’un réseau neuronal et la façon dont l’intelligence collective se joue dans des sociétés en chair et en os.

L’essence de ma méthode de recherche consiste à utiliser les réseaux neuronaux artificiels pour simuler le fonctionnement d’intelligence collective des sociétés humaines. Je me concentre le plus sur le phénomène de changement technologique et dans ce cadre, je me concentre même plus sur le marché de l’énergie. Je veux utiliser ma méthode à deux fins pratiques : simuler l’absorption d’une nouvelle technologie dans l’environnement socio-économique et l’émergence des phénomènes soudains et transformatifs du type Cygne Noir.

J’assume que les variables socio-économiques que je peux utiliser de façon quantitative sont des représentations imparfaites – car simplifiées – des phénomènes sociaux autrement plus complexes. Ces variables sont des phénomènes sociaux en elles-mêmes, car elles représentent un enchevêtrement cognitif entre l’action collective et les résultats obtenus de celle-ci. Nous mesurons collectivement les trucs qui sont importants parce qu’ils représentent des récompenses existentielles pour notre société. Si je vois donc une base de données comme celle de la Banque Mondiale ou bien celle d’EUROSTAT, je vois une multitude des variables quantitatives qui, à leur tour, représentent autant d’orientations d’action collective des sociétés humaines.

Ma méthode consiste à déconstruire partiellement l’enchevêtrement de ces variables, à travers une simulation mathématique où je construis autant de réalités alternatives artificielles qu’il y a de variables à prendre en compte. Ensuite, j’étudie la similarité mathématique entre ces réalités alternatives d’une part et la réalité empirique telle que représentée par les données empiriques. La construction de ces réalités artificielles suit la logique essentielle d’un réseau neuronal artificiel qui optimise une variable de parmi toutes celles étudiées – comme variable de sortie – tout en utilisant les autres variables comme matériel d’entrée à optimiser. Chacune de ces réalités artificielles est donc une représentation mathématique d’une orientation spécifique de la (des) société(s) étudiées : l’orientation sur le type donné de récompense.

Ma méthode assume donc que la société telle quelle est observable de façon empirique est une superposition d’orientations différentes. Plus de variables j’utilise dans ma recherche, plus d’orientations alternatives je peux découvrir ainsi. D’un autre point de vue, plus diverse est le panier des variables, donc plus je mélange les données en provenance des sources différentes, y compris mes propres coefficients ou me propres observations, plus d’orientations différentes je peux déconstruire à partir de la réalité empirique.

Ça, c’est la théorie de base. Pour l’appliquer en pratique, donc pour étudier l’émergence ou bien l’absorption possible des nouvelles technologies dans l’environnement socio-économique, il me faut introduire dans mon observation empirique des variables pertinentes à ces technologies. Pertinence peut être directe aussi bien qu’indirecte. Si j’inclue dans ma soupe primaire des nombres une variable telle que le pourcentage d’électricité en provenance des sources renouvelables, je décris la probabilité qu’une kilowatt heure prise au hasard, comme ça, dans la rue, provienne de ces technologies de génération. Si je prends une variable telle que l’efficience énergétique de l’économie nationale, donc la quantité de produit par unité d’énergie consommée, c’est plus indirect : je mesure l’incidence des technologies relativement plus efficientes en énergie par comparaison à celles relativement moins efficientes.

En pratique, l’observation directe de l’émergence et l’absorption des technologies a des limites qui se sentent très vite. Je peux mesurer, par exemple, le pourcentage de génération éolienne dans le panier d’énergie consommée. En revanche, lorsqu’il s’agit de mesurer la prévalence relative des solutions spécifiques dans les turbines, la transmission d’énergie, l’équilibrage du réseau etc., alors là, il n’y a pas vraiment foule comme données empiriques. Alors, je fais ce que les scientifiques font tout le temps en l’absence des données empiriques pertinentes : je triche. J’introduis dans mon ensemble des données des probabilités théoriques. J’ai donc une base de données bien catholique, avec des trucs comme PIB ou inflation dedans et j’ajoute un pourcentage théorique qui correspond à la probabilité qu’une technologie spécifique soit adoptée par un utilisateur pris au hasard. Enfin, j’hésite entre « adoptée » et « appliquée ». Lorsque j’adopte, je prends responsabilité. Lorsque j’applique, ‘y a moins de poids éthique.

Cette probabilité théorique, je peux la piloter à mon gré. Elle peut être complétement discrète – donc je lui donne des valeurs déterminées à priori – ou bien je peux la faire danser à un rythme plus ou moins aléatoire. Dans ce dernier cas, je simule une situation ou la société comme structure collectivement intelligente n’est jamais sûre de quel trou cette nouvelle technologie va surgir. Je peux simuler des réalités alternatives orientées sur des variables bien respectables, comme sur le nombre de demandes de brevet par 1 million d’habitants, et alors ces probabilités théoriques attachées aux technologies nouvelles sont un facteur de distorsion comme variable d’entrée. Je peux aussi construire des réalités alternatives qui sont bel et bien orientées sur ces variables probabilistes théoriques, l’histoire de voir la similarité mathématique entre elles et la réalité empirique telle que je l’ai devant mes yeux dans ma base des données.

Dans mon expérience jusqu’alors, les réalités alternatives orientées sur les variables « technologiques », empiriques ou théoriques, tombent mathématiquement plus loin de la réalité empirique que celles orientées sur des variables typiquement économiques, comme le nombre d’heures travaillées par personne par an. Ça arrive tout le temps, en fait, avec des configurations de données différentes. C’est comme si le changement technologique – soit l’orientation collective sur des variables « technologiques » – était une orientation instrumentale aux celles axées sur des effets purement sociétaux, comme le marché de travail. 

Mes réalités alternatives, je les construis à travers un processus d’apprentissage numérique, donc avec un réseau neuronal. Voilà donc que vient le moment vraiment délicat dans mon autoréflexion, celui de démontrer le lien entre la structure du réseau neuronal – et de même la structure d’apprentissage numérique – et le phénomène d’adaptation intelligente dans les sociétés humaines réelles. Je prends mes variables d’entrée et je les transforme en un seul nombre qui représente le signal d’apprentissage pour la fonction d’activation neuronale. Cette transformation par agrégation a deux composantes. Le truc général que je prends de la structure typique d’un perceptron consiste à multiplier chaque variable d’entrée par un facteur aléatoire compris entre 0 et 1, donc par le bon vieux RANDOM. Le truc spécifique que j’ai développé par moi-même est d’ajouter un facteur non-aléatoire de distance Euclidienne moyenne entre la variable en question et toutes les autres variables de l’ensemble, dans le pas expérimental précèdent. Évidemment, ce facteur non-aléatoire est absent du premier pas expérimental, puisqu’il n’a pas de pas précèdent. Selon mon intuition, cette distance Euclidienne représente le fait d’apprendre tout en prenant en compte la cohérence interne de la réalité représentée par des nombres. Selon mes observations empiriques, un réseau neuronal équipé de cette fonction de cohérence apprend de façon différente, par rapport au réseau qui s’en fiche. Avec facteur de cohérence, la courbe de l’erreur résiduelle est plus saccadée mais en fin de compte elle converge plus vite vers erreur minimale.

Je fais donc ce signal d’apprentissage « h », à partir de « n » variables d’entrée, comme h = R*E(tj-1)*x1(tj) + R*E(tj-1)*x2(tj) + … + R*E(tj-1)*xn(tj), où R est le facteur purement aléatoire et E est le facteur non-aléatoire de cohérence. Une fois le « h » calculé, je le mets dans ma fonction d’activation neuronale et là, il faut que je réfléchisse. Les fonctions d’activation que j’utilise le plus c’est soit le sigmoïde soit la tangente hyperbolique, avec un penchant pour la seconde. Je commence par déconstruire la tangente hyperbolique. Sa formule générale est tanh = (e2h – 1) / (e2h + 1), où « h » est bien le « h » comme spécifié plus haut, pendant que « e » est la constante d’Euler.              

Je commence par étudier les propriétés mathématiques de la tangente hyperbolique pour comprendre ce qu’elle fait à mes variables d’entrée. Les fonctions hyperboliques sont analogiques aux fonctions trigonométriques de base, seulement elles sont décrites sur une hyperbole et non pas sur un cercle. Une hyperbole est discontinue. Chaque portion d’une hyperbole représente un gradient différent. La tangente hyperbolique est donc une fonction périodique qui superpose plusieurs rythmes d’oscillation. La valeur de tangente hyperbolique n’est donc jamais en corrélation avec la variable d’entrée. La tangente hyperbolique est plus autonome par rapport à ces variables d’entrée que la tangente régulière (circulaire). Cette autonomie est exprimée par l’inclusion de la tangente hyperbolique dans la catégorie des nombres transcendants.   

La tangente hyperbolique transforme donc mes variables d’entrée en quelque chose qui n’a pas de corrélation fonctionnelle avec elles. C’est comme si les variables d’entrée créaient un plan différent de réalité. Pas si bête que ça, en fait. La perception (des variables d’entrée) forme un plan cognitif qui est différent de la réalité elle-même. Lorsque la société s’adapte à un signal d’apprentissage complexe, l’adaptation prend une forme spéciale. Le premier exemple qui me vient à l’esprit est notre adaptation collective au changement climatique. Le climat change et nous transformons ce changement en des symboles complexes : « il faut défendre la Terre », « il faut inventer quelque chose de nouveau », « il faut abandonner ces carburants fossiles ignobles » etc. Ce n’est qu’après s’être pompé culturellement avec ces symboles qu’on fait quoi que ce soit d’utile.

La tangente hyperbolique a une autre propriété intéressante. Dans tanh = (e2h – 1) / (e2h + 1), il y a le « h » qui change, accompagné de la constante : (e2 – 1) / (e2 + 1) = 6,389056099 / 8,389056099 = 0,761594156. J’ai remarqué qu’avec le calcul h = R*E(tj-1)*x1(tj) + R*E(tj-1)*x2(tj) + … + R*E(tj-1)*xn(tj), plus j’ai de variables différentes dans mon ensemble, donc dans ma réalité empirique de base, plus grande est l’amplitude d’oscillation dans « ». Plus complexe est donc ma représentation de réalité, plus d’états différents d’activation neuronale, transcendants par rapport à cette réalité, sont créés avec la tangente hyperbolique.  

Cœur de réflexion

Je me concentre sur un aspect particulier de la révision finale de mon article pour « International Journal of Energy Sector Management » – sous le titre « Climbing the right hill – an evolutionary approach to the European market of electricity » – notamment sur le rapport entre ma méthodologie et celle de MuSIASEM, soit « Multi-scale Integrated Analysis of Societal and Ecosystem Metabolism ».

Je me réfère plus particulièrement à trois articles que je juge représentatifs pour ce créneau de recherche :

>> Al-Tamimi and Al-Ghamdi (2020), ‘Multiscale integrated analysis of societal and ecosystem metabolism of Qatar’ Energy Reports, 6, 521-527, https://doi.org/10.1016/j.egyr.2019.09.019 

>> Andreoni, V. (2020). The energy metabolism of countries: Energy efficiency and use in the period that followed the global financial crisis. Energy Policy, 139, 111304. https://doi.org/10.1016/j.enpol.2020.111304

>> Velasco-Fernández, R., Pérez-Sánchez, L., Chen, L., & Giampietro, M. (2020), A becoming China and the assisted maturity of the EU: Assessing the factors determining their energy metabolic patterns. Energy Strategy Reviews, 32, 100562.  https://doi.org/10.1016/j.esr.2020.100562

De parmi ces trois, je choisis subjectivement le travail de prof. Andreoni (2020[1]) comme le plus solide en termes de théorie. L’idée de base de MuSIASEM est d’étudier l’efficience énergétique des sociétés humaines comme un métabolisme, donc comme un système complexe qui se soutient et se développe à travers la transformation d’énergie et de ressources matérielles.  

J’essaie de comprendre et présenter la logique de base de MuSIASEM en explorant les avantages que professeur Andreoni attribue à cette méthode. Je me permets de traduire fidèlement un passage de l’article (2020[2]) : « […] l’approche MuSIASEM présente des avantages par rapport aux autres méthodologies utilisées pour étudier le métabolisme des sociétés, telles que ‘emergy’, empreinte écologique et l’analyse entrée-sortie […]. En fournissant des descriptions intégrées à travers des niveaux d’analyse différents, l’approche MuSIASEM ne réduit pas l’information en un index quantitatif unique et analyse l’énergie utilisée par rapport aux structures socio-économiques concrètes. Qui plus est, l’inclusion de dimensions multiples (telles que le PIB, temps humain et consommation d’énergie) en combinaison avec des échelles différentes d’analyse (telles que le niveau sectoriel et le niveau national) rend possible de fournir l’information pertinente aux processus à l’intérieur du système ainsi que d’analyser la façon dont les variables externes (telles que la crise économique et la pénurie des ressources) peuvent affecter l’allocation et l’utilisation des ressources ».      

Je me dis que si quelqu’un se vante d’avoir des avantages par rapport à quoi que ce soit d’autre, ces avantages reflètent les aspects les plus importants des phénomènes en question, selon le même quelqu’un. Ainsi donc, prof. Andreoni assume que MuSIASEM permet d’étudier quelque chose d’important – l’efficience énergétique des sociétés comme un métabolisme – toute en ayant l’avantage de déconstruction des variables agrégées en des variables composantes ainsi que celui de multi-dimensionnalité d’analyse. 

Les variables étudiées semblent donc être la base de la méthode. Parlons donc des variables. Professeur Andreoni présente dans son article trois variables essentielles :

>> L’activité humaine totale, calculée comme le produit de : [la population] x [24 heures] x [365 jours]

>> Transformation totale d’énergie, calculée comme la somme de : [consommation finale d’énergie] + [Consommation interne d’énergie dans le secteur d’énergie] + [Pertes d’énergie dans sa transformation]

>> Produit Intérieur Brut  

Ces trois variables fondamentales sont étudiées à trois niveaux différents d’agrégation. Le niveau de base est celui d’économie(s) nationale(s), à partir d’où on décompose, tout d’abord, entre les secteurs macroéconomiques de : ménages par opposition à celui d’activité payée (entreprises plus secteur public). Ensuite, ces secteurs macroéconomiques sont tous les deux désagrégés en l’agriculture, l’industrie et les services.

A chaque niveau d’agrégation, les trois variables fondamentales sont mises en relation entre elles pour calculer deux coefficients : intensité énergétique et métabolisme d’énergie. Celui d’intensité énergétique est calculé comme quantité d’énergie utilisée pour produire un euro de Produit Intérieur Brut et c’est donc l’inverse de l’efficience énergétique (cette dernière est calculée comme quantité de PIB produite à partir d’une unité d’énergie). Le coefficient métabolique, en revanche, est calculé comme la quantité d’énergie par heure d’activité humaine.

J’ai quelques remarques critiques par rapport à ces variables, mais avant de développer là-dessus je contraste rapidement avec ma méthode. Les variables de professeur Andreoni sont des transformations des variables utilisées dans des bases de données publiquement accessibles. Professeur Andreoni prend donc une méthode générale d’observation empirique – donc par exemple la méthode de calculer la consommation finale d’énergie – et transforme cette méthode générale de façon à obtenir une vue différente de la même réalité empirique. Cette transformation tend à agréger des variables « communes ». Moi, de mon côté, j’utilise un éventail large des variables communément formalisées et présentées dans des bases de données publiquement accessibles plus un petit zest des coefficients que je calcule moi-même. En fait, dans la recherche sur l’énergie, j’utilise juste deux coefficients originaux, soit le nombre moyen de demandes de brevet nationales par 1 million d’habitants, d’une part, et la quantité moyenne de capital fixe d’entreprise par une demande nationale de brevet. Quant au reste, j’utilise des variables communes. Dans cet article que je suis en train de finir pour « International Journal of Energy Sector Management » j’utilise les quarante et quelques variables de Penn Tables 9.1. (Feenstra et al. 2015[3]) plus des variables de la Banque Mondiale au sujet d’énergie (consommation finale, participation des sources renouvelables, participation d’électricité) plus des données Eurostat sur les prix d’électricité, plus ces deux coefficients relatifs aux demandes nationales de brevets.

La différence entre ma méthode et celle de MuSIASEM est donc visible déjà au niveau phénoménologique. Moi, je prends la phénoménologie généralement acceptée – donc par exemple la phénoménologie de consommation d’énergie ou celle d’activité économique – et ensuite j’étudie le rapport entre les variables correspondantes pour en extraire un tableau plus complexe. Je sais déjà que dans ma méthode, la quantité et la diversité des variables est un facteur clé. Mes résultats deviennent vraiment robustes – donc cohérents à travers des échantillons empiriques différents – lorsque j’utilise une panoplie riche de variables. Chez MuSIASEM, en revanche, ils commencent par construire leur propre phénoménologie au tout début en ensuite ils raisonnent avec.

Il semble y avoir un terrain commun entre ma méthode et celle de MuSIASEM : on semble être d’accord que les variables macroéconomiques telles qu’elles sont accessibles publiquement donnent l’image imparfaite d’une réalité autrement plus complexe. A partir de là, toutefois, il y différence. Moi, j’assume que si je prends beaucoup d’observations imparfaites distinctes – donc beaucoup de variables différentes, chacune un peu à côté de la réalité – je peux reconstruire quelque chose à propos de ladite réalité en transformant ces observations imparfaites avec un réseau neuronal. J’assume donc que je ne sais pas d’avance de quelle manière exacte ces variables sont imparfaites et je m’en fiche par ailleurs. C’est comme si reconstruisais un crime (j’adore les romans policiers) à partir d’un grand nombre des dépositions faites par des témoins qui, au moment et en présence du crime en question étaient soit ivres, soit drogués soit ils regardaient un match de foot sur leur portable. J’assume qu’aussi peu fiables soient tous ces témoins, je peux interposer et recombiner leurs dépositions de façon à cerner le mécréant qui a tué la vieille dame. J’expérimente avec des combinaisons différentes et j’essaie de voir laquelle est la plus cohérente. Chez MuSIASEM, en revanche, ils établissent d’avance une méthode de mettre en concours des dépositions imparfaites des témoins en état d’ébriété et ensuite ils l’appliquent de façon cohérente à travers tous les cas de tels témoignages.

Jusqu’à ce point-là, ma méthode est garnie d’assomptions moins fortes que celle de MuSIASEM. De manière générale je préfère des méthodes avec des assomptions faibles. Lorsque je mets en question des idées reçues, tout simplement en les suspendant et en vérifiant si elles tiennent le coup (de suspension), j’ai la chance de trouver plus de trucs nouveaux et intéressants.  Maintenant, je m’offre le plaisir pervers de passer au peigne fin les assomptions fortes de MuSIASEM, juste pour voir où bien puis-je leur enfoncer une épingle. Je commence par l’activité humaine totale, calculée comme le produit de : [la population] x [24 heures] x [365 jours]. Première remarque : le produit 24 heures fois 365 jours = 8760 heures est une constante. Si je compare deux pays aux populations différentes, leur activités humaines totales respectives seront différentes uniquement à travers leurs démographies différentes. Le produit [24 heures] x [365 jours] est donc une décoration redondante du point de vue mathématique. Toutefois, c’est une redondance astucieuse. Le produit 24 heures fois 365 jours = 8760 c’est le facteur de multiplication communément utilisé pour transformer la capacité énergétique en énergie effectivement accessible. On prend la puissance d’une bombe atomique, en joules, on la recalcule en kilowatts, on la multiplie par 24 heures fois 365 jours et boum : on obtient la quantité d’énergie accessible à la population générale si cette bombe explosait continuellement tout le long de l’année. On ajoute toutefois 24 heures supplémentaires d’explosion pour les années bissextiles.

Bombe atomique ou pas, le produit 24 heures fois 365 jours = 8760 est donc utile lorsqu’on veut faire une connexion élégante entre la démographie et la transformation d’énergie, ce qui semble judicieux dans une méthode de recherche qui se concentre précisément sur l’énergie. La multiplication « population x 8760 heures dans l’année » est-elle donc pertinente comme mesure d’activité humaine ? Hmmouiais… peut-être, à la rigueur… Je veux dire, si nous avons des populations très similaires en termes de style de vie et de technologie, elles peuvent démontrer des niveaux d’activité similaires par heure et donc des niveaux d’activité humaine totales distincts uniquement sur la base de leurs démographies différentes. Néanmoins, il nous faut des populations vraiment très similaires. Si nous prenons une portion essentielle de l’activité humaine – la production agricole par tête d’habitant – et nous la comparons entre la Belgique, l’Argentine et Botswana, nous obtenons des coefficients d’activité tout à fait différents.

Je pense donc que les assomptions qui maintiennent l’identité phénoménologique l’activité humaine totale = [la population] x [24 heures] x [365 jours] sont des assomptions tellement fortes qu’elles en deviennent dysfonctionnelles. J’assume donc que la méthode MuSIASEM utilise en fait la taille de la population comme une variable fondamentale, point à la ligne. Moi je fais de même, par ailleurs. Je trouve la démographie jouer un rôle injustement secondaire dans la recherche économique. Je vois que beaucoup de chercheurs utilisent des variables démographiques comme « calibrage » ou « facteurs d’ajustement ».  Tout ce que je sais sur la théorie générale des systèmes complexes, par exemple le créneau de recherche sur la théorie d’automates cellulaires (Bandini, Mauri & Serra 2001[4] ; Yu et al. 2021[5]) ou bien la théorie d’essaims (Gupta & Srivastava (2020[6]), suggère que la taille des populations ainsi que leur intensité d’interactions sociales sont des attributs fondamentaux de chaque civilisation.                    

Je trouve donc que l’identité phénoménologique l’activité humaine totale = [la population] x [24 heures] x [365 jours] dans la méthode MuSIASEM est donc une sorte de ruse, un peu superflue, pour introduire la démographie au cœur de la réflexion sur l’efficience énergétique. Par conséquent, le coefficient métabolique de MuSIASEM, calculé comme la quantité d’énergie par heure d’activité humaine, est équivalent à la consommation d’énergie par tête d’habitant. Le métabolisme énergétique d’une société humaine est donc défini par la consommation d’énergie par tête d’habitant (https://data.worldbank.org/indicator/EG.USE.PCAP.KG.OE ) ainsi que le coût énergétique de PIB (https://data.worldbank.org/indicator/EG.USE.COMM.GD.PP.KD ). Les liens hypertexte entre parenthèses renvoient à des bases de données correspondantes de la Banque Mondiale. Lorsque je regarde ces deux coefficients à travers le monde et je fais un truc absolument simpliste – je discrimine les pays et les régions en une liste hiérarchique – deux histoires différentes émergent. Le coefficient de consommation d’énergie par tête d’habitant raconte une histoire de hiérarchie pure et simple de bien-être économique et social. Plus ce coefficient est élevé, plus le pays donné est développé en termes non seulement de revenu par tête d’habitant mais aussi en termes de complexité institutionnelle, droits de l’homme, complexité technologique etc.

Lorsque j’écoute l’histoire dite par le coût énergétique de PIB (https://data.worldbank.org/indicator/EG.USE.COMM.GD.PP.KD ), c’est compliqué comme une enquête policière. Devinez donc les points communs entre Panama, Sri Lanka, la Suisse, l’Irlande, Malte et la République Dominicaine. Fascinant, non ? Eh bien, ces 6 pays sont en tête de la course planétaire à l’efficience énergétique, puisqu’ils sont tous les six capables de produire 1000 dollars de PIB avec moins de 50 kilogrammes d’équivalent pétrole en énergie consommée. Pour placer leur exploit dans un contexte géographique plus large, les États-Unis et la Serbie sont plus de deux fois plus bas dans cette hiérarchie, tout près l’un de l’autre, à 122 kilogrammes d’équivalent pétrole par 1000 dollars de PIB. Par ailleurs, ça les place tous les deux près de la moyenne planétaire ainsi que celle des pays dans la catégorie « revenu moyen inférieur ».

Si je récapitule mes observations sur la géographie de ces deux coefficients, les sociétés humaines différentes semblent avoir une capacité très idiosyncratique d’optimiser le coût énergétique de PIB à des niveaux différents de la consommation d’énergie par tête d’habitant. C’est comme s’il y avait une façon différente d’optimiser l’efficience énergétique en étant pauvre, par rapport à celle d’optimiser la même efficience lorsqu’on est riche et développé.

Nous, les homo sapiens, on peut faire des trucs vraiment bêtes dans le quotidien mais dans le long terme nous sommes plutôt pratiques, ce qui pourrait notre capacité actuelle de transformer quelque 30% de l’énergie totale à la surface de la planète. Si hiérarchie il y a, cette hiérarchie a probablement un rôle à jouer. Difficile à dire quel rôle exactement mais ça semble important d’avoir cette structure hiérarchique d’efficience énergétique. C’est un autre point où je diverge de la méthode MuSIASEM. Les chercheurs actifs dans le créneau MuSIASEM assument que l’efficience énergétique maximale est un impératif évolutif de notre civilisation et que tous les pays devraient aspirer à l’optimiser. Hiérarchies d’efficiences énergétique sont donc perçues comme un accident historique dysfonctionnel, probablement effet d’oppression des pauvres par les riches. Bien sûr, on peut demander si les habitants de la République Dominicaine sont tellement plus riches que ceux des États-Unis, pour avoir une efficience énergétique presque trois fois supérieure.


[1] Andreoni, V. (2020). The energy metabolism of countries: Energy efficiency and use in the period that followed the global financial crisis. Energy Policy, 139, 111304. https://doi.org/10.1016/j.enpol.2020.111304

[2] Andreoni, V. (2020). The energy metabolism of countries: Energy efficiency and use in the period that followed the global financial crisis. Energy Policy, 139, 111304. https://doi.org/10.1016/j.enpol.2020.111304

[3] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at http://www.ggdc.net/pwt 

[4] Bandini, S., Mauri, G., & Serra, R. (2001). Cellular automata: From a theoretical parallel computational model to its application to complex systems. Parallel Computing, 27(5), 539-553. https://doi.org/10.1016/S0167-8191(00)00076-4

[5] Yu, J., Hagen-Zanker, A., Santitissadeekorn, N., & Hughes, S. (2021). Calibration of cellular automata urban growth models from urban genesis onwards-a novel application of Markov chain Monte Carlo approximate Bayesian computation. Computers, environment and urban systems, 90, 101689. https://doi.org/10.1016/j.compenvurbsys.2021.101689

[6] Gupta, A., & Srivastava, S. (2020). Comparative analysis of ant colony and particle swarm optimization algorithms for distance optimization. Procedia Computer Science, 173, 245-253. https://doi.org/10.1016/j.procs.2020.06.029

Que je finisse de façon bien élégante

Me revoilà avec l’idée de faire un rapprochement théorique entre mon « Projet Aqueduc » et ma recherche sur le phénomène d’intelligence collective. Comme je passe en revue ce que j’ai écrit jusqu’à maintenant sur les deux sujets, des conclusions provisoires se forment dans ma tête. L’idée primordiale est que je ne suis pas sûr du tout si mon « Projet Aqueduc » n’est pas, par le plus grand des hasards, une connerie déguisée. Comme je fais de la recherche sur le business d’énergies renouvelables, j’ai pu constater maintes fois qu’à part l’écologie fonctionnelle et pragmatique il y a une écologie religieuse, quelque chose comme l’Église Généralisée de la Mère Nature. Moi je veux rester dans le fonctionnel. Je n’achète pas vraiment l’argument que toute solution « naturelle » est meilleure qu’une « artificielle ». Le retour à la nature que tellement de mes amis prêchent comme une confession de foi c’est aussi le retour à la tuberculose et à l’absence de canalisation.

Je pense donc que « Projet Aqueduc » est une idée intéressante pour expérimenter avec mais pas vraiment une solution complète à optimaliser. L’idée d’utiliser un algorithme génétique du type NSGA-II ou « Non-dominated Sorting Genetic Algorithm » (comparez : Chang et al. 2016[1]; Jain & Sachdeva 2017[2];  Assaf & Shabani 2018[3]; Zhou et al. 2019[4]), que j’avais formulée au début de juillet ( We keep going until we observe du 5 juillet) serait prématurée. Le « Projet Aqueduc » est une chaîne complexe des technologies dont certaines sont plutôt certaines – pardonnez le jeu de mots – pendant que d’autres sont très incertaines dans leur développement général ainsi que leur application exacte dans ce contexte spécifique.    

Je pense que je vais me concentrer sur la mise au point d’une méthode de vérifier la faisabilité du concept en question dans la phase où il est actuellement, donc dans la phase d’expérimentation initiale, tôt dans le cycle de développement. Une telle méthode pourrait être appliquée à l’étude de faisabilité d’autres technologies en phase de développement expérimental. Le « Projet Aqueduc » présente un défi intellectuel intéressant de ce point de vue. L’une des dimensions importantes de ce concept est sa taille physique, surtout la quantité d’eau retenue dans les structures marécageuses qui agissent comme des pseudo-réservoirs hydrologiques (Harvey et al. 2009[5]; Phiri et al. 2021[6] ; Lu et al. 2021[7]; Stocks et al. 2021[8]). Plus nous expérimentons avec la taille physique des installations, plus grands sont les risques liés à cette expérimentation. Tester une installation de petite taille pour le « Projet Aqueduc » engendre des risques négligeables mais en même temps n’apporte pas vraiment de données empiriques sur ce qui se passe dans une installation de taille autrement plus substantielle. C’est donc un cas où – apparemment au moins – je dois expérimenter avec des risques de plus en plus élevés pour acquérir des données sur ce qui peut se passer si ces risques se consument en vie réelle. Voilà un casse-tête digne de ce nom.

En termes de défi intellectuel, j’en ai un autre, tombé un peu à l’improviste. Le journal « International Journal of Energy Sector Management » vient de me demander de donner un dernier coup de pinceau, avant la publication, à mon article intitulé « Climbing the right hill – an evolutionary approach to the European market of electricity ». Les recommandations du réviseur ainsi que celles du rédacteur responsable sont à peu près homogènes et se résument à donner plus de clarté à mon texte, de façon à le rendre plus facile à approcher pour des lecteurs non-initiés à la méthode que j’y utilise. Je relève le gant pour ainsi dire et je vais essayer de résumer le manuscrit en français, de façon aussi claire que possible. J’espère que ça va me donner un bon point de départ pour faire la révision finale de mon manuscrit en anglais.

Je commence par le résumé d’en-tête, donc ce qui s’appelle « abstract » en jargon scientifique anglais. L’article étudie changement socio-économique comme phénomène évolutif et plus précisément comme une marche adaptative en paysage rugueux, avec l’assomption d’intelligence collective et en vue d’optimiser la participation d’électricité dans la consommation totale de l’énergie ainsi que la participation des sources renouvelables dans la consommation d’électricité. Une méthode originale est présentée, où un réseau neuronal artificiel est utilisé pour produire des réalités alternatives à partir de l’ensemble originel de données empiriques. La distance Euclidienne entre ces réalités alternatives et la réalité empirique est utilisée comme base pour évaluer les objectifs collectifs. La variance de distance Euclidienne entre variables est utilisée comme base pour évaluer l’intensité d’interactions épistatiques entre les phénomènes représentés avec les variables. La méthode est testée dans un échantillon de 28 pays européens, entre 2008 et 2017, en présence d’imperfections du marché au niveau des prix de détail d’électricité. Les variables-clés, pertinentes à l’énergie, semblent être instrumentales par rapport à la poursuite d’autres valeurs collectives et ces dernières semblent se concentrer sur l’intensité de travail ainsi que sa rémunération.

Voilà un résumé bien scientifique. J’avoue : si je n’avais pas écrit cet article moi-même, je n’y comprendrais que dalle, à ce résumé. Pas étonnant que le réviseur et le rédacteur responsable me demandent gentiment de simplifier et de clarifier. Où commence-je donc ? Voilà une question qui mérite un peu de réflexion. Je pense qu’il faut que recule dans le temps et que je me souvienne le cheminement logique que j’avais pris, il y a un an et demi, lorsque j’avais écrit la première version de cet article. Oui, un an et demi. La science, ça traine parfois. Les idées-éclair, ça ralentit considérablement dans la phase de publication.

Je recule donc dans le temps. Il y avait deux trucs en concours, pour ainsi dire. D’une part, j’étais content après la publication d’un article chez « Energy », un journal bien respectable, sous le titre « Energy efficiency as manifestation of collective intelligence in human societies ». La méthode que j’y avais utilisée était largement la même que dans cet article chez « International Journal of Energy Sector Management », auquel je suis en train de donner une touche finale. Un réseau neuronal artificiel produit des simulations d’intelligence collective des sociétés humaines. Chaque simulation est une sorte de réalité alternative orientée sur l’optimisation d’une variable spécifique. Chaque réalité alternative demeure à une certaine distance mathématique de la réalité empirique. J’assume que celles qui sont les plus proches reflètent le mieux les rapports entre les variables empiriques. Puisque ce rapport est en fait une orientation – la poursuite d’optimisation d’une variable précise – j’interprète le tout comme une évolution collectivement intelligente avec un système de valeurs collectives.

Les résultats empiriques que j’avais obtenus dans cet article chez « Energy » étaient un peu surprenants, mais juste un peu. Les économies nationales que j’étudiais semblaient être orientés sur l’optimisation de rapport entre le flux d’invention scientifique et la capitalisation des entreprises (coefficient du nombre des demandes domestique de brevet par un million de dollars en actifs productifs fixes) plus que tout le reste. L’efficience énergétique, mesurée à l’échelle d’économies nationales, semblait être le cadet des soucis de lesdites économies nationales, pour ainsi dire. En général, ces 59 pays que j’avais pris sous ma loupe, démontraient bien une croissance d’efficience énergétique, mais cette amélioration semblait être un effet secondaire obtenu dans la poursuite d’équilibre local entre la science mûre (pour demander des brevets) et l’investissement.

Le catalogue des variables que j’avais pris en considération dans « Energy efficiency as manifestation of collective intelligence in human societies » était plutôt restreint. J’avais étudié 14 variables, dont la plupart étaient là en raison d’assomptions que j’avais prises à propos du contexte socio-économique de l’efficience énergétique. Alors, je m’étais posé la question suivante : qu’est-ce qui va se passer si je prends une poignée des variables pertinentes au secteur d’énergie, dans un contexte plus ou moins environnemental, et je les plonge dans un bain commun avec un catalogue vraiment large des variables macroéconomiques ? Côté méthode, c’est une approche classique dans la science. Un truc marche avec des assomptions bien serrées et le pas suivant est de tester le même truc avec des assomptions plus relax, genre pas trop d’idées préconçues.

En ce qui concerne le catalogue exhaustif des variables macroéconomiques, Penn Tables 9.1. (Feenstra et al. 2015[9]), avec 49 variables du type classique (Produit National, inflation, le marché d’emploi etc.) semblaient être une source convenable. J’avais déjà expérimenté avec cette base des données et ma méthode d’étudier l’intelligence collective en produisant des réalités alternatives avec un réseau neuronal et j’avais obtenu des résultats intéressants. Je les avais décrits dans un manuscrit plutôt technique intitulé « The Labour Oriented, Collective Intelligence of Ours : Penn Tables 9.1 Seen Through the Eyes of A Neural Network ». Il semble que les économies nationales de quelques 168 pays décrits dans Penn Tables 9.1 sont orientées sur l’optimalisation du marché de l’emploi plus que sur quoi que ce soit d’autre. Les variables dont l’optimalisation produit des réalités alternatives les plus proches de la réalité empirique sont, dans ce cas : le nombre moyen d’heures ouvrables par année par personne, la participation des salaires dans le Revenu National Brut et finalement le coefficient de capital humain, qui mesure le nombre moyen d’années d’éducation que les jeunes gens ont dans leur CV au moment d’entrer le marché d’emploi.

Encore une fois : lorsque la plupart d’économistes développent sur le sort horrible des travailleurs dans un monde dominé par des capitalistes rapaces sans pitié ni conscience, ma méthode suggérait le contraire, donc un monde orienté sur le travail et les travailleurs, beaucoup plus que sur l’optimalisation du retour interne sur l’investissement, par exemple. Ma méthode donnait donc des résultats surprenants avec des données empiriques tout à fait classiques. J’étais donc bien sûr que les résultats tout aussi surprenants que j’avais présenté dans « Energy efficiency as manifestation of collective intelligence in human societies » n’étaient pas le résultat de mon propre biais cognitif au niveau du matériel empirique de base mais bel et bien le résultat d’une méthode originale de recherche.

Ces résultats en main, je me demandais comment faire un rapprochement avec le secteur d’énergie. A l’époque, j’avais participé à un colloque public à propos des voitures électriques. Le colloque lui-même n’était pas vraiment excitant, mais après j’ai eu une discussion très intéressante avec mon fils. Le fiston avait dit : « En Europe, on n’a pas de notre pétrole bien à nous. Nous avons un système de transport routier très dense, presque entièrement dépendant d’une source d’énergie que nous devons importer, donc sur le pétrole. Comme risque stratégique, c’en est un gros ». Je me suis dit : il a raison, mon fiston. Encore une fois. C’est agaçant. Faut que je fasse quelque chose. Les voitures électriques, ça a besoin d’électricité et donc la participation d’électricité dans la consommation totale d’énergie serait un bon indicateur de notre préparation à passer vers les véhicules électriques, en Europe. Je peux prendre Penn Tables 9.1. (Feenstra et al. 2015 op. cit.), en extraire les données à propos des pays Européens, ajouter des variables pertinentes au secteur d’énergie et voilà : je peux tester l’hypothèse générale que ces variables énergétiques sont des orientations significative dans l’intelligence collective des pays Européens.    

Il y avait un autre truc, en fait. Ça fait déjà un bout de temps que j’ai fait attention aux prix d’électricité en Europe, et plus précisément à la différence très marquée entre les prix pour petits consommateurs d’énergie, calibre ménages, d’une part, et les prix réservés aux usagers plus grands. Vous pouvez consulter, à ce sujet, ma mise à jour du 28 Juin 2018 : « Deux cerveaux, légèrement différents l’un de l’autre ». C’est une imperfection du marché en une forme classique. J’avais donc décidé d’ajouter les prix d’électricité en Europe à cet ensemble déjà bien hétéroclite et voilà que ça a commencé.

Bon, j’ai reconstitué à peu de choses près le raisonnement originel qui m’a poussé à écrire cet article « Climbing the right hill – an evolutionary approach to the European market of electricity ». Si je sais comment j’avais commencé, il y a des chances que je finisse de façon bien élégante.  


[1] Chang, F. J., Wang, Y. C., & Tsai, W. P. (2016). Modelling intelligent water resources allocation for multi-users. Water resources management, 30(4), 1395-1413. https://doi.org/10.1007/s11269-016-1229-6

[2] Jain, V., & Sachdeva, G. (2017). Energy, exergy, economic (3E) analyses and multi-objective optimization of vapor absorption heat transformer using NSGA-II technique. Energy Conversion and Management, 148, 1096-1113. https://doi.org/10.1016/j.enconman.2017.06.055

[3] Assaf, J., & Shabani, B. (2018). Multi-objective sizing optimisation of a solar-thermal system integrated with a solar-hydrogen combined heat and power system, using genetic algorithm. Energy Conversion and Management, 164, 518-532. https://doi.org/10.1016/j.enconman.2018.03.026

[4] Zhou, Y., Chang, L. C., Uen, T. S., Guo, S., Xu, C. Y., & Chang, F. J. (2019). Prospect for small-hydropower installation settled upon optimal water allocation: An action to stimulate synergies of water-food-energy nexus. Applied Energy, 238, 668-682. https://doi.org/10.1016/j.apenergy.2019.01.069

[5] Harvey, J.W., Schaffranek, R.W., Noe, G.B., Larsen, L.G., Nowacki, D.J., O’Connor, B.L., 2009. Hydroecological factors governing surface water flow on a low-gradient floodplain. Water Resour. Res. 45, W03421, https://doi.org/10.1029/2008WR007129.

[6] Phiri, W. K., Vanzo, D., Banda, K., Nyirenda, E., & Nyambe, I. A. (2021). A pseudo-reservoir concept in SWAT model for the simulation of an alluvial floodplain in a complex tropical river system. Journal of Hydrology: Regional Studies, 33, 100770. https://doi.org/10.1016/j.ejrh.2020.100770.

[7] Lu, B., Blakers, A., Stocks, M., & Do, T. N. (2021). Low-cost, low-emission 100% renewable electricity in Southeast Asia supported by pumped hydro storage. Energy, 121387. https://doi.org/10.1016/j.energy.2021.121387

[8] Stocks, M., Stocks, R., Lu, B., Cheng, C., & Blakers, A. (2021). Global atlas of closed-loop pumped hydro energy storage. Joule, 5(1), 270-284. https://doi.org/10.1016/j.joule.2020.11.015

[9] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at http://www.ggdc.net/pwt 

L’automate cellulaire respectable

J’essaie de développer une jonction entre deux créneaux de ma recherche : l’étude de faisabilité pour mon « Projet Aqueduc » d’une part et ma recherche plus théorique sur le phénomène d’intelligence collective d’autre part. Question : comment prédire et prévoir l’absorption d’une technologie nouvelle dans une structure sociale ? En des termes plus concrets, comment puis-je prévoir l’absorption de « Projet Aqueduc » dans l’environnement socio-économique ? Pour me rendre la vie plus difficile – ce qui est toujours intéressant – je vais essayer de construire le modèle de cette absorption à partir d’une base théorique relativement nouvelle pour moi, notamment la théorie d’automates cellulaires. En termes de littérature, pour le moment, je me réfère à deux articles espacés de 20 ans l’un de l’autre : Bandini, Mauri & Serra (2001[1]) ainsi que Yu et al. (2021[2]).

Pourquoi cette théorie précise ? Pourquoi pas, en fait ? Sérieusement, la théorie d’automates cellulaires essaie d’expliquer des phénomènes très complexes – qui surviennent dans des structures qui ont l’air d’être vraiment intelligentes – à partir d’assomptions très faibles à propos du comportement individuel d’entités simples à l’intérieur de ces structures. En plus, cette théorie est déjà bien traduite en termes d’intelligence artificielle et se marie donc bien avec mon but général de développer une méthode de simuler des changements socio-économiques avec des réseaux neuronaux.

Il y a donc un groupe des gens qui s’organisent d’une façon ou d’une autre autour d’une technologie nouvelle. Les ressources économiques et la structure institutionnelle de ce groupe peuvent varier : ça peut être une société de droit, un projet public-privé, une organisation non-gouvernementale etc. Peu importe : ça commence comme une microstructure sociale. Remarquez : une technologie existe seulement lorsque et dans la mesure qu’une telle structure existe, sinon une structure plus grande et plus complexe. Une technologie existe seulement lorsqu’il y a des gens qui s’occupent d’elle.

Il y a donc ce groupe organisé autour d’une technologie naissante. Tout ce que nous savons sur l’histoire économique et l’histoire des technologies nous dit que si l’idée s’avère porteuse, d’autres groupes plus ou moins similaires vont se former. Je répète : d’autres groupes. Lorsque la technologie des voitures électriques avait finalement bien mordu dans le marché, ceci n’a pas entraîné l’expansion monopolistique de Tesla. Au contraire : d’autres entités ont commencé à bâtir de façon indépendante sur l’expérience de Tesla. Aujourd’hui, chacun des grands constructeurs automobiles vit une aventure plus ou moins poussée avec les bagnoles électriques et il y a toute une vague des startups crées dans le même créneau. En fait, la technologie du véhicule électrique a donné une deuxième jeunesse au modèle de petite entreprise automobile, un truc qui semblait avoir été renvoyé à la poubelle de l’histoire.

L’absorption d’une technologie nouvelle peut donc être représentée comme la prolifération des cellules bâties autour de cette technologie. A quoi bon, pouvez-vous demander. Pourquoi inventer un modèle théorique de plus pour le développement des technologies nouvelles ? Après tout, il y en a déjà pas mal, de tels modèles. Le défi théorique consiste à simuler le changement technologique de façon à cerner des Cygnes Noirs possibles. La différence entre un cygne noir tout simple et un Cygne Noir écrit avec des majuscules est que ce dernier se réfère au livre de Nassim Nicolas Taleb « The Black Swan. The impact of the highly improbable », Penguin, 2010. Oui, je sais, il y a plus que ça. Un Cygne Noir en majuscules peut bien être le Cygne Noir de Tchaïkovski, donc une femme (Odile) autant attirante que dangereuse par son habileté d’introduire du chaos dans la vie d’un homme. Je sais aussi que si j’arrangerai une conversation entre Tchaïkovski et Carl Gustav Jung, les deux messieurs seraient probablement d’accord qu’Odile alias Cygne Noir symbolise le chaos, en opposition à l’ordre fragile dans la vie de Siegfried, donc à Odette. Enfin, j’fais pas du ballet, moi, ici. Je blogue. Ceci implique une tenue différente, ainsi qu’un genre différent de flexibilité. Je suis plus âgé que Siegfried, aussi, comme par une génération.  

De tout en tout, mon Cygne Noir à moi est celui emprunté à Nassim Nicolas Taleb et c’est donc un phénomène qui, tout en étant hors d’ordinaire et surprenant pour les gens concernés, est néanmoins fonctionnellement et logiquement dérivé d’une séquence des phénomènes passés. Un Cygne Noir se forme autour des phénomènes qui pendant un certain temps surviennent aux extrémités de la courbe Gaussienne, donc à la frange de probabilité. Les Cygnes Noirs véhiculent du danger et des opportunités nouvelles, à des doses aussi variées que le sont les Cygnes Noirs eux-mêmes. L’intérêt pratique de cerner des Cygnes Noirs qui peuvent surgir à partir de la situation présente est donc celui de prévenir des risques du type catastrophique d’une part et de capter très tôt des opportunités exceptionnelles d’autre part.

Voilà donc que, mine de rien, je viens d’enrichir la description fonctionnelle de ma méthode de simuler l’intelligence collective des sociétés humaines avec les réseaux neuronaux artificiels. Cette méthode peut servir à identifier à l’avance des développements possibles du type de Cygne Noir : significatifs, subjectivement inattendus et néanmoins fonctionnellement enracinées dans la réalité présente.

Il y a donc cette technologie nouvelle et il y a des cellules socio-économiques qui se forment autour d’elle. Il y a des espèces distinctes des cellules et chaque espèce correspond à une technologie différente. Chaque cellule peut être représentée comme un automate cellulaire A = (Zd, S, n, Sn+1 -> S), dont l’explication commence avec Zd, donc l’espace à d dimensions ou les cellules font ce qu’elles ont à faire. L’automate cellulaire ne sait rien sur cet espace, tout comme une truite n’est pas vraiment forte lorsqu’il s’agit de décrire une rivière. Un automate cellulaire prend S états différents et ces états sont composés des mouvements du type un-pas-à-la-fois, dans n emplacements cellulaires adjacents. L’automate sélectionne ces S états différents dans un catalogue plus large Sn+1 de tous les états possibles et la fonction Sn+1 -> S alias la règle locale de l’automate A décrit de façon générale le quotient de cette sélection, donc la capacité de l’automate cellulaire d’explorer toutes les possibilités de bouger son cul (cellulaire) juste d’un cran à partir de la position actuelle.

Pourquoi distinguer ces quatre variables structurelles dans l’automate cellulaire ? Pourquoi n’assumons-nous pas que le nombre possible des mouvements « n » est une fonction constante des dimensions offertes par l’espace Zd ? Pourquoi ne pas assumer que le nombre réel d’états S est égal au total possible de Sn+1 ? Eh bien parce que la théorie d’automates cellulaires a des ambitions de servir à quelque chose d’utile et elle s’efforce de simuler la réalité. Il y a donc une technologie nouvelle encapsulée dans une cellule sociale A. L’espace social autour d’A est vaste, mais il peut y avoir des portes verrouillées. Des marchés oligopoles, des compétiteurs plus rapides et plus entreprenants, des obstacles légaux et mêmes des obstacles purement sociaux. Si une société à qui vous proposez de coopérer dans votre projet innovant craint d’être exposée à 10 000 tweets enragés de la part des gens qui n’aiment pas votre technologie, cette porte-là est fermée, quoi que la dimension où elle se trouve est théoriquement accessible.

Si je suis un automate cellulaire tout à fait ordinaire et j’ai la possibilité de bouger dans n emplacements sociaux adjacents à celui où je suis maintenant, je commence par choisir juste un mouvement et voir ce qui se passe. Lorsque tout se passe de façon satisfaisante, j’observe mon environnement immédiat nouveau – j’observe donc le « n » nouveau visible à partir de la cellule où je viens de bouger – je fais un autre mouvement dans un emplacement sélectionné dans ce nouveau « n » et ainsi de suite. Dans un environnement immédiat « n » moi, l’automate cellulaire moyen, j’explore plus qu’un emplacement possible de parmi n seulement lorsque je viens d’essuyer un échec dans l’emplacement précédemment choisi et j’avais décidé que la meilleure stratégie est de retourner à la case départ tout en reconsidérant les options possibles.         

La cellule sociale bâtie autour d’une technologie va donc se frayer un chemin à travers l’espace social Zd, en essayant de faire des mouvement réussis, donc en sélectionnant une option de parmi les « n » possibles. Oui, les échecs ça arrive et donc parfois la cellule sociale va expérimenter avec k > 1 mouvements immédiats. Néanmoins, la situation où k = n c’est quand les gens qui travaillent sur une technologie nouvelle ont essayé, en vain, toutes les options possibles sauf une dernière et se jettent la tête en avant dans celle-ci, qui s’avère une réussite. De telles situations arrivent, je le sais. Je crois bien que Canal+ était une aventure de ce type à ces débuts. Néanmoins, lorsqu’un truc marche, dans le lancement d’une technologie nouvelle, on juste continue dans la foulée sans regarder par-dessus l’épaule.

Le nombre réel S d’états que prend un automate cellulaire est donc largement sujet à l’hystérèse. Chaque mouvement réussi est un environnement immédiat de moins à exploiter, donc celui laissé derrière nous.  En même temps, c’est un défi nouveau de faire l’autre mouvement réussi au premier essai sans s’attarder dans des emplacements alternatifs. L’automate cellulaire est donc un voyageur plus qu’un explorateur. Bref, la formulation A = (Zd, S, n, Sn+1 -> S) d’un automate cellulaire exprime donc des opportunités et des contraintes à la fois.

Ma cellule sociale bâtie autour de « Projet Aqueduc » coexiste avec des cellules sociales bâties autour d’autres technologies. Comme tout automate cellulaire respectable, je regarde autour de moi et je vois des mouvements évidents en termes d’investissement. Je peux bouger ma cellule sociale en termes de capital accumulé ainsi que de l’échelle physique des installations. Je suppose que les autres cellules sociales centrées sur d’autres technologies vont faire de même : chercher du capital et des opportunités de croître physiquement. Excellent ! Voilà donc que je vois deux dimensions de Zd : l’échelle financière et l’échelle physique. Je me demande comment faire pour y bouger et je découvre d’autres dimensions, plus comportementales et cognitives celles-là : le retour interne (profit) espéré sur l’investissement ainsi que le retour externe (croissance de valeur d’entreprise), la croissance générale du marché de capital d’investissement etc.

Trouver des dimensions nouvelles, c’est fastoche, par ailleurs. Beaucoup plus facile que c’est montré dans les films de science-fiction. Il suffit de se demander ce qui peut bien gêner nos mouvements, regarder bien autour, avoir quelques conversations et voilà ! Je peux découvrir des dimensions nouvelles même sans accès à un téléporteur inter-dimensionnel à haute énergie. Je me souviens d’avoir vu sur You Tube une série de vidéos dont les créateurs prétendaient savoir à coup sûr que le grand collisionneur de hadrons (oui, celui à Genève) a ouvert un tunnel vers l’enfer. Je passe sur des questions simplissimes du genre : « Comment savez-vous que c’est un tunnel, donc un tube avec une entrée et une sortie ? Comment savez-vous qu’il mène en enfer ? Quelqu’un est-il allé de l’autre côté et demandé les locaux où ça où ils habitent ? ». Le truc vraiment épatant est qu’il y a toujours des gens qui croient dur comme fer que vous avez besoin des centaines de milliers de dollars d’investissement et des années de recherche scientifique pour découvrir un chemin vers l’enfer. Ce chemin, chacun de nous l’a à portée de la main. Suffit d’arrêter de découvrir des dimensions nouvelles dans notre existence.

Bon, je suis donc un automate cellulaire respectable qui développe le « Projet Aqueduc » à partir d’une cellule d’enthousiastes et en présence d’autres automates cellulaires. On bouge, nous, les automates cellulaires, le long de deux dimensions bien claires d’échelle – capital accumulé et taille physique des installations – et on sait que bouger dans ces dimensions-ci exige un effort dans d’autres dimensions moins évidentes qui s’entrelacent autour d’intérêt général pour notre idée de la part des gens extra – cellulaires. Notre Zd est en fait un Zd eh ben alors !. Le fait d’avoir deux dimensions bien visibles et un nombre discutable de dimensions plus floues fait que le nombre « n » des mouvements possibles est tout aussi discutable et on évite d’en explorer toutes les nuances. On saute sur le premier emplacement possible de parmi « n », ce qui nous transporte dans un autre « n », puis encore et encore.

Lorsque tous les automates cellulaires démontrent des règles locales Sn+1 -> S à peu près cohérentes, il est possible d’en faire une description instantanée Zd -> S, connue aussi comme configuration de A ou bien son état global. Le nombre d’états possibles que mon « Projet Aqueduc » peut prendre dans un espace rempli d’automates cellulaires va dépendre du nombre d’états possibles d’autres automates cellulaires. Ces descriptions instantanées Zd -> S sont, comme le nom l’indique, instantanées, donc temporaires et locales. Elles peuvent changer. En particulier, le nombre S d’états possibles de mon « Projet Aqueduc » change en fonction de l’environnement immédiat « n » accessible à partir de la position courante t. Une séquence de positions correspond donc à une séquence des configurations ct = Zd -> S (t) et cette séquence est désignée comme comportement de l’automate cellulaire A ou bien son évolution.        


[1] Bandini, S., Mauri, G., & Serra, R. (2001). Cellular automata: From a theoretical parallel computational model to its application to complex systems. Parallel Computing, 27(5), 539-553. https://doi.org/10.1016/S0167-8191(00)00076-4

[2] Yu, J., Hagen-Zanker, A., Santitissadeekorn, N., & Hughes, S. (2021). Calibration of cellular automata urban growth models from urban genesis onwards-a novel application of Markov chain Monte Carlo approximate Bayesian computation. Computers, environment and urban systems, 90, 101689. https://doi.org/10.1016/j.compenvurbsys.2021.101689

L’impression de respirer

J’avance avec la révision de ma recherche sur le phénomène d’intelligence collective, que je viens de documenter dans « The collective of individual humans being any good at being smart ». Je m’efforce à faire jonction entre mes idées à moi, d’une part, et deux autres créneaux de recherche : la théorie des systèmes complexes et l’approche psychologique à l’intelligence collective. La première, je la travaille sur la base du livre ‘What Is a Complex System?’ écrit par James Landyman et Karoline Wiesner, publié en 2020 chez Yale University Press (ISBN 978-0-300-25110-4, Kindle Edition). Quant à l’approche psychologique, ma lecture de référence est, pour le moment, le livre ‘The Knowledge Illusion. Why we never think alone’ écrit par Steven Sloman et Philip Fernbach, publié en 2017 chez RIVERHEAD BOOKS (originellement chez Penguin Random House LLC, Ebook ISBN: 9780399184345, Kindle Edition).

Je viens de cerner l’idée centrale de mon approche au phénomène d’intelligence collective, et c’est l’utilisation des réseaux neuronaux artificiels – donc de l’Intelligence Artificielle – comme simulateurs des phénomènes sociaux complexes. La touche originale bien à moi que je veux ajouter à ce sujet, vaste par ailleurs, est la façon d’utiliser des réseaux neuronaux très simples, possibles à programmer dans une feuille de calcul Excel. Ma méthode va donc un peu à l’encontre du stéréotype des super-nuages numériques portés par des super-ordinateurs joints eux-mêmes en réseau, tout ça pour prédire la prochaine mode vestimentaire ou la prochaine super-affaire en Bourse.

Lorsque je pense à la structure d’un livre que je pourrais écrire à ce sujet, le squelette conceptuel qui me vient à l’esprit est du scientifique classique. Ça commence avec une « Introduction » générale et peu formelle, genre montrer pourquoi faire tout ce bruit à propos de l’idée en question. Une section de « Matériel empirique et méthode » ensuit, ou je discute le type de données empiriques à travailler avec ainsi que la méthode de leur traitement. Le pas suivant est de présenter « La théorie et revue de littérature du sujet » en un chapitre séparé et enfin des « Exemples d’application », soit des calculs faits sur des données réelles avec la méthode en question.     

Le noyau conceptuel formel de mon approche est – pour le moment – la fonction d’adaptation. Lorsque j’ai un ensemble de variables socio-économiques quantitatives, je peux faire des assomptions plus ou moins fortes à propos de leur signification et pertinence empirique, mais je peux assumer de manière tout à fait solide que chacune de ces variables peut représenter un résultat fonctionnel important, dont l’achèvement nous poursuivons comme société. En présence de « n » variables que peux poser « n » hypothèses du type : ces gens-là poursuivent l’optimisation de la variable « i » comme orientation collective. Une telle hypothèse veut dire que toutes les variables dans l’ensemble X = (x1, x2, …, x­n), observées dans une séquence de « m » occurrences locales (t1, t2,…, tm), forment une chaîne d’états fonctionnels locaux f{x1(t), x2(t), …, x­n(t)}.  La société étudiée compare chaque état fonctionnel local à une valeur espérée de résultat xi(t) et la fonction d’adaptation produit l’erreur locale d’adaptation e(t) = xi(t)f{x1(t), x2(t), …, x­n(t)}.  La variable « xi » fait partie de l’ensemble X = (x1, x2, …, x­n). La chaîne d’états fonctionnels f{x1(t), x2(t), …, x­n(t)} est donc produite aussi bien avec la variable optimisée « xi » elle-même qu’avec les autres variables. La logique de ceci est simple : la plupart de phénomènes sociaux que nous décrivons avec des variables quantitatives, tel le Produit National Brut (mon exemple préféré), démontrent une hystérèse significative. Le PNB d’aujourd’hui sert à produire le PNB de l’après-demain, tout comme le nombre des demandes de brevet d’aujourd’hui contribue à créer le même PNB de l’après-demain.

J’essaie de faire un rapprochement entre la théorie des systèmes complexes et ma méthode à moi. Je me réfère en particulier à ‘What Is a Complex System?’ (Landyman, Wiesner 2020). Le passage que je trouve particulièrement intéressant vu ma propre méthode est celui de la page 16, que je me permets de traduire sur le champ : « Comportement coordonné ne requiert pas de contrôleur suprême […] Il est surprenant que le mouvement collectif d’une volée d’oiseaux, d’un banc de poissons ou d’un essaim d’insectes peut être reproduit par un ensemble de robots programmés à obéir juste quelques règles simples. Chaque individu doit rester près d’une poignée des voisins et ne peut pas heurter d’autres individus. Comme l’individu avance, il contrôle régulièrement sa distance par rapport aux autres pour l’ajuster de façon correspondante. En conséquence, un mouvement de groupe se forme spontanément. Le comportement adaptatif du collectif surgit d’interactions répétées, dont chacune est relativement simple en elle-même […] ».

Le truc intéressant, là, c’est que je fais exactement la même opération logique dans les réseaux neuronaux que je fais et utilise dans ma recherche sur l’intelligence collective. A l’intérieur de chaque occurrence empirique dans mon ensemble de données (donc, de façon pratique, dans chaque vers de ma base de données), je calcule en ensuite je propage un méta-paramètre de distance Euclidienne entre chaque variable et toutes les autres. Le Produit Intérieur Brut en Suède en 2007 vérifie donc sa distance Euclidienne par rapport à l’inflation, au taux d’emploi etc., tout ça en Suède en 2007. Le PIB dans mon réseau neuronal se comporte donc comme un oiseau : ça vole de façon à contrôler sa distance par rapport aux autres phénomènes sociaux.

Chaque vers de la base de données est donc accompagné d’un vecteur-fantôme des distances Euclidiennes, qui est ensuite utilisé par le réseau comme information pertinente à la tentative d’adaptation dans l’occurrence empirique suivante, donc dans le vers suivant de la base des données. Initialement, lorsque je programmais ce truc, je ne savais pas ce que ça va donner. Je ne savais presque rien de cet aspect particulier de la théorie de complexité. Je venais juste de lire quelques articles sur la théorie d’essaim dans la programmation des robots et je voulais voir comment ça marche chez moi (Wood & Thompson 2021[1]; Li et al. 2021[2]).  Je m’adaptais juste de façon (probablement) intelligente au flot de mes propres pensées. Il se fait que la propagation de ces distances Euclidiennes locales entres les variables impacte le réseau et son apprentissage de façon profonde.

Voilà donc un point certain de rapprochement entre ma méthode d’utiliser les réseaux neuronaux artificiels pour simuler l’intelligence collective et la théorie des systèmes complexes. Lorsque je crée, pour un ensemble des variables quantitatives socio-économiques, un ensemble fantôme accompagnant des distances mathématiques locales entre ces variables et je propage ces distances à travers le réseau, les nombres apprennent de façon accélérée.          

Une petite explication est de rigueur, à propos de la notion de distance mathématique. Moi, j’utilise la distance Euclidienne entre les nombres simples. Dans le domaine du Data Science c’est l’équivalent de la pierre taillée. Il y a des mesures beaucoup plus sophistiquées, ou une distance Euclidienne est calculée entre des matrices entières des nombres. Moi, j’aime bien utiliser le type d’intelligence artificielle que je comprends.

Je peux donc résumer un point important de ma méthode, tout en l’enracinant dans la théorie des systèmes complexes. Nous pouvons imaginer les sociétés humaines comme des essaims des phénomènes que nous observons de façon imparfaite à travers des variables quantitatives. L’essaim des phénomènes s’auto-organise à travers les actions d’êtres humains qui contrôlent, de façon imparfaite et néanmoins cohérente, quelle est la distance (cohérence mutuelle) entre les phénomènes distincts. Le fait que chaque culture humaine s’efforce de créer et maintenir une cohérence interne est donc le mécanisme de contrôle qui facilite l’émergence des systèmes complexes.

Mon intuition à moi, lorsque j’introduisais ces mesures-fantômes de distance Euclidienne entre les variables était un peu contraire, en fait. Mon truc, depuis ma thèse de doctorat, c’est l’innovation et le changement technologique. Après avoir lu ces articles sur la théorie d’essaim je me suis dit que l’innovation survient lorsqu’une société se dit (collectivement) « Merde ! Ras le bol avec la monotonie ! Faut secouer tout ça un peu ! Eh, les gars ! Oui, vous ! On veut dire : oui, nous ! On relâche la cohérence interne ! Oui, juste pour quelques années, pas de souci ! Oui, merde, on vous (nous) promet de ne pas inventer Facebook, enfin on espère… ».  

La société que je représente avec un réseau neuronal est donc capable d’innovation parce qu’elle peut relâcher sa cohérence culturelle interne juste ce qu’il faut pour laisser entrer des phénomènes nouveaux. Ce que j’observe mathématiquement dans mes simulations avec des données socio-économiques réelles : lorsque je propage la distance Euclidienne entre les variables à travers le réseau, celui-ci donne l’impression de respirer. Ça se gonfle et ça se dégonfle, en cadence rythmique.  


[1] Wood, M. A., & Thompson, C. (2021). Crime prevention, swarm intelligence and stigmergy: Understanding the mechanisms of social media-facilitated community crime prevention. The British Journal of Criminology, 61(2), 414-433.  https://doi.org/10.1093/bjc/azaa065

[2] Li, M., Porter, A. L., Suominen, A., Burmaoglu, S., & Carley, S. (2021). An exploratory perspective to measure the emergence degree for a specific technology based on the philosophy of swarm intelligence. Technological Forecasting and Social Change, 166, 120621. https://doi.org/10.1016/j.techfore.2021.120621

Plusieurs bouquins à la fois, comme d’habitude

Je suis en train de finir la première version, encore un peu rudimentaire, de mon article sur la faisabilité du « Projet Aqueduc » : un concept technologique en phase de naissance que j’essaie de développer et de promouvoir. Je pense que j’ai fait tous les calculs de base et j’ai l’intention d’en donner un compte rendu sommaire dans cette mise à jour. Je vais présenter ces résultats dans une structure logique qui est en train de faire sa percée dans le monde de la science : je commence par présenter l’idée de base et je l’associe avec du matériel empirique que je juge pertinent ainsi qu’avec la méthode d’analyse de ce matériel. Seulement après la description méthodologique je fais une revue de la littérature à propos des points saillants de la méthode et de l’idée de base. Ces trois composantes de base – introduction, matériel empirique et méthode d’analyse, revue de la littérature – forment la base de ce qui suit, donc de la présentation des calculs et leurs résultats ainsi que la discussion finale du tout. C’est une forme de composition qui est en train de remplacer une structure plus traditionnelle, qui était bâtie autour d’une transition rigoureuse de la théorie vers la partie empirique.

Je commence donc par reformuler et réaffirmer mon idée de base, donc l’essence même de « Projet Aqueduc ». Le travail de recherche que je viens de faire m’a fait changer les idées à ce propos. Initialement, je voyais le « Project Aqueduc » de la façon que vous pouvez voir décrite dans une mise à jour antérieure : « Ça semble expérimenter toujours ». Maintenant, je commence à apprécier la valeur cognitive et pratique de la méthode que j’ai mise au point pour conduire l’étude de faisabilité elle-même. La méthode en question est une application créative (enfin, j’espère) du rasoir d’Ockham : je divise mon concept entier en technologies composantes spécifiques et j’utilise la revue de littérature pour évaluer le degré d’incertitude attaché à chacune de parmi elles. Je concentre l’étude de faisabilité économique sur ce que peux dire de façon à peu près fiable à propos des technologies relativement le plus certaines et j’assume que ces technologies-là doivent générer un surplus de liquidité financière suffisant pour financer le développement de celles relativement plus incertaines.

Dans le cadre du « Projet Aqueduc », ce qui semble le mieux enraciné en termes de calcul ces coûts et d’investissement c’est la technologie de hydro-génération. Celle-ci est bien documentée et bien connue. Pas vraiment beaucoup d’innovation, par ailleurs. ça semble tourner tout seul. Les technologies de, respectivement, stockage d’énergie ainsi que chargement des voitures électriques viennent juste après en termes de prévisibilité : ça bouge, mais ça bouge de façon plutôt organisée. Il y a des innovations à espérer mais je pense que je suis capable de prédire plus ou moins de quelle direction elles vont venir.

Quoi qu’il en soit, j’ai simulé des installations hypothétiques de « Projet Aqueduc » dans les embouchures de 32 rivières de mon pays, la Pologne. J’ai pris les données officielles sur le débit par seconde, en mètres cubes, et j’ai simulé trois niveaux d’adsorption à partir de ce courant, à travers les béliers hydrauliques du « Projet Aqueduc » : 5%, 10% et 20%. En parallèle, j’ai simulé trois élévations possibles des réservoirs d’égalisation : 10 mètres, 20 mètres et 30 mètres. Avec les 654 millimètres de précipitations annuelles moyennes en Pologne, donc avec un ravitaillement hydrologique des précipitations avoisinant 201,8 milliards mètres cubes, ces 32 installations hypothétiques pourraient faire re-circuler entre 2,5% et 10% de ce total. Ceci fait un impact hydrologique substantiel pendant que l’impact sur le marché d’énergie n’est pas vraiment important. Avec l’adsorption d’eau au maximum, soit 20% du débit des rivières en question, ainsi qu’avec l’élévation des réservoirs d’égalisation fixée à 30 mètres (donc le maximum rationnellement possible vu la littérature du sujet), la puissance électrique totale de ces 32 installations hypothétiques serait de quelques 128,9 mégawatts, contre les 50 gigawatts déjà installés dans le système énergétique de la Pologne.

J’écrivais, dans mes mises à jour précédentes, que le « Projet Aqueduc » combine l’impact hydrologique avec celui sur le marché d’énergies renouvelables. Faut que je corrige. La production d’hydro-énergie est tout juste un moyen d’assurer la faisabilité économique du projet et puisque j’en suis là, encore quelques résultats de calculs. Vu les données d’Eurostat sur les prix d’énergie, le « Projet Aqueduc » semble faisable financièrement plutôt avec les prix moyens enregistrés en Europe qu’avec les prix minimum. Avec les prix moyens, l’exploitation des turbines hydroélectriques ainsi que celle d’installations de stockage d’énergie peut dégager quelques 90% de marge brute qui, à son tour, peut servir à financer les autres technologies du projet (pompage avec les béliers hydrauliques, infrastructure hydrologique etc.) et à créer un surplus net de trésorerie. En revanche, lorsque je simule les prix d’énergie à leur minimum empirique, ça donne un déficit brut de -18% après le coût d’énergie et de son stockage. Du coup, le « Projet Aqueduc » n’est pas vraiment du genre « énergies renouvelables pour tous et bon marché ». Le truc a des chances de marcher sans financement publique seulement lorsqu’il touche un marché de consommateurs prêts à payer plus que le minimum pour leur électricité.

En ce qui concerne la station de chargement de véhicules électriques, comme créneau marketing pour l’hydro-énergie produite, je répète tout simplement les conclusions que j’avais déjà exprimées dans la mise à jour intitulée « I have proven myself wrong » : ça n’a pas l’air de pouvoir marcher. A moins de créer une station de chargement hyper-demandée, avec des centaines de chargements par mois, il n’y aura tout simplement pas de trafic suffisant, au moins pas avec les proportions présentes entre la flotte de véhicules électriques en Europe et le réseau des stations de chargement. En revanche, il y a cette idée alternative de stations mobiles de chargement, développé de façon rigoureuse par Elmeligy et al. (2021[1]), par exemple. C’est un changement profond d’approche. Au lieu de construire une station puissante de chargement rapide, couplée avec un magasin d’énergie performant (et cher), on construit un système de batteries mobiles à puissance un peu moins élevée (200 kW dans la solution citée) et on les déplace à travers des parkings fréquentés dans un véhicule spécialement adapté à cette fin.

Maintenant, je change de sujet, mais alors complètement. Hier, j’ai reçu un courriel de la part d’une maison d’édition américaine, Nova Science Publishers, Inc., avec l’invitation à proposer un manuscrit de livre sur le sujet général d’intelligence collective. Apparemment, ils ont lu mon article dans le journal « Energy », intitulé « Energy efficiency as manifestation of collective intelligence in human societies ». Il est aussi possible que quelqu’un chez Nova suit mon blog et ce que je publie sur le phénomène d’intelligence collective. Écrire un livre est différent d’écrire un article. Ce dernier privilégie la concision et la brévité pendant que le premier exige un flot abondant d’idées tout comme un contexte riche et structuré.

En faisant un peu de lecture, ces dernières semaines, je me suis rendu compte que mon hypothèse générale d’intelligence collective des sociétés humaines – donc l’hypothèse d’apprentissage collectif à travers l’expérimentation avec plusieurs versions alternatives de la même structure sociale de base – se marie bien avec l’hypothèse des systèmes complexes. J’ai trouvé cette intersection intéressante comme je lisais le livre intitulé « 1177 B.C. The Year Civilisation Collapsed. Revised and Updated », publié par Eric H. Cline chez Princeton University Press en 2021[2]. En étudiant les mécanismes possibles de la décomposition des grands empires de l’âge de Bronze, Eric Cline cite la théorie des systèmes complexes. Si un ensemble est composé d’entités qui différent dans leur complexité – donc si nous observons entité dans entité et tout ça dans encore une autre entité – les connections fonctionnelles entre ces entités peuvent en quelque sorte stocker l’information et donc générer l’apprentissage spontané. De façon tout à fait surprenante, j’ai trouvé une référence scientifiquement sérieuse à la théorie des systèmes complexes dans un autre bouquin que je suis en train de lire (oui, j’ai l’habitude de lire plusieurs livres à la fois), donc dans « Aware. The Science and Practice of Presence. The Groundbreaking Meditation Practice », publié par Daniel J. Siegel chez TarcherPerigee en 2018[3].  Daniel J. Siegel developpe sur l’hypothèse que la conscience humaine est un système complexe et comme tel est capable d’auto-organisation. Je me permets de traduire ad hoc un court passage du début de ce livre : « L’une des caractéristiques émergentes fondamentales des systèmes complexes dans cette réalité qui est la nôtre est désignée comme auto-organisation. C’est un concept que vous pourriez croire être crée par quelqu’un en psychologie ou même dans les affaires, mais c’est un terme mathématique. La forme ou les contours du déploiement d’un système complexe sont déterminés par cette propriété émergente d’auto-organisation. Ce déploiement peut être optimisé ou bien il peut être contraint. Lorsqu’il ne s’optimise pas, il passe vers chaos ou vers la rigidité. Lorsqu’il s’optimise, il passe vers l’harmonie, en étant flexible, adaptable, cohérent, énergétique et stable ».

Intéressant : une étude systématique du développement et de la chute d’une civilisation peut trouver la même base théorique que l’étude scientifique de la méditation et cette base et la théorie des systèmes complexes. La façon do cette théorie se présente ressemble beaucoup à mes simulations de changement social et technologique où j’utilise des réseaux neuronaux comme représentation d’intelligence collective. Je suis en train de réfléchir sur la façon la plus générale possible d’exprimer et englober mon hypothèse d’intelligence collective. Je pense que le brouillon intitulé « Behavioral absorption of Black Swans: simulation with an artificial neural network », en combinaison avec la théorie des chaînes imparfaites de Markov (Berghout & Verbitskiy 2021[4]) sont peut-être le meilleur point de départ. J’assume donc que toute réalité sociale est une collection des phénomènes que nous ne percevons que de façon partielle et imparfaite et que nous estimons comme saillants lorsque leur probabilité d’occurrence dépasse un certain niveau critique.

Mathématiquement, la réalité sociale intelligible est donc un ensemble de probabilités. Je ne fais aucune assomption à priori quant à la dépendance mutuelle formelle de ces probabilités, mais je peux assumer que nous percevons tout changement de réalité sociale comme passage d’un ensemble des probabilités à un autre, donc comme une chaîne complexe d’états. Ici et maintenant, nous sommes dans une chaîne complexe A et à partir de là, tout n’est pas possible. Bien sûr, je ne veux pas dire que tout est impossible : j’assume tout simplement que la complexité d’ici et maintenant peut se transformer en d’autres complexités sous certaines conditions et contraintes. L’assomption la plus élémentaire à ce propos est que nous envisageons de bouger notre cul collectif seulement vers des états complexes qui nous rapprochent de ce que nous poursuivons ensemble et ceci quelles que soient les contraintes exogènes à notre choix. Je dirais même qu’en présence de contraintes sévères nous devenons particulièrement attentifs à l’état complexe prochain vers lequel nous transigeons. Une société constamment menacée par la pénurie de nourriture, par exemple, va être très tatillonne et en même temps très ingénieuse dans sa propre croissance démographique, en allant même jusqu’à la régulation culturelle du cycle menstruel des femmes.

Bon, ce sera tout dans cette mise à jour. Je m’en vais réfléchir et lire (plusieurs bouquins à la fois, comme d’habitude).


[1] Elmeligy, M. M., Shaaban, M. F., Azab, A., Azzouz, M. A., & Mokhtar, M. (2021). A Mobile Energy Storage Unit Serving Multiple EV Charging Stations. Energies, 14(10), 2969. https://doi.org/10.3390/en14102969

[2] LCCN 2020024530 (print) | LCCN 2020024531 (ebook) | ISBN 9780691208015 (paperback) | ISBN 9780691208022 (ebook) ; Cline, Eric H.. 1177 B.C.: 6 (Turning Points in Ancient History, 1) . Princeton University Press. Kindle Edition.

[3] LCCN 2018016987 (print) | LCCN 2018027672 (ebook) | ISBN 9780143111788 | ISBN 9781101993040 (hardback) ; Siegel, Daniel J.. Aware (p. viii). Penguin Publishing Group. Kindle Edition.

[4] Berghout, S., & Verbitskiy, E. (2021). On regularity of functions of Markov chains. Stochastic Processes and their Applications, Volume 134, April 2021, Pages 29-54, https://doi.org/10.1016/j.spa.2020.12.006