Ce petit train-train des petits signaux locaux d’inquiétude

Mon éditorial sur You Tube

Dans ma dernière mise à jour en anglais, celle intitulée « Pardon my French, but the thing is really intelligent », j’ai commencé à travailler avec un algorithme tout simple de réseau neuronal. Tout simple veut dire six équations en tout. Mon but était d’observer chaque fonction logique de cet algorithme dans son application à des données réelles. Les données réelles en question c’est l’Australie et son efficience énergétique. Les détails de l’algorithme et les données empiriques testées sont spécifiées dans cette mise à jour en anglais. En gros, j’avais posé l’hypothèse implicite que ma variable de résultat est l’efficience énergétique de l’économie Australienne, mesurée avec le coefficient de Produit Intérieur Brut par kilogramme d’équivalent pétrole de consommation finale d’énergie. Cette variable est en quelque sorte la réaction produite par ce système nerveux hypothétique que les équations du réseau neuronal représentent de façon analytique. L’hypothèse sujette à l’examen est que cette réaction est produite par l’action de cinq variables d’entrée : la consommation d’énergie par tête d’habitant, le PIB par (probablement la même) tête d’habitant, le pourcentage de la population urbaine dans la population totale, et enfin la proportion entre, respectivement, l’amortissement agrégé d’actifs fixes et l’offre d’argent, comme numérateurs, et le Produit Intérieur Brut comme dénominateur.

Maintenant je me concentre sur la façon dont cet algorithme apprend. L’apprentissage se fait en trois pas essentiels. Tout d’abord, les données d’entrée sont transformées, à travers une double multiplication par des coefficients aléatoires de pondération. C’est l’équivalent de l’imagination. L’algorithme crée une distribution alternative des données d’entrée, comme une version imaginaire légèrement décalée de la réelle. Ensuite, sur la base de cette distribution alternative, une valeur espérée de la variable de résultat est calculée. Cette valeur espérée est calculée avec l’aide de la fonction sigmoïde Ω =1/(1+e-x), où le « x » est en fait une sommation des variables d’entrée dans cette version alternative, donc x1*w1 + x2*w2 + x3*w3 + x4*w4 + x5*w5, où les « w » sont ces coefficients de pondération. J’utilise le

Le truc intéressant à propos de la fonction sigmoïde est que dans la grande majorité des cas ça donne une sortie Ω = 1, avec une dérivée locale Ω’= 0. Mon « » réel est toujours plus grand que 1, donc cette prédiction est évidemment fausse. Elle génère une erreur locale E = y – Ω. Seulement, ce réseau neuronal fait de six équations assume que lorsque la prédiction Ω égale exactement 1, donc quand sa dérivée Ω’ égale exactement 0, c’est comme si rien ne se passait côté connaissance. Juste dans certains cas, avec une combinaison aléatoire des coefficients de pondération parmi plusieurs autres, Ω est très légèrement en-dessous de 1 et sa dérivée Ω’ est très légèrement plus grande que 0.

Le cas de Ω < 1 c’est comme si le neurone ne pouvait pas produire une réponse routinière. Si vous voulez, c’est comme le système nerveux ne pouvait pas recevoir la combinaison des stimuli qui l’autorise à signaler comme d’habitude. La dérivée locale Ω’, qui est normalement Ω’ = 0, prend alors la forme de Ω’ > 0. A ce point-ci, la dérivée Ω’ est interprétée de la façon qui est probablement la plus profonde et la plus philosophique, qu’Isaac Newton considérait comme le rôle cognitif le plus fondamental de la dérivée d’une fonction. La dérivée donne la mesure de vitesse de changement dans les phénomènes qui composent la réalité. Tout ce qui se passe se passe comme une fonction dérivée de la fonction sous-jacente de l’état des choses.

Alors, lorsque mon neurone produit Ω = 1 et Ω’ = 0, cette réponse neuronale, tout en étant évidemment fausse par rapport à mes données réelles y – dont ce Ω est supposé d’estimer la valeur espérée – est une réponse routinière et il n’y a pas de quoi faire un fromage. L’erreur locale E = y – Ω est donc considérée comme insignifiante, même si sa valeur arithmétique est substantielle. En revanche, lorsque le neurone produit une réponse très légèrement Ω < 1, c’est pas normal. Le neurone rend une dérivée Ω’ > 0, donc un signal d’inquiétude. Celui-ci est une raison pour considérer cette erreur locale particulière E = y – Ω comme significative. Le produit (y – Ω)*Ω’ est alors transmis dans la ronde consécutive d’itération comme un coefficient de plus, non-aléatoire cette fois-ci, qui modifié les données réelles d’entrée. Ces dernières, dans l’itération suivante de ces équations, prennent donc la forme x1*[w1+(y – Ω)*Ω’] + x2*[w2+(y – Ω)*Ω’] + x3*[w3+(y – Ω)*Ω’] + x4*[w4+(y – Ω)*Ω’] + x5*[w5+(y – Ω)*Ω’].

Je récapitule. Ce réseau neural tout simple produit donc deux phénomènes : une vision alternative de la réalité ainsi qu’une réaction d’inquiétude lorsque cette réalité alternative force le neurone à une réaction pas tout à fait comme espérée. L’apprentissage consiste à utiliser les signaux d’inquiétude comme matériel cognitif. Cette utilisation a une forme spécifique. C’est comme si moi, en face de quelque chose d’inhabituel et légèrement inquiétant, je prenais ce facteur de stress et produisais une vision de la réalité encore plus inquiétante.

Ça m’intrigue. Tout ce que j’ai appris jusqu’alors, en termes de psychologie, me dit que les êtres humains ont une tendance presque innée à réduire la dissonance cognitive. Ces équations-là font le contraire : elles amplifient les dissonances cognitives locales et les transmettent dans le processus d’apprentissage. Ceci me rend conscient de la distinction fondamentale entre deux attitudes vis-à-vis de l’inhabituel : la peur et l’apprentissage. La peur dit d’éviter à tout prix une autre exposition au facteur d’inquiétude. Si ce réseau neuronal avait peur de l’inhabituel, il éliminerait les cas de Ω’ > 0 de toute utilisation ultérieure. Alors mathématiquement, il n’apprendrait rien. Il convergerait vers une situation où toutes les réponses neuronales sont rigoureusement Ω = 1 et donc toutes les erreurs de jugement (y – Ω) sont ignorées, car avec Ω’ = 0, (y – Ω)*Ω’ = 0 aussi. Seulement, ce réseau fait le contraire : il prend ces cas de Ω’ > 0 et simule des situations où ces Ω’ > 0 modifient la réalité pour du bon.

Question : qu’est-ce que ça donne en pratique, avec le cas de l’Australie ? Est-ce que le fait de produire une vision alternative d’Australie génère de l’inquiétude et cette inquiétude, contribue-t-elle à produire des visions même plus alternatives ? Eh bien voilà, c’est justement la question que je m’avais posée et qui m’a poussé à faire quelque chose que les informaticiens considèrent comme une horreur d’insanité : au lieu de faire cet algorithme travailler en boucle jusqu’il produise une erreur minimale, j’avais simulé, dans un fichier Excel, des rondes consécutives d’itération « imagination >> réalité alternative >> erreur de jugement >> inquiétudes locales >> réalité encore plus alternative etc. ». Autrement dit, j’avais fait par moi-même ce qu’un algorithme aurait dû faire pour moi. J’avais produit trois distributions alternatives de ces coefficients initiaux de pondération, pour modifier les données réelles d’entrée. Ensuite, pour chacune de ces distributions alternatives, il m’eût suffi de patience pour faire six rondes d’itération surveillée d’équations qui composent ce réseau neuronal tout simple.

Pour chaque ronde d’itération surveillée, dans chacune de ces réalités alternatives, j’observais l’erreur cumulée – donc la somme des (y – Ω)*Ω’ générées pour par des incidents de Ω’ > 0 – ainsi que les années particulières, dans ma fenêtre générale d’observation 1990 – 2014, où ces incidents locaux Ω’ > 0 se produisent. Tableau 1, ci-dessous, rend compte ce cette expérience. Je développe ce raisonnement plus loin en-dessous :

Tableau 1 – Application d’algorithme de réseau neuronal aux données sur l’efficience énergétique de l’Australie

Distributions aléatoires des coefficients de pondération
Rondes consécutives Distribution  1 Distribution  2 Distribution  3
Ronde 1
Années avec erreur significative, pour apprentissage dans des rondes prochaines 1999; 2002; 2003; 2006 1990; 1994; 1998 – 99; 2009; 2012 – 13; 1990 – 91; 1996 – 97; 1999; 2001; 2007; 2009 – 11;
Erreur cumulative 5,53241E-09 7,0537E-05 0,000916694
Ronde 2
Années avec erreur significative, pour apprentissage dans des rondes prochaines 1992; 1993; 1999; 2002; 2006 1996; 1999; 2006; 2012 – 13; 1991 – 92; 1996; 2004; 2007; 2011;
Erreur cumulative 6,45047E-12 2,93896E-07 0,035447255
Ronde 3
Années avec erreur significative, pour apprentissage dans des rondes prochaines 1990; 1996; 1999; 2002; 2006 1991; 1997; 1999; 2010; 2012 – 14 1991; 1996; 1999; 2002 – 2004; 2007; 2009 – 2012;
Erreur cumulative 2,34651E-13 4,39246E-06 0,00056026
Ronde 4
Années avec erreur significative, pour apprentissage dans des rondes prochaines 1990 – 92; 1994 – 95; 1997; 2001 – 2002; 2006 – 2007; 2012 1990; 1992; 1996; 1999; 2012 – 13; 1990 – 91; 1994 – 96; 1999; 2007; 2009 – 11;
Erreur cumulative 0,000171883 0,000741233 6,27817E-05
Ronde 5
Années avec erreur significative, pour apprentissage dans des rondes prochaines 1993; 1999; 2002; 2003; 2006 1997; 1999; 2007; 2012 – 13; 1990 – 91; 1996; 2003; 2007 – 2009; 2011;
Erreur cumulative 3,46206E-05 0,000548987 0,001532496
Ronde 6
Années avec erreur significative, pour apprentissage dans des rondes prochaines 1991 – 94; 1996 – 97; 2000; 2005; 2007; 2013 1991 – 94; 1995 – 96; 2000; 2005; 2007; 2013; 1991 – 94; 1996 – 97; 2000; 2005; 2007; 2013
Erreur cumulative 3,07871E-08 3,07871E-08 3,07871E-08

Ce que j’observe dans ce tableau est tout d’abord une convergence progressive du cadre d’apprentissage. Dans les rondes 1 – 5, chaque distribution alternative générait des erreurs significatives, donc suffisamment inquiétantes pour être utilisées, pour des années visiblement différentes. La ronde 6 apporte un changement : les trois réalités alternatives convergent presque parfaitement l’une vers l’autre. Chaque réalité alternative produit des signaux d’inquiétude pour virtuellement les mêmes années et rend la même erreur cumulée. Avec ça, il faut se rendre compte que 6 itérations, dans un réseau neuronal artificiel, c’est comme deux fois rien. Ce réseau précis minimise son erreur cumulée après environ 1500 itérations.

J’ai donc une structure cognitive de base – les équations du réseau neuronal – qui commence son apprentissage par imaginer trois versions alternatives de la réalité et ensuite converge très vite vers un chemin commun pour toutes les trois. J’avais continué d’expérimenter avec ce réseau en remplaçant dans l’algorithme d’origine la fonction sigmoïde Ω =1/(1+e-x) par une autre, fréquemment utilisée dans les réseau neuronaux, c’est-à-dire la tangente hyperbolique tan h = (e2x – 1)/(e2x + 1) ainsi que sa dérivée tan h’. Le « x » c’est comme avant, donc une moyenne pondérée des données réelles d’entrée, modifiées avec des coefficients aléatoires de pondération.    Normalement, lorsque je lis de la littérature à propos des réseaux neuronaux, la tangente hyperbolique est présentée comme une structure d’apprentissage plus rapide et plus légère que le sigmoïde. Seulement voilà, ici, la tangente hyperbolique, elle n’apprend pas, au moins pas dans les 6 rondes surveillées. Elle ne génère que des tan h = 1 avec des tan h’ rigoureusement nulles. Officiellement, l’erreur cumulative de jugement est toujours rigoureusement E = 0.

En d’autres mots, pendant que la structure logique basée sur le sigmoïde générait des petites inquiétudes à reprendre pour l’apprentissage ultérieur, sa mutation basée sur la tangente hyperbolique ne fait qu’éteindre et étouffer toute inquiétude possible. Elle agit comme un réducteur systématique de dissonance cognitive. Les valeurs espérées de la variable de résultat sont toutes égales à 1, donc évidemment tout aussi fausses que celles générées par le sigmoïde, seulement avec la tangente hyperbolique c’est vraiment toujours tan h = 1 et tan h = 0, donc quelle que soit l’erreur de jugement y – tan h(x), le réseau l’ignore et prétend que tout va bien. Ce même réseau, avec la tangente hyperbolique au lieu du sigmoïde, est donc comme une personne qui (apparemment) se fout de commettre erreur après erreur et fait tout pour étouffer toute dissonance cognitive. Par conséquent, cette personne n’apprend rien.

Je traduis ces observations pour les besoins de mes études sur l’intelligence collective. Ces deux structures logiques – celle basée sur le sigmoïde et celle basée sur la tangente hyperbolique – diffèrent par leur capacité de produire, ça et là, des dérivées locales non-nulles. Nous avons une fonction du quotidien, une façon de vivre de jour au jour. Une dérivée non-nulle de cette fonction, générée comme réponse à une vision imaginaire de la réalité (données d’entrée modifiées avec des coefficients aléatoires) veut dire que nous sommes capables de produire du changement dans notre fonction du quotidien en réponse à une idée de ce que notre réalité pourrait être, avec un peu d’imagination. En revanche, une dérivée toujours rigoureusement nulle veut dire qu’un tel changement est bloqué.

Je continue d’expérimenter avec l’algorithme. Je modifie la façon originelle de générer la version alternative de réalité. Je modifie donc l’imagination de mon réseau neuronal. Originellement, les coefficients aléatoires étaient produits avec la fonction « random.rand » du langae Python, dans l’intervalle entre 0 et 1. Maintenant, je la remplace par une contrainte « erandom.rand », donc mes coefficients aléatoires sont produits comme des puissances aléatoires de la constante d’Euler e ≈ 2,7188. Avec cette imagination exponentielle, les neurones basés sur la fonction sigmoïde arrêtent d’apprendre. Ils se comportent de façon « rien ne se passe qui nous intéresse », donc ils rendent toujours Ω = 1 et Ω’ = 0 et pas question qu’il en soit autrement.

En revanche, les neurones basés sur la tangente exponentielle se comportent en mode panique. Dans la couche neuronale cachée du réseau (elle n’est pas vraiment cachée, c’est juste du jargon informatique ; elle est tout simplement intermédiaire entre la couche d’entrée et celle de résultat, voilà tout), certaines années produisent des dérivées locales nulles pendant que certaines autres rendent « opération impossible » lorsqu’ils doivent calculer ces tangentes locales.

Je modifie encore une fois l’imagination du réseau. Dans la couche neuronale cachée la réalité d’entrée est modifiée de façon similaire à celle que j’ai déjà utilisé dans mon travail de recherche sur l’efficience énergétique. Pour chaque « xi » je produis un coefficient wi = ln(xi)/(t – 1989), donc une mesure de la distance entre l’année donnée et 1989. Dans la couche de résultat, je garde la méthode initiale, donc celle de pondération avec un coefficient aléatoire rendu par la fonction « random.rand ». Le réseau basé sur le neurone sigmoïde commence par générer une erreur cumulative énorme dans la première ronde – E > 20 – mais dans les rondes consécutives ça descend vers les niveaux observés dans Tableau 1. Les neurones qui utilisent la tangente hyperbolique se comportent d’une façon similaire.

Voilà donc une autre observation utile. Pour qu’un réseau neuronal soit capable d’apprentissage, il doit y avoir cohérence entre son imagination – donc la méthode de produire des visions alternatives de la réalité – et le mode de traitement des stimuli alternatifs ainsi produits. L’apprentissage survient lorsque l’imagination rend possible un tel traitement des stimuli qui génère, à son tour, des petits signaux locaux d’inquiétude et ceux-ci sont repris comme matériel cognitif de valeur. L’apprentissage se présente comme un sentier étroit entre l’ignorance délibérée d’une part (étouffement de dissonance cognitive) et la panique d’autre part. Un réseau neuronal capable d’avancer le long de ce sentier peut utiliser même une imagination des plus sauvages, qui initialement produit une erreur de jugement de taille galactique, car il peut la traduire très vite en ce petit train-train des petits signaux locaux d’inquiétude.

Une question me saisit : que se passerait-il si un être humain aurait la capacité de voir la réalité exactement comme elle est, sans aucune distorsion ? Selon mon expérience avec cet algorithme de réseau neuronal, cela voudrait dire la fin de tout apprentissage. Cette forme particulière d’intelligence, écrite dans les équations de cet algorithme, exige une vision distordue de la réalité, pour que celle-là génère des erreurs de jugement possibles à utiliser dans l’avenir. Pas de distorsion veut dire absence d’erreur de jugement et sans celui-ci, pas d’apprentissage. Désolé, les mecs, mais apparemment, il faut être ne serait-ce qu’un tout petit peu bête pour apprendre quoi que ce soit.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Auto-régression : je reprends depuis le début

Mon éditorial sur You Tube

Je retourne, une fois de plus, à l’étude scientifique de mon concept d’entreprise que j’avais baptisé « EneFin » : une plateforme transactionnelle qui combinerait du crowdfunding avec l’utilisation d’une cryptomonnaie pour financer le développement des installations locales d’énergies renouvelables. Je veux créer un business plan pour ce concept d’entreprise et il y a une petite voix perfectionniste dans ma tête qui demande une compréhension profonde de la façon dont une telle idée serait acceptée par le marché. Voilà donc pourquoi je ressens le besoin de développer une approche scientifique à tout ce projet. Oui, le fait que je sois prof d’université et que ma discipline de base c’est l’économie, ça peut jouer un rôle.

Comme je cercle cette idée, je me suis rendu compte que LA science que je veux développer à cette occasion c’est la question d’intelligence collective, plus spécialement appliquée aux systèmes économiques, y compris le marché d’énergie. Il y a quelque temps, j’avais regardé, sur You Tube, l’interview avec un chercheur de nom de Lex Fridman, spécialisé dans l’intelligence artificielle. Il a dit une chose simple : « Je travaille sur l’intelligence artificielle car je veux comprendre l’esprit humain. Lorsque je veux comprendre comment quelque chose marche, j’essaie de bâtir quelque chose de pareil, par moi-même ». J’y avais médité, sur ce sujet et je me suis rendu compte que c’est précisément le chemin que je suis en train de suivre par moi-même quoi que, soyons francs, beaucoup plus à tâtons que le fait Lex Fridman.

Ah oui, et en plus, l’application des réseaux neuronaux, c’est la dernière mode dans les méthodes quantitatives des sciences économiques. Eh bien, Wasniewski, faut se rendre à l’évidence et apprendre à utiliser les réseaux neuronaux. Je m’y engage donc, en utilisant ce que j’ai déjà appris en termes des langages de programmation, surtout Python et Pragma Solidity. Comme je commence à étudier la théorie des réseaux neuronaux, je vois déjà un paradoxe. D’une part, la théorie des réseaux neuronaux est vaste, diversifiée et en train de se développer d’une façon exponentielle. D’autre part, les réseaux qui marchent en pratique, tout en ne représentant qu’un petit fragment de cette théorie, démontrent des caractéristiques surprenantes et inattendues qui, à leur tour, donnent naissance à même plus de théorie.

Dans ma recherche à moi, je veux construire un réseau neuronal qui imiterait une intelligence collective possible d’êtres humains. En fait, c’est comme représenter la culture comme un réseau neuronal. Dans ce paysage, il y a une bête qui m’intéresse plus particulièrement : la mémoire collective. Être intelligent, ça s’apprend – je veux dire ça implique de l’apprentissage et l’apprentissage, ça exige une mémoire pour stocker l’information assemblée durant ledit apprentissage.

Un réseau neuronal a besoin de neurones. Dans la construction de tels réseaux, on commence modeste, avec la création mathématique de juste un neurone. Un neurone artificiel est une fonction mathématique qui transforme des données à l’entrée en un résultat qui, à son tour, devient un ensemble de données stimulantes pour le neurone suivant. Dans la nature, un neurone, ça ne pense pas tout seul. En fait, un seul neurone, c’est bête comme tout. Un neurone gagne ses titres de noblesse en créant des connexions synaptiques avec d’autres neurones. Alors voilà que ma petite obsession d’apprentissage et de mémoire entre en scène. La mémoire et l’apprentissage sont des phénomènes basées sur la création des connexions synaptiques. Ces connexions-là facilitent l’exécution des schémas complexes de comportement, préalablement appris.

Voilà donc un créneau de recherche passionnant. Dans un réseau neuronal artificiel, chaque neurone est une fonction mathématique. Une connexion synaptique veut dire que parmi tous les liens possibles avec d’autres fonctions, la fonction du neurone donné passe les données en préférence à une autre fonction de neurone, plutôt qu’à toutes les autres et vice versa, c’est-à-dire une fonction de neurone artificiel reçoit des données en préférence d’une fonction particulière de neurone artificiel plutôt de la part de toutes les autres.

Je veux donc construire un réseau neuronal artificiel qui simule la création des connexions synaptiques, donc qui bâtit sa propre structure. En bas, j’essaie de donner une expression graphique à cette idée.

 

L’idée mathématique que j’ai en tête est de commencer avec un ensemble non-structuré des fonctions neuronales, donc des neurones mathématiques, où la première connexion se fait sur la base de proximité. La puissance du signal initialement envoyé décroit avec le carré de la distance, où la distance est, bien sûr, mathématique et donc Euclidienne. Voilà l’idée de base et voilà que la vie me donne occasion de développer cette idée dans une direction que je pressentais un peu, mais où j’avais comme une petite peur de m’engager. Il s’agit de révision de ce manuscrit, intitulé « Apprehending energy efficiency : what is the cognitive value of hypothetical shocks ? », que j’avais soumis à l’évaluation chez « Energy Economics ».  Le rédacteur en chef m’a renvoyé le manuscrit avec une remarque générale qu’il faut que je travaille aussi bien sur la clarté de mes hypothèses que sur le niveau d’innovation mathématique dans mon traitement des données.

Honnêtement, ce rédacteur en chef, il a eu raison. Après avoir soumis ce manuscrit, quand je le revoyais pour moi-même, j’avais cette impression de manque. Un article scientifique de bonne qualité, ça requiert ce tremblement de terre Hitchcockien, dès le début. Mon article à moi, il manquait de ce cataclysme initial, précisément. Vous savez, quelque chose qui vraiment attire l’attention du lecteur.  Faut que j’en ajoute un, de cataclysme. En plus, il faut se rendre à l’évidence : dans les sciences économiques, la méthode des moindres carrés ordinaire c’est déjà un peu vieillot. Faut que je sois plus inventif côté maths.

Voilà donc une occasion de me rendre la vie un peu plus difficile qu’elle était jusqu’à maintenant. Je révise le manuscrit sur l’efficience énergétique d’économies nationales, j’essaie de le faire en utilisant la théorie des réseaux neuronaux, et en même temps j’espère d’acquérir une compréhension plus approfondie du marché d’énergie, ce qui ma me servir à développer scientifiquement et pratiquement mon concept EneFin.

Alors, le neurone. Lorsque j’étudie l’efficience énergétique d’un ensemble des pays, qu’est qui peut bien être un neurone, donc une cellule qui a pour fonction essentielle de transmettre un signal, avec modification possible ? La direction la plus évidente à suivre, à ce respect, et de construire un réseau imitateur, où chaque pays soumis à l’étude est un neurone. Direction no. 2, un peu plus abstraite : un neurone est une créature hypothétique qui traite les données empiriques. Dans ce cas, le réseau neuronal est une intelligence externe à cet univers. Je distingue donc des neurones de façon arbitraire, en puisant dans le catalogue des fonctions neurales « officiellement » reconnues : perceptrons, sigmoïdes, tangentes hyperboliques etc.

Le réseau imitateur, il peut faire l’une des deux choses : il peut s’activer et faire quelque chose de nouveau chaque fois qu’il reçoit du signal intéressant – donc il peut apprendre – ou bien il peut atténuer les variations du signal pour maintenir l’homéostasie. Pourquoi l’homéostasie ? J’ai deux raisons pour adopter cette ligne de recherche. D’une part, j’avais déjà fait de la recherche où j’avais utilisé, avec succès, la bonne vieille fonction de production – donc un état d’équilibre général – pour simuler l’adaptation des populations à leur base énergétique et nutritionnelle. D’autre part, dans notre cerveau, il y a des fonctions neurales qui se concentrent sur l’homéostasie. La catégorisation des phénomènes nouveaux dans des catégories préexistantes est un exemple. La chose aussi (apparemment) banale que le maintien d’une température constante du corps en est un autre.

En ce qui concerne le réseau neuronal externe à mon univers, sa fonction la plus évidente serait de cerner un modèle économétrique de changement au niveau d’efficience énergétique d’économies nationales. Encore, moi, je me suis un peu excité – comme ça arrive souvent aux néophytes – avec tout ce bazar des réseaux neuronaux et je pense à une intelligence externe qui ferait, à propos de mon univers empirique, une chose tout à fait fondamentale à toute intelligence : elle créerait de catégories significatives à des niveaux d’abstraction différents.

Quelle serait la différence entre un réseau neuronal imitateur qui apprend et un réseau externe qui résout ? La différence que je vois intuitivement est celle d’envergure. Lorsque j’apprends à l’intérieur d’un univers, le cadre des données que je traite est limité par ma position dans cet univers. Dans une forêt, je ne vois que certains arbres. Un neurone dans le réseau imitateur aurait pour une de ses fonctions de sélectionner des données. En revanche, quand je suis à l’extérieur de quelque chose, je vois la chose dans sa totalité : toutes les données me sont accessibles de la même façon.

Voilà, ci-dessous, le résumé de mes grands plans :

 

Le réseau imitateur avec apprentissage

 

 

Le réseau imitateur qui tend vers l’homéostasie

 

 

Le réseau externe qui résout un modèle économétrique

 

Le réseau externe qui crée des catégories significatives et les combine en catégories abstraites

 

 

Maintenant, je veux comprendre comment d’autres chercheurs approchent l’application des réseaux neuronaux dans l’étude des marchés d’énergie. Je trouve un article par Katić et al. (2018[1]). Ils ont utilisé les réseaux neuronaux pour étudier les schémas de comportement d’utilisateurs des systèmes de chauffage. Ce que je veux comprendre avant tout c’est le lien entre les données empiriques et l’application du réseau neuronal. Katic et al. avaient donc conduit une série de sessions expérimentales durant lesquelles deux femmes, indépendamment l’une de l’autre, avaient pour tâche de régler la température d’un poste de travail avec siège chauffant. Le réglage de la température était sujet uniquement à la subjective sensation de confort optimal. Chacune des deux femmes avait participé à 14 sessions expérimentales. Pendant chaque session, les chercheurs collectaient les données sur la température de la chaise ainsi que celle de toute la chambre de travail, l’humidité, la vitesse de circulation de l’air. Les mensurations correspondantes étaient faites chaque seconde et chaque session durait 4 heures avec une période initiale d’acclimatation d’environ 10 minutes. Chaque session était accompagnée d’une interview standardisée.

Katic et al. avaient utilisé le réseau neuronal du type NARX (ANG : AutoRegressive network with exogenous inputs), donc un réseau auto régressif avec entrée exogène des données. L’idée générale d’un tel modèle est que la valeur présente d’une variable dépend aussi bien de ses valeurs passées que des valeurs observées dans des variables exogènes. Le modèle général d’auto-régression assume que la valeur présente d’une variable, soit Xt, est la somme des deux composantes : une constante (c) et la moyenne pondérée des valeurs passées de la variable X, observées avec l’interférence du bruit blanc fait des variations aléatoires à impact prévisible. Des variables exogènes peuvent s’immiscer dans ce modèle général. Soit on ajoute la moyenne pondérée des valeurs passées des variables exogènes U, tout en gardant la constante dans l’équation ou bien… on remplace le terme constant avec cette moyenne pondérée des valeurs passées des variables exogènes U. Ci-dessous je donne une expression graphique de cette démarche.

Alors, Katic et al. avaient structurés leurs données en deux sous-ensembles. Treize session sur quatorze avaient été utilisées comme matériel d’entrainement pour le réseau neuronal. Les données d’une session choisie au hasard on servi comme base de prédiction proprement dite, donc le réseau était supposé apprendre avec 13 sessions et appliquer cet apprentissage à la quatorzième session.

J’ai trouvé un autre exemple d’application de cette logique, donc du modèle NARX, dans le business d’énergie. Boussaada et al. (2018[1]) démontrent l’application de NARX à la prédiction de la radiation solaire dans des installation photovoltaïques. L’avantage de cet article est une démonstration pas-à-pas de la façon de traduire la logique générale de NARX en la construction d’un réseau des perceptrons sigmoïdes à couches multiples. Cette traduction peut se faire suivant deux approches différentes : parallèle ou bien parallèle en série.

L’architecture parallèle en série, connue aussi comme boucle ouverte, assume que les données d’entrée du réseau comprennent les valeur réelles passées de toutes les variables, soit la variable à prédire et ces facteurs exogènes. Dans l’architecture parallèle, ou boucle fermée, au lieu des valeurs réelles de la variable à prédire, on nourrit les neurones avec les valeurs passées prédites de cette variable, donc les valeurs préalablement estimées. La boucle ouverte semble être plus avantageuse dans la phase d’apprentissage du réseau des perceptrons, pendant qu’une fois l’apprentissage effectué, il est apparemment plus utile de modifier l’architecture en une boucle fermée pour que le réseau fasse sa prédiction finale de la variable qui nous intéresse.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

 

[1] Boussaada, Z., Curea, O., Remaci, A., Camblong, H., & Mrabet Bellaaj, N. (2018). A Nonlinear Autoregressive Exogenous (NARX) Neural Network Model for the Prediction of the Daily Direct Solar Radiation. Energies, 11(3), 620

[1] Katić, K., Li, R., Verhaart, J., & Zeiler, W. (2018). Neural network based predictive control of personalized heating systems. Energy and Buildings, 174, 199-213.

Coefficients explosifs court-terme

Mon éditorial sur You Tube

Je savais que ça allait arriver : pour moi, l’avènement du semestre d’hiver, à la fac, c’est inévitablement un changement profond de rythme de vie et de travail. Sur toute l’année académique, donc à partir du mois d’octobre jusqu’au mois de juin, plus de 70% de mon volume horaire d’enseignement prend lieu précisément entre le 1er Octobre et le 30 Janvier. Ce plus de 70%, cette année-ci, cela veut dire 630 heures de cours sur 4 mois.

Quoi qu’il en soit, je tiens à maintenir ne serait-ce qu’un rythme lent d’écriture sur mon blog. Un rythme lent vaut mieux que pas de rythme du tout. Je sais que le fait de blogger régulièrement me donne une sorte d’apprentissage additionnel, comme un processus supplémentaire de traitement d’information dans mon cerveau.

Les deux mois qui viennent de s’écouler m’ont amené à quelques réalisations capitales. Je pense que la première d’entre elles est que l’enseignement est vraiment mon élément. « Eh bien voilà qu’il vient de découvrir l’Amérique, le gars » vous rigolerez, « Il a été prof pour douze ans et voilà qu’il vient de découvrir qu’il aime le job. Vaut mieux tard que jamais ». Oui, ça me fait rigoler, moi aussi, donc j’explique. Les deux premières semaines avec ce plan de cours super chargé, à la fac, ça me faisait un peu irrité (et irritable, par ailleurs). C’était une matinée il y a à peu près dix jours que je m’étais rendu compte que la perspective de cinq heures de cours ce jours précis ça me branchait. Oui, ça me branchait. Je sentais ce flot extrêmement plaisant d’adrénaline et de sérotonine, le mélange d’excitation et de volonté d’action.

L’enseignement est donc ce qui met mon système nerveux en vitesse de compétition, en quelque sorte. Banal et fondamental en même temps. Je veux approcher la chose de façon scientifique. Objectivement, l’enseignement en classe c’est de la communication et c’est précisément ce qui met mon système nerveux central en cet état d’excitation plaisante. Subjectivement, lorsque j’y pense, la communication en classe me procure deux sensations majeures : celle de connecter très vite des parcelles d’information, en des phrases intelligibles, et celle de dire ces phrases à un public.

Puisque j’y suis à la connexion des parcelles d’information, je peux aussi bien me vanter d’en avoir connecté un peu. Je viens de pondre un article sur le marché d’énergie, sous un titre de travail « Apprehending energy efficiency : what is the cognitive value of hypothetical shocks ? ».  Je donne ce titre en lien hypertexte pour que vous puissiez accéder le brouillon que j’ai déposé comme proposition de publication chez « Energy Economics ».  Je donne ici un sommaire de mon raisonnement. J’avais commencé par connecter deux types de phénomènes : tous les trucs que j’eusse observés par rapport au marché d’énergie, durant ces deux dernières années, d’une part, avec un phénomène de toute autre nature, c’est-à-dire le fait que l’économie de notre planète est en train de traverser la plus longue période de croissance économique ininterrompue depuis 1960. En même temps, l’efficacité énergétique de l’économie mondiale – mesurée avec le coefficient de PIB par kilogramme d’équivalent pétrole de consommation finale d’énergie – continue de croître paisiblement. Je m’étais demandé : y-a-t-il un lien entre les deux ? Est-il concevable que l’accalmie présente du cycle macroéconomique vienne du fait que notre espèce avait appris quelque chose de plus en ce qui concerne l’exploitation des ressources énergétiques ?

Comme j’y pense, j’ai quelques intuitions (obsessions ?) qui reviennent encore et encore. Intuition no. 1 : l’intensité de consommation d’énergie est liée au niveau général de développement socio-économique, y compris développement institutionnel (stabilité politique etc.). Je l’ai déjà exprimée, celle-là, dans « Les 2326 kWh de civilisation ». Intuition no. 2 : la vitesse de changement technologique est plutôt une cadence rythmée dans un cycle qu’une vitesse proprement dite. En d’autres mots, les technologies, ça change de génération en génération. Toute technologie à un cycle de vie et ce cycle de vie se reflète dans son coefficient d’amortissement. Changement au niveau de l’efficience énergétique d’un système économique se passe au rythme d’un cycle de vie des technologies. Intuition no. 3 : les marchés financiers, y compris les systèmes monétaires, jouent un rôle similaire au système endocrinien dans un organisme vivant. L’argent, aussi bien que d’autres titres financiers, c’est comme des hormones. Ça transmet l’information, ça catabolise quelque chose et anabolise quelque chose d’autre. S’il y a quoi que ce soit d’important qui se passe niveau innovation, ça engage les marchés financiers.

Dans la science, il est bon de prendre en considération l’avis d’autres personnes, pas seulement mes propres intuitions. Je veux dire, c’est aussi une bonne habitude dans d’autres domaines de la vie. Après avoir donc fait ce qui s’appelle ‘revue de la littérature’, j’avais trouvé une corroboration partielle de mes propres intuitions. Il y a un modèle intéressant d’efficience énergétique au niveau macroéconomique appelé « MuSIASEM » qui appréhende la chose précisément comme s’il était question du métabolisme d’un organisme vivant (consultez, par exemple, Andreoni 2017[1] ou bien Velasco-Fernández et al. 2018[2]).

De tout en tout, j’avais formulé un modèle théorique que vous pouvez trouver, en détail, dans ce manuscrit brouillon. Ce que je voudrais discuter et explorer ici est une composante particulière de cette recherche, un truc que j’avais découvert un peu par hasard. Lorsque je fais de la recherche quantitative, j’aime bien jouer un peu avec les données et avec les façons de les transformer. D’autre part, en sciences économiques, lorsqu’on fait des tests économétriques sur des séries temporelles, l’une des choses les plus fondamentales à faire est de réduire les effets de la non-stationnarité ainsi que ceux de la différence entre des échelles de mesure. De ce fait, une procédure commune consiste à prendre ce qu’on appelle le moment d’observation au lieu de l’observation elle-même. La première dérivée est un moment, par exemple. Le moment est donc la dynamique de quelque chose. Pour ceux qui sont un peu familiers avec l’économie, les coefficients tels que la valeur marginale ou bien l’élasticité sont des moments.

Je voulais donc jouer un peu avec les moments de mes données empiriques. Entre temps, j’avais presque automatiquement calculé les logarithmes naturels de mes données, histoire de les calmer un peu et éliminer des variations accidentelles à court-terme. Le logarithme naturel c’est la puissance à laquelle il faut élever la constante mathématique e = 2,71828 pour obtenir le nombre donné. C’est alors que je m’étais souvenu d’une interprétation possible des logarithmes naturels et de la constante « e », celle de la progression exponentielle. Je peux construire une fonction mathématique de forme générale « y = et*a » où t est le numéro de série d’une période spécifique de temps et a est un paramètre. La progression exponentielle a la réputation de représenter particulièrement bien les phénomènes qui se déploient dans le temps comme la construction d’un mur, où chaque brique consécutive repose sur les briques posées auparavant. On appelle ce type de développement « hystérèse » et en général, cela veut dire que les résultats obtenus dans la période précédente forment une base pour les choses qui se passent dans la période suivante.

Normalement, dans la version scolaire de la progression exponentielle, le paramètre « a » est constant, seulement moi, je voulais jouer avec. Je me suis dit que si j’avais déjà calculé les logarithmes naturels de mes observations empiriques, je peux aussi bien assumer que chaque logarithme est l’exposante « t*a » de la fonction « y = et*a ». J’ai donc un « a » local pour chaque observation empirique et ce « a » local est un moment (une dynamique locale) de cette observation. Question : comment extraire le « t » et le « », séparément, du « t*a » ? La réponse était toute bête : comme je veux. Je peux créer une ligne temporelle arbitraire, donc assigner à chaque observation empirique une abscisse de période selon mon gré.

A ce moment-là, je me suis dit qu’il y a deux lignes temporelles alternatives qui m’intéressent particulièrement dans le contexte donné de recherche sur l’efficience énergétique des économies nationales. Il y a une ligne de changement lent et séculaire, la cadence de mûrissement des civilisations en quelque sorte et d’autre part il y a une ligne de changement explosif à court terme. Mes observations empiriques commençaient toutes en 1990 et continuaient jusqu’en 2014. Je pouvais donc simuler deux situations alternatives. Premièrement, je pouvais considérer tout ce qui s’était passé entre 1990 et 2014 comme partie d’un processus exponentiel initialisé il y a longtemps. Un siècle auparavant, c’est longtemps, tenez. Je pouvais donc prendre chaque abscisse temporelle entre 1990 et 2014 et lui assigner une coordonnée spéciale, égale à « année – 1889 ». L’année 1990 serait donc « 1990 – 1889 = 101 » pendant que 2014 correspondrait à « 2014 – 1889 = 125 » etc.

Deuxièmement, je pouvais assumer que ma période de 1990 à 2014 représente les conséquences de quelque évènement hypothétique qui venait d’avoir pris lieu, par exemple en 1989. L’année 1990 aurait alors l’abscisse temporelle t = 1990 – 1989 = 1, et 2014 serait t = 2014 – 1989 = 25. J’avais fait ces deux transformations : pour chaque observation empirique j’avais pris son logarithme naturel et ensuite je l’avais divisé, respectivement, par ces deux abscisses temporelles alternatives, l’une sur une ligne s’étendant depuis 1889 et l’autre initialisée en 1989. Comme je ruminais ces résultats, j’avais remarqué quelque chose que j’aurais dû prévoir si j’étais un mathématicien et non pas un économiste sauvage qui utilise les maths comme un Néanderthalien utiliserait une calculatrice. Lorsque j’assume que mon histoire commence en 1990, donc que t = 1990 – 1989 = 1 etc., chaque « t » consécutif est beaucoup plus grand que son prédécesseur, mais cette différence décroit très vite. Tenez, t(1991) = 1991 – 1989 = 2 et ça fait deux fois plus que t(1990) = 1990 – 1989 = 1. Cependant t(1995) = 1995 – 1989 = 6 et ça fait juste 20% de plus que t(1996) = 1994 – 1989 = 5. Si je divise donc mes logarithmes naturels par ces « t » qui grimpent vite, mes moments « a » locaux décroissent tout aussi vite et la cadence de cette décroissance ralentit tout aussi vite.

Quel genre de phénomène dans la vie réelle une telle progression mathématique pourrait bien représenter ? Je me suis dit que si un choc profond avait pris lieu en 1989 et avait envoyé des ondes de choc de force décroissante dans l’avenir, ce serait à peu près ça. C’est alors que vient le truc vraiment intéressant dans cette recherche que je viens de faire. Les données transformées en cette onde de choc relativement courte, se répandant depuis 1989, donnent le plus grand pouvoir explicatif dans mon modèle et lorsque je parle de « plus grand » cela veut dire un coefficient de détermination qui se balance vers R2 = 0,9 et un coefficient de signifiance statistique de p < 0,001.

Encore une fois. Je prends un modèle de changement niveau efficience énergétique d’économies nationales. Je veux dire mon modèle. Je le teste avec trois types de données transformées : les logarithmes naturels, genre de calmer le jeu, ensuite des coefficients exponentiels locaux long-terme, qui commencent leur histoire en 1889, et enfin des coefficients exponentiels qui racontent une histoire explosive à partir de 1989. Les derniers, je veux dire les explosifs court-terme, racontent l’histoire la plus cohérente en termes de pouvoir explicatif. Pourquoi ? Qu’y a-t-il de si exceptionnel dans cette représentation particulière des données quantitatives ? Honnêtement, je ne sais pas. Tout ce qui me vient à l’esprit est ce créneau de recherche sur l’innovation et le changement technologique qui perçoit ces phénomènes comme une série d’à-coups et de virages soudains plutôt qu’une ligne continue d’évolution progressive (consultez, par exemple, Vincenti 1994[3], Edgerton 2011[4]).

Je me suis dit que – puisque je discute le mécanisme de changement de l’efficience énergétique des économies nationales, mesurée en unités de PIB par unité d’énergie consommée – il est intéressant de regarder du côté des projections officielles à long terme. Ces derniers jours, deux rapports ont été largement publicisés à cet égard : celui d’OECD et celui de PriceWaterhouse Coopers. Niveau conclusions, ils sont tous les deux plutôt optimistes et semblent contredire les pronostics alarmants de certains économistes qui augurent une crise imminente. Ce qui m’intéresse le plus, toutefois, sont les méthodologies de prédictions utilisées dans les deux rapports. Celui de PriceWaterhouse Coopers se réfère au modèle classique de Solow de 1956[5] pendant qu’OECD vogue plutôt dans la direction de la fonction de production de Cobb-Douglas, transformée en logarithmes naturels. La différence entre les deux ? La fonction de production assume un état d’équilibre macroéconomique. En fait, la fonction de production en elle-même est un équilibre et cet équilibre sert comme point de repère pour prédire ce qui va se passer le plus probablement. En revanche, le modèle de Solow ne requiert pas nécessairement un équilibre. Enfin, ça gène pas, mais ce n’est pas absolument nécessaire. Quand j’y pense, la méthodologie que je viens d’employer dans mon article est plus proche de celle de Solow, donc du rapport de PriceWaterhouse Coopers que de celui d’OECD.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Vous pouvez donner votre support financier à ce blog

€10.00

[1] Andreoni, V. (2017). Energy Metabolism of 28 World Countries: A Multi-scale Integrated Analysis. Ecological Economics, 142, 56-69

[2] Velasco-Fernández, R., Giampietro, M., & Bukkens, S. G. (2018). Analyzing the energy performance of manufacturing across levels using the end-use matrix. Energy, 161, 559-572

[3] Vincenti, W.G., 1994, The Retractable Airplane Landing Gear and the Northrop “Anomaly”: Variation-Selection and the Shaping of Technology, Technology and Culture, Vol. 35, No. 1 (Jan., 1994), pp. 1-33

[4] Edgerton, D. (2011). Shock of the old: Technology and global history since 1900. Profile books

[5] Solow, R. M. (1956). A contribution to the theory of economic growth. The quarterly journal of economics, 70(1), 65-94.

Les 2326 kWh de civilisation

Mon éditorial sur You Tube

Je reviens à ma recherche sur le marché de l’énergie. Je pense que l’idée théorique a suffisamment mûri. Enfin j’espère.

Dans un marché donné d’énergie il y a N = {i1, i2, …, in} consommateurs finaux, M = {j1, j2, …, jm} distributeurs et Z = {k1, k2, …, kz} fournisseurs primaires (producteurs). Les consommateurs finaux se caractérisent par un coefficient de consommation individuelle directe EC(i). Par analogie, chaque distributeur se caractérise par un coefficient de quantité d’énergie négociée EN(j) et chaque fournisseur primaire se caractérise par un coefficient individuel de production EP(k).

Le marché est à priori ouvert à l’échange avec d’autres marchés, aussi bien au niveau de la fourniture primaire d’énergie qu’à celui du négoce. En d’autres mots, les fournisseurs primaires peuvent exporter l’énergie et les distributeurs peuvent aussi bien exporter leurs surplus qu’importer de l’énergie des fournisseurs étranger pour balancer leur négoce. Logiquement, chaque fournisseur primaire se caractérise par une équation EP(k) = EPd(k) + EPx(k), où EPd signifie fourniture primaire sur le marché local et EPx symbolise l’exportation de l’énergie.

De même, chaque distributeur conduit son négoce d’énergie suivant l’équation EN(j) = ENd(j) + EI(j) + ENx(j)ENx symbolise l’énergie exportée à l’étranger au niveau des relations entre distributeurs, EI est l’énergie importée et ENd est l’énergie distribuée dans le marché local.

L’offre totale OE d’énergie dans le marché en question suit l’équation OE = Z*[EPd(k) – EPx(k)] = M*[ENd(j) + EI(j) – ENx(j)]. Remarquons qu’une telle équation assume un équilibre local du type marshallien, donc le bilan de l’offre d’énergie et de la demande pour énergie se fait au niveau microéconomique des fournisseurs primaires et des distributeurs.

La consommation totale ET(i) d’énergie au niveau des consommateurs finaux est composée de la consommation individuelle directe EC(i) ainsi que de l’énergie ECT(i) consommée pour le transport et de l’énergie incorporée, comme bien intermédiaire ECB(i), dans les biens et services finaux consommés dans le marché en question. Ainsi donc ET(i) = EC(i) + ECT(i) + ECB(i).

La demande totale et finale DE d’énergie s’exprime donc comme

N*ET(i) = N*[EC(i) + ECT(i) + ECB(i)]

et suivant les assomptions précédentes elle est en équilibre local avec l’offre, donc

Z*[EPd(k) – EPx(k)] = N*[EC(i) + ECT(i) + ECB(i)]

aussi bien que

M*[ENd(j) + EI(j) – ENx(j)] = N*[EC(i) + ECT(i) + ECB(i)].

Avant que j’aille plus loin, une explication. Pour le moment j’assume que les coefficients individuels mentionnés plus haut sont des moyennes arithmétiques donc des valeurs espérées dans des ensembles structurées suivant des distributions normales (Gaussiennes). C’est une simplification qui me permet de formaliser théoriquement des « grosses » idées. Je pense que par la suite, j’aurai à faire des assomptions plus détaillées en ce qui concerne la distribution probabiliste de ces coefficients, mais ça, c’est pour plus tard.

Ça, c’était simple. Maintenant, le premier défi théorique que je perçois consiste à exprimer cette observation que j’avais faite il y a des mois de ça : les pays les plus pauvres sont aussi le moins pourvus en énergie. Au niveau du bilan énergétique la pauvreté se caractérise soit, carrément, par la quasi-absence de la consommation d’énergie niveau transport et niveau énergie incorporée dans les biens et services, soit par une quantité relativement petite dans ces deux catégories. C’est à mesure qu’on grimpe les échelons de richesse relative par tête d’habitant que les coefficients ECT(i) et ECB(i) prennent de la substance.

La seconde observation empirique à formaliser concerne la structure de la fourniture primaire d’énergie. Dans les pays les plus pauvres, l’énergie primaire est très largement fournie par ce que l’Agence Internationale d’Énergie définit élégamment comme « combustion des bio fuels » et qui veut tout simplement dire qu’une grande partie de la société n’a pas d’accès à l’électricité et ils se procurent leur énergie primaire en brûlant du bois et de la paille. Formellement, ça compte comme utilisation d’énergies renouvelables. Le bois et la paille, ça repousse, surtout cette dernière. Encore faut se souvenir que ce type d’énergétique est renouvelable au niveau de la source d’énergie mais pas au niveau du produit : le processus relâche du carbone dans l’atmosphère sans qu’on ait une idée vraiment claire comment faire retourner ce génie dans la lampe. La morale (partielle) du conte des fées est que lorsque vous voyez des nombres agrégés qui suggèrent la prévalence d’énergies renouvelables en Soudan du Sud, par exemple, alors ces renouvelables c’est du feu de paille très littéralement.

La différence empirique entre ces pays les plus pauvres et ceux légèrement plus opulents réside dans le fait que ces derniers ont un réseau de fourniture primaire d’électricité ainsi que de sa distribution et ce réseau dessert une large partie de la population. Ce phénomène se combine avec une percée originale d’énergies renouvelables dans les pays en voie de développement : des populations entières, surtout des populations rurales, gagnent l’accès à l’électricité vraiment 100% renouvelable, comme du photovoltaïque, directement à partir d’un monde sans électricité. Ils ne passent jamais par la phase d’électricité fournie à travers des grosses infrastructures industrielles que nous connaissons en Europe.

C’est justement la percée d’électricité dans une économie vraiment pauvre qui pousse cette dernière en avant sur la voie de développement. Comme j’étudie la base des données de la Banque Mondiale à propos de la consommation finale d’énergie par tête d’habitant, je pose une hypothèse de travail : lorsque ladite tête d’habitant dépasse le niveau de quelques 2326 kilowatt heures de consommation finale d’énergie par an, soit 200 kg d’équivalent pétrole, une société quasiment dépourvue d’économie régulière d’échange se transforme en une société qui produit et fait circuler des biens et des services.

Une fois ce cap franchi, le prochain semble se situer aux environs d’ET(i) égale à 600 ± 650 kg d’équivalent pétrole, soit 6 978,00 ± 7 559,50 kilowatt heures par an par tête d’habitant. Ça, c’est la différence entre des sociétés pauvres et en même temps instables socialement ainsi que politiquement d’une part, et celles dotées d’institutions bien assises et bien fonctionnelles. Rien qui ressemble à du paradis, au-dessus de ces 6 978,00 ± 7 559,50 kilowatt heures par an par tête d’habitant, néanmoins quelque chose qui au moins permet de construire un purgatoire bien organisé.

L’étape suivante est la transgression d’un autre seuil, que je devine intuitivement quelque part entre 16 240 kWh et 18 350 kWh par an par tête d’habitant. C’est plus ou moins le seuil officiel qui marque la limite inférieure de la catégorie « revenu moyen » dans la terminologie de la Banque Mondiale. C’est alors qu’on commence à observer des marchés bien développés est des structures institutionnelles tout à fait stables. Oui, les hommes politiques peuvent toujours faire des conneries, mais ces conneries sont immédiatement projetées contre un fonds d’ordre institutionnel et de ce fait sont possibles à contrecarrer de façon autre qu’une guerre civile. Une fois dans la catégorie « revenu moyen », une économie semble capable de transition secondaire vers les énergies renouvelables. C’est le passage des réseaux typiquement industriels, basés sur des grosses centrales électriques, coexistantes avec des réseaux de distribution fortement oligopolistes, vers des systèmes de fourniture d’énergie basés sur des installations locales puisant leur jus des sources renouvelables.

Finalement, à partir de quelques 3000 kg d’équivalent pétrole = 34 890 kWh par an par tête d’habitant c’est la catégorie des pays vraiment riches. En ce qui concerne les énergies renouvelables, des investissements vraiment systémiques commencent au-dessus de ce seuil. C’est une transition secondaire à forte vapeur.

Bon, je formalise. Une variable parmi celles que j’ai nommées quelques paragraphes plus tôt vient au premier plan :  la consommation totale d’énergie par tête d’habitant ou ET(i) = EC(i) + ECT(i) + ECB(i). Les observations empiriques que je viens de décrire indiquent que dans le processus de développement économique des sociétés, le côté droit de l’équation ET(i) = EC(i) + ECT(i) + ECB(i) se déploie de gauche à droite. D’abord, il y a du EC(i). Les gens consomment de l’énergie pour leurs besoins le plus individuels et le plus directement possible. On brûle du bois ou de la paille et on a de l’énergie thermique pour faire de la cuisine, pour décontaminer l’eau et pour se chauffer. Si ça marche, des habitats humains permanents s’établissent.

Je sais que ça sonne comme le compte rendu d’évènements qui se passèrent à l’aube de la civilisation, mais après que j’ai étudié la situation des nations les plus pauvres du monde je sais aussi que c’est bien ce qui se passe dans des pays comme Niger ou Soudan. Le premier défi de ces populations consiste à faire marcher la structure sociale de base, donc à arriver au point quand les communautés locales sont capables de se développer et pour se développer lesdites communautés locales ont tout simplement besoin de s’établir sur une base relativement stable de nourriture et d’énergie.

Une fois que ce cap est franchi, donc une fois qu’ET(i) passe un seuil critique ET1(i), il y a un surplus d’énergie qui peut se traduire comme le développement du transport, ainsi que celui des marchés des biens et des services. En d’autres mots :

ET1(i) = 2 326 kWh

[EC(i) ≤ EC1(i)] => [ET(i) = EC(i) et ECT(i) ≈ 0 et ECB(i) ≈ 0]

[EC(i) > EC1(i)] => [ET(i) = EC(i) + ECT(i) + ECB(i) ; ECT(i) > 0 et ECB(i) > 0]

[EC(i) > EC1(i)] <=> [ECT(i) + ECB(i) = ET(i) – 2 326 kWh]

La seconde valeur critique, que je nomme ET2(i), donne lieu à l’émergence d’une structure institutionnelle suffisamment stable pour être appelée « ordre institutionnel ». Je sais que :

6 978,00 kWh ≤ ET2(i) ≤ 7 559,50 kWh

et que

4652 kWh < [ET2(i) – ET1(i)] ≤ 5233,5 kWh

et de même

{4652 kWh < [ECT(i) + ECB(i)] ≤ 5233,5 kWh}

ainsi que

[6 978,00 kWh ≤ ET2(i) ≤ 7 559,50 kWh] => ordre institutionnel

Alors vient ce troisième seuil, 16 240 kWh ≤ ET3(i) ≤ 18 350 kWh où la transition secondaire vers les énergies renouvelables devient possible. Cette transition prend donc lieu lorsque

13 914 kWh ≤ [ECT(i) + ECB(i)] ≤ 16 024 kWh

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Vous pouvez donner votre support financier à ce blog

€10.00

La situation est tellement nouvelle – hommage à John Nash

Je passe en revue les projets sur lesquels je travaille maintenant et je décide de me concentrer plus particulièrement sur l’un d’eux : la responsabilité sociale d’entreprise, ou RSE, dans le secteur d’assurance. C’est l’une de ces fois où j’utilise mon blog comme moyen de faire un point temporaire et partiel sur un sujet de recherche. Le fait de décrire l’état de ma recherche me permet faire de l’inventaire à l’intérieur de ma tête.

Honnêtement, lorsqu’on m’a engagé pour ce projet pour la première fois, je trouvais le sujet barbant comme tout. Oui, chaque entreprise de taille suffisamment importante pour être tenue responsable de quelque chose dans l’environnement social essaie de jouer un jeu à la limite de la gestion et de la communication pure, où cette responsabilité est joliment présentée en une forme des rapports, avec des graphes d’importance, des procédures de consultation avec des partenaires sociaux etc. Cette couche superficielle de RSE est donc, de mon point de vue, tellement imbue d’hypocrisie qu’elle en devient ennuyeuse.

Je fais parfois cette métaphore où je compare mon esprit à trois entités coexistâtes : le singe curieux, le bouledogue joyeux et le moine austère. Eh bien, il y a quelque temps, mon singe curieux interne avait commencé à explorer une forêt nouvelle, celle des valeurs éthiques dans la vie sociale et dans les phénomènes économiques. Je crois que ce voyage particulier d’exploration avait trouvé son point de départ aussi bien dans mon travail de recherche que dans l’introspection de mon expérience personnelle.

Le créneau théorique avait commencé à se clarifier comme je faisais une comparaison récurrente entre la théorie d’équilibre dynamique de John Nash et  la théorie de justice de John Rawls. John Nash postulait que dans tout jeu social les règles du jeu peuvent émerger même sans une régulation explicite, tout simplement comme un point de rencontre et d’équilibre entre les stratégies appliquées par les joueurs. En des termes plus terre à terre : lorsqu’on joue un jeu, on s’observe mutuellement entre joueurs et bon gré mal gré on adapte mutuellement les stratégies du jeu. Comme ça marche essentiellement en boucle du type « Moi je t’observe et je m’adapte, toi tu m’observes et tu d’adaptes », après un nombre fini des tours d’observation et d’adaptation les joueurs établissent des schémas de comportement qui forment ce fameux équilibre dynamique.

Si vous téléchargez l’article de John Nash de 1951 vous trouverez qu’en principe c’est de la mathématique plutôt abstraite, quoi que dans toute cette abstraction il aimait faire des allusions fréquentes au jeu de poker. Allez savoir pourquoi. Dans cette exposition abstraite, le truc qui initialement semble avoir éveillé le plus d’intérêt est le théorème selon lequel la solution de tout jeu se trouve à l’intérieur de l’espace du jeu. Traduit en humain simple cela veut dire que l’équilibre dynamique produit par les stratégies des joueurs peut se trouver à des endroits les plus incongrus pourvu que cet endroit satisfasse les stratégies individuelles. Appliqué à l’économie cela veut dire que les marchés peuvent trouver leurs points d’équilibre temporaire à peu près n’importe où. Tout est possible, quoi.

Les critiques de Nash s’étaient attaché le plus à ce point particulier en démontrant qu’il y a plusieurs phénomènes économiques qui sont des jeux – donc ils se déroulent comme des séquences d’essais et erreurs en présence d’information imparfaite – mais leurs solutions se trouvent à l’extérieur de l’espace de jeu, c’est-à-dire les joueurs doivent optimiser leurs stratégies en fonctions des critères exogènes. La théorie des marchés financiers était, je crois, l’exemple cité le plus fréquemment : lorsque vous mettez au point une stratégie d’investissement, vous pouvez faire des trucs les plus fous mais certains points de repère sont exogènes, comme les taux d’intérêt.

Seulement voilà, ici, il faut prendre en considération une assomption que Nash faisait dès le début et qui – pour des raisons que j’ignore, franchement – le plus souvent passe inaperçue aussi bien des partisans fervents de la théorie de John Nash que de ses critiques les plus sévères. John Nash avait écrit que l’équilibre dynamique était théoriquement possible seulement si la stratégie jouée par chaque joueur individuel était une soi-disant « stratégie dominante » et que cette stratégie dominante doit remplir les conditions suivantes : a) elle doit offrir le gain le plus élevé des toutes les stratégies accessibles au joueur donné b) elle est une stratégie complexe, dans la mesure où elle doit se rendre à une décomposition en des stratégies simples dont chacune maximise une valeur distincte.

Nash avait formulé cette assomption de façon très scolaire et je suppose que cela peut être l’une des raisons pour lesquelles cette pièce de raisonnement mathématique d’une profondeur étonnante semble être royalement ignorée. Décomposons-là donc pour comprendre. Qu’est-ce que ça veut dire qu’une stratégie donnée offre le gain le plus élevé de parmi toutes les stratégies accessibles au joueur ? Parlons-nous du gain strictement objectif et mesurable en tant que tel ? Si tel est le cas, la plupart des jeux que nous jouons n’offre pas de possibilité pratique de mesurer les gains possibles avec 100% de certitude, puisque ces gains sont incertains par définition. Par conséquent, avec cette interprétation de stratégie dominante, l’équilibre dynamique de Nash serait un état qui s’auto-exclue.

Peut-être alors il suffit que les gains escomptés soient simplement mesurables objectivement tout en étant sujets à l’incertitude ? Dans ce cas, une stratégie dominante serait celle que le joueur pense être la meilleure et elle reste dominante – donc elle peut servir de base à construire un équilibre dynamique – même si le joueur se trompe et la meilleure stratégie est en fait une autre, qu’il laisse de côté ou qu’il ne perçoit même pas comme alternative.

Voilà donc la première grande question que le travail de John Nash provoque si on regarde sa théorie vraiment de près : pouvons-nous construire des équilibres dynamiques dans notre société à partir de n’importe quel ensemble des jugements et espérances à propos de l’avenir ou bien y-a-t-il comme un filtre bâti naturellement dans notre culture, qui ne nous laisse pas nous équilibrer, comme société, autour des conneries complètes ? Allons savoir. Peut-être. Ça dépend de ce que nous voulons.

La seconde partie de l’assomption de Nash, donc celle qui réfère à la maximisation des valeurs, est même plus intéressante lorsqu’on y pense. Imaginons notre comportement. Nous faisons des trucs complexes, comme chercher et trouver un emploi, se marier ou démarrer une entreprise. Ce sont des stratégies complexes. Il y a une chance que ces stratégies complexes deviennent des stratégies dominantes, donc qu’elles peuvent mener à l’émergence d’un équilibre dynamique de Nash. Il y a une condition : ces stratégies complexes doivent être liées, sans équivoque, à des valeurs de base qui, à leur tour, sont sujettes à la maximisation.

A première vue, c’est simple. J’ai mes objectifs et je les maximise à travers une stratégie complexe. Seulement voilà, comment étais-je venu à définir ces objectifs précis ? La réponse est relativement claire : si j’ai ne serait-ce qu’un peu de volonté individuelle autonome, mes objectifs sont ce qu’ils sont parce qu’ils maximisent ce qui est cher à mon cœur. Je suis efficace dans l’accomplissement des objectifs qui engagent mes émotions et l’engagement émotionnel, il vient d’un jugement de valeur, donc d’un jugement éthique.

Voilà le secret ninja de la théorie de John Nash. Un équilibre dynamique qui produit une solution au jeu, placée entièrement à l’intérieur de l’espace du jeu, donc faite entièrement par les stratégies individuelles des joueurs, peut se développer seulement si les joueurs ont un ensemble des valeurs éthiques qui peuvent être maximisées.

Quel jeu jouons-nous ? Je veux dire, y-a-t-il une façon scientifique de définir nos valeurs, comme civilisation ? Une réponse qui me vient à l’esprit, est celle liée à l’énergie, donc à cette recherche que je suis en train de faire pour mon projet EneFin, ainsi qu’à une recherche plus fondamentale que j’avais effectuée l’année dernière quant au rôle de l’énergie dans la géographie de la civilisation humaine. Je reprends le modèle que j’ai déjà utilisé, basé sur la fonction de production ainsi que sur son application à la géographie économique, par Paul Krugman. Voilà la logique de base. Toute espèce vivante a besoin d’énergie. En fait, nous pouvons percevoir tout organisme vivant comme un système de transformation d’énergie. Nous, les humains, avons bâti une civilisation qui transforme énergie en deux formes principales : la bouffe et tout le reste. Nous avons besoin de nourriture, d’une part, et nous consommons de l’énergie pour alimenter nos technologies. Nous pouvons assumer que le nombre d’êtres humains vivant dans un endroit donné à un moment donné est une fonction de l’abondance relative en énergie et nourriture :

Population = f(énergie par personne ; nourriture par personne)

En la notation plus élégante de la fonction de production nous pouvons exprimer cette fonction comme :

N = A * (E/N)a * (F/N)1-a    a < 1

…où N est la taille de la population, E/N est l’énergie par tête d’habitant ; F/N est la quantité de nourriture par la même (enfin, probablement la même) tête d’habitant, « a » est un paramètre arbitraire et A est un facteur de proportion.

La théorie de base de cette formule, fournie par le travail de Charles Cobb et Paul Douglas, assume que l’énergie et la nourriture, accessibles ici et maintenant, produisent une utilité agrégée, que nous, les humains, pouvons exploiter pour vivre ici et maintenant. Le surplus théorique, ajouté brillamment par Paul Krugman, assume que dans cette équation, le facteur avec la plus grande exposante est le facteur dominant de changement socio-économique. En effet, si mon énergie par personne a l’exposante comme 0,7 et mon nourriture par personne (donc pour moi) a donc l’exposante 1 – 0,7 = 0,3, tout changement en ce qui concerne la quantité de l’énergie produira un changement relativement plus grand, côté population (donc le nombre des moi qui peuvent vivre ici et maintenant), qu’un changement de même magnitude dans la quantité de nourriture accessible.

Maintenant, imaginons que cette équation est celle d’un jeu de Nash, donc un jeu capable de produire un équilibre dynamique. La taille de la population est l’équilibre en question. C’est le nombre d’humains qui se tolèrent mutuellement ici et maintenant. Ils se tolèrent de façon dynamique – donc le N peut changer – mais en même temps ils se tolèrent de façon prévisible : le N peut changer organiquement, de génération en génération, sans guerres ou exterminations de masse. L’équilibre dynamique en N est associé à un ensemble des stratégies déployées par des individus et des groupes, des stratégies qui assurent la formation et le maintien des réseaux et des hiérarchies qui tous ensemble forment la structure sociale.

Les stratégies capables de produire l’équilibre dynamique en N doivent être des stratégies dominantes, donc celles dont les joueurs peuvent rationnellement espérer des gains les plus substantiels eu égard aux valeurs de base qu’ils veulent maximiser. Dans cette équation il y a juste deux valeurs de base : l’accès à l’énergie et celui à la nourriture. Lorsque c’est l’énergie (E/N) qui a une exposante prépondérante dans ce jeu, donc lorsque « a > 0,5 », les stratégies qui s’équilibrent en N seront orientées surtout sur l’appropriation et le contrôle de l’énergie. Celles centrées sur l’acquisition de la bouffe seront relativement moins importantes. En revanche, si « a < 0,5 » et si donc c’est l’accès à la nourriture (F/N) qui est l’atout dans ce jeu, l’équilibre

Ça devient un peu théorique, tout ça. Je le sens. Il est temps de faire un saut vers le monde réel. Ledit monde réel est habité par plus de 7 milliards d’humains. Sommes-nous en équilibre dynamique, comme espèce planétaire ? Jusqu’à récemment, j’avais accepté, à ce sujet, les résultats de recherche obtenus et publiés par d’autres chercheurs. Vous pouvez voir ce raisonnement dans mon livre intitulé “Capitalism and Political Power”. J’y cite, par exemple, les travaux de Ehrlich & Ehrlich 2013[1] ou bien la ligne de recherche de Club de Rome qui se somment à dire que la Terre est sévèrement surpeuplée et que la race humaine devrait s’efforcer de réduire son empreinte sur la biosphère de la planète.

Néanmoins, ces derniers mois, je suis en train de changer mon approche, précisément comme je réfléchis sur les valeurs éthiques qui me sont chères. Je suis un homme simple. Lorsque je me dis qu’un truc est important comme valeur éthique, je mets mon énergie personnelle, tous les jours, dans la réalisation de cette valeur. Si j’assume que la Terre est surpeuplée, mon action éthique à prendre tous les jours, ce serait quoi, au juste ? Génocide ? Je trouve ça un peu bête. C’est comme si je me trouvais dans un l’une de ces banlieues à haute criminalité et haut risque et – en face de ces risques – je jetais mon portefeuille et mes clés de la voiture dans l’égout et je cognais ma tête contre le mur le plus proche.

D’autre part, avec chaque année de ma vie je me rends de plus en plus compte qu’il faut prendre ses responsabilités, dans la vie. Si j’habite quelque part et je constate que ma présence a un impact sur cet endroit, le comportement responsable consiste à contrôler cet impact, pas à me suicider ou à fuir.

De toute façon, j’essaie donc de réassumer à travers ma propre recherche la question de population, en la posant comme question d’équilibre dynamique de Nash. Si je peux démontrer que – contrairement à ces chercheurs que je viens de citer – la population humaine sur Terre est grosso modo en équilibre avec l’énergie et la nourriture accessibles, je peux ensuite interpréter les exposantes sur le côté droit de l’équation comme des valeurs maximisées dans les stratégies d’acteurs sociaux.

Bon, je démontre donc. Je prends les données de la Banque Mondiale sur la population de la Terre (donc le côté gauche, le « N » de l’équation N = A * (E/N)a * (F/N)1-a    a < 1 ) ainsi que sur la consommation moyenne d’énergie par personne. D’autre part, j’utilise les données du service FAOSTAT en ce qui concerne la consommation moyenne de nourriture en kilocalories par jour par personne. De tout en tout, pour ces trois variables empiriques, j’ai des séquences temporelles qui se correspondent mutuellement de 1971 jusqu’à 2013. Comme je l’avais appris l’année dernière, le test de l’équation N = A * (E/N)a * (F/N)1-a    a < 1 a des chances de marcher si j’exprime la population en millions, la consommation d’énergie par personne (E/N) vient en tonnes d’équivalents pétrole par an par personne et la consommation alimentaire (F/N) est exprimée en mégacalories par an par personne.

Je mets tout ça dans un fichier Excel commun et je teste en récurrence avec des valeurs différentes de l’exposante « a ». Le but du test est de trouver une telle valeur en « a » pour laquelle le facteur de proportion « A », mesuré comme la moyenne des « A » locaux pour chaque année de 1971 à 2013, soit aussi près de A = 1 que possible. En d’autres mots, je veux savoir si je peux trouver une telle exposante « a » qui rende possible un équilibre général entre la population humaine sur Terre et ses ressources.

Je tombe sur des « A » intéressants pour 0,23 ≤ a ≤ 0,24. Dans cette fourchette de valeurs mon équation produit, respectivement, un « A » moyen égal à 1,025556523 pour N = A * (E/N)0,23 * (F/N)0,77 et A = 0,952317642 pour N = A * (E/N)0,24 * (F/N)0,76. La meilleure approximation possible de la population humaine sur la planète est donc obtenue avec un paramètre « a » qui suggère que nos stratégies d’interactions sociales sont orientées sur la maximisation d’accès à la nourriture – comme valeur de base dans la logique d’équilibre dynamique de Nash – bien plus que sur l’accès à l’énergie non-alimentaire. Nous sommes toujours décidément plus bouffe que techno. Pas très ambitieux pour une civilisation qui veut coloniser Mars. Enfin, on fait avec ce qu’on a.

Développons un peu sur cet équilibre. Pour vous en donner une idée plus claire, je place ci-dessous un graphe comparatif, avec trois lignes qui représentent la population réelle de la Terre, comparée aux populations modèles selon l’équation N = A * (E/N)a * (F/N)1-a    a < 1.

Population réelle de la Terre comparée aux populations modèles 1

Nous pouvons constater que les deux lignes des populations modèles, qui rendent un équilibre raisonnablement cohérent en « N » sont plus horizontales que la ligne de la population réelle. La première conclusion, purement mathématique, est donc que dans les années 1970 et 1980, l’humanité avait comme une légère réserve des ressources vitales. Nous semblons avoir passé le point d’équilibre strictement dit entre 1990 et 1996 et maintenant nous sommes en l’état de surpopulation. Mon analyse démontre une surpopulation entre 13% et 22% de ce qui est offert comme équilibre « nourriture – énergie » mais c’est bien moins dramatique que les nombres suggérés par Ehrlich & Ehrlich 2013[1].

Je reviens au sujet des stratégies, des valeurs éthiques et de l’équilibre dynamique de Nash. Comme nous sommes maintenant, je veux dire comme civilisation, nous avons toutes les raisons de donner plus de valeur aux stratégies d’accès à la nourriture qu’à celles donnant accès à l’énergie. Notez que ça change énormément suivant le pays. Maintenant je simule le scénario où, dans l’équation N = A * (E/N)a * (F/N)1-a    a < 1, le paramètre « a » est quelque part dans les 0,76 ≤ a ≤ 0,77. Ce serait la population que nous pourrions développer en devenant une civilisation technologique strictement dite, donc technologique au point de ne plus s’en faire, ou presque, de la bouffe. Le résultat est époustouflant : avec a = 0,76 la population modèle de la Terre est de 313 milliards des personnes et avec a = 0,77 ça donne presque 338 milliards d’humains sur la planète.

Voilà donc une vision bien science-fiction. Si notre civilisation se transforme au point d’assurer un accès acceptablement bon à la nourriture pour la plupart des gens, ladite plupart serait la plupart dans quelque chose comme une ville planétaire, où lest structures urbaines couvriraient pratiquement tout l’espace habitable. C’est bien ça, plus de 300 milliards de gens sur la planète.

Maintenant, je simule le cas inverse : nos stratégies changent dans la direction bouffe. Nous mutons en une civilisation orientée presque à 100% sur le contrôle des sources d’approvisionnement en nourriture. Mathématiquement, cela veut dire que dans l’équation N = A * (E/N)a * (F/N)1-a    a < 1, le paramètre « a » devient a = 0,01. La population planétaire en 2013 est alors de N = 1,13 milliards, soit moins d’un sixième de ce qu’elle était réellement.

Récapitulons. Nous avons le même ensemble des données empiriques en ce qui concerne la population de la Terre, la consommation moyenne d’énergie par personne ainsi que la consommation alimentaire moyenne. Dans cet ensemble des données, trois chemins analytiques ont été tracés, avec l’aide de l’équation paramétrique N = A * (E/N)a * (F/N)1-a    a < 1. Lorsque l’analyse consiste à trouver une valeur du paramètre « a » qui rende justice, de la façon la plus précise possible, aux proportions réellement observées, j’obtiens une équation définitivement dominée par la variable (F/N), donc par l’accès à la nourriture. Si j’interprète la population de la Terre comme un équilibre dynamique de John Nash, c’est un équilibre basé précisément sur l’accès à la nourriture comme base des valeurs éthiques. Que ce soit l’éthique de l’acquisition, l’éthique du contrôle ou bien celle du partage, c’est autour de la bouffe que ça tourne.

Tel est le fondement comportemental de toute stratégie dominante dans tout équilibre dynamique de Nash pour la civilisation humaine prise en entier. Quels sont ces équilibres ? Les relations de commerce international, par exemple. Savez-vous quelle est la route commerciale la plus fréquentée du monde ? C’est le Pacifique Occidental, le long de la côte Asiatique. C’est aussi la région du monde où le déficit alimentaire est le plus notable. Coïncidence ? Peut-être.

Prenons un exemple du jeu simulé centré sur l’énergie, donc celui qui, si appliqué à la civilisation humaine entière, nous mènerait à ladite civilisation prenant la forme d’une ville géante pan-planétaire de plus de 300 milliards d’êtres humains. Je parle de N = A * (E/N)0,76 * (F/N)0,24 par exemple. Ma recherche de l’année dernière m’informe qu’en fait, la plupart des pays relativement petits en termes de population, ça marche très largement suivant cette équation (avec cette valeur relativement élevée du paramètre « a ») : Lituanie, Lettonie, New Zealand, Sweden, Slovenia, Austria, Botswana, Bulgarie etc. Leur trait commun est qu’elles démontrent toutes comme une légère réserve de ressources par rapport à la population, comme s’il y avait de poches d’espace vital. En revanche, les plus grandes populations nationales du globe, celles de la Chine et de l’Inde, marchent selon le modèle N = A * (E/N)0,01 * (F/N)0,99 .

Voilà donc une tirade bien longue autour de l’équilibre dynamique de Nash. La logique que je viens de développer est celle du constructivisme (ou utilitarisme) éthique : mes valeurs éthiques de base sont fonctionnellement dérivées de mes besoins essentiels et maximisent la satisfaction de ses besoins. Au début de cette mise à jour j’ai fait référence à une autre approche, à la théorie de justice de John Rawls. Celle-ci, en revanche, est basée sur la théorie de contrat social et véhicule une idée bien intéressante, celle de la situation initiale.

Imaginez une situation collective, où vous avez vos objectifs constructivistes, comme ceux décrits plus hauts, mais personne, vous inclus, n’en sait que dalle comment les accomplir, ces objectifs constructivistes. La situation est tellement nouvelle et comporte autant d’éléments inconnus qu’il est pratiquement impossible de mettre au point un bon plan d’action. Tenez, la situation après une catastrophe naturelle majeure, comme un ouragan. Rien ne marche, personne ne sait où trouver des ressources de base, ‘y a des cons qui se livrent au pillage, bref, un chaos complet. Voilà une bonne illustration de la situation initiale de Rawls. Le démarrage d’un nouveau business, complètement révolutionnaire du point de vue technologie, peut livrer un autre exemple.

Dans une situation comme celle-là, les stratégies basées sur la satisfaction des besoins essentiels perdent beaucoup de leur efficacité car nous ne savons pas quoi faire et notre action est imbue d’expérimentation constante. John Rawls dit quelque chose de profond à propos de telles situations : c’est le comportement d’autres gens (d’autres joueurs) qui devient le plus important. La possibilité de compter sur quelqu’un ou bien la menace de la part de quelqu’un deviennent des repères essentiels dans notre univers personnel. C’est dans des situations de tel type, donc dans des situations à très haute incertitude, que nos valeurs éthiques se cristallisent. Le comportement éthiquement désirable est celui qui maximise la cohésion de la communauté.

Si je croise la théorie d’équilibre dynamique de John Nash avec la théorie de justice de John Rawls, et si je viens à bout des objections relative à la mésalliance possible, une construction intéressante fait surface. Dans des situations à haute incertitude, l’équilibre dynamique de Nash peut se former – donc les gens peuvent faire leurs propres règles du jeu et ça a des chances de marcher à la longue – autour des stratégies de cohésion sociale et surtout autour d’elles. A mesure que tombe ce que John Rawls appelait « le voile de l’ignorance », donc à mesure que nous avons de plus en plus d’information valable sur les résultats de nos actions, nos stratégies mutent. Elles deviennent de plus en plus utilitaires et constructivistes. Nous commençons à accepter des solutions qui peuvent mettre en péril la cohésion sociale.

L’innovation technologique semble avoir le plus de chances durant ce moment de transition, précisément. Mon concept EneFin, si je veux l’appliquer au développement socio-économique des communautés humaines les plus pauvres du monde, a des chances de marcher lorsque le système social et politique en place est déjà suffisamment solide pour assurer des droits fondamentaux, d’une part, mais la société change très vite.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Vous pouvez donner votre support financier à ce blog

€10.00

[1] Ehrlich PR, Ehrlich AH. 2013 Can a collapse of global civilization be avoided? Proceedings of the Royal Society B 280: 20122845. http://dx.doi.org/10.1098/rspb.2012.2845

Le modèle d’un marché relativement conformiste

C’est l’un de ces moments quand beaucoup d’idées se bousculent dans ma tête, et lorsque je dis « bousculent », je veux dire qu’il y a vraiment des coups de coude là-dedans. Dans une situation comme celle-ci, j’ai deux façons de procéder. Tout d’abord, je peux regarder chaque idée séparée de près, énumérer toutes ces idées séparées etc. Bref, je peux être Aristotélicien. Ensuite, je peux considérer la situation présente comme un phénomène, façon Husserl ou Gadamer : ce qui se passe maintenant c’est moi qui pense à tous ces trucs différents, donc le mieux que je puisse faire est de se concentrer sur le phénomène de moi qui pense à tous ces trucs différents.

Ce chemin phénoménologique a un certain charme que je ne manque pas d’apprécier. Néanmoins, il y a un petit piège à éviter dès le début et le piège consiste à se concentrer sur la question « qu’est-ce que je pense ? ». La question qui ouvre vraiment une nouvelle porte c’est « comment est-ce que je pense ? ». Je pense comme si je circulais dans du trafic dense : mon esprit slalome parmi les différents projets et différentes idées qui s’y attachent. Ce slalom, il commence à m’agacer. Quelle est la conclusion ou bien l’observation générale que je peux tirer du travail de recherche que j’ai effectué depuis que j’eus publié le business plan du projet BeFund ? Tout ce travail relatif au projet EneFin, au carrefour de l’industrie FinTech et du marché de l’énergie, comment puis-je le résumer, jusqu’alors ?

Point de vue utilitaire, le travail fait sur ces deux concepts d’entreprise consécutifs – BeFund et EneFin –  m’a fait penser à créer un outil relativement simple de planification, pour pouvoir tester des concepts d’entreprise d’une façon structurée. C’est ainsi que j’ai créé, la semaine dernière, cet outil de calcul et planification pour préparer un business plan. Si vous cliquez ce lien hypertexte que je viens de donner, vous atterrissez sur une sous-page du blog Discover Social Scienceset là, vous pouvez télécharger directement le fichier Excel avec ce que j’appelle, pour le moment, « Business Planning Calculator ».

Point de vue théorie, je viens de découvrir cette connexion étrange entre le nombre d’inventions déposées pour breveter, dans le domaine d’énergies renouvelables, d’une part, et la taille du marché d’énergies renouvelables (consultez, par exemple : Je corrèleainsi que Time to come to the ad rem). Ces corrélations que j’ai découvertes, je ne sais même pas encore comment les appeler, tellement elles sont bizarroïdes. Faute d’une meilleure étiquette scientifique, j’appelle ce phénomène « la banalisation des technologies de génération d’énergies renouvelables ».

C’est ainsi que je suis en train de préparer un business plan pour le projet EneFin(consultez Traps and loopholeset Les séquences, ça me pousse à poser cette sorte des questions) et en même temps j’essaie de développer une interprétation scientifiquement cohérente de ce phénomène de banalisation des technologies. J’espère que ces deux créneaux de travail intellectuel vont se joindre l’un à l’autre. J’ai beau être un passionné de la science, la dissonance cognitive ça me tue parfois, lorsque c’est trop intense.

Bon, fini de geindre. Je me prends au boulot. J’ouvre « Business Planning Calculator » et je fais une copie de ce fichier Excel, spécialement pour le projet EneFin. La première table du calculateur me demande de préciser les produits que je veux vendre. Je m’en tiens aux trois cas de référence que j’avais déjà décrit, de façon sommaire, sur ce blog : la société américaine Square Inc., la société canadienne Katipultainsi que la société allemande FinTech Group AG. EneFin serait une fonctionnalité type Blockchain, dotée de la capacité de créer et de mettre en circulation des contrats intelligents complexes, sous la forme des tokens d’une crypto-monnaie. Chaque contrat serait un produit à part. Vous pouvez trouver un résumé de l’idée dans les illustrations ci-dessous.

 Contrat complexe EneFin

Contrat EneFin 2

Prix du contrat EneFin

Maintenant, il y a un choix stratégique à faireen ce qui concerne le développement et l’appropriation de la technologie. Option A : EneFin se contente d’organiser le marché, tout en utilisant une base technologique externe, par exemple celle d’Ethereum. Option B : EneFin crée sa propre technologie de base, une sorte de kernel (noyau) du système informatique, et développe des fonctionnalités particulières sur la base dudit kernel. Option A s’associe plutôt avec le modèle d’entreprise de Square Inc.et sur la base de ce que je sais à leur sujet (consultez The smaller more and more in FinTechet Plus ou moins les facteurs associés) les économies d’échelle sont cruciales dans ce chemin stratégique et encore, même avec la tout à fait respectable échelle d’opérations chez Square ne garantit pas de succès financier. Option B, en revanche, c’est plutôt le schéma de chez Katipultou bien chez FinTech Group AGet là, les résultats financiers de ceux deux business semblent prometteurs.

Ce que je vais donc faire c’est une boucle d’analyse. Je commence par construire in business plan pour l’Option A, donc pour un concept d’entreprise où mon produit sera le contrat complexe façon EneFin et son prix sera la marge de commission sur chaque transaction. Ceci va me conduire à bâtir un modèle analytique qui simule combien de marge brute le projet va générer en fonction des facteurs primordiaux : des prix d’électricité, de la quantité d’énergie mise en échange à travers EneFin ainsi que de la valeur des titres participatifs associés, du nombre des clients individuels ainsi que du nombre des participants institutionnels.

Une fois ce pas franchi, je passerai à l’estimation des frais fixes d’entreprise et à la décision si la marge transactionnelle, à elle seule, sera la source suffisante de revenu pour dégager une de bénéfice opérationnel d’au moins 20% sur les frais fixes. Si la réponse sera « oui », le business plan pour Option A sera un concept autonome et dans ce cas je développerai Option B comme une extension possible. Dans le cas contraire, donc si la marge brute dégagée sur la commission transactionnelle sera moins que 20% au-dessus des frais fixes, j’incorporerai l’Option B comme partie intégrante du projet et je referai le business plan du début.

Je commence mon analyse en formulant une équation de départ. C’est un réflexe chez les économistes. D’autres gens engagent la conversation avec une blague ou bien par une remarque anodine comme « Ne fait-il pas beau aujourd’hui ? ». Nous, les économistes, on engage avec une équation. La mienne, vous pouvez la voir ci-dessous :

Equation de marge brute EneFin 1

Le truc qui semble être le plus intéressant côté science, dans cette équation, c’est la dernière partie, donc cette fonction f(CME*N)qui transforme une population autrement innocente des consommateurs d’énergie en clients d’EneFin. Cette fonction transforme une consommation agrégée d’énergie en un marché à exploiter. Donc, à priori, j’ai une quantité en kilowatt heures, qui peut se sentir plus confortable en mégawatt ou même en des gigawatt heures, par ailleurs, et cette quantité se transforme en trois facteurs distincts à voir de l’autre côté du signe d’égalité : une quantité des contrats complexes façon EneFin, un prix unitaire pour un contrat et enfin en la marge de commission d’EneFin. Cette dernière, en fait, est aussi un prix, relatif au prix unitaire des contrats. J’ai donc une quantité et deux prix.

Je commence par dériver la quantité Qdes contrats, de l’agrégat CME*Net je commence ce commencement en le représentant la fonction f(CME*N)comme un processus de décision. Dans la population de N clients potentiels, certains vont décider d’acheter leur énergie – ainsi que des titres de participation dans le capital des fournisseurs d’énergie – à travers le système EneFin, d’autres vont s’en abstenir. Les certains qui vont être partants pour EneFin vont se subdiviser en des certains qui décideront d’acheter toute leur énergie à travers EneFin, d’une part, et en des certains qui vont acheter juste une partie de leur énergie par ce moyen. Ces deux sous-ensembles des certains se subdiviseront suivant une séquence temporelle : certains parmi certains vont se décider plutôt vite pendant que d’autres certains parmi des certains vont y aller mollo, à pas de balade.

Decisions des clients EneFin 1

Comme l’eut écrit Milton Friedman, les hypothèses, une fois qu’on s’y prend sérieusement à les formuler, elles débordent. Faut se concentrer sur ce qui est possible à exprimer d’une façon plus ou moins vérifiable. Je décide donc de simuler trois formes possibles de la fonctionf(CME*N). Premièrement, suivant les assomptions déjà classiques de Robertson, je construis une fonction d’absorption d’innovation, où la population des clients d’EneFinse développe comme une fraction croissante de la population totale N, suivant la logique de la distribution normale (Gaussienne). C’est essentiellement le scénario où une fois une personne opte pour EneFin, c’est un choix complet : la personne en question commence à acheter toute leur énergie à travers EneFin. Les deux paramètres de cette fonction sont Gaussiens, donc le temps moyen qu’un client de la population N prend à se décider pour EneFin, ainsi que la déviation standard de ce temps. Deuxièmement, je construis un scénario un peu à l’opposé de ce premier, où les clients sont plutôt réticents et conservatifs et leur comportement peut être représenté avec la distribution de Poisson, appelée parfois « la distribution d’évènements rares ». Là, j’ai besoin de juste un paramètre, c’est-à-dire le temps moyen de décision dans un client typique.

Troisièmement, j’essaie de tirer au milieu, parmi le scénario relativement optimiste de la progression Gaussienne et celui, relativement pessimiste, de la distribution de Poisson. Pour le faire, je retiens la structure logique de la progression Gaussienne, mais je change légèrement les assomptions en ce qui concerne les décisions individuelles. Au lieu d’assumer qu’une fois qu’un consommateur se décide d’utiliser EneFin, il ou elle achète toute son énergie à travers ce système, j’assume des achats partiels. Cette fois, tout consommateur peut acheter des pourcentages variables de leur consommation individuelle d’énergie sur EneFin. Mathématiquement, cela veut dire que je retiens la distribution normale comme fonction de base mais je change l’ensemble de définition, ou, si vous voulez, l’ensemble des abscisses « x » de ma fonction : je remplace l’ensemble Ndes clients par l’ensemble des kilowatt heures consommées, donc par CME*N. Comme c’est du Gaussien, j’ai les mêmes paramètres que dans mon premier scénario : le temps moyen d’absorption d’une kilowatt heure moyenne et la déviation standard de cette moyenne.

La grande question, avec ces simulations, est comment établir la valeur des paramètres. Je pense à utiliser ce que j’avais découvert à propos de la dynamique des technologies éoliennes, en particulier celles des turbines à l’axe vertical (consultez Je corrèleet Time to come to the ad rem). Apparemment, en phase d’expansion de cette technologie, le nombre des demandes de brevet qui y correspondent doublait en 7 ans en Europe et aux États-Unis, et ça prenait 3 ans en Chine. Là, je suis en train d’avancer à tâtons, mais je besoin d’un point d’attache raisonnable. Je prends ces 7 ans comme temps moyen d’un cycle technologique qui survient dans le domaine des énergies renouvelables et je le transpose dans mes trois fonctions d’absorption.

J’ai donc un horizon de planification de trois ans, dans mon « Business Planning Calculator ». Je transforme ça en mois, pour étirer mon ensemble de définition, donc j’ai 36 mois. J’ai u cycle d’absorption de 7 ans = 7*12 = 84 mois. J’assume que la fonction Gaussienne de base serait une fonction standard, où la déviation standard est égale à la moyenne. Je teste rapidement si ça tient débout, tout ça. Eh bien, ça tient, mais en partie seulement : la fonction Gaussienne marche comme outil de prédiction avec ces assomptions, mais la distribution de Poisson rend, sur ces 3 années de planification, des pourcentages indéfiniment petits du marché : 0,000000288% après trois ans. Je comprends maintenant pourquoi Robertson avait opté pour la distribution normale.

Je dis donc au revoir à Poisson, j’en reste à la distribution de Gauss, et cela veut dire que je retiens les scénarios 1 et 2, donc une migration progressive des clients vers EneFin, soit selon le modèle « tout ou rien » (scénario 1) ou bien selon la philosophie de mettre ses œufs dans des paniers différents et voir ce qui se passe (scénario 2). Je commence à jouer avec les paramètres. J’ai déjà calculé le pourcentage du marché possible à absorber dans la distribution Gaussienne standard où la déviation standard est égale à la moyenne. Je formule deux autres hypothèses pour voir la différence. D’une part, je simule le comportement d’un marché plutôt conformiste, où la grande majorité des clients est près de la moyenne, donc la déviation standard est égale à la moitié de ladite moyenne. D’autre part, j’imagine une population très diversifiée en termes des schémas de comportement, avec les ailes de la courbe de Gauss relativement étirées, donc où la déviation standard est égale à deux fois la moyenne.

Vous pouvez voir les résultats de ces tests dans Tableau 1, ci-dessous. Il me semble que les pourcentages dans les colonnes des côtés (distribution standard et la distribution dispersée) sont trop élevés pour être réalistes. En revanche, ceux dans la colonne du milieu semblent plus proches de la vie réelle. Je retiens donc le modèle d’un marché relativement conformiste et je vais jouer encore avec les paramètres pour étudier la sensitivité de mon modèle de marketing au choix des assomptions.

Tableau 1

  Pourcentage du marché absorbé dans la plateforme EneFin
  Absorption Gaussienne standard ; déviation standard = la moyenne Absorption Gaussienne conformiste ; déviations standard = 0,5 de la moyenne Absorption Gaussienne conformiste ; déviations standard = 2 fois la moyenne
Fin de l’année 1 19,6% 4,3% 33,4%
Fin de l’année 2 23,8% 7,7% 36,0%
Fin de l’année 3 28,4% 12,7% 38,8%

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund(aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon. Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

 

Vous pouvez donner votre support financier à ce blog

€10.00

Les gains associés

 

Mon éditorial via You Tube

J’ai décidé d’utiliser mon blog pour documenter mon travail entier de recherche et pas uniquement la préparation du business plan pour le projet EneFin. Ça fait trois projets au total ; à part le concept d’entreprise vous connaissez déjà, donc EneFin, je suis en train de préparer un autre business plan, pour un concept de startup développé par mon ancien étudiant dans le marché des services médicaux ; le troisième truc c’est un livre sur le secteur FinTech. Vous trouverez une description de ces trois directions de travail dans ma dernière mise à jour en anglais : Crossbreeds, once they survive the crossbreeding process.

En ce qui concerne le projet EneFin et le marché d’énergie, je suis en train de revoir mes sources d’information. Je me suis intéressé à deux articles quelque peu couverts de poussière – puisqu’ils datent de 1999 : Transmission Rights and Market Power on Electric Power Networks I: Financial Rightspar Paul Joskow et Jean Tirole suivi par Transmission Rights and Market Power on Electric Power Networks II: Physical Rightsdes mêmes auteurs. La raison pour laquelle je veux les étudier à fond est le fait qu’ils reflètent un aspect important du marché de l’énergie : les mécanismes que je propose dans le cadre du concept EneFinpour le marché de détail marchent depuis longtemps dans le marché de gros. Ledit marché de gros fonctionne, de façon routinière, comme tout autre marché, à un rythme réglé part des équilibres locaux entre l’offre et la demande, avec l’utilisation de toute une gamme des produits financiers et en présence d’une forte régulation légale. Les contrats long-terme s’y entremêlent avec des transactions ponctuelles du type spot. Par comparaison, les contrats long-terme que nous, les particuliers, signons avec nos fournisseurs directs d’électricité ont l’air, en fait, une relique dont la seule raison de demeurer toujours en place semble être une vague appréhension vis à vis de ce qui pourrait se passer si on s’en passait.

Je commence donc par une courte introduction en la matière desdits « transmission rights » ou « droits de transmission ». Je commence par une évidence : personne ne peut signer ses électrons. Une centrale électrique charge dans le réseau de transmission 10 MWh et ces 10 mégawatt heures ont un prix de gros. Quelqu’un doit payer ce prix, avec une marge de détail, à la fin de la chaîne de distribution. Ce quelqu’un c’est nous, les consommateurs finaux, qui, de notre côté, n’avons aucun moyen de savoir d’où est-ce qu’ils viennent exactement, ces électrons que nous mettons dans le compresseur de notre frigo ou bien dans le moteur de notre machine à laver. A la rigueur, avec beaucoup de mesurage dans le réseau, il est possible de calculer la probabilité que la kilowatt heure donnée que je suis en train d’utiliser vient d’une centrale électrique donnée, mais ce calcul ressemble largement à de la physique quantique : ce qu’on a c’est seulement une probabilité.

Tout réseau de distribution d’électricité est donc comme un réservoir doté d’un système des valves à l’entrée et à la sortie. Une centrale électrique peut identifier la valve à travers laquelle son énergie entre dans le système (le nœud ou le site de chargement) et – dans une certaine mesure – elle peut identifier la valve de sortie (nœud/site de consommation) et cette identification est possible grâce au système des contrats et d’instruments financiers. « Dans une certaine mesure » veut dire que l’identité exacte du consommateur final est dans le domaine de décision du distributeur local d’énergie, qui est en charge du réseau local de moyenne et de basse tension. Un nœud de consommation d’énergie est donc le point exact dans le réseau de distribution ou l’électricité distribuée en haute tension est transformée en moyenne ou basse tension et « transmise » au distributeur local. Un nœud de consommation est aussi un point de facturation.

Là-dessous, vous pouvez voir une présentation graphique de la structure du réseau de transmission d’énergie, qui, à son tour, fait l’ossature du marché. Plus loin en-dessous vous trouverez l’équation de revenu gagné par une centrale électrique comme fournisseur primaire d’électricité.

La structure du réseau

 La structure du réseau

 

L’équation de revenu de la centrale électrique

 Revenu de la centrale electrique

Dans ce cadre général, différents points de facturation peuvent enregistrer des prix substantiellement différents. L’échelle de cette disparité dépend du pays et, dans une grande mesure, de l’heure de facturation. Le marché d’électricité s’étend sur 8760 heures dans l’année (8784 si c’est une bissextile) et chacune d’elles peut s’associer avec un prix différent.  Un fournisseur primaire d’électricité (une centrale électrique) peut acheter des contrats à terme (instruments financiers dérivés) qui sont déjà pré-facturés à un prix défini pour un nœud de consommation précis et une heure précise. C’est comme si ce fournisseur primaire s’achetait une facturation en avance. Ces contrats à terme sont précisément appelés « droits de transmission », puisqu’ils simulent, sur le plan légal et financier, une situation où un fournisseur primaire d’énergie acquiert une garantie que son énergie sera vendue et facturée comme si elle était consommée à un nœud précis du réseau et à un moment précis.

Les deux articles que je suis en train de passer en revue – Transmission Rights and Market Power on Electric Power Networks I: Financial Rightset Transmission Rights and Market Power on Electric Power Networks II: Physical Rights– signés Paul Joskow et Jean Tirole développent une théorie de fonctionnement du marché d’électricité dans le contexte des droits de transmission. A l’époque quand ces deux articles étaient écrits, en 1999, les droits de transmission étaient parmi les rares instruments financiers typiquement « spot » (c’est à dire correspondants aux transactions ponctuelles sans appui direct dans des contrats long-terme) appliqués dans le marché de gros en électricité. Étudier le fonctionnement des droits de transmission était un excellent prétexte pour étudier la libéralisation du marché d’énergie au sens large.

Je me suis intéressé à ces deux articles pour deux raisons : auteurs et conclusions. Quant aux auteurs, le nom de Paul Joskow en ce qui concerne le marché d’énergie est un peu comme celui de Paul Krugman dans la géographie économique. Même si je décidais de le contourner, ce serait à mes propres risques et périls. Quant à Jean Tirole, je respecte profondément son acquis scientifique et ce prix Nobel en économie qu’il avait reçu en 2014 était vraiment bien justifié. La conclusion générale de la part de ces deux auteurs est pratiquement à l’opposé de ce que moi je soutiens au sujet de mon concept EneFin. Pendant que moi, je prétends que l’introduction d’un système basé sur les contrats à terme, dans le marché de détail en énergie, peut favoriser le développement des petits fournisseurs locaux et des petites installations locales basées sur les énergies renouvelables, Paul Joskow et Jean Tirole disent quelque chose de diamétralement opposé : les contrats à terme qui parient sur les prix futurs, ça favorise les gros joueurs et fait du mal au pouvoir d’achat des petits consommateurs.

Oui, je sais, je pourrais les ignorer en prétendant que dans le marché de l’énergie, avec tous les changements observés, 1999 c’était à peine après l’invention de la roue et les thèses de l’époque ne tiennent plus débout. Seulement, je sais par expérience qu’ignorer délibérément un point de vue particulier provoque à faire de même pour un autre point de vue particulier, et ces points de vue particuliers et délibérément ignorés ont tendance à s’accumuler. Il y a un point critique dans cette accumulation du savoir passé sous silence, où l’ignorance ciblée et délibérée se transforme en une ignorance générale et involontaire.

Je veux donc bien comprendre le point de vue de Paul Joskow et Jean Tirole, juste l’histoire de ne pas être con. Alors, leur réflexion est présentée en deux étapes : d’abord ils étudient le fonctionnement des droits de transmission tels qu’ils sont, donc comme instruments purement financiers, et ensuite ils font une extrapolation théorique où ces instruments financiers créent des droits physiques d’exploitation vis à vis le réseau de distribution d’énergie. Comme c’est mon habitude, je me concentre le plus sur les assomptions fondamentales du modèle théorique de Joskow – Tirole, et aussitôt je découvre les racines de leurs thèses au propos qui m’intéresse.

Joskow et Tirole assument, très pertinemment si vous voulez mon avis, que les contrats à terme dans le marché d’énergie émergent comme quelque chose de financièrement utile lorsqu’il y a des imperfections économiques marquées dans la distribution géographique de génération primaire d’électricité. Par « imperfections économiques » je comprends quelque chose de très simple : certaines régions accueillent des surplus notables d’énergie produite par rapport à l’énergie consommée pendant que d’autres ont des déficits. Logiquement, les prix les plus intéressants, qui valent la peine d’être garantis par des contrats à terme tels que les droits de transmission, sont ceux pratiqués dans les régions à déficit, où la demande est beaucoup plus élevée que l’offre. Si je suis in fournisseur primaire d’énergie et si je sais qu’il y ait de tels marchés locaux, j’ai deux stratégies long-terme à leur égard : soit j’investis dans les droits de transmission pour exploiter les prix locaux anormalement élevés, soit j’investis dans la construction de capacité génératrice locale. Pratiquer les deux stratégies en parallèle serait illogique, puisque tout investissement en capacité génératrice locale va liquider une grande partie des bénéfices issus des droits de transmission.

Je pense que je comprends. Il y a des situations où la création d’instruments financiers peut aider le flux de capital vers des actifs productifs nouveaux mais il y en a d’autres quand c’est exactement le contraire qui se passe, c’est-à-dire les titres financiers servent à concentrer et immobiliser le capital disponible plutôt qu’à son flux vers des projets nouveaux. La concentration survient lorsque les gains possibles à obtenir de la détention simple des titres financiers sont plus grand que ceux associés avec l’utilisation de ces mêmes ou autres titres pour financer des projets nouveaux.

Je vois donc deux types de contexte pour l’application de la fonctionnalité EneFin, telle que je la vois à présent, assez souple et généraliste (consultez Les séquences, ça me pousse à poser cette sorte des questions). Le contexte à haute mobilité de capital physique est celui où la construction de nouvelle capacité génératrice locale est relativement facile, point de vue technologique et légal (permis de construction et d’exploitation, par exemple). Dans un tel contexte le gain marginal issu du changement technologique réel (nouveaux moulins à vent, nouvelles turbines hydrauliques etc.) a des fortes chances de surpasser celui de la détention des titres financiers en tant que tels. En revanche, lorsque la création des nouvelles installations rencontre des obstacles substantiels – par exemple lorsqu’il est extrêmement difficile d’obtenir un permis d’exploitation pour une turbine hydraulique nouvelle – la mobilité du capital physique décroît significativement et ça peut payer plus d’exploiter de déficits en l’offre d’énergie que de les combler avec de la capacité locale nouvelle.

Bon, je pense que j’ai temporairement pompé ma cervelle à sec. Il me faut la remettre à plein.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund(aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon. Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Les séquences, ça me pousse à poser cette sorte des questions

 

Mon éditorial via You Tube

Dans ma dernière mise à jour en anglais (Traps and loopholes) j’ai finalement commencé à cerner sérieusement le concept ainsi que la fonctionnalité de base du projet EneFin, pour lequel je prépare un business plan et dont la documentation me sert couramment comme force motrice de ce blog scientifique. Après maintes tours et détours j’ai conclu que le modèle d’entreprise que j’avais déjà étudié au sujet de cette société canadienneKatipultqui commercialise une plateforme technologique d’échange sous forme d’un marché de crypto-monnaie à accès limité.

Dans le concept EneFin,les petits consommateurs d’énergie sont censés acheter et vendre des contrats à terme pour les fournitures futures d’électricité et que la crypto-monnaie doit servir à lier ces contrats à terme à l’achat ainsi qu’à la vente des titres de participation dans les bilans des fournisseurs d’énergie, avec une composante additionnelle possible d’autres actifs financiers que ces titres de participation.

Dans Traps and loopholesj’en étais venu à la conclusion que cet échange complexe – contrats à terme plus actifs financiers – marchera mieux si je transforme cette complexité en une séquence plutôt qu’une simultanéité. Encore, il faut se souvenir que les séquences, ça peut se multiplier presque à l’infini et mathématiquement, plus la séquence donnée est bizarre et peu probable, plus elle a de façons alternatives de survenir (à ce sujet-là, vous pouvez jeter un coup d’œil dans Fringe phenomena, which happen just sometimes). J’imagine donc une séquence de basequi me semble être la mieux enracinée dans la logique du concept EneFin : j’achète des titres de participation dans un fournisseur d’énergie et ça me donne la possibilité d’acheter des contrats à terme pour des fournitures futures d’énergie, au prix avantageux normalement réservé aux gros consommateurs institutionnels. En plus de ça, je peux acheter, via EneFin, d’autres actifs financiers.

Les séquences, ça me pousse à poser cette sorte des questions qui parfois énervent les gens, comme « Qu’est-ce qui se passe si je modifie ce pas particulier dans la séquence ? Quelles sont les versions alternatives de ce pas particulier ? ».  Alors, je commence à les poser sérieusement, mes questions et je commence par le début (pas aussi évident et logique que certains pourraient le penser). Je suis un consommateur qui s’enregistre sur la plateforme EneFinet j’achète des tokens de crypto-monnaie, pour €100, qui m’habilitent à acquérir, par la suite, les actions d’un fournisseur d’énergie pour l’équivalent de €100 ou bien ses obligations pour la même somme. Appelons ça « Pas no.1 ». Question no. 1.1 : entre combien des fournisseurs différents – et leurs titres financiers – puis-je choisir ? Initialement, lorsque j’avais formulé ce concept particulier, dans Lean and adaptable, je pensais à un schéma fortement coopératif, où les consommateurs d’énergie nouent des liens capitalistes durables avec un fournisseur local d’énergie renouvelable. Maintenant, lorsque j’y repense, je suis plus flexible dans mon raisonnement. Je vois trois types de ce pas particulier dans ma séquence :

Pas no.1 – Type A, coopératif

Le consommateur d’énergie achète des tokens de crypto-monnaie qui correspondent à des titres d’un seul fournisseur d’énergie.

Pas no.1 – Type B, capitaliste concentré sur le marché d’énergie

Le consommateur choisit entre des tokens différents, dont chacun correspond aux titres d’un autre fournisseur d’énergie

Pas no.1 – Type C, capitaliste qui dépasse le marché d’énergie

Le consommateur choisit entre des tokens correspondant aux titres des différentes sociétés, du secteur d’énergie aussi bien qu’en d’autres secteurs

Oui, je sais, EneFin ça implique de l’énergie, donc type Ca l’air venu d’un autre conte de fées. Ça, d’accord, mais d’un autre point de vue, ça donne du fuel financier à la plateforme d’échange, donc pourquoi pas, après tout ? Je veux dire qu’EneFinpeut être une fonctionnalité particulière dans le cadre d’une plateforme d’échange plus large.

Question no. 1.2 : si, théoriquement, le consommateur peut choisir entre une position en haut du bilan (actions) ou en bas de celui-ci (obligations), peut-il faire ce choix tout à fait librement ? Je pense que la réponse est dans la stratégie du fournisseur concret. Celui-ci peut décider de mettre en échange sur la plateforme EneFinun panier caractéristique des titres et le choix du consommateur peut porter sur cet éventail précis.

Je passe au « Pas no. 2 » : le consommateur qui vient d’acheter des titres financiers, dans le Pas No. 1, passe à l’achat des contrats à terme pour la fourniture future d’énergie. Question 2.1 : est-ce obligatoire ? Chaque acheteur des titres sur la plateforme EneFindoit-il nécessairement des futures d’électricité ? Ne pourrait-il pas s’arrêter au Pas no. 1 et ne pas passer au Pas no. 2 ? Intuitivement, je répondrais « oui, il peut s’arrêter au Pas no. 1 ». Encore une fois, je sais que ça va un peu à l’encontre du concept initial, fortement coopératif. Néanmoins, je sais aussi qu’un bonne fonctionnalité FinTech, ça devrait donner du choix et de la liberté des mouvements.

Question 2.2 : Si dans le Pas no. 1 l’utilisateur avait acheté des titres des du fournisseur A d’énergie, peut-il bénéficier du prix avantageux (des futures d’énergie) chez le fournisseur B ?  Doit-il y avoir une correspondance stricte entre l’identité sociale des fournisseurs choisis par le consommateur dans les pas consécutifs 1 et 2 ou bien puisse-il y avoir un panier plus complexe ? J’imagine qu’encore une fois, la stratégie du fournisseur concret d’énergie est la meilleure réponse. Un fournisseur donné peut choisir de donner les mêmes prix avantageux à tous les utilisateurs de la plateforme EneFin. C’est le cas d’une entreprise qui n’est pas vraiment gloutonne côté bilan, probablement déjà bien bourré avec d’autres instruments de financement, mais elle est avide de faire des ventes de ces kilowatt heures futures à travers les contrats à terme.

Voici un autre fournisseur, qui donne une préférence légèrement prononcée aux acheteurs de ses propres titres participatifs. Disons que ceux-ci bénéficient du meilleur prix possible, celui normalement réservé aux gros consommateurs institutionnels, pendant que les détenteurs des titres participatifs d’autres fournisseurs enregistrés sur EneFin ont accès à un prix mi-figue mi-raisin : plus élevé que le prix « gros institutionnels » et néanmoins en-dessous du prix typique détail pour les ménages. C’est un fournisseur d’énergie qui donne comme des suggestions gentilles, genre « vous pourriez penser, un de ces jours, à vous trouver une niche dans mon bilan, mais no stress, hein ? ».

Voilà enfin un type strict et direct dans ses manières, qui dit honnêtement : « pas de participation dans mon capital, pas de rabais sur énergie, désolé ». En voilà un qui a bien besoin de financement et peut s’offrir de la patience en termes de ventes des kilowatt heures.

Il en faut un peu de tout pour faire un monde et c’est aussi la devise que j’essaie de suivre dans mon raisonnement à propos d’EneFin. Je veux une plateforme d’échange qui puisse accommoder plusieurs stratégies alternatives de la part des fournisseurs d’énergie. Même dans la situation hypothétique où le consommateur aurait suivi le chemin type C dans le pas no. 1 de ma séquence, il peut y avoir des fournisseurs d’énergie qui lui octroient un rabais sur l’énergie à être fournie dans l’avenir, juste l’histoire de faire tourner la roue du marché. C’est tout dans la stratégie adoptée par l’émetteur concret de ces contrats à terme.

Voilà que les questions embarrassantes m’ont conduit à une vision bien élargie et bien assouplie du concept initial EneFin. Ça peut commencer avec une plateforme d’échange généraliste, par exemple avec celle de Katipult. On attire des fournisseurs d’énergie avec leurs titres de participation financière dans leurs bilans et on leur offre la possibilité d’émettre des contrats à terme portant sur la fourniture future de l’énergie pour les consommateurs ménagers. Les fournisseurs d’énergie ont la liberté de vendre ces contrats à terme aux prix de leur choix et on leur suggère l’idée d’offrir des prix avantageux, proches de ceux réservés aux consommateurs institutionnels. On fait du marketing à l’égard des consommateurs ménagers pour qu’ils achètent ces contrats et on leur donne la possibilité de les revendre ensuite.

Dans ce cadre général, des stratégies différentes peuvent émerger. Maintenant, le pas suivant de mon analyse est la structure légale de ces contrats à terme pour la fourniture d’électricité. Il me faut un contrat, qui donne à son détenteur le droit de recevoir une quantité standardisée d’énergie, dans l’avenir, à un prix fixé d’avance aujourd’hui. Encore une fois, j’étudie la situation comme une séquence en un nombre fini des pas, avec des déroulements alternatifs. Question : si j’achète de mon fournisseur d’énergie des contrats à terme portants sur les fournitures d’électricité depuis un moment dans 6 mois jusqu’au moment dans 12 mois, devrait-il être possible de les utiliser pour payer ma facture d’électricité dans les six mois immédiatement à venir ? J’achète donc 1000 kWh à être fournies entre le 1erNovembre 2018 et le 30 Avril 2019 et je dis à mon fournisseur « Comme j’ai ces 1000 kWh futures, à un prix qui semble vous satisfaire (puisque vous me les avez vendues, ces 1000 kWh), pourquoi pas faire un décompte ? Je vous paie les 1000 kWh que je vais utiliser dès maintenant avec ces contrats à terme. Alors, affaire conclue ? ».

Bien sûr, la réponse dans un cas concret dépend entièrement de la stratégie adoptée par le fournisseur, mais ça ouvre une perspective intéressante. Ces contrats à terme échangés à travers EneFinpourraient avoir des prix alternatifs suivant leur capacité de décompte avec des obligations qui se trouvent hors leur horizon temporel strictement dit. Là, je retourne au train de raisonnement que vous avez déjà pu trouver dans « Les marchés possibles à développer à partir d’une facture d’électricité » : ce que les consommateurs ménagers payent comme facture d’énergie est composé de deux parts, une qui correspond à l’énergie consommée strictement dite et l’autre chargée à titre de la maintenance du réseau.

Comme je traduis cette structure des charges en des contrats à terme, je distingue deux perspectives différentes sous l’étiquette générale de « fourniture future d’énergie ». La perspective courte est l’intervalle de temps qui est trop courte pour modifier physiquement l’accès des consommateurs au réseau. Dans cet horizon temporel la connexion au réseau est quelque chose de fixe et donné comme exogène. Ni moi comme consommateur ni mon fournisseur d’énergie ne peut choisir, en fait, de ne pas maintenir le réseau. Moi, je dois rester physiquement connecté et le fournisseur doit maintenir ma connexion en service. Dans cet horizon temporel, un décompte du type décrit là-dessus serait possible juste dans le cadre de cette partie de ma facture courante d’énergie qui correspond au jus pompé dans ces câbles strictement dit. Quoi que je n’eusse acheté comme contrat à terme, le coût de maintenance courante du réseau doit être financé.

En revanche, si nous avançons plus loin dans l’avenir, nous aboutissons à une perspective temporelle qui sera suffisante pour la modification physique du réseau. Le fournisseur pourra liquider physiquement ma connexion et connecter quelqu’un d’autre dans le voisinage. Si j’achète suffisamment des futures sur énergie, à travers EneFin, pour compenser le montant total de ma facture d’électricité sur cette période plus longue, théoriquement moi et mon fournisseur nous pourrons utiliser ces futures pour financer, à travers un décompte, une période de se dire adieu. Je les achète, ensuite je les revends à mon fournisseur et c’est comme si notre contrat se finissait maintenant. Oui, ma connexion va physiquement rester en place mais moi je ne vais pas payer un sous pour sa maintenance durant le temps qui normalement correspondrait à la période de préavis inclue dans le contrat à long terme.

Autre question, et celle-là devient vraiment embarrassante : si, dans un marché local d’énergie, par exemple dans une ville entière, la fonctionnalité EneFinprend vraiment de l’essor et les contrats à terme qui y sont échangés couvrent la valeur totale de ce marché comme deux ans à l’avance, pourrions-nous avoir un marché complètement dépourvu de ces contrats signés pour long-terme, qui à présent sont la base normale des transactions entre les fournisseurs d’énergie et leurs clients ?

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund(aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon. Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Ce que le prof en moi veut dire sur LCOE

 

Mon éditorial sur You Tube

Je me concentre sur la faisabilité économique et légale de mon concept d’entreprise EneFin. Par ailleurs, dans ma dernière mise à jour en anglais (This is how I got the first numerical column) j’explique pourquoi j’ai laissé tomber le nom Coop EneFin : en anglais, « coop » veut dire « coopérative », il est vrai, mais ce n’est pas la seule dénotation du mot. Les autres sont : « berceau », « poulailler » ou « espace étroit ». Pas vraiment ce que je voudrais associer avec un projet d’entreprise. Bref, je retourne aux sources, c’est-à-dire au nom « EneFin », bénite soit la modération dans la création des néologismes.

Alors, la faisabilité. Je commence par les coûts et je pose la question suivante : est-ce que le mécanisme EneFin pourra fonctionner dans le monde d’énergies renouvelables sans aucune forme d’aide fiscale ou bien les nouveaux fournisseurs de telle énergie auront-ils besoin des subventions publiques ? Je commence par recenser l’information que j’ai au sujet des coûts de production d’électricité des sources renouvelables. Je commence aussi à jouer le prof, comme ce blog à une vocation éducative. Dans ce cas particulier, il est difficilement évitable de jouer le prof, de toute façon, puisque dans le business d’électricité le coût de production n’est pas tout à fait la même chose que ce que vous pouvez connaître de votre cours d’économie ou de gestion. En ce qui concerne l’énergie, la logique de base est celle de LCOEou « coût nivelé d’électricité » (anglais : « Levelized Cost Of Electricity »). Ci-dessous je vous donne la formule générale de LCOE et juste en cas où elle ne s’affiche pas correctement, ici vous avez le lien hypertexte pour voir la formule directement dans l’archive de mon blog.

LCOE

Alors, la notation. En général, nous considérons une période de nannées de cycle de vie technologique de l’installation génératrice. Logiquement, le « » est la position numérique d’une année particulière dans ce cycle de vie. Comme vous pouvez le voir, pratiquement tout ce qui compte dans cette formule est « t », d’une façon ou d’une autre. Le symbole Itreprésente l’investissement mis dans l’installation en question dans l’année t ; Mtest le coût de maintenance durant l’année t, Ftsymbolise le coût du carburant brûlé, Etest la quantité d’énergie produite et rreprésente le taux d’escompte assigné à tout ce calcul.

Maintenant, d’abord je vous sers l’information sur ce LCOE comme il est couramment estimé pour les énergies renouvelables en ensuite je discute un peu la controverse théorique et pratique qui accompagne cette formule. Les nombres, je les ai pris du rapport publié parIRENA, intitulé Renewable Power Generation Costs in 2017. Pour l’hydro-génération ça semble tourner autour de $0,05 = €0,04 par kWh ; l’éolien dans les installations sur terre ferme ça se défend à $0,06 = €0,05 par kWh et lorsque ces moulins sont localisés dans la mer, c’est $0,14 = €0,12 pour une heure qui se kilowatte ; le LCOE du photovoltaïque semble osciller autour de $0,10 = €0,08 quoi que ça tend à se casser la gueule en tombant, ces derniers temps (moins 73% sur les sept dernières années), donc ça peut tomber encore ; le solaire concentré, donc le truc basé sur les miroirs paraboliques qui collectent la chaleur du soleil, ça génère un LCOE autour de $0,22 = €0,18. Encore, ce rapport que je cite signale que les installations éoliennes marines ainsi que celles basées sur le solaire concentré, à être mises en service dès 2020, vendent aujourd’hui leur énergie future entre $0,06 et $0,10 par kWh, donc entre €0,05 et €0,08 ; soit ils sont tellement désespérés de faire leurs ventes, ces gars-là, soit il y a vraiment du progrès dans l’air.

Du point de vue microéconomique, le LCOE c’est une valeur complexe, qui combine le coût moyen de production strictement dit – soit le (Mt+ Ft)/Etou le coût de maintenance et celui du carburant divisés par la quantité d’énergie produite – avec le retour sur l’investissement exprimé comme It/Et. Le retour sur investissement, dans le monde paisible de la microéconomie, c’est fait du bénéfice net. Alors, la présence de la composante It/Etassume que le LCOE n’est pas vraiment le coût strictement dit, c’est plutôt un prix minimum satisfaisant pour le fournisseur d’énergie, avec la marge bénéficiaire déjà incluse. Personnellement, je crois que tout ce bazar de LCOE est plutôt politique qu’économique. Lorsque la question de compétition dans le marché de l’énergie avait commencé à lever la tête, dans les années 1980, les gros fournisseurs établis dans le marché avaient commencer à grogner au sujet des prix qui vont tomber et ça va faire du remous, et les bénéfices vont tomber etc. Les gouvernements avaient donc commencé à mettre en place des systèmes des subventions pour compenser à ces braves fournisseurs établis d’énergie les effets horribles de la compétition. Lorsque les énergies renouvelables avaient sérieusement entré la scène, dans les années 1990, il y avait déjà en place toute cette philosophie du coût qui n’est pas tout à fait un coût et ça tombait à merveille pour organiser le support fiscal pour les nouveaux venus.

Remarquez, dans ce cas, le politique n’est pas entièrement con. L’énergie c’est aussi de la sécurité et de la stabilité des plus élémentaires ; c’est même un facteur de base de la cohésion sociale. Instaurer un calcul des coûts qui sont en fait un flux de trésorerie satisfaisant pour les investisseurs, ça garantit un flux de capital vers le secteur d’énergie et donc une sécurité énergétique accrue. Un secteur d’énergie sous-investi ça peut donner des coups de sabots très, très douloureux là où vous savez.

La bonne nouvelle qui vient avec ces considérations de base à propos de LCOE est que ces coûts moyens par kWh que je viens de citer c’est essentiellement du LCOE, donc ce sont en principe des prix minimum de base. Le coût du carburant pour les renouvelables c’est nul, je veux dire zéro. La maintenance est d’habitude moins onéreuse que la construction initiale, donc ces coûts par kilowatt heure c’est essentiellement le calcul du flux de trésorerie lissé qui assure un retour satisfaisant sur investissement.

Je compare rapidement ces coûts avec les prix d’électricité dans quelques pays européens (consultez Je recalcule ça en épisodes de chargement des smartphones) est ça à l’air optimiste. Mon concept EneFinassume, entre autres, que les consommateurs ménagers pourront acheter de l’énergie au prix avantageux réservé normalement aux consommateurs institutionnels, à condition qu’ils acquiescent de participer dans le bilan de leur fournisseur. Dans tous les pays que je prends en compte, l’éolien sur terre ferme et l’hydraulique, ça se défend financièrement sans problème, dans le schéma EneFin. Même les prix relativement bas réservés aux usagers institutionnels donnent une marge confortable en plus du LCOE moyen. En ce qui concerne les installations éoliennes dans la mer, le photovoltaïque ainsi que le solaire concentré, ceux gars-là pourraient avoir des problèmes en s’EneFinant en Norvège, en Finlande et dans la République Tchèque. Partout ailleurs, ça se défend, sans épater. Remarquez, la Norvège et la Finlande, c’est pas vraiment terriblement ensoleillé et l’éolien marin assume des gros projets d’investissement, d’un calibre bien en-dessus ce que je vois comme le marché de base pour EneFin. Somme toute, y a des chances que l’idée ne soit pas complètement idiote.

Les faits, ils ont l’air favorables et je peux les laisser à eux-mêmes pour quelques instants, les instants dont j’ai besoin pour jouer le prof. J’ai envie de donner un petit cours d’économie appliquée à l’occasion de cette formule de LCOE. Premièrement, les maths. Dans la formule, vous pouvez voir deux fractions ordinaires superposées. Au premier abord ça a l’air compliqué mais voilà quelques trucs que vous connaissez de l’école par ailleurs et qui peuvent être utiles pour simplifier ou plutôt pour diviser la formule en deux niveaux distincts d’analyse. Le symbole « ∑ » dans les deux étages de la fraction générale symbolise la somme d’une chaîne des composantes. En d’autres mots, les deux étages de la fraction générale sont des sommes des fractions partielles formulées comme [(It+ Mt+ Ft) / (1 + r)t] / [Et/ (1 + r)t]pour chaque année « t ».

Lorsque vous avez à faire, dans la même formule, de la division et de l’addition, que faites-vous en premier lieu ? Oui, la division. Cela veut dire qu’il y a une version possible de cette formule où ∑ [(It+ Mt+ Ft) / (1 + r)t] / ∑ [Et/ (1 + r)t] = ∑ {[(It+ Mt+ Ft) / (1 + r)t] / ∑ [Et/ (1 + r)t]} donc où je tire l’opération d’addition à l’extérieur de la fraction générale. Comme j’ai dit, c’est un truc, pas une méthode à 100% rigoureuse, néanmoins ça permet de se débarrasser, pour un instant, du dénominateur (1 + r)tqui se répète aussi bien dans le numérateur de la fraction générale que dans son dénominateur. Le truc arithmétique a un appui économique. Dans le passé, le taux d’escompte « r » était simple et intuitif : tôt ou tard on assumait qu’il était égal au taux d’intérêt qui, à son tour, était corrélé avec taux d’inflation. A présent, on vit dans une période des taux d’intérêt historiquement les plus bas, accompagnés par des épisodes des plus en plus fréquents de déflation locale. Il y a vraiment des années quand le dénominateur (1 + r)tdevrait être remplacé par (1 – r)t.

De tout en tout, ce que le prof en moi veut dire est que le LCOE général peut être décomposé en des LCOE locaux, dans lesquels le dénominateur (1 + r)tn’a rien de vraiment constructif à dire. Cette assomption est importante pour mon concept d’entreprise – l’EneFin – dans la mesure où je veux précisément miser sur le mécanisme des prix espérés dans l’avenir, donc des LCOE locaux et momentanés.

Si vous voulez un peu de littérature scientifique rigoureuse sur les prix d’énergie, deux noms apparaissent comme des classiques du domaine : Paul Joskow et Jean Tirole. Voilà quelques références : Comparing the Costs of Intermittent and Dispatchable Electricity Generating Technologiespar Paul L. Joskow, Transmission Rights and Market Power on Electric Power Networkspar Paul L. Joskow et Jean Tirole, Reliability and Competitive Electricity Marketspar Paul Joskow et Jean Tirole, Transmission Rights and Market Power on Electric Power Networks I: Financial Rightspar Paul Joskow et Jean Tirole suivi par Transmission Rights and Market Power on Electric Power Networks II: Physical Rightsdes mêmes auteurs. Si par hasard ces liens hypertexte ne marchent pas, contactez moi via mon blog et je vous envoie des PDFs par e-mail.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund(aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon. Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

La morale de ce conte de fées

Mon éditorial

Ça y est. Je pense que j’ai trouvé le concept central d’entreprise pour mon projet EneFin. Le voilà. Le contexte économique c’est la différence entre deux catégories des prix de détail dans le marché de l’électricité : les prix type « ménage », plus élevé, et le prix « professionnel », plus bas. J’avais déjà donné un aperçu de ces différences, dans certains pays européens, dans « Je recalcule ça en épisodes de chargement des smartphones » ainsi que dans « A first approach on the financial side ». Les deux catégories des prix sont celles pour les consommateurs finaux et néanmoins la différence entre elles est tellement significative que c’est presque comme si le prix pour les consommateurs institutionnels était un prix de gros dans une chaîne de valeur ajoutée. Le truc, c’est qu’il n’y a pas vraiment de valeur ajoutée entre ces deux prix. Leur fourchette a sa source uniquement dans la différence du pouvoir de négociation entre les deux catégories d’acheteurs.

Imaginons un contrat complexe, où le consommateur individuel achète de l’énergie en payant le prix « ménager » ordinaire, mais ce prix lui achète deux choses : de l’énergie payée au prix « institutionnel » ainsi que quelque chose d’autre, pour l’équivalent de fourchette entre le prix « ménager » et le prix « institutionnel ». Mathématiquement, avec les prix de mon pays, la Pologne, ça se présente comme €0,15 de prix « ménager » que je paie pour chaque kilowatt heure et ce €0,15 m’achète la kilowatt heure en question, strictement dite, au prix « institutionnel », donc €0,09, plus quelque chose d’autre pour l’équivalent de €0,15 – €0,09 = €0,06. Ce quelque chose d’autre ferait bien d’être logiquement lié à la consommation d’énergie. Suivant les écrits de l’un des pères fondateurs de ma discipline scientifique, Jean Baptiste Say, ce qui est étroitement lié à la consommation, c’est la production.

Ce que j’achète pour ce surplus de €0,15 – €0,09 = €0,06 pourraient donc être des (petits) titres de participation dans le bilan d’un fournisseur d’énergie, soit dans le capital social soit dans la dette d’entreprise. Mon petit €0,06 que je paie avec l’achat de chaque kilowatt heure peut donc être converti en une action ou bien une obligation d’un fournisseur d’énergie. Alors voilà que, tout à fait par hasard, un nouvel entrepreneur dans le voisinage construit une installation génératrice d’électricité, de petite ou moyenne capacité, à la base d’énergies renouvelables : photovoltaïque, hydraulique, peut-être de l’éolien (ce dernier type d’énergie est difficile à tailler en petit, pour autant que je sache). Moi, comme consommateur, je suis intéressé dans le développement de telles sources d’énergie renouvelable dans mon environnement, donc moi et le nouvel entrepreneur, on négocie.

Moi, comme Polonais moyen, je consume environ 5 010,27 kWh par an en termes d’usage strictement ménager. Enfin, au total, je consomme plus, plutôt comme 28 961,10 kWh par an, mais le reste, c’est-à-dire 28 961,10 – 5 010,27 = 23 950,83 kWh par an, je les consomme dans le transport et sous forme d’énergie immobilisée dans les biens et services. Ce que je peux apporter à la table de négociation avec ce fournisseur d’énergie en voie de construction ce sont mes 5 010,27 kWh bien à moi, par an. En prix d’électricité type « ménager », ces 5 010,27 kWh bien à moi valent 5 010,27 kWh * €0,15 = €751,54.

Voilà que moi et le fournisseur nouvel de l’énergie, on négocie l’accord suivant. J’achète de lui un paquet de 5010 contrats à terme, chacun correspondant à 1 kilowatt heure d’énergie à être fournie dans l’avenir (c’est le trait caractéristique des contrats à terme). J’en passe sur le 0,27 kWh par an, pas de quoi faire un fromage. Je paie pour chacun de ces contrats le prix que je paierais pour l’électricité « ménagère », donc €0,15 * 5010 = €751,50 et ces €751,50 m’achètent de l’électricité future pour un prix unitaire de €0,09 par une kilowatt heure, soit €450,90 pour ma consommation annuelle, ainsi que des titres de participation dans le bilan de ce fournisseur, pour l’équivalent de €0,15 – €0,09 = €0,06 par kWh, donc pour €0,06*5010 = €300,60.

En me pourvoyant en ce paquet des contrats à terme, je m’assure, premièrement, la fourniture future d’électricité pour un prix fixe très avantageux pour un consommateur individuel et deuxièmement, j’acquiers une parcelle de capital investi dans le fournisseur d’énergie. Quel que soient mes titres de participation dans son bilan – actions ou obligations – l’argent que je paie pour l’énergie strictement dite, donc les €0,15 – €0,09 = €450,90, ça contribue à assurer un retour sur mes €0,06*5010 = €300,60 investis dans le bilan. Le fournisseur d’énergie sur sa piste d’envol, quant à lui, vient de me vendre de l’énergie future pour du pognon payé aujourd’hui (toujours avantageux), il a fait une affaire décente puisqu’il vient de vendre à un prix qu’il pourrait obtenir en pourvoyant, par exemple, un large centre commercial, et en plus, il vient d’acquérir du capital liquide pour son investissement.

Somme toute, ça à tout l’air d’une situation « win – win » et en même temps, c’est un schéma coopératif. Lorsque l’acheteur des biens acquiert les bien en question et en même temps la participation dans le bilan de leur fournisseur, c’est une structure coopérative. Les avantages sont ceux d’une coopérative : les clients sont en même temps des investisseurs de leur fournisseur, donc ils ont tout intérêt à lui rester fidèles et en même temps ils ont un contrôle poussé sur son activité. Voilà pourquoi j’ai donné à ce concept d’entreprise le nom de Coop EneFin.

C’est un schéma coopératif mais pas uniquement coopératif. La formule des contrats à terme combinés avec les participations dans le bilan peut acquérir de l’énergie, pour ainsi dire, si nous créons un marché pour l’échange libre de ces contrats. De cette façon je transforme ces contrats en des titres financiers et par ce moyen je donne à Coop EneFinl’élégance légère d’une société par actions combinée avec un marché financier ouvert. Puisqu’on parle du loup et le loup c’est le marché, il est prudent de mesurer la taille du loup, juste en cas je voudrais le coucher dans le lit de la grand-mère du Petit Chaperon Rouge. En utilisant mes données sur les prix d’électricité dans certains pays européens (consultez « Je recalcule ça en épisodes de chargement des smartphones » et « A first approach on the financial side »), je calcule la valeur du marché créé sur la base de demande d’électricité de la part d’une population de 180 000 ménages urbains. Je rappelle que ces 180 000 c’est une fraction hypothétique de 12% des consommateurs innovants dans une ville de taille respectable, soit de 1 500 000 d’habitants.

Tableau 1, ci-dessous, présente mes calculs de la taille du loup, donc des trois variables agrégées : a) la valeur marchande d’électricité vendue aux 180 000 ménages, au tarif pour les clients institutionnelsb) la valeur comptable du capital possible à collecter des 180 000 ménages, sur la base du résiduel « prix pour consommateurs institutionnels – prix pour les ménages » c) la capacité électrique requise pour 180 000 ménages, kWh. En plus, j’ai déniché (provisoirement), une règle comptable qui dit que j’ai besoin de €2445 d’investissement en capital physique pour chaque kilowatt de capacité électrique dans une turbine hydraulique[1]. Ceci veut dire que le capital possible à collecter à travers mon schéma de Coop EneFinpourrait financer 40 – 41% de l’investissement physique.

Tableau 1

Pays Valeur marchande d’électricité vendue aux 180 000 ménages, au tarif pour les clients institutionnels Valeur comptable du capital possible à collecter des 180 000 ménages, sur la base du résiduel « prix pour consommateurs institutionnels – prix pour les ménages » Capacité électrique requise pour 180 000 ménages, kWh
Autriche  € 124 004 599  € 151 561 177  157 286
Suisse  € 109 957 128  € 93 725 694  122 376
République Tchèque  € 97 855 221  € 97 855 221  159 581
Allemagne  € 207 383 524  € 276 511 365  157 826
Espagne  € 102 435 544  € 111 747 866  106 305
Estonie  € 136 026 400  € 45 342 133  172 535
Finlande  € 150 197 511  € 193 111 086  244 940
France  € 133 557 336  € 93 490 136  152 463
Royaume Uni  € 130 129 746  € 50 049 902  114 269
Hollande  € 122 642 524  € 122 642 524  175 004
Norvège  € 147 436 962  € 210 624 231  240 439
Pologne  € 81 166 381  € 54 110 920  102 951
Portugal  € 92 640 729  € 84 920 668  88 129

 Toujours ça de gagné. Encore, il faut que je prenne la peau du loup, puisque Coop EneFinest censé être une entreprise à profit. Je suppose que 10% de commission sur la valeur totale des transactions faites sur la plateforme technologique correspondante est une assomption raisonnable, à partir de laquelle je peux formuler une analyse financière plus fine.

La morale de ce conte de fées est – une fois de plus – le principe de base que je répète à mes étudiants : commencez toute étude de marché par étudier les prix, car les prix vous informent sur la structure dudit marché et sur les bonnes affaires que vous pouvez y faire. Allez les enfants, papy Krzysztof a fini de raconter ses contes des fées, pour aujourd’hui.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund(aussi accessible en version anglaise). Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon. Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

[1]https://www.quora.com/What-is-the-cost-of-setting-up-of-a-1-Mw-hydro-power-plantdernier accès 23 Avril 2018