La marge opérationnelle de $1 539,60 par an par 1 kilowatt

Mon éditorial sur You Tube

Alors, je change un peu d’azimut. Dans « All hope is not lost: the countryside is still exposed » j’ai présenté une revue de littérature à propos des risques liées aux inondations et aux sécheresses en Europe. Il paraît que ces risques sont très différents de ce que je pensais qu’ils étaient. Comme quoi, il est bon de ne pas céder à l’hystérie collective et d’étudier patiemment la science que nous avons à notre disposition. Je reviens donc un peu sur les propos que j’ai exprimés dans « Le cycle d’adaptation ». J’avais écrit que les infrastructures urbaines en Europe sont parfaitement adaptées aux conditions climatiques qui n’existent plus : maintenant je reviens et je nuance sur ce propos. Oui, les villes européennes ont besoin d’adaptation aux changements climatiques, mais elles sont en train de s’adapter déjà. En revanche, la partie majeure des pertes humaines et matérielles suite d’inondations et de sécheresses survient en dehors des grandes villes, dans les endroits ruraux. La sécheresse, ça frappe les agriculteurs bien avant que ça frappe les citadins. Lorsque les habitants des villes voient l’eau manquer dans leurs robinets, les agriculteurs en sont déjà à faire la solde des pertes dues aux récoltes plus modestes que d’habitude.

Le Navigateur des Projets, accessible à travers la page de « International Renewable Energy Agency », m’a fait réfléchir sur les objectifs communs autour desquels les communautés locales d’Europe peuvent s’organiser pour développer des projets comme mon concept d’Étangs Énergétiques. Maintenant, après une revue de littérature, je pense qu’un objectif rationnel est de construire des infrastructures aquatiques, pour stocker l’eau de pluie ainsi que produire et stocker l’hydroélectricité, dans des régions rurales, pour protéger l’agriculture et indirectement protéger les ressources hydrologiques des villes.

Vous pouvez lire dans « All hope is not lost: the countryside is still exposed » que la littérature scientifique n’est pas tout à fait d’accord sur les risques liés à la sécheresse en Europe. Néanmoins, la science à ses limites méthodologiques : elle peut dire quelque chose à coup sûr seulement si les données empiriques sont suffisamment abondantes et claires pour vérifier les hypothèses statistiquement comme il faut. Les données empiriques que nous avons à propos des sécheresses en Europe et de leurs effets économiques souffrent de l’effet pervers de notre capacité d’adaptation. J’explique. Pour une preuve statistique vraiment rigoureuse, il faut que les distributions d’erreurs locales des différentes variables soient mutuellement indépendantes (donc pas de corrélation significative entre les erreurs d’estimation de variable A et celles de variable B) et aléatoires, donc dispersées au moins aussi largement que le suggère la distribution normale. L’erreur d’estimation de l’humidité résiduelle du sol, par exemple, doit être aléatoire et indépendante de l’erreur d’estimation de la récolte de blé. Eh bien, à en croire Webber et al. (2018[1]), il n’en est pas le cas : les bases de données qui croisent du météo et hydrologie avec de l’agriculture rendent des corrélations significatives entre les erreurs d’estimation après régression linéaire d’une variable sur les autres. Pourquoi ? Mon explication intuitive à moi est que nous, les humains, on réagit vite lorsque notre base de bouffe est menacée. Nous réagissons tellement vite, à travers les modifications des technologies agriculturales, que nous induisons de la corrélation entre le climat et la récolte.

Lorsque la rigueur scientifique nous fait défaut, c’est une bonne idée de tourner vers l’observation plus élémentaire et plus anecdotique. Je passe en revue les actualités du marché agricole. Chez moi, en Pologne, la récolte des fruits menace d’être plus basse de 30% par rapport aux pronostics faits au mois de Mai[2]. La récolte céréalière peut baisser entre 8% et même 40% par rapport à celle de l’année dernière, suivant la région exacte du pays[3]. En France, selon Europe 1, l’alerte sécheresse dans l’agriculture est devenue quelque chose de normal[4]. Je passe aux prix des contrats à terme sur les biens agricoles de base. Le blé, contrats MATIF, donc le marché européen, ça s’agite cette année. La tendance des dernières semaines est à la hausse des prix, comme si les traders prévoyaient un déficit d’offre en Europe. Les contrats MATIF sur le maïs montrent à peu de choses près la même tendance. En revanche, les contrats CBOT sur blé, émis par CME Group et basés sur le marché américain, montrent une tendance plus décidément ascendante dans le long terme quoi que descendante dans l’immédiat. Ah, je viens de regarder les prix CBOT dernière minute sur https://www.barchart.com/futures/quotes/ZW*0/futures-prices: ça grimpe aujourd’hui dans la matinée. Voilà donc que je cerne le risque qui correspond à la sécheresse en Europe : c’est le risque de volatilité croissante des prix agricoles. Si je veux approcher ce risque de façon analytique, je peux essayer d’estimer, par exemple, la valeur du marché d’un instrument financier hypothétique – comme un contrat à terme ou une option – qui paie lorsque les prix restent dans l’intervalle désiré et apporte des pertes lorsque les prix vont hors de cet intervalle.

Je généralise l’approche financière à mon concept d’Étangs Énergétiques. Je pense que l’investissement qui a des chances de gagner le support d’acteurs sociaux est celui dont la Valeur Actuelle Nette – pour un cycle de vie utile de l’infrastructure de « m » années – est égale à NPV(m) = vente d’hydroélectricité (m) + réduction du risque lié aux inondations (m) + réduction du risque lié aux sècheresses (m). En ce qui concerne les revenus de la vente d’électricité – disons que j’appelle ces revenus VE(m) – le calcul est comme suit : VE(m) = puissance en kilowatts * 365 jours * 24 heures * prix de marché d’électricité = {flux par seconde en litres (ou en kilogrammes d’eau, revient au même) * constante gravitationnelle a = 9,81 * dénivellation en mètres / 1000} * 365 jours * 24 heures * prix de marché d’électricité (consultez « Sponge Cities »). Chez moi, en Pologne – avec 1 kilowatt heure achetée à un prix total d’à peu près $0,21 – 1 kilowatt de puissance génératrice représente un revenu de : 8760 heures dans l’année multipliées par $0,21 par kilowatt heure égale $1 839,60 par an.

Pour autant que j’ai pu me renseigner dans une publication par IRENA, l’investissement nécessaire en hydro-génération est d’à peu près $1500 ÷ $3000 par 1 kilowatt de puissance, à l’échelle mondiale. Cette moyenne globale représente un éventail assez étendu d’investissement par kilowatt, en fonction de la région géographique, de la puissance totale installée dans l’installation donnée, ainsi que de la dénivellation du cours d’eau correspondant. Pour des raisons que je n’ai pas encore étudié en détail, l’investissement requis par 1 kilowatt de puissance dans les installations classées comme petites varie le plus en Europe, en comparaison aux autres régions du monde. En partant de ce seuil général d’à peu près $1500 l’investissement requis par 1 kilowatt peut aller même jusqu’à $8000. Allez savoir pourquoi. Ce plafond maximum est deux fois plus élevé que ce qui est reporté dans quelle autre région du monde que ce soit.

La dénivellation naturelle du cours d’eau où la turbine hydroélectrique est installée joue son rôle. Dans des endroits vraiment plats, où la seule façon d’avoir un peu de force dans ce flux d’eau est de pomper l’eau dans des réservoirs élevés, l’investissement pour les petites turbines de moins de 50 kilowatts est d’environ $5400 par kilowatt, comme moyenne mondiale. Ça tombe vite à mesure que la dénivellation va de quasi-zéro vers et au-dessus de 25 mètres et ensuite ça tombe de plus en plus gentiment.

À part le retour requis sur l’investissement, le coût complet d’une kilowatt heure contient celui de maintenance et de gestion opérationnelle. Selon le même rapport d’IRENA, ce coût peut atteindre, dans des conditions plutôt pessimistes, comme $300 par an par 1 kilowatt de puissance installée. Après la déduction de ce coût le flux annuel de revenu des ventes d’électricité tourne en un flux de marge opérationnelle égal à $1 839,60 – $300 =  $1 539,60 par an. Quelques pages plus loin, toujours dans la même publication d’IRENA je trouve que le coût actualisé d’énergie, « LCOE » pour les amis, peut se ranger en Europe entre $0,05 et $0,17. Le coût de maintenance et de gestion opérationnelle, qui fait partie de LCOE, est de $300 par an par 1 kilowatt de puissance installée, divisé par 8760 dans l’année, donc $0,03 par kilowatt heure. Par conséquent, la partie « retour sur investissement » du LCOE peut varier entre $0,05 – $0,03 = $0,02 et $0,17 – $0,03 = $0,14 par kilowatt heure. Ce retour sur investissement, je le multiplie par 8760 heures dans l’année, pour obtenir le retour requis par an sur l’investissement en 1 kilowatt de puissance. Ça donne un intervalle entre $175,20 et $1 226,40 par an. Ceci me donne deux informations importantes. Premièrement, la marge opérationnelle de $1 539,60 par anest suffisante pour satisfaire même les projections financières des plus exigeantes.

Deuxièmement, longue histoire courte, comme disent les Anglo-Saxons, je prends l’investissement le plus coûteux possible, donc sur mon continent à moi (l’Europe), donc $8000, et je divise par cette fourchette des retours annuels. Ça tombe entre $8000/$1226,40 et $8000/$175,20, soit entre 6,5 et 46 années. Bon, disons que les 46 années c’est de l’abstrait. En fait, tout ce qui va plus loin que 20 ans, dans les investissements en la génération d’énergie, c’est tout simplement l’absence d’égard au retour sur l’investissement strictement dit. Ce qui m’intéresse c’est la dent inférieure de la fourchette, donc les 6,52 années. Je prends cet intervalle de temps comme benchmark du retour espéré par les investisseurs les plus exigeants. Par ailleurs, là, il est bon de rappeler quelque chose comme un paradoxe : plus vite vont se développer les technologies des turbines hydroélectriques, plus court sera le temps de vie morale de toute technologie spécifique, donc plus court sera le temps alloué au retour sur l’investissement.     

Une conclusion partielle que je peux tirer de ces calculs, à propos de mon projet « Étangs Énergétiques » est que les ventes d’électricité produite dans les turbines hydroélectriques faisant partie de l’infrastructure prévue peuvent constituer une motivation claire pour des investisseurs potentiels, à condition toutefois de maintenir la taille de l’investissement local dans les dizaines des milliers des dollars plutôt que dans les milliards que dépense le gouvernement Chinois sur le projet des « Sponge Cities ».

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ? Vous pouvez me contacter à travers la boîte électronique de ce blog : goodscience@discoversocialsciences.com .


[1] Webber, H., Ewert, F., Olesen, J. E., Müller, C., Fronzek, S., Ruane, A. C., … & Ferrise, R. (2018). Diverging importance of drought stress for maize and winter wheat in Europe. Nature communications, 9(1), 4249.

[2] http://www.portalspozywczy.pl/owoce-warzywa/wiadomosci/zbiory-owocow-w-2019-roku-beda-nawet-o-30-procent-nizsze-niz-zwykle-wideo,173565.html dernier accès 16 Juillet 2019

[3] http://www.portalspozywczy.pl/zboza/wiadomosci/swietokrzyskie-w-zwiazku-z-susza-zbiory-zboz-moga-byc-nizsze-nawet-o-40-proc,160018.html dernier accès 16 Juillet 2019

[4] https://www.europe1.fr/societe/secheresse-pour-les-agriculteurs-les-restrictions-deau-sont-devenues-la-routine-3908427 dernier accès 16 Juillet 2019

Les 2326 kWh de civilisation

Mon éditorial sur You Tube

Je reviens à ma recherche sur le marché de l’énergie. Je pense que l’idée théorique a suffisamment mûri. Enfin j’espère.

Dans un marché donné d’énergie il y a N = {i1, i2, …, in} consommateurs finaux, M = {j1, j2, …, jm} distributeurs et Z = {k1, k2, …, kz} fournisseurs primaires (producteurs). Les consommateurs finaux se caractérisent par un coefficient de consommation individuelle directe EC(i). Par analogie, chaque distributeur se caractérise par un coefficient de quantité d’énergie négociée EN(j) et chaque fournisseur primaire se caractérise par un coefficient individuel de production EP(k).

Le marché est à priori ouvert à l’échange avec d’autres marchés, aussi bien au niveau de la fourniture primaire d’énergie qu’à celui du négoce. En d’autres mots, les fournisseurs primaires peuvent exporter l’énergie et les distributeurs peuvent aussi bien exporter leurs surplus qu’importer de l’énergie des fournisseurs étranger pour balancer leur négoce. Logiquement, chaque fournisseur primaire se caractérise par une équation EP(k) = EPd(k) + EPx(k), où EPd signifie fourniture primaire sur le marché local et EPx symbolise l’exportation de l’énergie.

De même, chaque distributeur conduit son négoce d’énergie suivant l’équation EN(j) = ENd(j) + EI(j) + ENx(j)ENx symbolise l’énergie exportée à l’étranger au niveau des relations entre distributeurs, EI est l’énergie importée et ENd est l’énergie distribuée dans le marché local.

L’offre totale OE d’énergie dans le marché en question suit l’équation OE = Z*[EPd(k) – EPx(k)] = M*[ENd(j) + EI(j) – ENx(j)]. Remarquons qu’une telle équation assume un équilibre local du type marshallien, donc le bilan de l’offre d’énergie et de la demande pour énergie se fait au niveau microéconomique des fournisseurs primaires et des distributeurs.

La consommation totale ET(i) d’énergie au niveau des consommateurs finaux est composée de la consommation individuelle directe EC(i) ainsi que de l’énergie ECT(i) consommée pour le transport et de l’énergie incorporée, comme bien intermédiaire ECB(i), dans les biens et services finaux consommés dans le marché en question. Ainsi donc ET(i) = EC(i) + ECT(i) + ECB(i).

La demande totale et finale DE d’énergie s’exprime donc comme

N*ET(i) = N*[EC(i) + ECT(i) + ECB(i)]

et suivant les assomptions précédentes elle est en équilibre local avec l’offre, donc

Z*[EPd(k) – EPx(k)] = N*[EC(i) + ECT(i) + ECB(i)]

aussi bien que

M*[ENd(j) + EI(j) – ENx(j)] = N*[EC(i) + ECT(i) + ECB(i)].

Avant que j’aille plus loin, une explication. Pour le moment j’assume que les coefficients individuels mentionnés plus haut sont des moyennes arithmétiques donc des valeurs espérées dans des ensembles structurées suivant des distributions normales (Gaussiennes). C’est une simplification qui me permet de formaliser théoriquement des « grosses » idées. Je pense que par la suite, j’aurai à faire des assomptions plus détaillées en ce qui concerne la distribution probabiliste de ces coefficients, mais ça, c’est pour plus tard.

Ça, c’était simple. Maintenant, le premier défi théorique que je perçois consiste à exprimer cette observation que j’avais faite il y a des mois de ça : les pays les plus pauvres sont aussi le moins pourvus en énergie. Au niveau du bilan énergétique la pauvreté se caractérise soit, carrément, par la quasi-absence de la consommation d’énergie niveau transport et niveau énergie incorporée dans les biens et services, soit par une quantité relativement petite dans ces deux catégories. C’est à mesure qu’on grimpe les échelons de richesse relative par tête d’habitant que les coefficients ECT(i) et ECB(i) prennent de la substance.

La seconde observation empirique à formaliser concerne la structure de la fourniture primaire d’énergie. Dans les pays les plus pauvres, l’énergie primaire est très largement fournie par ce que l’Agence Internationale d’Énergie définit élégamment comme « combustion des bio fuels » et qui veut tout simplement dire qu’une grande partie de la société n’a pas d’accès à l’électricité et ils se procurent leur énergie primaire en brûlant du bois et de la paille. Formellement, ça compte comme utilisation d’énergies renouvelables. Le bois et la paille, ça repousse, surtout cette dernière. Encore faut se souvenir que ce type d’énergétique est renouvelable au niveau de la source d’énergie mais pas au niveau du produit : le processus relâche du carbone dans l’atmosphère sans qu’on ait une idée vraiment claire comment faire retourner ce génie dans la lampe. La morale (partielle) du conte des fées est que lorsque vous voyez des nombres agrégés qui suggèrent la prévalence d’énergies renouvelables en Soudan du Sud, par exemple, alors ces renouvelables c’est du feu de paille très littéralement.

La différence empirique entre ces pays les plus pauvres et ceux légèrement plus opulents réside dans le fait que ces derniers ont un réseau de fourniture primaire d’électricité ainsi que de sa distribution et ce réseau dessert une large partie de la population. Ce phénomène se combine avec une percée originale d’énergies renouvelables dans les pays en voie de développement : des populations entières, surtout des populations rurales, gagnent l’accès à l’électricité vraiment 100% renouvelable, comme du photovoltaïque, directement à partir d’un monde sans électricité. Ils ne passent jamais par la phase d’électricité fournie à travers des grosses infrastructures industrielles que nous connaissons en Europe.

C’est justement la percée d’électricité dans une économie vraiment pauvre qui pousse cette dernière en avant sur la voie de développement. Comme j’étudie la base des données de la Banque Mondiale à propos de la consommation finale d’énergie par tête d’habitant, je pose une hypothèse de travail : lorsque ladite tête d’habitant dépasse le niveau de quelques 2326 kilowatt heures de consommation finale d’énergie par an, soit 200 kg d’équivalent pétrole, une société quasiment dépourvue d’économie régulière d’échange se transforme en une société qui produit et fait circuler des biens et des services.

Une fois ce cap franchi, le prochain semble se situer aux environs d’ET(i) égale à 600 ± 650 kg d’équivalent pétrole, soit 6 978,00 ± 7 559,50 kilowatt heures par an par tête d’habitant. Ça, c’est la différence entre des sociétés pauvres et en même temps instables socialement ainsi que politiquement d’une part, et celles dotées d’institutions bien assises et bien fonctionnelles. Rien qui ressemble à du paradis, au-dessus de ces 6 978,00 ± 7 559,50 kilowatt heures par an par tête d’habitant, néanmoins quelque chose qui au moins permet de construire un purgatoire bien organisé.

L’étape suivante est la transgression d’un autre seuil, que je devine intuitivement quelque part entre 16 240 kWh et 18 350 kWh par an par tête d’habitant. C’est plus ou moins le seuil officiel qui marque la limite inférieure de la catégorie « revenu moyen » dans la terminologie de la Banque Mondiale. C’est alors qu’on commence à observer des marchés bien développés est des structures institutionnelles tout à fait stables. Oui, les hommes politiques peuvent toujours faire des conneries, mais ces conneries sont immédiatement projetées contre un fonds d’ordre institutionnel et de ce fait sont possibles à contrecarrer de façon autre qu’une guerre civile. Une fois dans la catégorie « revenu moyen », une économie semble capable de transition secondaire vers les énergies renouvelables. C’est le passage des réseaux typiquement industriels, basés sur des grosses centrales électriques, coexistantes avec des réseaux de distribution fortement oligopolistes, vers des systèmes de fourniture d’énergie basés sur des installations locales puisant leur jus des sources renouvelables.

Finalement, à partir de quelques 3000 kg d’équivalent pétrole = 34 890 kWh par an par tête d’habitant c’est la catégorie des pays vraiment riches. En ce qui concerne les énergies renouvelables, des investissements vraiment systémiques commencent au-dessus de ce seuil. C’est une transition secondaire à forte vapeur.

Bon, je formalise. Une variable parmi celles que j’ai nommées quelques paragraphes plus tôt vient au premier plan :  la consommation totale d’énergie par tête d’habitant ou ET(i) = EC(i) + ECT(i) + ECB(i). Les observations empiriques que je viens de décrire indiquent que dans le processus de développement économique des sociétés, le côté droit de l’équation ET(i) = EC(i) + ECT(i) + ECB(i) se déploie de gauche à droite. D’abord, il y a du EC(i). Les gens consomment de l’énergie pour leurs besoins le plus individuels et le plus directement possible. On brûle du bois ou de la paille et on a de l’énergie thermique pour faire de la cuisine, pour décontaminer l’eau et pour se chauffer. Si ça marche, des habitats humains permanents s’établissent.

Je sais que ça sonne comme le compte rendu d’évènements qui se passèrent à l’aube de la civilisation, mais après que j’ai étudié la situation des nations les plus pauvres du monde je sais aussi que c’est bien ce qui se passe dans des pays comme Niger ou Soudan. Le premier défi de ces populations consiste à faire marcher la structure sociale de base, donc à arriver au point quand les communautés locales sont capables de se développer et pour se développer lesdites communautés locales ont tout simplement besoin de s’établir sur une base relativement stable de nourriture et d’énergie.

Une fois que ce cap est franchi, donc une fois qu’ET(i) passe un seuil critique ET1(i), il y a un surplus d’énergie qui peut se traduire comme le développement du transport, ainsi que celui des marchés des biens et des services. En d’autres mots :

ET1(i) = 2 326 kWh

[EC(i) ≤ EC1(i)] => [ET(i) = EC(i) et ECT(i) ≈ 0 et ECB(i) ≈ 0]

[EC(i) > EC1(i)] => [ET(i) = EC(i) + ECT(i) + ECB(i) ; ECT(i) > 0 et ECB(i) > 0]

[EC(i) > EC1(i)] <=> [ECT(i) + ECB(i) = ET(i) – 2 326 kWh]

La seconde valeur critique, que je nomme ET2(i), donne lieu à l’émergence d’une structure institutionnelle suffisamment stable pour être appelée « ordre institutionnel ». Je sais que :

6 978,00 kWh ≤ ET2(i) ≤ 7 559,50 kWh

et que

4652 kWh < [ET2(i) – ET1(i)] ≤ 5233,5 kWh

et de même

{4652 kWh < [ECT(i) + ECB(i)] ≤ 5233,5 kWh}

ainsi que

[6 978,00 kWh ≤ ET2(i) ≤ 7 559,50 kWh] => ordre institutionnel

Alors vient ce troisième seuil, 16 240 kWh ≤ ET3(i) ≤ 18 350 kWh où la transition secondaire vers les énergies renouvelables devient possible. Cette transition prend donc lieu lorsque

13 914 kWh ≤ [ECT(i) + ECB(i)] ≤ 16 024 kWh

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Vous pouvez donner votre support financier à ce blog

€10.00

Sans une once d’utopisme

 

Je suis en train de diriger ma recherche sur le projet EneFin vers l’application dans les pays en voie de développement. J’ai fait un pas dans cette direction dans ma dernière mise à jour en anglais : « Which salesman am I ? ». Cette fois, je plonge un peu dans l’étude quantitative. C’est à la fois une exploration scientifique et une révision en ce qui concerne la méthode de recherche caractéristique pour l’économie.

Alors voilà, dans « Which salesman am I ? » j’avais introduit une première équation quantitative, qui formalise une hypothèse de base : plus d’énergie veut dire plus de produit intérieur brut dans un pays. Dans des endroits vraiment pauvres, où l’utilisation occasionnelle des générateurs diesel est la seule source d’électricité, l’introduction de quelle source d’énergie que ce soit ouvre des possibilités nouvelles pour les gens du coin. A mesure que la base énergétique d’une communauté devient de plus en plus riche, l’addition d’une source d’énergie nouvelle devrait, en théorie, apporter un gain décroissant, mais du gain quand même.

Je prends l’équation que j’avais déjà testée dans « Which salesman am I ? », soit : ln(PIB par habitant) =a* ln(Consommation d’énergie par habitant) + facteur constant. Les « Ln » sont des logarithmes naturels des variables observées. Façon de les calmer un peu, ces variables. Le logarithme naturel, ça soigne merveilleusement bien des cas de non-stationnarité, par exemple. Par ailleurs, je pense qu’il serait utile à mes lecteurs de disposer de la même source des données quantitatives que moi j’utilise. Alors voilà le lien hypertexte pour télécharger le fichier Excel avec ces données-là. Je prends donc cette équation de base et je commence à la tester avec l’addition d’une seconde hypothèse : à mesure que la base énergétique d’une communauté devient de plus en plus riche, l’addition d’une source d’énergie nouvelle devrait, en théorie, apporter un gain décroissant, mais du gain quand même.

Ce que je fais avec mon équation consiste à modifier soit l’équation elle-même soit les données empiriques dans le test pour refléter cette hypothèse additionnelle. Il y a une mesure de pauvreté relative que j’utilise souvent dans ma recherche : c’est le déficit alimentaire par personne par jour, mesuré en kilocalories, publié par la Banque Mondiale. Je commence à l’explorer en l’introduisant par la porte de cuisine en quelque sorte : je laisse l’équation comme elle est, mais je divise ma base des données en des sous-ensembles d’observations où chaque sous-ensemble correspond à une intervalle (un sextile, pour être exact) de déficit alimentaire. Si vous voulez, c’est un peu comme si quelqu’un (enfin, moi) me présentait un concept d’entreprise et moi, je commence à poser des questions embarrassantes du genre « Alors, qu’est-ce qui se passe si au lieu du marché X tu essaies de développer le même concept dans le marché Y ? ».

Dans Tableau 1, ci-dessous, je présente les résultats des tests conduits dans ces sous-ensembles. Je reviens juste après (je veux dire après Tableau 1) pour jouer un peu le prof.

Tableau 1 L’équation : ln(PIB par habitant) = a*ln(Consommation d’énergie par habitant) + facteur constant testée dans des contextes différents de déficit alimentaire

Variable expliquée : ln(PIB par personne), sous-ensemble : pas de déficit alimentaire observé, N = 3 709, R2 = 0,749
Variable explicative Coefficient de régression Erreur standard (robuste) Signification de la corrélation selon le test t de Student
Ln(Consommation d’énergie par personne) 0,931 (0,009) p < 0,001
Facteur constant 2,276 (0,066) p < 0,001
       
Variable expliquée : ln(PIB par personne), sous-ensemble : déficit alimentaire entre 251 et 740 kilocalories par jour par personne (pays les plus pauvres), N = 265, R2 = 0.265
Variable explicative Coefficient de régression Erreur standard (robuste) Signification de la corrélation selon le test t de Student
Ln(Consommation d’énergie par personne) 0,797 (0,082) p < 0,001
Facteur constant 2,634 (0,502) p < 0,001
       
Variable expliquée : ln(PIB par personne), sous-ensemble : déficit alimentaire entre 250 et 169 kilocalories par jour par personne, N = 298, R2 = 0,522
Ln(Consommation d’énergie par personne) 1,152 (0,064) p < 0,001
Facteur constant 0,822 (0,398) p = 0,04
       
Variable expliquée : ln(PIB par personne), sous-ensemble : déficit alimentaire entre 168 et 110 kilocalories par jour par personne, N =293, R2 = 0,483
Ln(Consommation d’énergie par personne) 0,711 (0,043) p < 0,001
Facteur constant 3,618 (0,275) p < 0,001
       
Variable expliquée : ln(PIB par personne), sous-ensemble : déficit alimentaire entre 109 et 61 kilocalories par jour par personne, N = 270, R2 = 0,519
Ln(Consommation d’énergie par personne) 0,852 (0,05) p < 0,001
Facteur constant 2,778 (0,333) p < 0,001
       
Variable expliquée : ln(PIB par personne), sous-ensemble : déficit alimentaire entre 60 et 28 kilocalories par jour par personne, N = 312, R2 = 0,375
Ln(Consommation d’énergie par personne) 0,555 (0,041) p < 0,001
Facteur constant 5,11 (0,292) p < 0,001
       
Variable expliquée : ln(PIB par personne), sous-ensemble : déficit alimentaire entre 27 et 0 kilocalories par jour par personne, N = 311, R2 = 0,753
Ln(Consommation d’énergie par personne) 0,833 (0,027) p < 0,001
Facteur constant 3,238 (0,211) p < 0,001

Bon, je joue le prof. Je commence par expliquer la signification des nombres. Ce sont des équations linéaires du type y = a*x + b. Le « b » c’est le facteur constant, donc, si vous voulez, la partie de y qui s’en fiche essentiellement du x et reste la même quoi que fasse x. La proportion entre le coefficient « a » et la constante « b » donne une idée de la sensitivité relative d’y vis à vis une variance dans le x. De ce point de vue, le PIB par tête d’habitant garde généralement une inertie substantielle vis à vis la consommation d’énergie par personne et ceci à travers la plupart des sextiles de déficit alimentaire. L’intervalle entre 250 et 169 kilocalories par jour par personne fait exception à cette règle : les proportions entre le coefficient de régression et la constante y sont inversées. Tout comme si dans cette catégorie particulière l’économie était particulièrement apte à absorber chaque joule additionnel.

Cette inertie prise en compte, le coefficient de détermination R2 montre quelle partie de la variance du PIB par habitant est expliquée par la variance de la consommation d’énergie par habitant. Ces valeurs du R2 que vous pouvez voir dans Tableau 1 sont tout à fait respectables. Lorsqu’on met ensemble les proportions « coefficient – constante » et le R2, une corrélation plutôt robuste apparaît. Robuste comme elle est, il y a comme l’ombre d’une dépendance vis à vis la classe de déficit alimentaire. Je fais donc un pas de plus sur ce sentier d’exploration et j’inclue le déficit alimentaire explicitement dans l’équation, qui de ln(PIB par habitant) = a*ln(Consommation d’énergie par habitant) + facteur constant se transforme en  ln(PIB par habitant) = a1*ln(Consommation d’énergie par habitant) + a2*ln(Déficit alimentaire) + facteur constant.

Je teste. Bien sûr, je teste sur ces observations « pays – année » où déficit alimentaire apparaît. Le sous-ensemble « pas de déficit alimentaire observé » reste donc en dehors du modèle. Dans Tableau 2, ci-dessous, vous pouvez voir les résultats du test. Un petit commentaire est de rigueur. Le déficit alimentaire, tel qu’il est publié par la Banque Mondiale, est une valeur arithmétiquement positive mais essentiellement négative : plus élevée est cette valeur comme nombre, plus profondément négatif est son impact sur la population locale. Dans Tableau 2 vous pouvez voir que le logarithme naturel du déficit alimentaire porte un coefficient négatif de régression. Cela veut dire que plus élevé est ledit déficit, moins élevé est le PIB par tête d’habitant. C’est logique, la tête d’habitant à besoin de manger pour bosser et gagner du pognon.

Tableau 2 Test de l’équation : ln(PIB par habitant) = a1*ln(Consommation d’énergie par habitant) + a2*ln(Déficit alimentaire) + facteur constant

Variable expliquée : ln(PIB par personne), N = 1 749, R2 = 0,738
Variable explicative Coefficient de régression Erreur standard (robuste) Signification de la corrélation selon le test t de Student
Ln(Consommation d’énergie par personne) 0,779 (0,019) p < 0,001
Ln(Déficit alimentaire par jour par personne) –        0,258 (0,015) p < 0,001
Facteur constant 4,399 (0,175) p < 0,001

Je vais un peu plus à fond dans l’interprétation du Tableau 2. Lorsque j’inclus le déficit alimentaire dans mon équation, c’est comme si j’émoussais l’influence de la consommation d’énergie par personne sur le PIB par personne. Vous pouvez voir le facteur constant gonfler considérablement et le coefficient de régression attribué à la consommation d’énergie par personne perdre de son ampleur. Somme toute, c’est cohérent avec ce que j’ai déjà découvert à propos de la balance entre la consommation de l’énergie et celle de nourriture : toutes les deux, elles font comme une base de durabilité pour tout système social.

Lorsqu’il m’est arrivé d’étudier de plus près des cas particuliers des pays dans des différentes classes de déficit alimentaire, j’en suis venu à la conclusion que, bien qu’étant principalement une mesure d’abondance ou pénurie relative de nourriture, cette variable est aussi une mesure d’inégalités dans la société. Ceci est lié à la méthodologie du calcul. On commence par vérifier si dans un pays donné il y a des personnes en situation de malnutrition systématique. Si tel n’est pas le cas, le pays est catégorisé avec déficit alimentaire zéro. Si, en revanche, il y a malnutrition systématique, on continue par répertorier toutes les personnes en une telle situation et calculer leur déficit alimentaire total agrégé, je veux dire sur toute cette sous-ensemble de la population nationale donnée. Ensuite, on divise ce déficit calorique agrégé par la population totale du pays et voilà comment nous obtenons la valeur que vous pouvez voir dans les données de la Banque Mondiale.

Le petit truc caché dans cette méthodologie est le suivant : si on a un pays qui possède des ressources alimentaires à la limite de la suffisance mais les distribue d’une façon inefficace, il y aura de la malnutrition. Un autre pays, avec une base alimentaire similaire, mais plus efficace dans la distribution des produits alimentaires peut bien être dans une classe supérieure en termes de déficit alimentaire par personne.

Maintenant, je change mon angle d’approche et je remplace la consommation d’énergie par personne avec juste la consommation d’énergies renouvelables par personne. Pour rester cohérent avec ce qui précède, je teste donc deux équations :  ln(PIB par habitant) = a*ln(Consommation d’énergies renouvelables par habitant) + facteur constant ainsi que sa sœur mal nourrie ln(PIB par habitant) = a1*ln(Consommation d’énergies renouvelables par habitant) + a2*ln(Déficit alimentaire) + facteur constant. Vous trouverez les résultats de ces deux tests dans Tableaux 3 et 4 ci-dessous.

Tableau 3 Test de l’équation : ln(PIB par habitant) = a*ln(Consommation d’énergies renouvelables par habitant) + facteur constant

Variable expliquée : ln(PIB par personne), N = 3 064 , R2 = 0,011
Variable explicative Coefficient de régression Erreur standard (robuste) Signification de la corrélation selon le test t de Student
Ln(Consommation d’énergies renouvelables par personne) –        0,062 (0,01) p < 0,001
Facteur constant 9,48 (0,083) p < 0,001

Tableau 4 Test de l’équation : ln(PIB par habitant) = a1*ln(Consommation d’énergies renouvelables par habitant) + a2*ln(Déficit alimentaire) + facteur constant

Variable expliquée : ln(PIB par personne), N = 1 680, R2 = 0,492
Variable explicative Coefficient de régression Erreur standard (robuste) Signification de la corrélation selon le test t de Student
Ln(Consommation d’énergies renouvelables par personne) –        0,082 (0,008) p < 0,001
Ln(Déficit alimentaire par jour par personne) –        0,572 (0,016) p < 0,001
Facteur constant 11,614 (0,088) p < 0,001

Pour une surprise, c’en est définitivement une. Prise comme variable quantitative à l’échelle macroéconomique, la consommation d’énergies renouvelables se comporte d’une façon tout à fait différente de sa grande sœur, la consommation totale d’énergie. En dépit d’une signification élevée, selon le test t de Student, la corrélation entre la consommation des renouvelables et le PIB par personne reste faiblarde.

Tout phénomène a une explication rationnelle. Enfin, la plupart. Non, pas les matchs de foot. Alors ici, l’explication rationnelle, elle commence avec la compréhension de ce qu’est la consommation moyenne d’énergie par tête d’habitant. Ladite tête, donc vous, moi, mon voisin – on consomme tous l’énergie non-alimentaire de trois façons principales. Premièrement et le plus évidemment, nous utilisons l’énergie dans les technologies qui nous entourent : notre électroménager, notre électronique, le chauffage de la maison etc. Deuxièmement, quand on y pense, c’est le transport sous toutes ses formes. Finalement et le moins évidemment pour nous, chaque produit et chaque service que nous achetons contient, dans son coût de fabrication et livraison une partie correspondante à l’énergie. Une usine qui fait des lavabos, ça consomme de l’énergie et ça paie ses factures en conséquence. Lorsque j’achète un de ces lavabos, c’est comme si j’achetais la parcelle correspondante d’énergie consommée dans l’usine. Toute notre civilisation matérielle, dans chacune de ses manifestations, contient de l’énergie, solidifiée en quelque sorte.

Le coefficient de consommation d’énergie par personne est comme un panier qui contient toutes ces trois formes. En revanche, la consommation d’énergies renouvelables, c’est un coefficient calculé à la source, soit au niveau de la génération d’énergie électrique des sources renouvelables non-combustibles (hydro, éolien, géothermal, solaire) soit au celui de la combustion de la biomasse. Ce dernier cas de figure est particulièrement saillant dans le cas des pays africains, où le nominalement élevé coefficient des renouvelables vient précisément de l’usage des combustibles biologiques directement pour la chaleur ménagère, sans générer électricité.

La consommation d’énergies renouvelables par personne ne couvre donc pas l’usage indirect d’énergie à travers les biens et services consommées. Si je reviens donc à ces équations que vous avez pu voir testées, plus tôt dans cette mise à jour, le fait de truquer le coefficient d’énergie totale consommée par personne pour le coefficient d’énergie renouvelable par personne nous fait s’orienter vers une hypothèse différente. Dans l’équation ln(PIB par habitant) = a*ln(Consommation d’énergie par habitant) + facteur constant je teste l’hypothèse que plus d’énergie accessible dans une économie nationale est positivement corrélé avec plus de produit national brut. Vu l’interprétation méthodologique du coefficient de consommation d’énergie par personne, c’est tout à fait logique : plus d’énergie par tête d’habitant veut dire que ladite tête consomme plus de biens et services ainsi qu’elle bouge plus (transport). Les deux sont étroitement corrélés avec le Produit Intérieur Brut.

En revanche, lorsque je teste l’équation ln(PIB par habitant) = a*ln(Consommation d’énergies renouvelables par habitant) + facteur constant, je soumets à la vérification une hypothèse différente, selon laquelle plus d’énergies renouvelables générées à la source (électricité plus chaleur) est positivement corrélé avec le produit national brut. Oui, ça peut marcher, si cela veut dire création des nouveaux rôles sociaux et nouveaux marchés. Sinon, la corrélation devient vaseuse, tout comme ces coefficients ridiculement bas et négatifs dans la régression linéaire des logarithmes naturels.

Voilà donc que j’ai fait un large tour à travers l’analyse économétrique et maintenant je peux tirer des conclusions pertinentes à l’application de mon concept EneFin dans les pays en voie de développement, comme outil institutionnel dudit développement. Pour que la chose marche vraiment comme de cette façon, il faut que les installations locales, construites avec le financement façon EneFin, génèrent non seulement de l’électricité mais aussi des petits business et des emplois et ceci de façon réaliste, sans une once d’utopisme.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Vous pouvez donner votre support financier à ce blog

€10.00

Deux cerveaux, légèrement différents l’un de l’autre

Mon business plan pour le projet EneFin prend forme. Dans cette mise à jour je vais essayer de reconstruire ce concept depuis le début, juste pour voir ce que ça donne et pour être capable d’utiliser ce business plan, ainsi que le processus de mon travail là-dessus comme outil éducatif. Je sais que ceux parmi mes lecteurs qui ont suivi plus ou moins systématiquement mon travail sur ce concept peuvent trouver cette mise à jour un peu rébarbative. Néanmoins c’est l’une de ces occasions ou quelque chose à l’intérieur de mon cerveau dit simplement « Fais le. Juste la ferme et écris ». Bon, donc je la ferme et j’écris.

Ça commence avec l’étude de marché. La base empirique du concept vient de l’observation des prix d’énergie, plus exactement des différences observables entre les prix d’électricité pour les petits utilisateurs type ménager, d’une part, et les grands consommateurs institutionnels d’énergie d’autre part.

Tableau 1 – Prix moyens d’électricité dans certains pays européens

Pays Prix moyen d’électricité pour les petits consommateurs ménagers, € par 1 kilowatt heure Prix moyen d’électricité pour les grands consommateurs institutionnels, € par 1 kilowatt heure
Autriche € 0,20 € 0,09
Suisse € 0,19 € 0,10
République Tchèque € 0,14 € 0,07
Allemagne € 0,35 € 0,15
Espagne € 0,23 € 0,11
Estonie € 0,12 € 0,09
Finlande € 0,16 € 0,07
France € 0,17 € 0,10
Royaume Uni € 0,18 € 0,13
Pays-Bas € 0,16 € 0,08
Norvège € 0,17 € 0,07
Pologne € 0,15 € 0,09
Portugal € 0,23 € 0,12

Pourquoi donc ces fourchettes des prix m’eurent inspiré à bâtir un concept d’entreprise ? Eh bien, parce que je suis un économiste et pour un économiste, des prix différents pour le même bien – une kilowatt heure d’énergie électrique en l’occurrence – veulent dire qu’il y a une plus-value financière à exploiter. Les distributeurs d’énergie l’exploitent de façon typique. Le choix compétitif qu’un ménage typique peut faire entre des fournisseurs différents d’électricité est toujours sévèrement limité. La pratique commune des distributeurs de garantir une fourniture stable d’énergie seulement à condition d’avoir signé un contrat long-terme, typiquement pour 24 mois, est l’un des facteurs majeurs qui réduisent la compétition. Eh ben oui, faut appeler les choses telles qu’elles sont : les grands distributeurs d’énergie en Europe exploitent les petits consommateurs d’énergie.

Alors mon idée consiste à exploiter cette situation en sens inverse. Du point de vue comportemental, la situation présente veut dire que les petits consommateurs d’énergie sont habitués à payer des prix relativement élevés pour alimenter leurs frigos et leurs plafonniers. Ces prix, ainsi que l’habitude de les payer sont en quelque sorte incrustés dans notre mode de vie. Le comportement humain est une forme d’énergie, aussi bien au sens littéral que métaphorique. Maintenant, cette énergie est utilisée pour maintenir une structure de marché que nous, les économistes, on appellerait « oligopole basé sur le monopole naturel ». Mon idée consiste à rediriger cette énergie vers la création d’une structure de marché plus compétitive et plus diversifiée, avec plus de petits fournisseurs locaux d’énergie et un choix compétitif réel pour les petits consommateurs.

Le concept financier est le suivant : puisque de toute façon nous, les petits consommateurs d’énergie, nous sommes habitués à payer un prix relativement élevé, continuons donc de le payer, seulement investissons la plus-value monopolistique contenue dans ce prix dans le développement des nouveaux fournisseurs d’énergie. Cette plus-value monopolistique varie de pays en pays, néanmoins il est possible de calculer une moyenne conservative de €0,09 par kWh.

Maintenant, je définis un marché européen comme l’ensemble fait de l’Union Européenne plus la Suisse et la Norvège. Je sais que l’Union Européenne est en train de se disloquer un peu, avec mon propre pays, la Pologne, courant joyeusement dans cette direction, néanmoins, faute de mieux, je considère l’UE comme un marché commun qui peut facilement coopérer avec la Suisse et la Norvège. Dans le cadre de ce marché européen, la consommation moyenne d’énergie par tête d’habitant, selon les données de la Banque Mondiale, en 2015, était de 3250,30 kilogrammes d’équivalent pétrole, qui est égal à 3250,30 * 11,63 =  37 801,04 kilowatt heures.

Dans cette consommation moyenne, celle qui est strictement ménagère semble se ranger aux environs de 17 ÷ 20%. Pour calculer ce pourcentage, j’ai utilisé plusieurs sources. Selon les agrégats accessibles sur le site de l’Agence Internationale d’Énergie , dans le monde entier, la consommation ménagère fait environ 26% de la consommation finale totale. L’Europe est fortement industrialisée et urbanisée, donc la part non-ménagère de la consommation finale d’énergie, faite précisément de l’industrie et du transport, est susceptible d’être légèrement plus élevée que la moyenne mondiale. Un rapport publié sur www.energymarketprice.com , dans leur série « Energy Statistics Report », suggère que la consommation ménagère d’énergie, en Europe, ne fait que 17,3% du total.

Je calcule donc : 17,3% * 37 801,04 kilowatt heures par tête d’habitant * €0,09 * 523 174 318 habitants ≈ 307,92 milliards d’euros de plus-value monopolistique agrégée et générée en 2015, dans le marché européen d’énergie fournie aux petits consommateurs ménagers. Graphe 1 ci-dessous présente le développement de cette plus-value dans le temps. Elle varie d’année en année, avec une moyenne de 316,54 milliards d’euros par an. Chose intéressante que vous pourrez, par ailleurs, observer par vous-mêmes avec les données qui vont suivre : cette plus-value monopolistique agrégée avait connu son apogée en 2005 – 2007 et depuis, elle suit une tendance décroissante inversement corrélée avec la croissance du marché d’énergies renouvelables en Europe. En d’autres mots, depuis 2007, chaque gigawatt heure d’énergie renouvelable fournie en Europe enlève, en moyenne € 23 924,08 de cette plus-value monopolistique. Le développement des renouvelables en Europe objectivement améliore la position des petits utilisateurs ménagers dans le marché d’énergie.

Graphe 1

Plus value monopolistique

Nous avons donc une tendance intéressante, là, et je décide de la suivre d’une façon créative. J’imagine un contrat complexe – que j’appelle « contrat EneFin » – dans lequel le fournisseur d’énergie vend au consommateur final un paquet des kilowatt heures d’énergie – à un prix normalement réservé aux grands consommateurs institutionnels – plus un paquet des titres de participation dans le capital social du fournisseur, pour un montant égal, en moyenne, à K = €0,09 * la quantité d’énergie en kWh.

Construisons un exemple. Je reviens à l’idée formulée dans deux mises à jour antérieures :  « Something to exploit subsequently » et « The stubbornly recurrent LCOE ». L’endroit : Lisbonne, Portugal. La technologie : une turbine éolienne à l’axe vertical conforme à la demande de brevet no. EP 3 214 303 A1 déposée à l’Office Européen des Brevets. C’est l’une de ces turbines éoliennes qui sont suffisamment petites pour être installées dans la proximité immédiate d’habitations humaines. Le business : un réseau de telles turbines installées dans les endroits relativement venteux de Lisbonne, surtout dans la partie Ouest, le quartier de Belém. Avec la vitesse moyenne de vent, à Lisbonne, égale à v = 4,47 mètres par seconde, chaque turbine, selon cette technologie particulière, peut générer dans les 47,81 kW de capacité électrique. Sur les 365*24 = 8760 heures dans l’année, ça donne 418 815,60 kWh d’énergie.

Un ménage moyen à Lisbonne, c’est apparemment 2,6 personnes et ces 2,6 personnes prises ensemble consomment dans les 11 151,20 kWh d’énergie ménagère par an. Oui, je sais, prendre deux personnes entières ensemble avec 0,6 d’une autre personne pourrait conduire, dans la vie réelle, aux conséquences néfastes, mais on parle statistique, pas vie réelle. Enfin, vie réelle aussi, mais sous un angle spécifique, qui permet à ces 0,6 d’une personne de mener une vie économique paisible.

Le prix d’énergie au Portugal c’est €0,23 selon le tarif ménager et €0,12 selon le tarif grands clients institutionnels. La fourchette de plus-value monopolistique est donc particulièrement juteuse dans ce marché particulier : €0,23 – €0,12 = €0,11 donc deux euro cents de plus que cette moyenne €0,09 que je viens de calculer plut haut. Notre ménage moyen paie donc, dans ces factures d’énergie, environ €1 226,63 de plus-value monopolistique. Le truc important ici est que notre ménage moyen est habitué à la payer, cette plus-value. Ces gens ont déjà incorporé ce montant dans leur budget ménager typique. Ce comportement habituel est une forme d’énergie en soi-même.

Maintenant, on redirige cette énergie vers ce réseau de petites turbines éoliennes à l’axe vertical. Avec les prix donnés plus haut, l’énergie générée par une turbine représente 418 815,60 kWh * €0,11 = €46 069,72 de plus-value monopolistique. Une turbine peut alimenter en énergie 37,56 ménages moyens à Lisbonne et ces 37,56 ménages peuvent investir, dans le capital social de la société qui installe et maintient ces turbines, la plus-value monopolistique qu’ils paient déjà, dans leur facture d’électricité.

Voilà donc que notre contrat complexe entre en jeu. Pour quelques instants, j’endosse le rôle de cet opérateur local de petites turbines éoliennes selon la demande de brevet no. EP 3 214 303 A1. Je fais du porte à porte (métaphoriquement parlant) et je propose le deal suivant à ces ménages Lisbonnins : « Vous achetez de moi des paquets standard d’énergie, disons 1000 kWh = 1 MWh par paquet. Les 11 premiers paquets, vous les payez au tarif standard, €0,23 par kilowatt heure, donc €230 par paquet de 1000 kWh = 1 MWh. Dans chaque paquet de 1 MWh, les €230 que vous payez partiellement retourne à vous en forme d’actions dans mon capital social et la valeur nominale de ces actions est égale à la plus-value monopolistique, donc 1000*(€0,23 – €0,12) = 1000*€0,11 = €110 que vous aurez payé dans le prix d’énergie chez un grand fournisseur. Dans ces 11 premiers paquets, vous entrez donc dans mon capital social pour l’équivalent nominal de 11*€110 = €1 210,00.

Les 11 paquets suivants, donc paquet 12 jusqu’au paquet 22, vous les payez à €0,19 la kilowatt heure, soit €190 par paquet, et cette fois, chaque paquet acquis, en plus de l’énergie fournie, vous apporte 1000*(€0,19 – €0,12) = 1000*€0,07 = €70 d’actions dans mon capital social. Cette seconde tranche des paquets d’énergie vous apportera donc une participation nominale de €770 dans mon capital social et vous aurez déjà fait une bonne affaire sur le prix total payé, par rapport à votre facture d’électricité que vous payez maintenant.

Si vous achetez encore plus, donc si vous allez dans une troisième tranche de 11 paquets d’énergie (paquets 23 à 33) le prix total payé pour 1 kilowatt heure descend à €0,15, soit €150 par paquet de 1 MWh et chaque paquet vous donne 1000*(€0,15 – €0,12) = 1000*€0,03 = €30 en actions dans mon capital social.

De tout en tout, après avoir acheté 33 paquets d’énergie de 1 MWh chacun, ce qui correspond à la quasi-totalité de votre consommation ménagère d’énergie sur 3 ans, vous aurez : a) fait des économies absolues sur frais d’électricité égales à 33000*€0,23 – 11000*€0,19 – 11000*€0,15 =  €3 850,00 b) acquis les actions de mon capital social pour la valeur nominale de 11000*(€0,23 – €0,12) + 11000*(€0,19 – €0,12) + 11000*(€0,15 – €0,12) =  €2 310,00. En plus, après avoir acheté ces 33 paquets d’énergie, chaque paquet supplémentaire, vous le payez au même prix qu’une grande usine l’aurait payé, donc au tarif de €0,12 par kilowatt heure réservé aux gros acheteurs ».

V’là la combine. Qu’en diriez vous ? Ah bon ? Acquérir ces actions, signer ces contrats, tout ce bazar vous fait un peu peur ? Calmos, Herr Doktor Wasniewski a la solution rêvée pour vous : faire tout ça en forme de fonctionnalité FinTech. Vous entrez une page Web, comme PayPal. Seulement celle-là, elle s’appelle EneFin. Click. Vous ouvrez un compte client. Click. Vous versez du liquide dedans. Vous cliquez sur le lien hypertexte « Contrats complexes offerts couramment » et vous pouvez choisir dans une liste des contrats du type juste décrit plus haut. Click. Vous achetez les contrats de votre choix. Vous n’avez pas de liquide pour verser sur le compte client ? Pas de problème : EneFin sera ravie de vous en prêter, de ses propres fonds ou bien comme agent d’une banque. Click.

Ici, Herr Doktor Wasniewski a encore un tout petit problème à résoudre. Pour que les clicks marchent, en général, il faut convertir les deux contrats simples du contrat complexe, donc le contrat d’achat d’énergie et celui d’achat d’actions dans le capital social, en une sorte de token digital. L’acquisition d’actions dans le capital social d’une société requiert tout un tas de formalités, peut-être même l’intermédiation d’une maison de courtage boursier. Chaque pays européen a ses régulations spécifiques à ce propos. Il faudra donc étudier ces dispositions légales et faire des contrats spécifiquement taillés à chaque pays.

Bon, disons que Herr Doktor Wasniewski a résolu ce tout petit problème et nous avons ce token digital, échangeable en ligne. Voilà le noyau dur du projet EneFin : créer une plateforme transactionnelle du type FinTech qui offre ces contrats complexe en une forme digitale. J’assume que toute la combine décrite plus haut s’applique au marché d’énergies renouvelables en Europe comme définie encore plus haut, donc UE + Norvège + Suisse. Ce marché, je l’évalue prudemment à quelques 3 670,4 térawatt heures en 2018, avec un taux de croissance annuel de 3,8%, en moyenne entre 1990 et 2017. Le marché d’électricité des sources renouvelables pour l’usage ménager, je le calcule suivant la même proportion de 17,3% de la consommation totale, soit 634,99 TWh. Au prix moyen de détail de €0,19 par kilowatt heure pour les ménages, j’estime la valeur de ce marché à 120,65 milliards d’euros, dont quelques €57,15 milliards correspondent à cette plus-value monopolistique qui avait déclenché toute cette avalanche d’idées dans ma tête.

Plusieurs gouvernements européens donnent un support fiscal substantiel aux énergies renouvelables. Seulement certains projets dans le domaine sont susceptibles d’être financés façon EneFin : des projets relativement petits et fortement locaux, où il y a des chances de bâtir des liens quasi-coopératifs entre les consommateurs du coin et le fournisseur local. J’assume, d’une manière plutôt conservative, que seulement 2,5% de ce marché total des renouvelables sera susceptible à capter à travers des solutions financières du type EneFin. Ça fait dans les 3 milliards d’euros, dont environ €1,43 milliards sont faits de cette fameuse plus-value monopolistique, possible à rediriger vers le capital social des petites startups locales.

Un intermédiaire financier, ça gagne son pain à la commission, essentiellement. Je pense qu’EneFin ne fera pas exception à cette règle. Il est vrai que dans le FinTech, ça paie de passer de la marge de commission pure à une sorte de forfait (abonnement) périodique. Néanmoins, ce forfait, du point de vue économique, est tout simplement un montant espéré de commission lissé sur une période de temps.

La question reste ouverte en ce qui concerne la taille exacte de cette marge de commission. Moi, dans tous les calculs que j’ai fait jusqu’alors, pour le projet EneFin, j’assume une marge de base de 5% qui descend jusqu’à 4% lorsqu’elle se transforme en forfait mensuel. Seulement ça, c’est juste mon assomption. La fourchette entre les marges réellement pratiquées dans le secteur financier est vraiment large. Lorsque j’avais étudié le rapport annuel de Square Inc., la proportion entre le revenu et les coûts, dans ce qu’ils appellent eux-mêmes « revenu basé sur la commission », suggère une marge de 20% qu’ils prélèvent. En terme de marge financière, c’est gargantuesque, mais je n’ai rien de mieux dans leur cas. D’autre part, les maisons de courtage boursier prélèvent typiquement une marge transactionnelle de 0,3 ÷ 0,7%.

Bien que comprise dans une fourchette très large, la marge de commission a sa propre logique financière. J’assume que le payeur de la marge sera le fournisseur d’énergie qui vendra ses contrats complexes à travers la plateforme EneFin. La commission qu’il paie à EneFin est le prix du capital qu’il acquiert de cette façon. Je compare au prêt typique pour les PME. Selon le service meilleurtauxpro.com, un bon prêt oscille entre 1,1% et 1,6%. En revanche, chez accesscreditpro.com, ils suggèrent plutôt quelque chose entre 1,3% et 2,85%.

Ceci dit, à part la commission sur transactions, une société FinTech peut gagner un revenu supplémentaire sous deux autres formes : intérêt sur les prêts accordés au clients ainsi que le taux de retour sur les actifs financiers détenus. Le taux d’intérêt nominal, pour les clients, serait probablement la marge interbancaire LIBOR plus la provision pour risque plus la marge réelle d’EneFin et c’est cette dernière qui nous intéresse. Une estimation réaliste est, je pense, 3 – 4% de marge nette par-dessus LIBOR et provision pour risque. En ce qui concerne le taux de retour sur actifs financiers, je pense qu’il faut se préparer à un portefeuille des placements type obligations d’État, donc à un taux nominal dans les 2 ÷ 3%.

Avant que je passe plus loin, une petite digression. Dans tout ce bavardage que je viens de déverser, j’ai défini deux facteurs majeurs de risque dans le projet EneFin. Premièrement, c’est le risque légal qui découle de la structure complexe des contrats échangés à travers EneFin. Deuxièmement, c’est le risque financier attaché au prix réel du capital.

Digression formulée, je continue. Avec toutes ces assomptions en ce qui concerne les marges financières pratiquées, le lecteur pourra demander : « Bon, mais où, dans tout ça, se trouve le revenu gagné sur la technologie elle-même. Herr Doktor Wasniewski, dans plusieurs mises à jour antérieures, vous aviez présenté des cas comme Fintech Group AG ou bien Katipult, qui empochent des forfaits à titre d’accès à leur plateforme technologique. C’était dans « Les marchés possibles à développer à partir d’une facture d’électricité » ou bien dans « Crossbreeds, once they survive the crossbreeding process » . Qu’en faites-vous, Herr Doktor Wasniewski ? ».

Eh bien, c’est que j’en fais c’est que j’y pense. Je pense avant tout que pour vendre l’accès à une technologie, il faut que celle-ci soit vraiment unique et compétitive. Une telle technologie, j’en ai pas, tout simplement. Je développe le concept EneFin du point de vue économique et légal, suivant mes compétences personnelles. Pour le moment j’écris ce business plan comme si la base technologique de mon projet était une solution à source plus ou moins ouverte, comme Ethereum et le langage de programmation Pragma Solidity.

Oui, dans le secteur FinTech, il faut ne serait-ce qu’un bout de technologie propriétaire pour assurer la sécurité du système. Seulement, aujourd’hui, personne ne paiera une surcharge spéciale à titre de faire des transactions avec un niveau élevé de sécurité. La sécurité digitale, aujourd’hui, ça vient dans le paquet-client et ledit client la considère comme quelque chose de normal. D’autre part, comme j’ai étudié les comptes de quelques sociétés FinTech, la dépense sur compétitivité technologique est substantielle mais elle se capitalise très peu, presque pas, en fait, au niveau bilan. A ce sujet, vous pouvez regarder « Protège-cul, pardon, stratégie de réduction de risque » ou bien « The art of using all those small financial margins ».

Bon, je reviens à l’estimation de la valeur et la taille du marché. Ces 3 milliards d’euros que je viens de calculer quelques paragraphes plus haut, je les prends comme base pour simuler le chiffre d’affaires total d’un réseau d’intermédiation financière du type EneFin. En d’autres mots, j’utilise la valeur d’un sous-marché d’énergies renouvelables pour calculer la valeur du marché des services financiers type EneFin, offerts aux acteurs dudit sous-marché des renouvelables. Essai no. 1 c’est la commission 5% et ça donne dans les €151 millions. Essai no. 2 : commission calquée sur celle des maisons de courtage boursier, donc environ 0,4%. Résultat : 12 millions d’euros. Essai no. 3 : commission comparable au taux d’intérêt sur prêt bancaire pour les PME, soit 1,6%. Résultat : €48,3 millions.

Dans « The essential business concept seems to hold », que j’avais publié le 17 Juin, j’avais esquissé un modèle financier pour le compte d’exploitation d’EneFin. Ça donne dans les €11 millions de chiffre d’affaires comme niveau de stabilité temporaire pour ce business. J’assume que j’avais ne serait-ce qu’un peu de bon sens dans ces calculs-là et je compare aux calculs du paragraphe précèdent. Trois stratégies distinctes se dessinent. La première, c’est la stratégie de marge transactionnelle relativement élevée, dans les 5%, avec pour but de prendre une place parmi plusieurs autres offertes dans un marché ainsi délimité. Prix élevé, part de marché dans les 8%. La seconde, c’est la stratégie de prix super-agressif, où les fournisseurs d’énergies renouvelables peuvent acquérir du capital, à travers la plateforme transactionnelle EneFin, au prix comparable à la commission des maisons de courtage, soit ce 0,4%. Le marché défini de cette façon semble donner de la place à juste un joueur sérieux et stable. C’est la stratégie du type « ça passe ou ça casse ». Enfin, la troisième, celle du milieu : la commission d’EneFin se situe aux environs d’un prêt bancaire, donc quelques 1,6%. Là, le marché serait celui de 4 – 5 fonctionnalités similaires, une sorte de compétition monopolistique.

Je pense que je vais continuer en anglais, pour gagner un peu de perspective. Par ailleurs, c’est bien pour ça que sur ce blog, j’alterne les mises à jour en français et en anglais. C’est comme si j’écrivais avec deux cerveaux, légèrement différents l’un de l’autre.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Vous pouvez donner votre support financier à ce blog

€10.00

 

Je corrèle

Je pense à ces corrélations étrangement solides que j’avais identifiées en présentant ma dernière mise à jour en anglais : « Time to come to the ad rem ». Dans la science, il y a fréquemment des moments quand une structure qu’on espérait solide s’avère être carrément une illusion. Dans ce cas précis, c’est l’inverse : j’espérais trouver des relations de tout ce qu’il y a de plus accidentel et ce que j’ai effectivement trouvé est une structure solide comme du béton, à première vue. Alors voilà, je fus inspiré par la lecture de cette demande de brevet no. EP 3 214 303 A1déposée auprès de l’Office Européen des Brevets. C’est une turbine éolienne à l’axe vertical, donc un de ces trucs suffisamment petits pour être installés dans la proximité immédiate d’habitations humaines. En même temps, avec des vents que nous pouvons rencontrer dans les régions côtières, ce machin pourrait changer profondément l’accès à l’énergie (consultez Ma petite turbine éolienne à l’axe vertical). Une petite merveille.

Alors j’avais flâné un peu du côté de https://patents.google.comet j’avais fait une sélection sémantique des demandes de brevet dans le domaine des turbines éoliennes à l’axe vertical. Comme c’était une recherche sémantique, donc par l’expression clé en anglais (« wind turbine with vertical axis »), je pensais que je vais tomber sur tout un tas des malentendus, par exemple des inventions qui concernent, en fait, des turbines à l’axe horizontal mais parlent de quelque chose à propos de l’axe vertical du mât principal. Cependant, au lieu de tout un tas de bruit statistique, j’étais tombé sur une régularité étonnante, tellement étonnante que je la reproduis une fois de plus, dans Tableau 1 ci-dessous :

Tableau 1

  Nombre des demandes de brevet relatives aux turbines éoliennes à l’axe vertical
Année Office Européen des Brevets (EPO) % du total des demandes de brevet relatives à l’éolien, chez EPO US Patent & Trademark Office (USPTO) % du total des demandes de brevet relatives à l’éolien, chez USPTO Office des Brevets de la République Populaire de Chine (CH) % du total des demandes de brevet relatives à l’éolien, chez CH
[a] [b] [c] [d] [e] [f] [g]
2001 616 41,5% 1266 38,5% 369 29,1%
2002 599 37,8% 1294 38,3% 478 27,0%
2003 645 37,6% 1491 40,0% 645 27,0%
2004 806 40,7% 1703 40,7% 961 29,9%
2005 821 41,7% 1744 38,8% 1047 25,7%
2006 937 44,1% 1999 39,4% 1553 27,6%
2007 960 40,0% 2150 38,4% 1844 27,3%
2008 1224 44,5% 2454 39,4% 2342 26,7%
2009 1445 45,4% 2813 40,2% 2497 22,8%
2010 1746 46,6% 3482 42,4% 3298 24,8%
2011 2006 44,9% 3622 39,3% 4139 23,1%
2012 1886 42,1% 3699 39,0% 4551 20,6%
2013 1781 41,8% 3829 39,2% 5307 20,2%
2014 1800 38,8% 4074 40,4% 5740 18,1%
2015 1867 42,5% 4013 40,2% 7870 19,6%
2016 1089 39,8% 3388 40,6% 9325 20,4%
2017 349 42,9% 2115 42,7% 9321 22,3%

Je pense que vous pouvez aisément deviner ce qui m’avait tellement étonné : les résultats d’une sélection sémantique qui aurait dû donner des nombres au moins quelque peu aléatoires montre quelque chose de presque irréellement cohérent. Pour ceux qui ne sont pas vraiment potes avec la recherche quantitative : croyez-moi, les nombres dans Tableau 1 sont tellement réguliers qu’ils ont l’air d’une simulation mathématique plutôt que d’un ensemble empirique des données.

Alors dans cette mise à jour en anglais – Time to come to the ad rem – j’ai étudié la corrélation entre ces nombres et le pourcentage de la consommation totale d’énergie provenant des sources renouvelables, respectivement pour l’UE, les États-Unis et la Chine. Encore une fois, surprise : des corrélations de Pearsonsolides comme des barres de fer. Comment est-ce que l’incidence d’un profil sémantique donné, dans un ensemble d’inventions, peut bien être corrélée avec la structure de consommation d’énergie à un niveau de r = 0,94 ? Allez savoir. Moi, ça continue de provoquer des démangeaisons chez mon singe curieux interne.

Je cherche dans la direction de consommation agrégée d’énergie renouvelable. Les calculs préliminaires, je les effectue avec les données publiées par la Banque Mondiale. Je prends donc les populations respectives de l’Union Européenne, des États-Unis et de la Chineet je les multiplie par le coefficient de consommation finale d’énergie par tête d’habitant. De cette façon j’obtiens la consommation agrégée d’énergie, en tonnes d’équivalent pétrole. Ensuite, je multiplie ça par le pourcentage de la consommation finale d’énergie dérivé des sources renouvelables. De tout en tout, j’atterris avec les données que vous pouvez trouver dans Tableau 2, ci-dessous.

 

Tableau 2

Année Tonnes d’équivalent pétrole d’énergie renouvelable consommées en l’Union Européenne Tonnes d’équivalent pétrole d’énergie renouvelable consommées aux États-Unis Tonnes d’équivalent pétrole d’énergie renouvelable consommées en Chine continentale
2001 1 735 015 232 2 230 704 586 1 181 308 822
2002 1 732 427 984 2 255 943 576 1 260 951 639
2003 1 769 113 239 2 261 169 559 1 440 987 496
2004 1 787 505 277 2 307 767 983 1 643 595 354
2005 1 793 312 022 2 318 770 902 1 816 983 253
2006 1 800 278 875 2 296 824 886 1 986 422 995
2007 1 769 767 272 2 337 001 704 2 148 377 946
2008 1 762 246 130 2 277 080 529 2 216 020 807
2009 1 660 333 596 2 164 820 311 2 367 557 406
2010 1 725 188 226 2 215 223 615 2 614 842 137
2011 1 658 167 007 2 190 417 726 2 804 509 642
2012 1 645 249 820 2 156 975 857 2 910 970 303
2013 1 626 364 912 2 182 583 138 3 004 912 635
2014 1 564 974 842 2 216 186 625 3 051 503 511

 

Je corrèle. Je calcule le coefficient de corrélation de Pearson pour chaque paire des séries temporelles « Nombre des demandes de brevet relatives aux turbines éoliennes à l’axe vertical du Tableau 1 ; Tonnes d’équivalent pétrole d’énergie renouvelable consommées du Tableau 2 ». Union Européenne, corrélation r = -0,779703594 ; États-Unis r = -0,67424865 ; Chine r = 0,966634589. Me font ch**r, ces turbines, franchement. Elles mettent la tête à l’envers la plupart de ce que j’avais appris jusqu’alors en termes de méthodes de recherche empirique. Je veux dire que ces corrélations n’ont pas le droit d’exister. Elles sont définitivement trop significatives. Je veux les étudier pas à pas, et ce sera aussi une occasion rêvée pour jouer le prof en termes d’analyse quantitative.

Mon premier pas consiste à représenter chaque nombre comme une déviation de la moyenne arithmétique respective. Je sais, ça sonne sorcier, mais c’est simple comme tout. Vous pouvez faire de même avec tout ce qui est observable et mesurable : vous pouvez représenter chaque phénomène comme une déviation d’un état attendu. Notre cerveau le fait tout le temps, par ailleurs. Dans chaque série temporelle en question, je calcule sa moyenne arithmétique et ensuite je représente se nombre comme la différence (soustraction) entre ce nombre original et ladite moyenne. Vous pouvez trouver les résultats de cette opération dans Tableau 3, ci-dessous. Les valeurs entre parenthèses sont des négatives.

Tableau 3

  Tonnes d’équivalent pétrole d’énergie renouvelable consommées – déviations de la moyenne Nombre des demandes de brevet relatives aux turbines éoliennes à l’axe vertical – déviations de la moyenne
Année Union Européenne États-Unis Chine Union Européenne États-Unis Chine
2001 18 590 629,08 (12 971 913,79) (993 615 745,57) (617,71) (1 278,29) (2 114,64)
2002 16 003 381,53 12 267 076,21 (913 972 928,57) (634,71) (1 250,29) (2 005,64)
2003 52 688 636,34 17 493 059,21 (733 937 071,57) (588,71) (1 053,29) (1 838,64)
2004 71 080 674,76 64 091 483,21 (531 329 213,57) (427,71) (841,29) (1 522,64)
2005 76 887 419,60 75 094 402,21 (357 941 314,57) (412,71) (800,29) (1 436,64)
2006 83 854 272,45 53 148 386,21 (188 501 572,57) (296,71) (545,29) (930,64)
2007 53 342 669,61 93 325 204,21 (26 546 621,57) (273,71) (394,29) (639,64)
2008 45 821 527,04 33 404 029,21 41 096 239,43 (9,71) (90,29) (141,64)
2009 (56 091 006,47) (78 856 188,79) 192 632 838,43 211,29 268,71 13,36
2010 8 763 623,63 (28 452 884,79) 439 917 569,43 512,29 937,71 814,36
2011 (58 257 595,18) (53 258 773,79) 629 585 074,43 772,29 1 077,71 1 655,36
2012 (71 174 782,21) (86 700 642,79) 736 045 735,43 652,29 1 154,71 2 067,36
2013 (90 059 690,10) (61 093 361,79) 829 988 067,43 547,29 1 284,71 2 823,36
2014 (151 449 760,09) (27 489 874,79) 876 578 943,43 566,29 1 529,71 3 256,36
Moyenne 1 716 424 602,47 2 243 676 499,79 2 174 924 567,57 1 233,71 2 544,29 2 483,64

 

Les chiffres que vous pouvez voir dans Tableau 3 sont une première approche à la notion des moments de coïncidence. Je prends, par exemple, la paire des valeurs pour les États-Unis en 2006 : consommation des renouvelables 53 148 386,21 de tonnes au-dessus de la moyenne et les demandes de brevet pour les turbines éoliennes à l’axe vertical 545,29 au-dessous de la moyenne. Ce moment de coïncidence particulier est comme négatif : mes deux valeurs empiriques dévient de leurs moyennes respectives dans des directions opposées.

Oui, je sais : comment peut-on avoir 0,29 d’une demande de brevet ? Eh ben, si, on peut, puisqu’une moyenne est essentiellement une valeur non-existante en réalité, et si nous soustrayons quelque chose qui n’existe pas de quelque chose qui existe, des fractions d’évènements apparaissent. Normal, v’zallez vous habituer.

Je prends un autre moment, celui de 2006 en Chine. Consommation des renouvelables (188 501 572,57) de tonnes au-dessous de la moyenne et les demandes de brevet pour les turbines éoliennes à l’axe vertical (930,64) au-dessous de la moyenne : cette fois les deux déviations vont dans la même direction négative.

Nous avons donc un ensemble d’observations composé des moments de coïncidence. Nous pouvons poser deux sortes de questions. Premièrement, est-ce que ces moments que je viens de citer sont importants ou pas ? Vous savez, les coïncidences, y en a que nous ne remarquons même pas, comme tous ces électrons qui volent dans toutes les directions, et y en a qui pèsent, comme la rencontre accidentelle entre une voiture et un arbre. Est-ce qu’il y a, dans notre ensemble, des coïncidences plus importantes et moins importantes ? Deuxièmement, quelle est la cohérence et l’importance relative de tous ces moments de coïncidence observées dans Tableau 3 en comparaison à, par exemple, la coïncidence entre le fait qu’il pleut et celui que le trottoir soit mouillé ? Ce que je veux dire c’est que dans la science, nous commençons d’habitude avec un ensemble des coïncidences que nous essayons de comprendre en évaluant leur importance relative.

Mathématiquement, nous pouvons faire deux choses avec cet ensemble. D’une part, nous pouvons standardiser ces moments de coïncidence pour les rendre mutuellement comparables, et ensuite nous pouvons calculer, pour chaque moment standardisé, le coefficient économique d’élasticité : déviation relative dans variable A divisée par la déviation relative dans variable B. D’autre part, nous pouvons suivre le chemin typiquement statistique et calculer le coefficient de corrélation.

On y va mollo et on commence par le premier chemin, donc celui de standardisation et d’élasticité. Je standardise mes déviations avec les moyennes respectives de chaque série temporelle et donc je divise chaque déviation dans la colonne « Tonnes d’équivalent pétrole d’énergie renouvelable consommées en l’Union Européenne » par la moyenne de cette valeur etc. Ce type de standardisation s’appelle « dénomination », pour être exact, puisque je standardise en transformant mes valeurs en des fractions à dénominateur commun. Vous pouvez voir les résultats de cette standardisation par dénomination dans Tableau 4, ci-dessous.

 

Tableau 4

  Tonnes d’équivalent pétrole d’énergie renouvelable consommées – déviations de la moyenne divisées par la moyenne Nombre des demandes de brevet relatives aux turbines éoliennes à l’axe vertical – déviations de la moyenne divisées par la moyenne
Année Union Européenne États-Unis Chine Union Européenne États-Unis Chine
2001  0,01  (0,01)  (0,46)  (0,50)  (0,50)  (0,85)
2002  0,01  0,01  (0,42)  (0,51)  (0,49)  (0,81)
2003  0,03  0,01  (0,34)  (0,48)  (0,41)  (0,74)
2004  0,04  0,03  (0,24)  (0,35)  (0,33)  (0,61)
2005  0,04  0,03  (0,16)  (0,33)  (0,31)  (0,58)
2006  0,05  0,02  (0,09)  (0,24)  (0,21)  (0,37)
2007  0,03  0,04  (0,01)  (0,22)  (0,15)  (0,26)
2008  0,03  0,01  0,02  (0,01)  (0,04)  (0,06)
2009  (0,03)  (0,04)  0,09  0,17  0,11  0,01
2010  0,01  (0,01)  0,20  0,42  0,37  0,33
2011  (0,03)  (0,02)  0,29  0,63  0,42  0,67
2012  (0,04)  (0,04)  0,34  0,53  0,45  0,83
2013  (0,05)  (0,03)  0,38  0,44  0,50  1,14
2014  (0,09)  (0,01)  0,40  0,46  0,60  1,31

 

Les valeurs standardisées nous donnent comme une meilleure idée de ces moments de coïncidence. Nous commençons à distinguer entre des coïncidences poids lourd – 2010 en Chine – et celles qui en sont au poids coq (2008 aux États-Unis). Maintenant, je vais un pas plus loin dans la standardisation : pour chaque moment de coïncidence je calcule le coefficient de la déviation relative en la consommation des renouvelables divisée par la déviation relative correspondante en nombre des demandes de brevet. Je dénomme le degré du pas commun en énergie en des unités du pas commun en inventions. Bien sûr, « déviation relative » veut dire que j’utilise les valeurs du Tableau 4. Je fais donc ce que les économistes appellent « calcul d’élasticité » : comment est-ce que la consommation des renouvelables dévie de sa moyenne en la présence d’une unité de déviation en nombre des demandes de brevet.  Vous pouvez retrouver ces élasticités dans Tableau 5, ci-dessous.

 

Tableau 5

  Élasticité locale des déviations en la consommation des renouvelables par rapport aux déviations locales en nombre des demandes de brevet relatives aux turbines éoliennes à l’axe vertical 
Année Union Européenne États-Unis Chine
2001 (0,02) 0,01 0,54
2002 (0,02) (0,01) 0,52
2003 (0,06) (0,02) 0,46
2004 (0,12) (0,09) 0,40
2005 (0,13) (0,11) 0,28
2006 (0,20) (0,11) 0,23
2007 (0,14) (0,27) 0,05
2008 (3,39) (0,42) (0,33)
2009 (0,19) (0,33) 16,47
2010 0,01 (0,03) 0,62
2011 (0,05) (0,06) 0,43
2012 (0,08) (0,09) 0,41
2013 (0,12) (0,05) 0,34
2014 (0,19) (0,02) 0,31

 A partir du moment que j’ai ces élasticités, il y a des choses que je peux faire avec et des choses que je ne peux pas faire. Le premier truc que je peux faire c’est observer la distribution de ces élasticités dans le temps, l’histoire de voir à quel point elles restent dociles et prévisibles. Dans ce cas précis, c’est plutôt le cas ; avec l’exception de deux épisodes – Union Européenne en 2008 et Chine en 2009 – ces coefficients d’élasticité se composent en des séries très récurrentes. Une telle prévisibilité d’élasticités locales est déjà une bonne prédiction de la corrélation strictement dite.

Une bonne prédiction de corrélation n’est pas tout à fait le même truc que la corrélation per se. La différence réside dans la généralité. Je vous invite à faire une petite expérience avec les données du tableau 3 : répétez la même séquence analytique que moi j’avais faite, seulement standardisez ces déviations du Tableau 4 avec le maximum des deux catégories. Divisez donc chaque déviation en la consommation des renouvelables par la plus grande déviation dans cette catégorie en général, toutes régions géographiques confondues. Ensuite, faites de même pour les déviations en nombre des demandes de brevet. Vous verrez que les déviations standardisées et les élasticités seront significativement différentes des celles que je viens de présenter, quoi que les coïncidences locales ainsi exprimées formeront un modèle général similaire.

Conclusion : la méthode de standardisation par dénomination est intéressante pour capter des régularités à l’intérieur d’un ensemble d’observations empiriques mais elle est très sensible au choix du dénominateur, et, de ce fait, elle rend difficile la comparaison entre des recherches différentes menées par des chercheurs indépendants.

Alors moi, maintenant, je vais être un chercheur indépendant par rapport à moi-même. Je repars du début. Lorsque je vois une coïncidence, cela veut dire que deux choses changent en même temps. Dans ce changement coïncidentel, il y a deux niveaux. Les choses changent ensemble et chacune d’elles change à part, sous l’influence de quelques facteurs autres que cette coïncidence précise. Pour chaque moment de coïncidence dans Tableau 3, je fais donc deux calculs différents. D’une part, je multiplie la déviation absolue en la consommation des renouvelables par la déviation correspondante, la même année, en nombre des demandes de brevet. Ensuite, je tire la moyenne arithmétique des tous ces produits locaux (momentanés) : c’est la covariancede mes deux variables.

Je sais que dans cette covariance, il y a la composante des changements autonomes qui se cache. Pour chacune des séries temporelles je fais donc le suivant : j’élève au carré chaque déviation du Tableau 3 (pour se débarrasser des minus), je tire la moyenne arithmétique de ces carrés et dans un dernier pas je tire la racine carrée de cette moyenne. De cette façon j’obtiens la déviation standard de chaque série temporelle. A partir de là, je standardise (je divise) chaque covariance par le produit des déviations standard des séries temporelles correspondantes.

Compliqué ? Bon, je répète par petits bouts.

 Pas no. 1 : Covariance

 Déviation(Énergie renouvelable ; 2006)

*

Déviation (Demandes de brevet ; 2006)

= Covariance locale pour 2006

 Je fais de même pour chaque année. Dans ce cas précis, j’ai ainsi 14 covariances locales pour chacune des trois régions géographiques. Les voici dans Tableau 6 ci-dessous :

Tableau 6

  Covariances locales entre la consommation des renouvelables et le nombre des demandes de brevet
Année Union Européenne États-Unis Chine
2001 (11 483 697 161,28) 16 581 812 079,22 2 101 142 439 117,30
2002 (10 157 574 876,85) (15 337 350 146,78) 1 833 103 275 811,23
2003 (31 018 552 909,01) (18 425 189 369,56) 1 349 448 154 237,15
2004 (30 402 220 035,00) (53 919 249 235,56) 809 024 631 835,87
2005 (31 732 536 462,11) (60 096 977 314,92) 514 233 832 855,37
2006 (24 880 760 555,28) (28 981 055 739,99) 175 427 642 073,80
2007 (14 600 650 710,47) (36 796 794 804,49) 16 980 356 869,44
2008 (445 123 405,55) (3 015 906 637,63) (5 820 988 770,49)
2009 (11 851 228 367,01) (21 189 784 443,70) 2 573 024 341,87
2010 4 489 479 191,39 (26 680 676 533,35) 358 250 014 932,51
2011 (44 991 508 506,18) (57 397 741 348,49) 1 042 188 149 991,58
2012 (46 426 293 654,75) (100 114 470 805,28) 1 521 669 408 607,80
2013 (49 288 381 825,37) (78 487 514 648,42) 2 343 352 738 660,65
2014 (85 763 835 570,70) (42 051 654 172,20) 2 854 454 103 711,79
Covariance générale (moyenne) (27 753 777 489,15) (37 565 182 365,80) 1 065 430 484 591,13

Remarquez que les covariances locales en l’Union Européenne et les États-Unis sont généralement négatives, pendant qu’en Chine elles sont généralement positive. Ceci se reflète dans les covariances générales, qui sont les moyennes arithmétiques de leurs colonnes respectives.

 Pas no. 2 : Les déviations standard

{[Déviation (Énergie renouvelable ; 2006)]2}1/2

etc.

Je répète cette opération apparemment aberrante – tirer la racine carrée d’une puissance carrée – pour chaque déviation locale. J’obtiens un tableau des déviations locales standardisées de cette façon spécifique : Tableau 7 ci-dessous. Notez que cette fois la standardisation n’était pas une dénomination. Il n’était pas question de dénominateur commun. En revanche, cette standardisation particulière m’a permis de calculer chaque déviation comme un module de distance de la moyenne ; les chiffres dans Tableau 7 sont presque les mêmes que ceux dans Tableau 3, juste sans les minus. Je tire la moyenne de chaque colonne et j’ai ainsi les distances moyennes des moyennes respectives, donc les déviations standard.

Tableau 7

  Tonnes d’équivalent pétrole d’énergie renouvelable consommées – déviations locales standardisées comme racines carrés des puissances carrées Nombre des demandes de brevet relatives aux turbines éoliennes à l’axe vertical – déviations locales standardisées comme racines carrés des puissances carrées
Année Union Européenne États-Unis Chine Union Européenne États-Unis Chine
2001  18 590 629,08  12 971 913,79  993 615 745,57  617,71  1 278,29  2 114,64
2002  16 003 381,53  12 267 076,21  913 972 928,57  634,71  1 250,29  2 005,64
2003  52 688 636,34  17 493 059,21  733 937 071,57  588,71  1 053,29  1 838,64
2004  71 080 674,76  64 091 483,21  531 329 213,57  427,71  841,29  1 522,64
2005  76 887 419,60  75 094 402,21  357 941 314,57  412,71  800,29  1 436,64
2006  83 854 272,45  53 148 386,21  188 501 572,57  296,71  545,29  930,64
2007  53 342 669,61  93 325 204,21  26 546 621,57  273,71  394,29  639,64
2008  45 821 527,04  33 404 029,21  41 096 239,43  9,71  90,29  141,64
2009  56 091 006,47  78 856 188,79  192 632 838,43  211,29  268,71  13,36
2010  8 763 623,63  28 452 884,79  439 917 569,43  512,29  937,71  814,36
2011  58 257 595,18  53 258 773,79  629 585 074,43  772,29  1 077,71  1 655,36
2012  71 174 782,21  86 700 642,79  736 045 735,43  652,29  1 154,71  2 067,36
2013  90 059 690,10  61 093 361,79  829 988 067,43  547,29  1 284,71  2 823,36
2014  151 449 760,09  27 489 874,79  876 578 943,43  566,29  1 529,71  3 256,36
Déviation standard (moyenne) 70 228 768,13 56 626 139,75 623 107 877,55 506,85 983,89 1 768,88

 

Pas no. 3 : Les corrélations Pearson entre les tonnes d’équivalent pétrole d’énergie renouvelable consommées et le nombre des demandes de brevet relatives aux turbines éoliennes à l’axe vertical

 Je standardise encore une fois et cette fois, c’est encore de la dénomination. Je standardise chaque covariance générale en la mettant au-dessus d’un dénominateur complexe fait par la multiplication des déviations standard des variables covariantes. Notez que ça marche uniquement au niveau de la covariance générale et des déviations standard. Si vous faites le même truc au niveau des observations locales (chaque année séparément), donc si vous divisez la covariance locale en l’année X par le produit des déviations locales, standardisées comme en Pas no. 2, vous obtiendrez à chaque fois un coefficient égal à 1 ou bien à -1, ce qui ne vous avance pas vraiment en termes de recherche quantitative. Cela veut dire que la covariance locale explique toujours à 100% les variances locales combinées.

Nous faisons donc cette opération sur les valeurs générales et la voici pour chacune région géographique en question :

 Union Européenne<=> Covariance générale (Énergie et Demandes de Brevet) / [(Déviation standard Énergie) * (Déviation standard Demandes de Brevet)] = – 27 753 777 489,15 / (70 228 768,13 * 506,85)– 0,78

États-Unis <=> Covariance générale (Énergie et Demandes de Brevet) / [(Déviation standard Énergie) * (Déviation standard Demandes de Brevet)] =- 37 565 182 365,80 / (56 626 139,75 * 983,89) =  – 0,67                                             

 Chine <=> Covariance générale (Énergie et Demandes de Brevet) / [(Déviation standard Énergie) * (Déviation standard Demandes de Brevet)] = 1 065 430 484 591,13 / (623 107 877,55 * 1 768,88 = 0,97    

Maintenant, j’interprète. Le coefficient de corrélation de Pearson prend des valeurs à partir de -1 jusqu’à 1. On assume, un peu par une coutume statistique, que le coefficient entre – 0,3 et 0,3 n’est pas vraiment significatif, donc qu’il n’y a pas de corrélation véritable.

 Si la corrélation Pearson pour l’Union Européenne est de r = – 0,78, cela veut dire que la covariance générale explique 78% des déviations standard combinées et que la relation fonctionnelle est négative : plus de consommation des renouvelables est accompagnée d’un moins en termes de demandes de brevet et vice versa. On a le même type négatif dans le cas des États-Unis, mais en Chine c’est une relation fonctionnelle

 Ouff ! J’ai fini de faire le prof avec cette analyse de corrélation. Je viens de me rappeler que cette exposition avait aussi pour but de m’expliquer quelque chose à moi-même, c’est-à-dire d’où peut bien venir la force extraordinaire de ces corrélations. Je me suis avancé juste un peu, mais c’est toujours mieux que rien. La partie la plus informative de cette analyse pas par pas semble être le Tableau 5, donc celui avec les élasticités locales. En économie, les élasticités, ça compte vraiment lorsque ça s’approche de 1 ou dépasse 1. Dans le cas de l’Union Européenne, une élasticité de ce rang était observable en 2008, avec une montée en valeur depuis 2004. Aux États-Unis il y a quelque chose de similaire entre 2004 et 2009, seulement comme moins prononcé. En revanche, en Chine, ces élasticités sont toujours plutôt fortes, avec un envol en 2009.

Dans l’Union Européenne et aux États-Unis, la période entre 2004 et 2009 c’est précisément l’envol du nombre des demandes de brevet pour les turbines éoliennes à l’axe vertical. Visiblement, l’envol simultané de la consommation des renouvelables était encore plus fort. Durant cette période 2004 – 2009, quelque chose de spécial est arrivé au marché d’énergies renouvelables en général. Quant à la Chine, la direction positive de la corrélation n’est pas sorcière : elle avait été pompée par trois facteurs simultanés, donc la croissance démographique, croissance en la consommation d’énergie par tête d’habitant et la croissance en nombre d’inventions. Encore, je reste sidéré par la forte signification de cette corrélation et je n’ai pas encore trouvé d’explication satisfaisante.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund(aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon. Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

 

Vous pouvez donner votre support financier à ce blog

€10.00

Des choix faits sous incertitude

Mon éditorial

J’ai remarqué que ce début d’année académique, ça a sacrément déstabilisé mon cours de travail intellectuel. Par « travail intellectuel » je comprends le fait que j’écrive quelque chose sur mon blog ou dans un article scientifique. Depuis l’avènement de la psychologie behavioriste il n’est pas tout à fait clair si le fait d’utiliser le langage, même dans le haut registre grammatical, est une preuve d’intelligence. Il y a des cas pour et il y a des cas contre. J’espère être un cas pour. Bon, assez de psychanalyse, faut faire ce travail intellectuel dont je parle. Depuis que j’avais pondu ce dernier article, je réfléchis comment je pourrais bien développer cette idée sous la forme d’un livre et, en même temps, comment je peux inclure les résultats de ma recherche dans mon enseignement à la fac. Procédons par ordre : il serait bon de faire un petit sommaire de ce que j’avais fait en termes de recherche, cette année.

Tout d’abord, l’idée que j’avais nourri depuis printemps, cette année, et qui pour le moment n’a abouti à aucune conclusion : le Wasun ou la monnaie virtuelle attachée au marché d’énergies renouvelables. Mon idée de base était que la création d’une telle monnaie – « création » semble être un terme plus approprié que l’émission, dans ce cas précis – pourrait faciliter la transition des communautés locales vers une base énergétique verte à 100%. Bien que j’avais tourné et retourné cette idée sous – comme je pense – tous les angles possibles, rien ne semblait coller. Après, comme je me suis fait une base empirique à propos d’énergies vertes, j’ai un peu compris pourquoi ça ne collait pas. Un, la transition vers les énergies renouvelables, ça se fait à une cadence de plus en plus accélérée, un peu partout dans le monde, et cette accélération est peut-être le fait le plus important dans toute ma recherche cette année. Deux, je viens de prouver que – ou, comme on dit dans le langage élégant et barbant de la science, de contribuer à clarifier les présomptions qui laissent poser l’hypothèse que – la grande majorité des populations locales sur Terre peut se stabiliser et même croître significativement autour d’énergies renouvelables. Pas vraiment besoin de fouetter ces chevaux. Ils sont déjà en plein galop. Trois, j’avais produit une preuve scientifique convaincante que le changement technologique accéléré, ça produit notoirement un surplus de masse monétaire. Là aussi, il n’est pas vraiment impératif de pousser plus : ça roule tout seul.

Par contre, un truc qui semble avoir marché d’une façon très intéressante, c’est l’équivalent de cette astuce où on tire la nappe d’une table, d’un coup sec, sans renverser les couverts. Les couverts sont les faits empiriques. La vie, quoi, juste exprimée en nombres. La nappe que j’avais tirée d’en-dessous ces couverts c’est l’assomption que notre civilisation devrait économiser l’énergie. Je suis fermement convaincu et j’ai une méthode scientifique de prouver que le comportement collectif de notre espèce – y compris la transition vers les énergies vertes – s’explique d’une façon beaucoup plus raisonnable avec  l’assomption contraire, c’est-à-dire que nous maximisons, systématiquement, l’absorption de l’énergie de notre environnement. Nous demander d’économiser l’énergie c’est comme demander à un tigre de se convertir au véganisme.

Bon, tout ça, ci-dessus, c’est ce que j’avais plus ou moins prouvé ou présenté sous forme d’une preuve scientifique. Ensuite, il y a mes idées : ces trucs importuns dans ma tête dont je ne sais pas comment les présenter d’une façon 100% scientifique et donc je ne sais pas s’ils sont vrais ou faux. Je pourrais les appeler hypothèses, seulement voilà, là, il y a comme un petit problème : une hypothèse scientifique, ça devrait être vérifiable, et pour ces trucs-là, je ne sais même pas comment les vérifier. Alors, première idée : le changement technologique s’effectue par expérimentation qui, à son tour, est un processus évolutif dans une structure sociale où des entités femelles – des gens avec du pognon qui en connaissent d’autres avec du pognon – recombinent des technologies initialement crées par des entités mâles (des gens avec des idées). Ce processus crée des hiérarchies des technologies, ou plutôt des hiérarchies des entités mâles, suivant les préférences des entités femelles. Idée no. 2 est que la hiérarchisation due aux mécanismes évolutifs s’effectue à travers trois processus de base : définition (et distribution) des rôles sociaux, définition d’identités de groupe, et enfin le gain d’accès aux ressources. Enfin, la troisième idée est qu’à présent nous traversons, comme espèce, une période d’expérimentation sociale accélérée et ceci pour deux raisons. Premièrement, plus on est du monde sur la Terre, plus on a d’interactions mutuelles. C’est comme une rue de grande ville : plus il y a du monde dans le quartier, plus il est probable qu’on croise quelqu’un dans la rue. Plus on a d’interactions, plus vite on apprend et plus on expérimente. Par ailleurs, cette période de 2007 – 2008, quand le marché d’énergies renouvelables avait tout à coup accéléré sa croissance, c’était précisément le moment quand la population urbaine mondiale avait franchi le cap des 50% de l’humanité. Deuxièmement, dans ma recherche j’ai découvert que l’intensité de l’innovation est la plus grande dans les pays où le déficit alimentaire est entre zéro et 88 kilocalories par jour par personne. Eh bien, il se fait que le déficit alimentaire moyen de la population globale vient de franchir ces 88 kilocalories par jour par personne. Nous sommes cette bête qui est déjà acceptablement nourrie mais pas encore tout à fait à sa faim.

Côté enseignement, j’ai déjà commencé à inclure l’étude du marché de l’énergie dans l’enseignement de la microéconomie, mais le truc le plus intéressant est comment enseigner à mes étudiants les façons d’étudier le phénomène d’intelligence collective et d’apprentissage collectif. J’avoue que je suis conscient de mes propres limites dans le domaine : l’intelligence collective c’est plutôt le truc d’informaticiens, mais j’ai quelques idées en tête. Je pense utiliser des fondements de la théorie des jeux pour montrer le mécanisme des choix faits sous incertitude. Peut-être j’utiliserai le rectangle Bayésien . Ce dernier truc, ça peut captiver l’attention des étudiants, avec toute cette histoire du philosophe (Thomas Bayes) mort plus d’un an avant la publication de son article. C’est que je veux c’est d’aller un peu à travers les disciplines. Ceci peut consister, par exemple, à montrer comment la définition des rôles sociaux peut induire du changement dans l’équilibre local d’un marché.

Carrément sidéré par mes propres résultats

Mon éditorial

Voilà ! Je reviens. Je me suis absenté de ce blog pour quelques jours mais que voulez-vous : la vie d’un prof d’université, surtout au début de l’année académique, c’est une vie bien abondante. Les cours commencent, donc je suis pris en classe, et la fin de l’année semble soudainement tellement plus proche, et il devient pressant de gérer ce qui reste de mes fonds de recherche. De toute façon, même si je le suis un peu déconnecté de mon blog pendant quelques jours, ça a été une déconnexion féconde. Non, ce n’est pas ce que vous pensez : j’ai tout simplement fini d’écrire un article où j’ai plus ou moins développé cette idée de corrélation entre la structure de la population humaine et l’accès à l’énergie, sous toutes ses formes, bouffe incluse. La version pré-éditoriale de l’article, en anglais, est accessible sous ce lien hypertexte-là . Du nouveau, là-dedans ? Certainement. Je viens de construire une preuve que la grande majorité des pays dans le monde pourraient virer à 180 degrés vers les énergies renouvelables et ce virage non seulement n’aurait pas compromis leur stabilité socio-économique, mais aussi il pourrait créer des conditions pour accommoder des populations plus grandes que maintenant. Dans tout cet optimisme, il y a des réserves. Les deux pays les plus peuplés du monde – la Chine et l’Inde – déteignent de ce fonds optimiste. Dans leurs cas, mon modèle semble ne pas marcher.

Bon, j’explique. C’est une fraîche tranche de science, bien chaude, droit du four, et je pense qu’une exposition de ma méthode et de mes résultats pourrait être bien utile comme du matériel éducatif. Alors voilà : je me suis concentré sur cette équation de base de Paul Krugman (Krugman 1991[1], équation no. 1) où la différentiation spatiale d’une économie se développe par la suite d’une une sorte de tension entre le secteur manufacturier de l’économie et le secteur agraire. J’ai essayé de comprendre vraiment le fond des fonds de cette équation et je suis venu à la conclusion qu’une telle tension se développe, en fait, à chaque fois que deux secteurs d’un même système socio-économique changent à des vitesses différentes. Celui qui change plus vite va inévitablement absorber la part de lion du capital et de la main d’œuvre et c’est ainsi qu’il créera une différentiation progressive de l’espace habité par les hominides intelligents (enfin, suffisamment intelligents pour créer des secteurs économiques) en un centre et une périphérie. A ce point-là, je me suis souvenu de mon intuition générale en ce qui concerne l’énergie : nous l’absorbons sous deux formes différentes, comme alimentation et comme technologie. Les habits alimentaires et leur contexte économique, ça change lentement. En revanche, les technologies qui nous permettent d’utiliser l’énergie plutôt que de la manger, ça change vite.

J’ai donc retourné à cette équation de base que je vous avais déjà présentée : « Population = a * (Energie, pouvoir µ) * (absorption alimentaire, pouvoir 1 – µ» (consultez : “Ma formule magique marche dans certains cas, et pas tout à fait dans des cas autres que certains” ), seulement maintenant, je voulais estimer les paramètres pour chaque pays bien dans l’esprit originel de la fonction de production de Charles W. Cobb et Paul H. Douglas[2]. Je voulais donc établir, pour chaque pays séparément, une fonction d’équilibre général entre la population, telle qu’elle est en l’endroit donné au moment donné, et l’agrégat de population potentiellement possible avec un régime alimentaire donné et une consommation donnée d’énergie. Comme vous voyez, il y a beaucoup de donné dans tout ça et c’est justement là toute la spécificité de la méthode de Cobb et Douglas. On travaille avec les valeurs absolues. Pas des logarithmes, pas des valeurs standardisées, mais bien avec les valeurs absolues. Dans un tel cas, il faut beaucoup d’expérimentation avec les unités de mesure avant que ça marche. C’est probablement pour ça que nous, les économistes, on n’aime pas vraiment travailler avec les magnitudes réellement observées des phénomènes mais bien plutôt avec quelque chose de transformé et bien calme.

Finalement, j’étais arrivé à quelque chose d’intelligible avec la population exprimée en millions, sur le côté gauche de l’équation, et sur le côté droit l’énergie consommée par an par tête d’habitant, en tonnes d’équivalent pétrole, ainsi que l’absorption alimentaire par an par tête d’habitant, en mégacalories (donc en milliers de ces kcal que vous pouvez voir sur les emballages des produits alimentaires).

Le truc que j’avais réussi à faire, alors, pour plus d’une centaine des pays du monde entier, chaque pays pris séparément, était de trouver un telle valeur du paramètre µ – dans « Energie par habitant pouvoir µ, multipliée par absorption alimentaire pouvoir 1 – µ » – qui conduisait à calculer la taille d’une population hypothétique à peine plus grande que la population réelle. A peine veut dire quelques pourcents. C’est un peu comme une fonction de création d’espace habitable pour les humains. Si vous connaissez donc des divinités à la recherche d’inspiration pour créer des réalités mythiques, donnez-leur l’adresse de ce blog : j’ai une fonction de création bien robuste. Robuste, dans ce cas, veut dire que la proportion entre cette population hypothétiquement calculée et la population réelle demeure bien stable dans le temps. Tout en jouant au Bon Dieu, je me suis aperçu que la création d’espace vital sur la base de l’énergie, ça ne se passe pas du tout de la même façon dans tous les 116 pays que j’ai testé. Il y a des pays où c’est bien l’utilisation d’énergie qui a le pouvoir dominant dans cette fonction, mais il y en a aussi où c’est exactement l’inverse : c’est le régime alimentaire qui a la main donnante dans la création d’espace habitable. Vous direz « Bien sûr ! Faut pas avoir un doctorat pour le savoir : il y a des gens affamés dans ce monde et leur espace habitable c’est surtout leur prochain repas, pas vraiment la prochaine Lexus hybride ». C’est partiellement vrai, mais il y a des grosses surprises. Tenez les Etats-Unis. Ils sont bien nourris, là-bas, de l’autre côté de l’Atlantique, n’est-ce pas ? Eh bien, aux Etats-Unis, le modèle marche seulement si la consommation d’énergie par tête d’habitant a un pouvoir de µ = 0,3 et pas plus. Naturellement, l’absorption alimentaire gagne un pouvoir 1 – µ = 0,7 dans la création d’équilibre démographique. Juste pour vous donner une idée : mon pays natal, la Pologne, ça se balance dans mon modèle (drôle de jeu de mots, par ailleurs) avec énergie pouvoir µ = 0,56 et la bouffe par habitant (donc ma bouffe à moi aussi) pouvoir 1 – µ = 0,44. Si donc nous, les Polonais, on se compare avec les Américains, notre changement démographique est basé plus sur l’utilisation de l’énergie à travers la technologie et moins sur l’absorption alimentaire. Comment ça marche ? Honnêtement, je ne comprends pas encore. Je viens de trouver et prouver la validité d’une fonction qui produit des populations à partir de la bouffe et de l’énergie à brûler, mais je suis comme un apprenti sorcier : j’ai jeté des ingrédients dans la marmite et j’ai obtenu une potion plus qu’intéressante mais je n’y comprends que dalle.

Le truc qui est même plus intéressant est que j’ai réussi à stabiliser mon modèle avec la même robustesse après avoir remplacé la consommation totale d’énergie par tête d’habitant avec juste la consommation d’énergies renouvelables. En termes de théorie économique cela veut dire que j’ai éliminé de la civilisation toutes les technologies basées sur les énergies non-renouvelables, en ne laissant que celles à 100% renouvelables et après ce petit remue-ménage j’ai encore réussi à stabiliser cette civilisation, dans plus de 100 pays différents. Etrange ? Eh ben oui. Je suis étonné par les résultats que j’ai obtenus. Honnêtement. Pas de conneries. Souvent, dans la science, on écrit des articles quand les résultats de la recherche ne sont plus un puzzle. Moi, dans ce cas précis, j’ai écrit cet article parce que j’étais carrément sidéré par mes propres résultats.

[1] Krugman, P., 1991, Increasing Returns and Economic Geography, The Journal of Political Economy, Volume 99, Issue 3 (Jun. 1991), pp. 483 – 499

[2] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

Souffler la poussière du vieux déterminisme technologique façon Karl Marx

Mon éditorial

Je continue avec la revue de littérature, que j’avais commencée hier, à propos de l’histoire des technologies (consultez « Provisionally saying goodbye from the year 1990 » ). J’ai donc ce créneau de recherche historique où l’histoire des technologies c’est avant tout l’histoire d’interactions entre les technologies et la structure sociale autour d’elles. Jusqu’à maintenant, la thèse la plus intéressante est celle du déterminisme technologique : la société donne forme à des technologies nouvelles et ces technologies, à leur tour, renforcent certaines structures sociales et certaines institutions au dépens d’autres. Voilà donc une base bien évolutionniste, que j’avais déjà exploité avant de prendre connaissance de ces articles. Les quatre auteurs – Mumford en 1964[1], MacKenzie en 1984[2], Mahoney en 1988[3] ainsi que David en  1990[4] – ils parlaient tous grande échelle. Leur cour de raisonnement suivait les civilisations entières. En allant un peu en avant dans le temps j’ai trouvé, en 1994, un article fascinant de Walter G. Vincenti où l’auteur trace l’histoire d’une seule invention : l’atterrisseur rétractable et sa prise de forme sous l’influence de John K. (« Jack ») Northrop, l’un des pionniers de l’aviation (Vincenti 1994[5]). En passant au peigne fin les comptes rendus des tests de laboratoire, conduits sous la supervision de John K. Nortrop, Walter Vincenti découvre que dans le schéma général « variation – sélection », bien connu comme un outil de base dans l’ingénierie, la sélection entre les variantes multiples de roues d’atterrissage avait tendance à suivre un chemin très émotionnel et très marqué par des influences sociétales. Par exemple, lorsque la mode du jour était la vitesse, donc lorsque le plus de commandes pour des avions à construire venait de la part des riches amateurs du risque aéronautique, les variations des roues d’atterrissage favorisant la vitesse au dépens de la sécurité prenaient le dessus, sans aucun égard pour la capacité de chargement, par ailleurs. Lorsque, en revanche, les années 1930 avaient apporté une angoisse croissante à propos d’une guerre possible, et lorsque, par conséquent, l’armée s’intéressait de plus en plus aux inventions de John « Jack » Northrop, il a commencé à favoriser des atterrisseurs orientés sur la solidité et la fiabilité, en sacrifiant le côté aérodynamique.

La conclusion générale de la part de Walter Vincenti est que le développement de la technologie d’atterrisseurs rétractables avançait au pas de danse plutôt qu’au pas de marche. Il y avait des longs épisodes de plusieurs années quand la sélection des certaines solutions au dépens d’autres n’avait d’autre explication que la mode ou les préférences temporaires des clients les plus importants dans le carnet des commandes. Vincenti avance une observation intéressante : sans toute cette valse entre caprices, le développement de cette technologie spécifique, l’atterrisseur rétractable, pourrait bien avoir été plus rapide d’une bonne décennie, seulement sans ces aller-retours entre des préférences sociales différentes, tout le potentiel de cette technologie (par exemple son impact sur les matériaux utilisés) ne serait peut-être pas libéré. L’ingénierie, selon Walter Vincenti, comme elle se passe dans la vie réelle, est loin d’être un processus aussi froidement calculé et objectivement balancé que ça pourrait sembler. Je retrouve une histoire pareille chez Ronald Kline et Trevor Pinch, dans leur article de 1996[6].  Ils esquissent l’histoire de l’automobile aux Etats-Unis pour démontrer que c’eût non seulement la voiture qui eut transformé la société rurale de l’Amérique du Nord, mais que l’inverse fût vrai aussi : c’était la société rurale de l’Amérique profonde qui avait carrément refondu la voiture comme technologie.

Imaginez la situation suivante : vous êtes un inventeur de voitures électriques de luxe, genre Ferrari sans essence, est un beau matin un couple vient dans votre atelier. Lui, il est riche et pourrait bien légalement adopter la fille qu’il présente comme sa fiancée. Quant à elle, elle admire vos bagnoles et pose une question : « Mon chou, est-ce que tu pourrais m’en commander une avec suspension variable ? T’sais, comme ces vieilles Citroën ? Ce serait chouette de sortir, le soir, en ville, dans une voiture stylisée vieille Citroën qui peut se hisser sur ses roues ? Eh ? Dis, mon chou ? » Le chou commence à négocier avec vous et ça prend de plus en plus d’ampleur côté facture. En plus, vous comprenez que le chou en question doit satisfaire cette caprice, sous peine de cesser d’être le chou préféré de cette demoiselle. Ainsi, vous mettez des mois suivants à modifier votre projet initial et lui donner une suspension variable façon vieilles Citroën, pour sauver la vie émotionnelle du chou, aussi bien que pour financer du travail sérieux avec le chèque bien gras de la part du chou. Voilà comment l’histoire de modifie.

Que s’était donc passé, aux alentours de 2007-2008, avec les technologies de génération d’énergie ? Pourquoi le marché d’énergies renouvelables, mesuré en termes de consommation finale desdites énergies, avait-il commencé à croître plus vite la consommation totale d’énergie ? Pourquoi avant 2007 eut était-ce le cas inverse, avec le renouvelables croissant plus lentement que le total du marché de l’énergie ? Quelles réponses peut-on espérer de la théorie de mon chou ? Je peux formuler deux scénarios de base. Hypothèse A : en 2007-2008, ou quelques années en arrière, un bond technologique était survenu. Les technologies de génération d’énergies renouvelables avaient franchi un cap (lequel ?) de perfectionnement purement technique, ce qui a donné un essor au marché. Hypothèse B : ce qui c’était passé en 2007 – 2008 était un bond culturel plutôt que technique. C’était l’attention du public, accompagnée par le capital, qui avait pris un virage net vers les renouvelables. En fait, aucune de ces deux hypothèses ne donne de réponse complète. C’est bien la leçon que je tire de la petite revue de littérature que je suis en train de faire : l’histoire en général est trop complexe pour la réduire à l’histoire des technologies, donc pour pratiquer le déterminisme technologique façon Karl Marx, et d’autre part la technologie est trop autonome, comme création humaine, pour la réduire à un simple résultat d’interactions sociales (consultez, par exemple : MacKenzie, Wajcman 1999[7]).

J’ai trouvé un point de vue intéressant, en termes de déterminisme technologique, chez Paul E.Ceruzzi[8]. Il discute le sujet général de déterminisme technologique à travers la loi de Moore. Cette dernière est quelque chose d’intéressant en elle-même : elle décrit des phénomènes d’importance vitale pour les sciences sociales – le développement de la technologie – mais elle reste royalement dédaignée par plusieurs économistes et sociologues. Alors, voilà la loi de Moore telle que je me permets de la généraliser. Vous prenez une technologie complexe de votre choix que vous voyez se développer rapidement sous vos yeux et pour laquelle la complexité est un facteur de croissance. Ce qui est intéressant est le fait que nous avons, comme civilisation, une seule technologie générale qui se développe de cette façon : l’électronique. Partout ailleurs – en chimie et pharmacie, dans le bâtiment ou même dans la finance – la complexité a tendance à osciller dans une certaine fourchette. On fait plus complexe, plus complexe, on enchaine avec encore plus de complexité et tout à coup on se dit : « M****, on y comprend plus que dalle. On simplifie ! ». En électronique, c’est différent et c’était en 1965 que Gordon Moore l’a observé pour la première fois : le nombre de circuits électroniques par unité d’espace disponible (centimètre carré ou centimètre cube) à l’intérieur de la pièce d’équipement en question (ordinateur, smartphone etc.) double tous les deux ans, ou, en des termes plus élaborés, croît d’une manière exponentielle.

La croissance exponentielle, comme catégorie générale en mathématiques, comporte une propriété intéressante : elle reflète particulièrement bien des phénomènes ou chaque étape consécutive de croissance produit une base pour une croissance plus rapide dans l’avenir. Paul E.Ceruzzi discute le phénomène unique de l’électronique dans l’histoire de l’humanité : voilà la première et jusqu’alors la seule technologie qui produit elle-même les fondements pour accélérer sa propre croissance. Toutes les autres technologies, par exemple le moulin à vent Hollandais du XVIIème siècle, dont le voile est toujours à compter parmi les machines les plus puissantes dans l’histoire de notre civilisation, heurtent inévitablement un mur qui consiste dans la disponibilité de ressources et d’énergie. Pour le moulin à vent traditionnel, la matière première de base c’était le bois, qui en même temps était utilisé partout ailleurs, y compris dans les fonderies où on faisait du métal qui pourrait remplacer le bois : c’était un cercle vicieux. En ce qui concerne l’électronique, c’est différent : lorsque l’industrie électronique se heurte au manque de matières premières ou d’énergie, on produit une réponse en forme de complexité accrue, qui donne la possibilité d’accroître le pouvoir computationnel tout en économisant les matières premières et l’énergie. En plus, ce qui produit cette complexité croissante dans les appareils électroniques sont d’autres appareils électroniques.

Récemment, j’ai vu sur You Tube (électronique, vous voyez ?) une interview super intéressant avec professeur Sean Carroll, un astrophysicien américain. Il a dit quelque chose que je n’ai pas encore eu le temps de vérifier et qui a carrément renversé ma perception de la technologie moderne : apparemment, aucun être humain sur la planète n’est capable d’écrire un algorithme d’identification faciale et, en même temps, il y a déjà des étudiants d’informatique niveau licence qui peuvent écrire des algorithmes qui, à leur tour, écrivent, par apprentissage, l’identification faciale en un rien de temps. Je ne sais pas comment ça marche et il faudra que je donne de la substance à cette thèse par ma propre recherche, mais je trouve cela renversant. L’électronique crée donc un environnement où, probablement pour la première fois dans l’histoire, on ne peut pas faire directement des outils mais on peut faire des outils qui font ces outils. L’électronique pourrait bien être la première technologie qui soufflerait la poussière du vieux déterminisme technologique marxiste et qui pourrait littéralement plier l’espace social autour d’elle.

Question : quelle est la connexion entre la transition vers les énergies renouvelables et le développement de l’électronique ? Comment cette accélération de croissance dans le marché d’énergies renouvelables est-elle liée à la complexité croissante d’équipement électronique ?

[1] Mumford, L., 1964, Authoritarian and Democratic Technics, Technology and Culture, Vol. 5, No. 1 (Winter, 1964), pp. 1-8

Published by: The Johns Hopkins University Press on behalf of the Society for the History of Technology

[2] MacKenzie, D., 1984, Marx and the Machine, Technology and Culture, Vol. 25, No. 3. (Jul., 1984), pp. 473-502.

[3] Mahoney, M.S., 1988, The History of Computing in the History of Technology, Princeton, NJ, Annals of the History of Computing 10(1988), pp. 113-125

[4] David, P. A. (1990). The dynamo and the computer: an historical perspective on the modern productivity paradox. The American Economic Review, 80(2), 355-361.

[5] Vincenti, W.G., 1994, The Retractable Airplane Landing Gear and the Northrop “Anomaly”: Variation-Selection and the Shaping of Technology, Technology and Culture, Vol. 35, No. 1 (Jan., 1994), pp. 1-33

[6] Kline, R., Pinch, T., 1996, Users as Agents of Technological Change : The Social Construction of the Automobile in the Rural United States, Technology and Culture, vol. 37, no. 4 (Oct. 1996), pp. 763 – 795

[7] MacKenzie, D., Wajcman, J., eds. (1999) The social shaping of technology. 2nd ed., Open University Press, Buckingham, UK. ISBN 9780335199136

[8] Ceruzzi, P.E., Moore’s Law and Technological Determinism : Reflections on the History of Technology, Technology and Culture, vol. 46, July 2005, pp. 584 – 593

Que s’est-il passé aux alentours de 2007-2008 ?

Mon éditorial

Je cherche un fait central dans toute cette recherche que j’ai faite jusqu’alors sur les énergies renouvelables. Qu’est-ce qu’un fait central ? Pour moi, c’est tout d’abord un fait, donc une pièce de réalité et ensuite, c’est une pièce de réalité possible à décrire en une simple phrase, qui, tout en restant simple, a un petit contenu dramatique, le genre à suspendre ma voix juste après le point final, comme : « X change plus vite que Y et ce n’est pas vraiment ce que nous aimerions entendre ». Nous, les humains, on a des relations ambivalentes avec la réalité. Nous avons cette capacité fantastique de couper notre expérience sensorielle en des tranches très fines et d’étiqueter chacune d’elles d’une façon plus ou moins intelligible. Ce truc étrange s’appelle « langage » et nous rend capables de communiquer avec quelque chose de plus que des grognements. Seulement voilà, vous connaissez sans doute ces blagues de soirée : quelqu’un en raconte une, une autre personne aime bien et répète la même blague dans une autre soirée, seulement avec une petite rallonge, comme une petite tournure d’évènements de plus. Ensuite, ça s’enchaine. Des personnes consécutives attachent leurs propres pièces d’humour au joyau originel et avec le temps ça devient long et indigeste. C’est notre langage version verbiage : les étiquettes originelles, mises sur les pièces d’expérience sensorielle développent d’autres étiquettes, qui à leur tour en engendrent des suivantes et ainsi de suite jusqu’à ce quelqu’un s’écrie : « La malice historique ce cette nation de l’autre côté de la rivière nous force à étouffer dans le berceau les actes futurs d’agression de leur part et voilà pourquoi on commence cette guerre ! » Avec un peu de chance, de telles occasions incitent à enlever quelques étiquettes qui sont visiblement idiotes. Qu’est-ce que ça veut dire exactement « malice historique d’une nation » ? Comment peut-on étouffer des actes futurs, donc qui n’existent pas encore, dans leur berceau ?

Voilà le truc avec notre relation à la réalité. Trop près et ça ne va pas au-delà des grognements et cris. Trop loin – et trop profondément à l’intérieur de notre tête – et ça devient une idiotie avec des conséquences tragiques à l’horizon. Un fait central bien gras et bien présentable c’est quelque chose qui est juste suffisamment découpé de la réalité autour pour être intelligible et en même temps suffisamment près de cette réalité autour pour pouvoir se passer de toute une théorie. Quand j’y pense (« y » dans ce cas veut dire « énergies renouvelables »), il y a deux choses qui me viennent à l’esprit. Premièrement, jusqu’en 2007-2008, la consommation totale d’énergie dans le monde avait tendance à croître plus vite que la consommation totale d’énergies renouvelables. A partir de 2008, cette tendance s’est inversée : la consommation globale d’énergies renouvelables croît plus vite que la consommation totale d’énergie. Deuxièmement, la transition énergétique à l’échelle locale se fait dans des environnements socio-économiques très diversifiés : l’Europe de l’Ouest est très différente de celle de l’Est, est les deux sont comme années-lumière des pays comme Inde ou Pakistan. En général, les pays développés semblent aller très résolument vers l’énergie verte. En ce qui concerne les pays en voie de développement et les marchés émergents, bien qu’ils fassent beaucoup d’efforts pour promouvoir les énergies renouvelables, leur seule croissance démographique et économique pompe la consommation d’énergie tellement vite que cette demande se trouve largement satisfaite par l’énergie des carburants fossiles.

Question : que s’est-il passé aux alentours de 2007-2008 qui a bien pu inverser les proportions entre le gradient de la consommation totale d’énergie et celui de la consommation d’énergies renouvelables. Suspect no. 1 : crise financière des années 2007 – 2009. Le suspect à un casier judiciaire substantiel. Piste à suivre, quoi que j’ai cette petite intuition que ça serait un peu suivre la foule, si vous voyez ce que je veux dire. Suspect no. 2 : les systèmes monétaires et les monnaies virtuelles. Le doyen du gang des virtuelles, un certain Bitcoin, avait fait sa première casse en février 2008, et depuis, ça déménage. En plus, c’est précisément en 2007 – 2008 que la masse monétaire officiellement reconnue dans l’économie mondiale avait officiellement franchi le cap de 100% du PIB mondial, et c’était bien un pas dans le cadre d’une tendance de longue durée, celle de vélocité décroissante de l’argent. En 2007 et 2008, cette vélocité était donc descendue en dessous de V = 0,5, pour la première fois depuis 1960. Suspect(s) no. 3 : les villes, ainsi que la densité de population qu’elles impliquent. En 2008, la population urbaine dans le monde a officiellement franchi les 50% de la population humaine entière. En 2005, la densité de population a franchi le cap de 50 personnes par kilomètre carré. Si vous avez suivi les résultats des tests quantitatifs que je présentais sur ce blog durant les quelques dernières semaines, vous avez pu constater que c’est justement quand la densité de population avoisine les 50 personnes par kilomètre carré que les choses changent et des régularités économiques saillent dans le marché d’énergies renouvelables.

Mes suspects peuvent bien agir en crime organisé. Le pognon, en général, ça sert le plus lorsqu’il y a du monde autour. Seulement voilà, l’argent se comporte de deux façons différentes en présence d’êtres humains : ça se reproduit et ça circule. A mesure que la densité de la population croît, la fréquence d’interactions interpersonnelles croît aussi. Plus d’interactions veut dire plus de transactions et ceci me conduit à penser, à nouveau, en termes d’équilibre quantitatif des systèmes monétaires :

            P         *             T                          =          M                *            V

(Index des prix)      (Volume des transactions)        (masse monétaire)      (vélocité de l’argent)

A mesure que j’ai plus de transactions par kilomètre carré, avec la densité croissante de population, j’ai aussi plus de transactions dans l’unité de temps. Dans un tel cas, deux choses peuvent arriver à l’index des prix : soit il sera resté constant (demande supplémentaire vite balancée par plus d’offre), soit il sera pompé vers le haut, tout comme le volume des transactions. Il est hautement improbable qu’il décroisse. Le côté gauche de mon équation agrandira donc sa valeur et comme c’est une équation, le côté droit devra faire de même. L’observation des données statistiques en ce qui concerne la masse monétaire en circulation suggère que le pognon répond à la présence de plus d’humains par kilomètre carré plutôt par la reproduction que par une circulation accélérée. Là, remarquez, je le comprends, ce pognon. Moi-même, si je faisais face au choix entre me reproduire plus ou circuler plus vite, je pense bien que je choisirais le premier.

J’ai déjà trouvé un lien tout à fait robuste entre le côté droit de l’équation monétaire et la cadence de vieillissement des technologies en place un lien tout à fait robuste entre le côté droit de l’équation monétaire et la cadence de vieillissement des technologies en place  (Wasniewski 2017[1]). Plus il y a du monde autour, plus il y a d’idées par kilomètre carré et dans l’unité de temps, ce qui, à son tour, veut dire plus de changement dans ce qui est établi et donc une dépréciation plus rapide des technologies couramment exploitées. Une dépréciation plus rapide incite les entrepreneurs à donner plus de liquidité à leur bilans – donc maintenir des soldes monétaires plus substantiels par rapport au chiffre d’affaires) – et ça incite aussi les banques à développer plus de produits financiers basés sur le crédit à haute liquidité. Croissance rapide côté densité de population, lorsque l’entrepreneuriat et la finance sont suffisamment alertes pour suivre, crée une masse monétaire qui ne sait pas trop quoi faire et en même temps un surplus d’effort d’innovation. Il est utile de se rendre compte, aussi, qu’une densité de population plus élevée se traduit par une densité plus grande de connexions dans des réseaux énergétiques, ce qui peut conduire à franchir un seuil critique d’efficacité, quoi que là, je spécule. Je pose donc l’hypothèse que la croissance de densité de la population, combinée avec une vélocité décroissante de l’argent, ont toutes les deux franchi des seuils respectifs, en 2007 et 2008, qui ont rendu possible une expansion accélérée du secteur d’énergies renouvelables.

[1] Wasniewski, K., 2017, Financial Equilibrium in the Presence of Technological Change, Journal of Economics Library, Volume 4 June 2017 Issue 2, pp.160 – 171

Pas vraiment de l’impressionnant, mais du plutôt solide

Mon éditorial

Je suis en train de résumer les résultats de la recherche – aussi bien ma propre recherche empirique que la revue de littérature – que j’avais faite durant les deux derniers jours. A titre de rappel : je suis en train d’explorer le rôle des systèmes monétaires dans la transition vers les énergies renouvelables. Je vois que cette exploration prend deux dimensions contingentes : le changement structurel comme tel, et les effets d’échelle d’autre part. J’explique. J’ai deux variables de base qui forment l’état désirable des choses : la part relative d’énergie renouvelable dans la consommation totale d’énergie  et la part d’énergie renouvelable dans la production primaire d’électricité . Bien sûr, l’idéal serait 100% dans chacun de ces deux cas, mais – comme vous pouviez le constater dans le court survol du contexte local en Inde et en Espagne (voir ‘Deux théories, deux environnements’) ce n’est pas évident du tout. Mon objectif en termes de recherche est d’étudier les phénomènes qui ont une influence significative sur cette transition.

Je peux faire deux hypothèses de base. Premièrement, je peux dire que la structure du marché de l’énergie est influencée par la structure de quelque chose d’autre. J’ai une structure « A », donc celle du marché de l’énergie, et une structure « B », qui correspond à ce quelque chose d’autre. Dans cette approche, prise purement et strictement, je bâtis un modèle mathématique avec des variables structurelles, donc avec des proportions. Par ailleurs, j’ai déjà identifié au moins une corrélation de ce type, c’est-à-dire celle entre la part d’énergies renouvelables dans la consommation finale d’énergie et la part des salaires (rémunération de travail) dans le PIB. Deuxièmement, je peux formuler l’hypothèse que la structure du marché de l’énergie dépend de la quantité de quelque chose d’autre, par exemple de la quantité absolue de l’énergie consommée. Dans cette approche-là, une structure marche de façon congruente avec une quantité. L’idée de base est très proche de ce que j’ai présenté hier, dans « Countries never behave as they should » : le passage vers les énergies renouvelables au niveau de la production primaire d’électricité dépend significativement de la taille absolue du marché final d’énergies renouvelables.

Je peux mettre ces deux hypothèses dans un même modèle. Il est possible de combiner les variables structurelles avec des variables de quantité dans une seule équation. Comme je m’apprête à écrire un article sur le rôle des systèmes monétaires dans la transition énergétique, je viens de remarquer qu’il me manque encore une pièce du puzzle : une équation purement quantitative, genre gros équilibre monétaire. En d’autres mots, il serait bon que je concocte – et que je teste – une équation basée sur ce principe monétariste fondamental qui nous dit :

            P             *              T                               =                              M                    *            V

(Index des prix)      (Volume des transactions)        (masse monétaire)      (vélocité de l’argent)

Bien que l’équation monétariste soit très largement une astuce purement arithmétique, qui se réduit à la tautologie Q = Q, elle donne une idée intéressante : T = M*V/P où le volume de transactions dans un marché dépend de la masse monétaire en circulation, de sa vélocité ainsi que du niveau des prix. C’est donc l’idée générale que si je mets le volume du marché d’énergies renouvelables sur le côté gauche d’une équation, je veux retrouver sur le côté droit les variables monétaires ainsi que le niveau des prix. Il se fait que la base de données que j’ai à ma disposition j’ai une décomposition très détaillée du niveau des prix : les prix de consommation (pl_c), ceux d’investissement (pl_i), de dépenses publiques (pl_g), de l’exportation (pl_x) ainsi que d’importation (pl_m). J’ai donc à ma disposition des indexes de prix pour chaque composante de demande finale agrégée. C’est la contribution originale des créateurs de Penn Tables 9.0 (Feenstra et al. 2015[1]).

Je développe donc une hypothèse monétariste à propos du marché d’énergies renouvelables et je la teste, surtout pour vérifier quel est le pouvoir explicatif de cette approche, comparée à celles que j’avais déjà étudié précédemment. Pour chaque observation « pays – année » dans ma base de données, je calcule le produit de deux indicateurs « énergétiques » fournis par la Banque Mondiale – la part des renouvelables dans na consommation finale d’énergie multipliée par le coefficient de consommation finale d’énergie par tête d’habitant (en kilogrammes d’équivalent pétrole, donc en des blocks d’à peu près 11,63 kilowattheures) – et ensuite je multiplie le résultat par le nombre desdites têtes d’habitants. J’obtiens le volume absolu du marché d’énergies renouvelables, que je baptise « RenQ ». Si vous faites ça par vous-mêmes, faites gaffe aux ordres de magnitude : la Banque Mondiale fournit les pourcentages comme des nombres des points de pourcentage. Dans ces tables Excel que vous pouvez télécharger, 22% sera donc le chiffre « 22 » et ainsi de suite. Faut diviser ça par 100 pour pouvoir l’insérer dans vos calculs.

En ce qui concerne les variables monétaires, c’est du bien connu. J’ai cette variable structurelle de la Banque Mondiale, la masse monétaire comme pourcentage du PIB qui n’est donc rien d’autre que l’inverse de la vélocité V de l’argent. Je peux l’utiliser dans une équation monétariste à la simple condition de lire les résultats de régression à l’envers. Lorsque je multiplie ce coefficient par le PIB côté demande finale, fourni par les Penn Tables 9.0, j’obtiens la masse monétaire M présente dans le système. Bon, donc maintenant il n’y a plus qu’à poser ln(RenQ) = a1*ln(M) + a2*ln(V) + a3*ln(pl_c) + a4*ln(pl_i) + a5*ln(pl_g) + a6*ln(x) + a7*ln(pl_m) + constante résiduelle et tester tout ce bazar, dans un ensemble de données fait de n = 2 037 observations valides. Voilà alors que j’ai un coefficient de détermination R2 = 0,389 et les coefficients de régression à trouver dans la table 1, ci-dessous.

Table 1

Variable coefficient Erreur standard Statistique t p-valeur
ln(M) 0,808 0,03 26,526 0,000
ln(pl_c) -1,099 0,198 -5,558 0,000
ln(pl_i) 1,084 0,185 5,859 0,000
ln(pl_g) -0,096 0,113 -0,845 0,398
ln(pl_x) 3,554 0,503 7,061 0,000
ln(1/V) -1,501 0,128 -11,749 0,000
ln(pl_m) -2,963 0,638 -4,647 0,000
Valeur résiduelle 18,867 0,464 40,628 0,000

Ce n’est pas vraiment de l’impressionnant, vu ce R2, mais c’est plutôt du solide. Sauf la corrélation un peu fofolle de l’index des prix des dépenses publiques « pl_g », qui indique un doute sérieux à propos du facteur fiscal dans ce modèle, le reste à l’air bien robuste. Conclusion générale : le modèle monétariste explique pratiquement 39% de la variance observée dans la taille absolue du marché d’énergies renouvelables. Comme je dois lire le coefficient de 1/V à l’envers, je peux conclure que l’offre de la masse monétaire aussi bien que sa vélocité ont un impact positif sur la taille dudit marché. Ceci, à son tour, veut dire que l’efficacité du système bancaire n’est pas à négliger.

Ensuite, le coefficient positif qui accompagne les prix de l’investissement suggère que dans l’échantillon étudié la croissance du marché des renouvelables est associée avec une demande croissante sur le marché des biens de production en général, donc avec ce qu’on appelle parfois la croissance Schumpétérienne. Les coefficients des prix de commerce extérieur – positif à l’exportation et négatif en ce qui concerne les importations – est congruente avec les résultats de recherche publiés par Peter D. Lund (Lund 2009[2]) : plus la position commerciale du pays (en termes de valeur ajoutée) est avantageuse, plus grand est le marché d’énergies renouvelables. Vu la magnitude des coefficients associés avec ces prix de commerce extérieur, ce facteur de position commerciale a l’air beaucoup plus important que je ne le pensais initialement.

[1] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at www.ggdc.net/pwt

[2] Lund, P.D., 2009, Effects of energy policies on industry expansion in renewable energy, Renewable Energy 34 (2009) 53–64