Contagion étonnement cohérente

 

Je me suis un peu dispersé, dans mon discours de la méthode, en ce qui concerne le marketing de mon projet EneFin. Je voulais simplement comprendre comment est-ce que la plateforme EneFin attirerait ses clients, de parmi tous les clients potentiels sur le marché et paf ! : ça s’est échappé à tout contrôle. Par « ça » je veux dire mes processus cognitifs. Je le sens bien, là, mon bouledogue joyeux interne. Il prend plaisir à mordre dans le problème en tant que tel, même sans solutions concrètes en vue.

Eh ben moi, je vais en avoir besoin, des solutions concrètes. Il faut donc que je mette un peu d’ordre dans tout ça, je veux dire dans le même « ça » que dans le paragraphe précèdent. J’ai formulé trois méthodes de base pour prévoir le nombre des clients de la plateforme EneFin. Premièrement, c’est le modèle classique d’absorption d’innovation où le nombre de mes clients est calculé comme une fraction de la population totale de ménages. La fraction, je la calcule avec la courbe de distribution normale où le temps moyen d’absorption de l’innovation par le ménage moyen est de 7 ans et j’expérimente avec des hypothèses diverses quant au coefficient de variabilité de la population. A ce sujet, dans « Le modèle d’un marché relativement conformiste » ainsi que dans « Safely narrow down the apparent chaos » vous pouvez voir des prédictions que j’avais déjà faites à titre d’échauffement.

Deuxièmement, j’ai ce modèle épidémique, à voir en détail dans « La valeur espérée » où les services de la plateforme EneFinse propagent dans la population des clients comme une contagion. Chaque client acquis en attire deux de plus, donc c’est essentiellement une progression géométrique du type n(t) = 2*n(t-1) + 1, qui s’approche très près d’une courbe exponentielle à la formule n(t) = e0,69*t. Le « t » c’est le temps.

Troisièmement et sous un angle d’approche tout à fait différent, j’avais identifié quelque chose comme un cycle de développement du portefeuille clients dans une entreprise EneFin. Le cycle, il semble être de 3 à 4 ans, il vient de l’observation du cas de la société américaine Square Inc.et vous pouvez lire les détails dans « The expected amount of what can happen ».

Trois methodes de prevoir les ventes

Je pense que je vais appliquer toutes les trois méthodes en concours, puisque chacune d’elles m’offre une perspective différente. Je commence par trouver des repères de base pour la courbe d’absorption de l’innovation. Dans ce cas, le repère de base c’est la taille du marché potentiel. Je conduis ce créneau particulier de recherche sur l’échantillon des 13 pays européens que j’avais déjà mentionné plusieurs fois (regardez, par exemple, « Good hypotheses are simple »). J’utilise les données de la Banque Mondiale en ce qui concerne la populationainsi que celles des Nations Unies à propos de la taille moyenne des ménages. Vous avez les résultats du calcul dans Tableau 1.

Tableau 1

Pays Population 2016 Taille moyenne des ménages (personnes par ménage) Nombre de ménages
Autriche 8 747 358 2,30 3 803 199
Suisse 8 372 098 2,20 3 805 499
République Tchèque 10 561 633 2,30 4 592 014
Allemagne 82 667 685 2,10 39 365 564
Espagne 46 443 959 2,60 17 863 061
Estonie 1 316 481 2,30 572 383
Finlande 5 495 096 2,10 2 616 712
France 66 896 109 2,30 29 085 265
Royaume Uni 65 637 239 2,30 28 537 930
Hollande 17 018 408 2,30 7 399 308
Norvège 5 232 929 2,20 2 378 604
Pologne 37 948 016 2,80 13 552 863
Portugal 10 324 611 2,60 3 971 004
Total 366 661 622 2,35 (moyenne pondérée) 156 265 895

Alors, juste pour me faire une idée, je prends les taux d’absorption calculés dans « Safely narrow down the apparent chaos » et je les applique à ces populations, pour calculer le nombre des ménages qui pourraient, hypothétiquement, être les clients de la plateforme EneFin. Les résultat de ce calcul particulier, vous pouvez le trouver dans un fichier Excel que j’ai placé dans les archives de mon blog. La disparité des nombres que je trouve ainsi est énorme. Dans le cas du Royaume Uni, par exemple, ça va de 0,22 client dans une population extrêmement homogène, variabilité v = Ω/µ = 0,1, jusqu’à 3 790 302,83 clients dans la population qui semble, en général, la plus accueillante, celle dotée de la variabilité v = Ω/µ = 0,8.

Maintenant, quoi ? Tout d’abord, la compréhension de ces nombres. Ils représentent le nombre hypothétique des clients que la plateforme EneFinpourrait attirer en l’espace des 36 mois à travers le mécanisme d’absorption d’innovation, un classique de la littérature du sujet (encore une fois, regardez du côté de chez Robertson). C’est un mécanisme où on adopte l’approche strictement structurelle. On en sait que dalle sur la façon exacte dont le nouveau business attire ses clients, on s’en fiche des compétiteurs, et on se concentre sur la courbe normale marquée par un temps d’absorption moyen µ et une déviation standard Ω, cette dernière étant calculée sur la base d’hypothèses à propos de la homogénéité / hétérogénéité relative de la population en question. Vous connaissez ces machines à sous (pièges à cons ?) où vous pouvez manipuler une pince pour tirer un jouet en peluche de parmi tout un tas des jouets similaires ? Eh bien, cette approche strictement structurelle c’est un peu ça. On imagine une pince socio-économique qui sélectionne des entités précises pour qu’elles joignent le portefeuille des clients du business donné.

Sonne un peu comme science-fiction ? Tout à fait. C’est la raison pour laquelle, tout en gardant le respect dû à une méthode solide, il vaut mieux approfondir la compréhension des clients et de leur comportement. Le comportement, ça me renvoie à la méthode épidémique. Je prends donc cette fonction exponentielle n(t) = e0,69*tavec « t » représentant une période de temps. Cet exponentiel représente, à son tour, une contagion modérément folle, où à partir du client zéro, chaque client acquis attire, durant une période de temps « t », deux autres clients. C’est du n(t) = 2*n(t-1) + 1, quoi.

Lorsque j’y pense, à cette épidémie modérément agressive, c’est pas si bête que ça. Le truc, c’est de bien définir le « t ». C’est un cycle de modification comportementale. Je suis un ménage innocent. L’un de mes voisins contracte le virus EneFin. Combien de temps vais-je résister à ce monstre ? Quelle réponse immunologique je vais développer ? Tout ça, c’est un truc passionnant en soi, cette modification des comportements. J’y avais consacré toute une série des mises à jour sur mon blog, en Janvieret en Février, surtout. Vous pouvez y regarder.

Ma question, à présent, est : « Est-ce que les nombres obtenus à travers la courbe normalereflètent un cycle cohérent de modification comportementale du type épidémique ? ». Allons voir. Je prends donc ce fichier Excelet je commence mon raisonnement en posant l’hypothèse que ce nombre précis, il pourrait refléter le « n » obtenu à travers exponentielle n(t) = e0,69*t.  Je fais le calcul suivant : je tire le logarithme naturel de chacun de ces nombres et je le divise par 0,69. De cette façon je fais cracher le « t » à ce n(t) = e0,69*t. Allez-y, si vous avez téléchargé ce fichier Excel, vous pouvez faire de même. Si le nombre local des clients est, hypothétiquement, le résultat de croissance épidémiquen(t) = e0,69*t , alors ln(n)/0,69 = t = le nombre des périodes de tempsdistinctes qui pourraient produire le résultat épidémique égal à « n » obtenu à travers la courbe normale.

Avant de discuter les résultats de ce petit calcul, une digression. Sans la colonne intitulée « variability 0,1 » de ce fichier Excelet, vous trouverez, quel calcul que vous ne fassiez, des nombres aberrants. Dans ce cas précis, le calcul du « t » à travers le logarithme naturel donne des valeurs négatives, donc, en principe, c’est du voyage temporel dans le passé. La colonne « variability 0,1 » représente un cas extrême, une population si homogène, que la déviation standard Ω ne fait que 0,1 de la moyenne µ. De telles situations n’arrivent que très rarement en réalité. Une population comme ça est tellement peu diversifiée qu’il est à peine justifié de l’analyser avec un courbe de distribution normale. Je l’avais inclue dans mes simulations juste pour montrer l’étendue des états possibles. Vous pouvez l’ignorer en toute tranquillité.

Alors, ces « t » locaux. Comme je les calcule, j’obtiens – et c’est une surprise – une rangée des valeurs beaucoup plus homogène que les « n » de départ. Entre t = 10,44au plus court et t = 24,42au plus long, le temps moyen est de µ(t) = 19,44et la déviation standard de ce temps est de Ω(t) = 2,40. En d’autres mots, si le nombre des clients acquis après 36 mois, simulé avec une courbe normale, était le résultant d’une croissance épidémique exponentielle épidémiquen(t) = e0,69*t , alors le temps nécessaire pour obtenir le même « n » à travers ladite croissance épidémique serait de 19,44 périodes distinctes « t » en moyenne, avec très peu de variabilité autour de cette moyenne.

Important : ce « t » est le nombre des périodes de temps distinctes, donc le nombre des cycles de contagionn(t) = 2*n(t-1) + 1. Ce n’est pas le nombre des mois, mais j’y passe, justement. Si mon « n », hypothétiquement obtenu à travers la contagion n(t) = e0,69*t survient après 19,44 périodes en moyenne et le même « n », obtenu à travers l’absorption suivant la courbe normale, devient ce qu’il devient après 36 mois, cela veut dire qu’une période de contagion « t » est de t = 36 / 19,44 = 1,88mois. En généralisant, t = 36 / {ln[n(t)] / 0,69} = (36 * 0,69) / ln[n(t)] = 24,84 / ln[n(t)]. Ainsi généralisé, le « t » rend, à part la moyenne µ(t) = 1,88, un maximum de 3,45 mois et un minimum de 1,47 mois, avec une déviation standard Ω(t) = 0,26.

Je sens que j’ai besoin de résumer. J’avais donc pris treize populations nationales européennes : Autriche, Suisse, République Tchèque, Allemagne, Espagne, Estonie, Finlande, France, Royaume Uni, Hollande, Norvège, Pologne, Portugal. Ça fait dans les 367 millions de personnes, soit quelques 156 millions de ménages. D’autre part, j’avais pris un cycle de changement technologique, très crument observé en ce qui concerne les nouvelles technologies éolienneset je l’ai fixé à 7 ans, ou bien 84 mois. Je me suis dit que ces 7 ans, c’est le temps moyen qu’un ménage moyen a besoin pour absorber une technologie nouvelle. Ensuite, j’ai fait à ces 156 millions des ménages absorber une technologie nouvelle, celle de la plateforme transactionnelle EneFin, avec des hypothèses variées à propos de l’homogénéité relative des ces populations. J’avais obtenu tout un univers des nombres possibles des ménages qu’EneFin aurait des chances d’attirer. Ces nombres disparates, je les ai testées comme des résultats possibles d’une croissance épidémiquen(t) = e0,69*t  où « t » est un cycle de contagion durant lequel chaque client acquis en attire deux autres. Aussi étonnant que ça puisse être, ces nombres très variés, obtenus pour des populations nationales variées avec des assomptions tout ce qu’il y a de cavalier, rendent un cycle de contagion (modification comportementale) remarquablement consistant de t ≈ 2 mois.

Lorsque j’écris « aussi étonnant que ça puisse être », c’est essentiellement de mon propre étonnement que je parle. Ces résultats, c’est l’une de ces occasions quand j’ai l’impression d’être tombé sur la théorie de quelque chose mais je suis à court d’idées en ce qui concerne quelle pourrait bien être cette chose. Je suis 100% sérieux, là. Je ne comprends pas, comment ces nombres calculés avec la courbe normalepeuvent bien rendre un cycle de croissance épidémique aussi cohérent.

Cela veut dire que mon cerveau a besoin de prendre sa distance, là. Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund(aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon. Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Vous pouvez donner votre support financier à ce blog

€10.00

 

La valeur espérée

Dans ma dernière mise à jour en anglais – Safely narrow down the apparent chaos– j’avais fait un pas en avant (enfin, j’espère) dans l’estimation du nombre des clients que je pourrais faire dans mon projet EneFin. Je me suis dit que ça ne serait peut-être pas entièrement idiot d’aller un peu en profondeur et expliquer toute cette idée de prédire le nombre des clients en s’aidant de la distribution normale.

Voilà le problème de départ : comment prédire une quantité future et incertaine ? Lorsque nous voulons prédire le nombre ou la taille de quoi que ce soit, serait-ce le nombre des billets vendus pour un concert ou la quantité de matériel rocheux éjecté dans l’éruption d’un volcan, vous avons deux voies – mutuellement alternatives mais pas mutuellement exclusives – à suivre : la méthode épidémique ou bien la méthode de changement structurel.

Dans la méthode épidémique, je me concentre sur le nombre (ou la taille) de départ et je me demande comment ce numéraire initial peut possiblement croître. Lorsque j’applique cette logique au nombre des clients potentiels, je peux utiliser ce qu’on appelle la théorie de l’épidémie : l’attraction des clients consécutifs est étudiée comme la propagation d’un pathogène. Ça commence avec le patient zéro – mon premier client – qui contacte (contamine) ses potes et ses cousins et certains parmi eux deviennent mes clients. Ceux-là, à leur tour, contaminent d’autres et ainsi ça se développe, par contamination.

Si je veux modeler me développement de mon portefeuille des clients comme une contamination épidémique, j’ai besoin des assomptions initiales en ce qui concerne la contamination strictement dite. Il faut quelque sorte de contact pour rendre possible la transmission. En d’autres mots, il faut que je raconte une histoire plausible à propos des relations sociales entre mes clients potentiels et de la façon dont ils se transmettent mutuellement des schémas de comportement. Mathématiquement, j’ai deux outils de base pour modeler l’effet agrégé de cette transmission des schémas de comportement: le premier c’est la fonction factorielleou bien sa cousine, la fonction gamma, le deuxième c’est la fonction exponentielle.

Dans la méthode de changement structurel, je change d’optique et au départ je me concentre sur la population totale des toutes les entités qui peuvent potentiellement devenir mes clients. Je définis donc un marché potentiel total et ensuite je me demande comment je vais développer mon portefeuille clients à l’intérieur de cet univers. Je perçois l’ensemble de mes clients comme un sous-ensemble d’une population plus large. Comme certains membres de cette population totale graviteront vers mon offre, la proportion entre mon portefeuille clients et cette population totale changera. Dans cette approche, ma prédiction se concentre plus sur le pourcentage que mes clients vont représenter dans la population totale que sur leur nombre absolu. Côté maths, c’est le bon moment pour sortir de mon sac des outils comme la distribution normale, ou bien celle de Poisson, ou encore celle de Weibulletc.

Epidemie et changement structurel

 

Maintenant, vous pouvez légitimement demander laquelle de ces deux méthodes – épidémique et structurelle – est la meilleure des deux et si on peut possiblement les mélanger. A mon avis, la méthode structurelle est la meilleure des deux en général. Elle est à la fois plus rationnelle, plus intuitive, plus simple et mieux instrumentée mathématiquement. Encore, pour avoir une idée vraiment précise et un modèle analytique vraiment solide, il est bon d’ajouter une pincée de la méthode épidémique.

Je commence par expliquer l’aspect rationnel. Peut-être vous vous souvenez de ces épisodes d’enfance lorsque vous mesuriez votre taille en faisant des marques sur le châssis dormant d’une porte. Vous pouviez observer la progression directement – « je suis plus grand(e) qu’il y a deux mois » – et vous aviez une idée vague de la taille finale que vous pourriez probablement atteindre. Vous observiez les adultes autour de vous et vous vous disiez qu’un jour, vous serez aussi grand(e) qu’eux. Vous perceviez votre propre taille en proportion à la taille-cible des adultes. A un niveau plus général et plus profond, c’est comme ça que marche la réalité : comme des structures entremêlées. Tout ce qui existe est une structure à l’intérieur d’une structure plus vaste et en même temps contient des structures plus locales à l’intérieur de soi-même. La méthode structurelle est fondamentalement en phase avec la façon dont notre cerveau rationnalise notre expérience de la réalité.

Encore, si vous étiez un gosse bien curieux – moi j’étais une vraie peste à cet égard, je tuais les adultes avec mes questions – vous voulez comprendre comment ça se fait que la marque de votre taille, sur le châssis de la porte, et plus haut que celle d’il y a deux mois. Alors voilà que vous prenez connaissance de toute l’histoire des cellules qui se multiplient. Vous passez de l’approche structurelle à la théorie de l’épidémie. Toute croissance de matière organique peut être étudiée comme une épidémie, celle d’un certain code génétique. Voilà la bonne place pour la méthode épidémique : comprendre ces petites interactions locales dans des petites structures locales.

Dans la prédiction du nombre futurs de mes clients, dans un business plan, la méthode structurelle commence avec des assomptions bien vérifiables empiriquement. La taille de mon marché potentiel entier, je peux la mesurer – ou bien faire des assomptions solides à ce sujet – sur la base des données économiques accessibles : démographie, consommation ménagère, investissement entrepreneurial etc. Tout ça, ce sont des repères bien distincts et ce qui est même plus important, intersubjectifs. Vous allez chez INSEE, chez Eurostat, ou bien chez la Banque Mondiale, et vous avez ces données de départ. C’est comme si vous aviez la carte essentielle d’un territoire : ça rassure.

Ensuite, lorsque je passe en revue – tout à fait subjectivement, je l’admets – les outils mathématiques dont je dispose pour prédire le nombre de mes clients, les structurels sont beaucoup plus simples à utiliser que les épidémiques. En fait, je pense qu’il est utile d’étudier la différence en peu plus en profondeur. Je retourne donc à mon concept EneFin(regardez du côté de Le modèle d’un marché relativement conformistepour vous rafraichir la mémoire) et je me dis : « OK, j’ai donc le premier client : la première personne qui a acheté au moins un contrat complexe via EneFin. Qu’est-ce qui se passe ensuite ? ».

L’épidémie d’abord. Mon premier client convainc deux autres. Ça fait 1 plus la factorielle de deux, donc dans ce deuxième moment de mon histoire j’ai 1 + 2 ! = 1 + 1 * 2 = 1 + 2 = 3 clients. Ces deux autres font de même, donc chacun d’eux convainc deux suivants, ce qui fait 4 de plus. Par conséquent, dans le troisième moment de mon histoire j’ai 1 + 1 * 2 + 2 * 2 = 7 = 1 + 3 ! clients. Ainsi vient le quatrième moment de l’histoire et des suivants. A chaque fois chacun des clients convaincus jusqu’alors en attire deux autres et j’ai bien sûr mon patient zéro. Au moment « t » j’ai donc le double du nombre des clients gagnés au moment « t – 1 » plus 1. En mathématique commun ça fait n(t) = 2*n(t-1) + 1.

Est-ce que ça se marie avec les factorielles des moments consécutifs ? Pas tout à fait. A partir du moment no. 4, la discorde s’insinue. Prenez le cas du moment no. 8. La chaîne n(t) = 2*n(t-1) + 1donne n(8) = 255clients, mais la factorielle 8 ! ça fait 40 321 clients. Comme une légère différence. Eh ben oui, puisque la factorielle pure et dure ça implique une contamination de plus en plus rapide. Pour avoir 8 ! = 40 321 clients au moment 8, chacun des 7 ! = 5 041 clients déjà attirés préalablement jusqu’au moment 7 devrait attirer 40 321/5 041 = 7,998611387 amis et cousins. Pour avoir le point de départ du moment 7, donc ces 7 ! = 5 041 clients, au moment 6 j’étais obligé d’avoir 6 ! = 721 clients, dont chacun avait convaincu 6,991678225 autres.

Alors voilà que j’ai deux contaminations différentes : une avec la progression n(t) = 2*n(t-1) + 1, l’autre qui file au rythme de n(t) = t ! + 1. Tableau 1 ci-dessous donne une idée de ces deux propagations épidémiques.

Tableau 1 – Comparaison des propagations épidémiques : n(t) = 2*n(t-1) + 1et n(t) = t ! + 1.

  Épidémie n(t) = 2*n(t-1) + 1 Épidémie n(t) = t ! + 1
Moment Nombre total des clients Nombre des clients nouveaux attirés par chaque client existant Nombre total des clients Nombre des clients nouveaux attirés par chaque client existant
1 1 2 2 2
2 3 3 3 1,5
3 7 2,333333333 7 2,333333333
4 15 2,142857143 25 3,571428571
5 31 2,066666667 121 4,84
6 63 2,032258065 721 5,958677686
7 127 2,015873016 5 041 6,991678225
8 255 2,007874016 40 321 7,998611387
9 511 2,003921569 362 881 8,999801592
10 1 023 2,001956947 3 628 801 9,999975198
11 2 047 2,000977517 39 916 801 10,99999724
12 4 095 2,00048852 479 001 601 11,99999972
13 8 191 2,0002442 6 227 020 801 12,99999997
14 16 383 2,000122085 87 178 291 201 14
15 32 767 2,000061039 1 307 674 368 001 15
16 65 535 2,000030519 20 922 789 888 001 16

 

A première vue, la progression purement factorielle n(t) = t ! + 1c’est un peu fou. Ça pourrait servir à simuler, par exemple, le nombre des transactions dans une fonctionnalité FinTech, mais pas le nombre des clients. La propagation géométrique n(t) = 2*n(t-1) + 1semble un peu plus réaliste. Elle a aussi un trait mathématique intéressant. Si vous tirez le logarithme naturel du nombre total des clients à chaque moment consécutif et ensuite vous divisez ce logarithme par la valeur du moment – donc par 4 au moment no. 4 etc. – vous arrivez très vite, dès le moment no. 5, à la valeur quasi constante de ln[n(t)/t] ≈ 0,69. En d’autres mots, la propagation épidémique n(t) = 2*n(t-1) + 1est à peu de chose près équivalente à la croissance exponentielle n(t) = e0,69*t. Qu’est-ce que ça prouve ? Eh bien, dans les sciences économiques on assume que si la croissance quantitative d’un phénomène suit la logique de n(t) = e ß*t, avec ßplus ou moins constant, cela représente raisonnablement une hystérèse, donc un développement où chaque pas consécutif détermine le pas suivant d’une façon plus ou moins cohérente.

J’ai donc une hystérèse bien jolie, mais est-elle réaliste ? Puis-je assumer une progression où chaque période consécutive va me permettre de doubler la taille de mon portefeuille clients ? Comment définir cette période de changement du simple au double ? Comment puis-je simuler une situation ou quelques-uns de parmi mes clients attirent, chacun, deux nouveaux pendant que d’autres attirent cinq nouveaux ?

Voilà le moment quand la méthode épidémique, illustrée ci-dessus, devient de plus en plus encombrante avec toutes les assomptions qu’il faut y ajouter. Voilà donc le moment de tourner vers la méthode structurelle. Nous y retournons avec la version française des mêmes schémas graphiques que j’avais déjà présentés dans Safely narrow down the apparent chaos. Je les présente ci-dessous en j’enchaîne ensuite.

Distribution normale de base

 

Distribution normale interpretation

L’application pratique de la distribution normale exige un peu de flexibilité, surtout dans l’interprétation d’un paramètre-clé : la moyenne ou le « µ » dans l’équation. En théorie, la moyenne est la valeur espérée dans un ensemble des données. D’habitude, on l’interprète comme un attribut de la moyenne : dès qu’on la calcule, on peut la considérer comme valeur espérée. Maintenant, je vous propose d’inverser le raisonnement. Prenons une valeur que nous pouvons considérer comme espérée, donc comme, à la fois, ce que nous voulons avoir (espérons), et ce qui est objectivement vérifiable (pour savoir si on a obtenu ce qu’on espérait d’avoir). Dans cet outil de calcul que vous pouvez trouver sur mon blog, le « Business Planning Calculator », une telle valeur est le point mort des ventes, donc le nombre des clients qui nous garantit la couverture de nos frais fixes. On peut prendre le niveau des ventes qui garantit 20% de marge opérationnelle. On peut prendre, comme notre valeur espérée, tout ce qui est : a) désirable b) objectivement mesurable et vérifiable.

Une fois notre valeur espérée identifiée, nous assumons que c’est la moyenne d’une distribution normale. Tout autour de cet état que nous voulons atteindre, il y a des états plus ou moins voisins, qui se composent en une courbe de Gauss. Si nous vérifions la réalité autour de nous, nous découvrirons ces états voisins de la moyenne – par exemple à travers l’étude des cas des business similaires au notre – et ainsi nous pouvons estimer la déviation standard de notre courbe. Voilà, on a les deux paramètres de la distribution normale.

Bon, j’en finis avec la science, pour aujourd’hui. Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund(aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon. Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Vous pouvez donner votre support financier à ce blog

€10.00

 

Je corrèle

Je pense à ces corrélations étrangement solides que j’avais identifiées en présentant ma dernière mise à jour en anglais : « Time to come to the ad rem ». Dans la science, il y a fréquemment des moments quand une structure qu’on espérait solide s’avère être carrément une illusion. Dans ce cas précis, c’est l’inverse : j’espérais trouver des relations de tout ce qu’il y a de plus accidentel et ce que j’ai effectivement trouvé est une structure solide comme du béton, à première vue. Alors voilà, je fus inspiré par la lecture de cette demande de brevet no. EP 3 214 303 A1déposée auprès de l’Office Européen des Brevets. C’est une turbine éolienne à l’axe vertical, donc un de ces trucs suffisamment petits pour être installés dans la proximité immédiate d’habitations humaines. En même temps, avec des vents que nous pouvons rencontrer dans les régions côtières, ce machin pourrait changer profondément l’accès à l’énergie (consultez Ma petite turbine éolienne à l’axe vertical). Une petite merveille.

Alors j’avais flâné un peu du côté de https://patents.google.comet j’avais fait une sélection sémantique des demandes de brevet dans le domaine des turbines éoliennes à l’axe vertical. Comme c’était une recherche sémantique, donc par l’expression clé en anglais (« wind turbine with vertical axis »), je pensais que je vais tomber sur tout un tas des malentendus, par exemple des inventions qui concernent, en fait, des turbines à l’axe horizontal mais parlent de quelque chose à propos de l’axe vertical du mât principal. Cependant, au lieu de tout un tas de bruit statistique, j’étais tombé sur une régularité étonnante, tellement étonnante que je la reproduis une fois de plus, dans Tableau 1 ci-dessous :

Tableau 1

  Nombre des demandes de brevet relatives aux turbines éoliennes à l’axe vertical
Année Office Européen des Brevets (EPO) % du total des demandes de brevet relatives à l’éolien, chez EPO US Patent & Trademark Office (USPTO) % du total des demandes de brevet relatives à l’éolien, chez USPTO Office des Brevets de la République Populaire de Chine (CH) % du total des demandes de brevet relatives à l’éolien, chez CH
[a] [b] [c] [d] [e] [f] [g]
2001 616 41,5% 1266 38,5% 369 29,1%
2002 599 37,8% 1294 38,3% 478 27,0%
2003 645 37,6% 1491 40,0% 645 27,0%
2004 806 40,7% 1703 40,7% 961 29,9%
2005 821 41,7% 1744 38,8% 1047 25,7%
2006 937 44,1% 1999 39,4% 1553 27,6%
2007 960 40,0% 2150 38,4% 1844 27,3%
2008 1224 44,5% 2454 39,4% 2342 26,7%
2009 1445 45,4% 2813 40,2% 2497 22,8%
2010 1746 46,6% 3482 42,4% 3298 24,8%
2011 2006 44,9% 3622 39,3% 4139 23,1%
2012 1886 42,1% 3699 39,0% 4551 20,6%
2013 1781 41,8% 3829 39,2% 5307 20,2%
2014 1800 38,8% 4074 40,4% 5740 18,1%
2015 1867 42,5% 4013 40,2% 7870 19,6%
2016 1089 39,8% 3388 40,6% 9325 20,4%
2017 349 42,9% 2115 42,7% 9321 22,3%

Je pense que vous pouvez aisément deviner ce qui m’avait tellement étonné : les résultats d’une sélection sémantique qui aurait dû donner des nombres au moins quelque peu aléatoires montre quelque chose de presque irréellement cohérent. Pour ceux qui ne sont pas vraiment potes avec la recherche quantitative : croyez-moi, les nombres dans Tableau 1 sont tellement réguliers qu’ils ont l’air d’une simulation mathématique plutôt que d’un ensemble empirique des données.

Alors dans cette mise à jour en anglais – Time to come to the ad rem – j’ai étudié la corrélation entre ces nombres et le pourcentage de la consommation totale d’énergie provenant des sources renouvelables, respectivement pour l’UE, les États-Unis et la Chine. Encore une fois, surprise : des corrélations de Pearsonsolides comme des barres de fer. Comment est-ce que l’incidence d’un profil sémantique donné, dans un ensemble d’inventions, peut bien être corrélée avec la structure de consommation d’énergie à un niveau de r = 0,94 ? Allez savoir. Moi, ça continue de provoquer des démangeaisons chez mon singe curieux interne.

Je cherche dans la direction de consommation agrégée d’énergie renouvelable. Les calculs préliminaires, je les effectue avec les données publiées par la Banque Mondiale. Je prends donc les populations respectives de l’Union Européenne, des États-Unis et de la Chineet je les multiplie par le coefficient de consommation finale d’énergie par tête d’habitant. De cette façon j’obtiens la consommation agrégée d’énergie, en tonnes d’équivalent pétrole. Ensuite, je multiplie ça par le pourcentage de la consommation finale d’énergie dérivé des sources renouvelables. De tout en tout, j’atterris avec les données que vous pouvez trouver dans Tableau 2, ci-dessous.

 

Tableau 2

Année Tonnes d’équivalent pétrole d’énergie renouvelable consommées en l’Union Européenne Tonnes d’équivalent pétrole d’énergie renouvelable consommées aux États-Unis Tonnes d’équivalent pétrole d’énergie renouvelable consommées en Chine continentale
2001 1 735 015 232 2 230 704 586 1 181 308 822
2002 1 732 427 984 2 255 943 576 1 260 951 639
2003 1 769 113 239 2 261 169 559 1 440 987 496
2004 1 787 505 277 2 307 767 983 1 643 595 354
2005 1 793 312 022 2 318 770 902 1 816 983 253
2006 1 800 278 875 2 296 824 886 1 986 422 995
2007 1 769 767 272 2 337 001 704 2 148 377 946
2008 1 762 246 130 2 277 080 529 2 216 020 807
2009 1 660 333 596 2 164 820 311 2 367 557 406
2010 1 725 188 226 2 215 223 615 2 614 842 137
2011 1 658 167 007 2 190 417 726 2 804 509 642
2012 1 645 249 820 2 156 975 857 2 910 970 303
2013 1 626 364 912 2 182 583 138 3 004 912 635
2014 1 564 974 842 2 216 186 625 3 051 503 511

 

Je corrèle. Je calcule le coefficient de corrélation de Pearson pour chaque paire des séries temporelles « Nombre des demandes de brevet relatives aux turbines éoliennes à l’axe vertical du Tableau 1 ; Tonnes d’équivalent pétrole d’énergie renouvelable consommées du Tableau 2 ». Union Européenne, corrélation r = -0,779703594 ; États-Unis r = -0,67424865 ; Chine r = 0,966634589. Me font ch**r, ces turbines, franchement. Elles mettent la tête à l’envers la plupart de ce que j’avais appris jusqu’alors en termes de méthodes de recherche empirique. Je veux dire que ces corrélations n’ont pas le droit d’exister. Elles sont définitivement trop significatives. Je veux les étudier pas à pas, et ce sera aussi une occasion rêvée pour jouer le prof en termes d’analyse quantitative.

Mon premier pas consiste à représenter chaque nombre comme une déviation de la moyenne arithmétique respective. Je sais, ça sonne sorcier, mais c’est simple comme tout. Vous pouvez faire de même avec tout ce qui est observable et mesurable : vous pouvez représenter chaque phénomène comme une déviation d’un état attendu. Notre cerveau le fait tout le temps, par ailleurs. Dans chaque série temporelle en question, je calcule sa moyenne arithmétique et ensuite je représente se nombre comme la différence (soustraction) entre ce nombre original et ladite moyenne. Vous pouvez trouver les résultats de cette opération dans Tableau 3, ci-dessous. Les valeurs entre parenthèses sont des négatives.

Tableau 3

  Tonnes d’équivalent pétrole d’énergie renouvelable consommées – déviations de la moyenne Nombre des demandes de brevet relatives aux turbines éoliennes à l’axe vertical – déviations de la moyenne
Année Union Européenne États-Unis Chine Union Européenne États-Unis Chine
2001 18 590 629,08 (12 971 913,79) (993 615 745,57) (617,71) (1 278,29) (2 114,64)
2002 16 003 381,53 12 267 076,21 (913 972 928,57) (634,71) (1 250,29) (2 005,64)
2003 52 688 636,34 17 493 059,21 (733 937 071,57) (588,71) (1 053,29) (1 838,64)
2004 71 080 674,76 64 091 483,21 (531 329 213,57) (427,71) (841,29) (1 522,64)
2005 76 887 419,60 75 094 402,21 (357 941 314,57) (412,71) (800,29) (1 436,64)
2006 83 854 272,45 53 148 386,21 (188 501 572,57) (296,71) (545,29) (930,64)
2007 53 342 669,61 93 325 204,21 (26 546 621,57) (273,71) (394,29) (639,64)
2008 45 821 527,04 33 404 029,21 41 096 239,43 (9,71) (90,29) (141,64)
2009 (56 091 006,47) (78 856 188,79) 192 632 838,43 211,29 268,71 13,36
2010 8 763 623,63 (28 452 884,79) 439 917 569,43 512,29 937,71 814,36
2011 (58 257 595,18) (53 258 773,79) 629 585 074,43 772,29 1 077,71 1 655,36
2012 (71 174 782,21) (86 700 642,79) 736 045 735,43 652,29 1 154,71 2 067,36
2013 (90 059 690,10) (61 093 361,79) 829 988 067,43 547,29 1 284,71 2 823,36
2014 (151 449 760,09) (27 489 874,79) 876 578 943,43 566,29 1 529,71 3 256,36
Moyenne 1 716 424 602,47 2 243 676 499,79 2 174 924 567,57 1 233,71 2 544,29 2 483,64

 

Les chiffres que vous pouvez voir dans Tableau 3 sont une première approche à la notion des moments de coïncidence. Je prends, par exemple, la paire des valeurs pour les États-Unis en 2006 : consommation des renouvelables 53 148 386,21 de tonnes au-dessus de la moyenne et les demandes de brevet pour les turbines éoliennes à l’axe vertical 545,29 au-dessous de la moyenne. Ce moment de coïncidence particulier est comme négatif : mes deux valeurs empiriques dévient de leurs moyennes respectives dans des directions opposées.

Oui, je sais : comment peut-on avoir 0,29 d’une demande de brevet ? Eh ben, si, on peut, puisqu’une moyenne est essentiellement une valeur non-existante en réalité, et si nous soustrayons quelque chose qui n’existe pas de quelque chose qui existe, des fractions d’évènements apparaissent. Normal, v’zallez vous habituer.

Je prends un autre moment, celui de 2006 en Chine. Consommation des renouvelables (188 501 572,57) de tonnes au-dessous de la moyenne et les demandes de brevet pour les turbines éoliennes à l’axe vertical (930,64) au-dessous de la moyenne : cette fois les deux déviations vont dans la même direction négative.

Nous avons donc un ensemble d’observations composé des moments de coïncidence. Nous pouvons poser deux sortes de questions. Premièrement, est-ce que ces moments que je viens de citer sont importants ou pas ? Vous savez, les coïncidences, y en a que nous ne remarquons même pas, comme tous ces électrons qui volent dans toutes les directions, et y en a qui pèsent, comme la rencontre accidentelle entre une voiture et un arbre. Est-ce qu’il y a, dans notre ensemble, des coïncidences plus importantes et moins importantes ? Deuxièmement, quelle est la cohérence et l’importance relative de tous ces moments de coïncidence observées dans Tableau 3 en comparaison à, par exemple, la coïncidence entre le fait qu’il pleut et celui que le trottoir soit mouillé ? Ce que je veux dire c’est que dans la science, nous commençons d’habitude avec un ensemble des coïncidences que nous essayons de comprendre en évaluant leur importance relative.

Mathématiquement, nous pouvons faire deux choses avec cet ensemble. D’une part, nous pouvons standardiser ces moments de coïncidence pour les rendre mutuellement comparables, et ensuite nous pouvons calculer, pour chaque moment standardisé, le coefficient économique d’élasticité : déviation relative dans variable A divisée par la déviation relative dans variable B. D’autre part, nous pouvons suivre le chemin typiquement statistique et calculer le coefficient de corrélation.

On y va mollo et on commence par le premier chemin, donc celui de standardisation et d’élasticité. Je standardise mes déviations avec les moyennes respectives de chaque série temporelle et donc je divise chaque déviation dans la colonne « Tonnes d’équivalent pétrole d’énergie renouvelable consommées en l’Union Européenne » par la moyenne de cette valeur etc. Ce type de standardisation s’appelle « dénomination », pour être exact, puisque je standardise en transformant mes valeurs en des fractions à dénominateur commun. Vous pouvez voir les résultats de cette standardisation par dénomination dans Tableau 4, ci-dessous.

 

Tableau 4

  Tonnes d’équivalent pétrole d’énergie renouvelable consommées – déviations de la moyenne divisées par la moyenne Nombre des demandes de brevet relatives aux turbines éoliennes à l’axe vertical – déviations de la moyenne divisées par la moyenne
Année Union Européenne États-Unis Chine Union Européenne États-Unis Chine
2001  0,01  (0,01)  (0,46)  (0,50)  (0,50)  (0,85)
2002  0,01  0,01  (0,42)  (0,51)  (0,49)  (0,81)
2003  0,03  0,01  (0,34)  (0,48)  (0,41)  (0,74)
2004  0,04  0,03  (0,24)  (0,35)  (0,33)  (0,61)
2005  0,04  0,03  (0,16)  (0,33)  (0,31)  (0,58)
2006  0,05  0,02  (0,09)  (0,24)  (0,21)  (0,37)
2007  0,03  0,04  (0,01)  (0,22)  (0,15)  (0,26)
2008  0,03  0,01  0,02  (0,01)  (0,04)  (0,06)
2009  (0,03)  (0,04)  0,09  0,17  0,11  0,01
2010  0,01  (0,01)  0,20  0,42  0,37  0,33
2011  (0,03)  (0,02)  0,29  0,63  0,42  0,67
2012  (0,04)  (0,04)  0,34  0,53  0,45  0,83
2013  (0,05)  (0,03)  0,38  0,44  0,50  1,14
2014  (0,09)  (0,01)  0,40  0,46  0,60  1,31

 

Les valeurs standardisées nous donnent comme une meilleure idée de ces moments de coïncidence. Nous commençons à distinguer entre des coïncidences poids lourd – 2010 en Chine – et celles qui en sont au poids coq (2008 aux États-Unis). Maintenant, je vais un pas plus loin dans la standardisation : pour chaque moment de coïncidence je calcule le coefficient de la déviation relative en la consommation des renouvelables divisée par la déviation relative correspondante en nombre des demandes de brevet. Je dénomme le degré du pas commun en énergie en des unités du pas commun en inventions. Bien sûr, « déviation relative » veut dire que j’utilise les valeurs du Tableau 4. Je fais donc ce que les économistes appellent « calcul d’élasticité » : comment est-ce que la consommation des renouvelables dévie de sa moyenne en la présence d’une unité de déviation en nombre des demandes de brevet.  Vous pouvez retrouver ces élasticités dans Tableau 5, ci-dessous.

 

Tableau 5

  Élasticité locale des déviations en la consommation des renouvelables par rapport aux déviations locales en nombre des demandes de brevet relatives aux turbines éoliennes à l’axe vertical 
Année Union Européenne États-Unis Chine
2001 (0,02) 0,01 0,54
2002 (0,02) (0,01) 0,52
2003 (0,06) (0,02) 0,46
2004 (0,12) (0,09) 0,40
2005 (0,13) (0,11) 0,28
2006 (0,20) (0,11) 0,23
2007 (0,14) (0,27) 0,05
2008 (3,39) (0,42) (0,33)
2009 (0,19) (0,33) 16,47
2010 0,01 (0,03) 0,62
2011 (0,05) (0,06) 0,43
2012 (0,08) (0,09) 0,41
2013 (0,12) (0,05) 0,34
2014 (0,19) (0,02) 0,31

 A partir du moment que j’ai ces élasticités, il y a des choses que je peux faire avec et des choses que je ne peux pas faire. Le premier truc que je peux faire c’est observer la distribution de ces élasticités dans le temps, l’histoire de voir à quel point elles restent dociles et prévisibles. Dans ce cas précis, c’est plutôt le cas ; avec l’exception de deux épisodes – Union Européenne en 2008 et Chine en 2009 – ces coefficients d’élasticité se composent en des séries très récurrentes. Une telle prévisibilité d’élasticités locales est déjà une bonne prédiction de la corrélation strictement dite.

Une bonne prédiction de corrélation n’est pas tout à fait le même truc que la corrélation per se. La différence réside dans la généralité. Je vous invite à faire une petite expérience avec les données du tableau 3 : répétez la même séquence analytique que moi j’avais faite, seulement standardisez ces déviations du Tableau 4 avec le maximum des deux catégories. Divisez donc chaque déviation en la consommation des renouvelables par la plus grande déviation dans cette catégorie en général, toutes régions géographiques confondues. Ensuite, faites de même pour les déviations en nombre des demandes de brevet. Vous verrez que les déviations standardisées et les élasticités seront significativement différentes des celles que je viens de présenter, quoi que les coïncidences locales ainsi exprimées formeront un modèle général similaire.

Conclusion : la méthode de standardisation par dénomination est intéressante pour capter des régularités à l’intérieur d’un ensemble d’observations empiriques mais elle est très sensible au choix du dénominateur, et, de ce fait, elle rend difficile la comparaison entre des recherches différentes menées par des chercheurs indépendants.

Alors moi, maintenant, je vais être un chercheur indépendant par rapport à moi-même. Je repars du début. Lorsque je vois une coïncidence, cela veut dire que deux choses changent en même temps. Dans ce changement coïncidentel, il y a deux niveaux. Les choses changent ensemble et chacune d’elles change à part, sous l’influence de quelques facteurs autres que cette coïncidence précise. Pour chaque moment de coïncidence dans Tableau 3, je fais donc deux calculs différents. D’une part, je multiplie la déviation absolue en la consommation des renouvelables par la déviation correspondante, la même année, en nombre des demandes de brevet. Ensuite, je tire la moyenne arithmétique des tous ces produits locaux (momentanés) : c’est la covariancede mes deux variables.

Je sais que dans cette covariance, il y a la composante des changements autonomes qui se cache. Pour chacune des séries temporelles je fais donc le suivant : j’élève au carré chaque déviation du Tableau 3 (pour se débarrasser des minus), je tire la moyenne arithmétique de ces carrés et dans un dernier pas je tire la racine carrée de cette moyenne. De cette façon j’obtiens la déviation standard de chaque série temporelle. A partir de là, je standardise (je divise) chaque covariance par le produit des déviations standard des séries temporelles correspondantes.

Compliqué ? Bon, je répète par petits bouts.

 Pas no. 1 : Covariance

 Déviation(Énergie renouvelable ; 2006)

*

Déviation (Demandes de brevet ; 2006)

= Covariance locale pour 2006

 Je fais de même pour chaque année. Dans ce cas précis, j’ai ainsi 14 covariances locales pour chacune des trois régions géographiques. Les voici dans Tableau 6 ci-dessous :

Tableau 6

  Covariances locales entre la consommation des renouvelables et le nombre des demandes de brevet
Année Union Européenne États-Unis Chine
2001 (11 483 697 161,28) 16 581 812 079,22 2 101 142 439 117,30
2002 (10 157 574 876,85) (15 337 350 146,78) 1 833 103 275 811,23
2003 (31 018 552 909,01) (18 425 189 369,56) 1 349 448 154 237,15
2004 (30 402 220 035,00) (53 919 249 235,56) 809 024 631 835,87
2005 (31 732 536 462,11) (60 096 977 314,92) 514 233 832 855,37
2006 (24 880 760 555,28) (28 981 055 739,99) 175 427 642 073,80
2007 (14 600 650 710,47) (36 796 794 804,49) 16 980 356 869,44
2008 (445 123 405,55) (3 015 906 637,63) (5 820 988 770,49)
2009 (11 851 228 367,01) (21 189 784 443,70) 2 573 024 341,87
2010 4 489 479 191,39 (26 680 676 533,35) 358 250 014 932,51
2011 (44 991 508 506,18) (57 397 741 348,49) 1 042 188 149 991,58
2012 (46 426 293 654,75) (100 114 470 805,28) 1 521 669 408 607,80
2013 (49 288 381 825,37) (78 487 514 648,42) 2 343 352 738 660,65
2014 (85 763 835 570,70) (42 051 654 172,20) 2 854 454 103 711,79
Covariance générale (moyenne) (27 753 777 489,15) (37 565 182 365,80) 1 065 430 484 591,13

Remarquez que les covariances locales en l’Union Européenne et les États-Unis sont généralement négatives, pendant qu’en Chine elles sont généralement positive. Ceci se reflète dans les covariances générales, qui sont les moyennes arithmétiques de leurs colonnes respectives.

 Pas no. 2 : Les déviations standard

{[Déviation (Énergie renouvelable ; 2006)]2}1/2

etc.

Je répète cette opération apparemment aberrante – tirer la racine carrée d’une puissance carrée – pour chaque déviation locale. J’obtiens un tableau des déviations locales standardisées de cette façon spécifique : Tableau 7 ci-dessous. Notez que cette fois la standardisation n’était pas une dénomination. Il n’était pas question de dénominateur commun. En revanche, cette standardisation particulière m’a permis de calculer chaque déviation comme un module de distance de la moyenne ; les chiffres dans Tableau 7 sont presque les mêmes que ceux dans Tableau 3, juste sans les minus. Je tire la moyenne de chaque colonne et j’ai ainsi les distances moyennes des moyennes respectives, donc les déviations standard.

Tableau 7

  Tonnes d’équivalent pétrole d’énergie renouvelable consommées – déviations locales standardisées comme racines carrés des puissances carrées Nombre des demandes de brevet relatives aux turbines éoliennes à l’axe vertical – déviations locales standardisées comme racines carrés des puissances carrées
Année Union Européenne États-Unis Chine Union Européenne États-Unis Chine
2001  18 590 629,08  12 971 913,79  993 615 745,57  617,71  1 278,29  2 114,64
2002  16 003 381,53  12 267 076,21  913 972 928,57  634,71  1 250,29  2 005,64
2003  52 688 636,34  17 493 059,21  733 937 071,57  588,71  1 053,29  1 838,64
2004  71 080 674,76  64 091 483,21  531 329 213,57  427,71  841,29  1 522,64
2005  76 887 419,60  75 094 402,21  357 941 314,57  412,71  800,29  1 436,64
2006  83 854 272,45  53 148 386,21  188 501 572,57  296,71  545,29  930,64
2007  53 342 669,61  93 325 204,21  26 546 621,57  273,71  394,29  639,64
2008  45 821 527,04  33 404 029,21  41 096 239,43  9,71  90,29  141,64
2009  56 091 006,47  78 856 188,79  192 632 838,43  211,29  268,71  13,36
2010  8 763 623,63  28 452 884,79  439 917 569,43  512,29  937,71  814,36
2011  58 257 595,18  53 258 773,79  629 585 074,43  772,29  1 077,71  1 655,36
2012  71 174 782,21  86 700 642,79  736 045 735,43  652,29  1 154,71  2 067,36
2013  90 059 690,10  61 093 361,79  829 988 067,43  547,29  1 284,71  2 823,36
2014  151 449 760,09  27 489 874,79  876 578 943,43  566,29  1 529,71  3 256,36
Déviation standard (moyenne) 70 228 768,13 56 626 139,75 623 107 877,55 506,85 983,89 1 768,88

 

Pas no. 3 : Les corrélations Pearson entre les tonnes d’équivalent pétrole d’énergie renouvelable consommées et le nombre des demandes de brevet relatives aux turbines éoliennes à l’axe vertical

 Je standardise encore une fois et cette fois, c’est encore de la dénomination. Je standardise chaque covariance générale en la mettant au-dessus d’un dénominateur complexe fait par la multiplication des déviations standard des variables covariantes. Notez que ça marche uniquement au niveau de la covariance générale et des déviations standard. Si vous faites le même truc au niveau des observations locales (chaque année séparément), donc si vous divisez la covariance locale en l’année X par le produit des déviations locales, standardisées comme en Pas no. 2, vous obtiendrez à chaque fois un coefficient égal à 1 ou bien à -1, ce qui ne vous avance pas vraiment en termes de recherche quantitative. Cela veut dire que la covariance locale explique toujours à 100% les variances locales combinées.

Nous faisons donc cette opération sur les valeurs générales et la voici pour chacune région géographique en question :

 Union Européenne<=> Covariance générale (Énergie et Demandes de Brevet) / [(Déviation standard Énergie) * (Déviation standard Demandes de Brevet)] = – 27 753 777 489,15 / (70 228 768,13 * 506,85)– 0,78

États-Unis <=> Covariance générale (Énergie et Demandes de Brevet) / [(Déviation standard Énergie) * (Déviation standard Demandes de Brevet)] =- 37 565 182 365,80 / (56 626 139,75 * 983,89) =  – 0,67                                             

 Chine <=> Covariance générale (Énergie et Demandes de Brevet) / [(Déviation standard Énergie) * (Déviation standard Demandes de Brevet)] = 1 065 430 484 591,13 / (623 107 877,55 * 1 768,88 = 0,97    

Maintenant, j’interprète. Le coefficient de corrélation de Pearson prend des valeurs à partir de -1 jusqu’à 1. On assume, un peu par une coutume statistique, que le coefficient entre – 0,3 et 0,3 n’est pas vraiment significatif, donc qu’il n’y a pas de corrélation véritable.

 Si la corrélation Pearson pour l’Union Européenne est de r = – 0,78, cela veut dire que la covariance générale explique 78% des déviations standard combinées et que la relation fonctionnelle est négative : plus de consommation des renouvelables est accompagnée d’un moins en termes de demandes de brevet et vice versa. On a le même type négatif dans le cas des États-Unis, mais en Chine c’est une relation fonctionnelle

 Ouff ! J’ai fini de faire le prof avec cette analyse de corrélation. Je viens de me rappeler que cette exposition avait aussi pour but de m’expliquer quelque chose à moi-même, c’est-à-dire d’où peut bien venir la force extraordinaire de ces corrélations. Je me suis avancé juste un peu, mais c’est toujours mieux que rien. La partie la plus informative de cette analyse pas par pas semble être le Tableau 5, donc celui avec les élasticités locales. En économie, les élasticités, ça compte vraiment lorsque ça s’approche de 1 ou dépasse 1. Dans le cas de l’Union Européenne, une élasticité de ce rang était observable en 2008, avec une montée en valeur depuis 2004. Aux États-Unis il y a quelque chose de similaire entre 2004 et 2009, seulement comme moins prononcé. En revanche, en Chine, ces élasticités sont toujours plutôt fortes, avec un envol en 2009.

Dans l’Union Européenne et aux États-Unis, la période entre 2004 et 2009 c’est précisément l’envol du nombre des demandes de brevet pour les turbines éoliennes à l’axe vertical. Visiblement, l’envol simultané de la consommation des renouvelables était encore plus fort. Durant cette période 2004 – 2009, quelque chose de spécial est arrivé au marché d’énergies renouvelables en général. Quant à la Chine, la direction positive de la corrélation n’est pas sorcière : elle avait été pompée par trois facteurs simultanés, donc la croissance démographique, croissance en la consommation d’énergie par tête d’habitant et la croissance en nombre d’inventions. Encore, je reste sidéré par la forte signification de cette corrélation et je n’ai pas encore trouvé d’explication satisfaisante.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund(aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon. Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

 

Vous pouvez donner votre support financier à ce blog

€10.00