Deux intelligences alternatives

Mon éditorial sur You Tube

Me voilà à nouveau avec de l’énergie. Mon énergie à moi, bien sûr, mais aussi le sujet de l’énergie. Je donne satisfaction à mes trois obsessions scientifiques. Une, les solutions financières pour encourager la transition vers les énergies renouvelables. Deux, le lien entre les marchés financiers et le changement technologique. Trois, application de l’intelligence artificielle à l’étude de l’intelligence collective.

Dans ma dernière mise à jour en anglais – « We, the average national economy. Research and case study in finance » – j’ai commencé à esquisser la direction de ma recherche. J’ai plus ou moins repris le chemin analytique déjà signalé dans « Surpopulation sauvage ou compétition aux États-Unis » et je l’ai élargi à un échantillon plus grand de 56 pays. Apparemment, la croissance de l’efficience énergétique dans l’économie mondiale, de $8,08 par kilogramme d’équivalent pétrole en 1990 jusqu’à $10,76 en 2014, était accompagnée d’une accumulation presque équivalente en magnitude de capital, aussi bien d’actifs fixes que des soldes monétaires. Le truc intéressant c’est que ces deux composantes d’actifs du bilan de l’économie mondiale semblent garder une proportion plus ou moins constante l’une vis-à-vis de l’autre. En d’autres mots, un système complexe qui, dans ma base de données utilisée pour cette recherche, se compose de 56 pays, garde une liquidité plus ou moins constante tout en accumulant du capital et en accroissant son efficience énergétique.

Ça a tout l’air d’une intelligence collective : un système qui n’a aucune chance d’avoir un cerveau central et qui néanmoins se comporte comme un organisme. Il y a d’autre recherche qui en quelque sorte corrobore cette approche. Il y a ce modèle appelé MUSIASEM (Andreoni 2017[1] ; Velasco-Fernández et al 2018[2]) qui fournit une preuve empirique convaincante qu’en ce qui concerne l’énergie et l’efficience de son utilisation, l’économie mondiale se comporte comme un métabolisme adaptatif, dont l’adaptation se manifeste, entre autres, par un réarrangement géographique des moyens de production.

Je retourne donc, avec la persévérance d’un ivrogne qui essaie d’ouvrir la mauvaise porte d’entrée avec la bonne clé, au sujet de l’intelligence artificielle.  Je viens d’expérimenter un peu avec le réseau neuronal que j’utilise dans ce créneau spécifique de recherche et voilà qu’une fois de plus, cette chose m’a surpris. Je vous donne ici un compte rendu sélectif de ces surprises. Pour une description détaillée de la façon dont marche ce réseau neuronal précis, vous pouvez vous référer à « Surpopulation sauvage ou compétition aux États-Unis ». En passant du cas des États-Unis à l’échantillon général de plusieurs pays, j’ai juste ajouté une variable de plus, que j’avais déjà utilisé dans le passé (consultez, par exemple « Deux lions de montagne, un bison mort et moi ») : le déficit alimentaire par personne. C’est une variable des plus structurelles : elle est très idiosyncratique pays par pays, tout en restant très stable dans le temps. Immatriculation idéale d’un pays. D’autre part, moi, je suis ce chemin de découverte où j’assume que la nourriture, le pétrole et l’électricité se joignent, à un certain niveau, comme des manifestations différentes de la capacité de notre espèce de transformer l’énergie accessible dans notre environnement.

Alors, les surprises. Jusqu’alors, lorsque je travaillais avec ce réseau neuronal, il marchait à chaque fois. Je veux dire qu’il produisait un résultat dans chaque cas de figure, quoi que je lui impose comme conditions d’apprentissage. D’accord, ces résultats étaient parfois absurdes, mais il y en avait, des résultats. Dans ce cas précis, le réseau neuronal marche juste sous certaines conditions. Il coince souvent, c’est-à-dire il rend une erreur générale du type « NOMBRE ! », lorsque la magnitude des variables atteint des valeurs comme 40 ou – 40, donc lorsque les fonctions d’activation neurale s’affolent, puisqu’elles sont essentiellement faites à procéder avec des valeurs standardisées entre 0 et 1 (entre -1 et 1 pour la hyper-tangentielle). C’est du nouveau et moi, j’aime bien du nouveau. J’aime bien comprendre.

Alors, j’essaie de comprendre. Qu’est-ce qui a changé dans les conditions de départ, par rapport aux applications précédentes de ce même réseau neuronal ? Ce qui a changé très certainement c’est la quantité et la complexité des données empiriques originelles, donc de ce qui constitue le matériel primaire d’apprentissage. Dans ce cas précis, je donne à mon réseau neuronal N = 1228 cas « pays réel – année donnée ». Auparavant, je lui donnais entre 20 et 25 de telles incidences. J’ai envie de rire. De moi-même, je veux dire. C’est tellement évident ! Lorsque j’apprends quelque chose, la façon de le faire dépend de la complexité des informations d’entrée. Plus ces informations sont riches et complexes, plus de finesse je dois démontrer dans mon apprentissage. Apprendre à changer un tuyau sous mon levier de cuisine est simple. Apprendre la plomberie en général, y compris la méthode de changer une valve à gaz, est une tâche plus difficile, qui requiert une approche différente.

J’utilise un réseau neuronal pour simuler le comportement de l’intelligence collective d’une société. J’assume que les valeurs des variables empiriques représentent autant d’états différents et temporaires des processus distincts de changement social. La simulation d’intelligence collective, telle que la fait mon réseau neuronal, commence avec une assomption importante : toutes les variables pris en compte sont divisées en deux catégories, où une variable est considérée comme celle de résultat et toutes les autres comme celles d’entrée. J’assume que l’entité intelligente est orientée sur l’optimisation de la variable de résultat et les variables d’entrée sont instrumentales à cet effet. J’implique une fonction vitale dans mon entité intelligente. Je sais que les réseaux neuronaux beaucoup plus avancés que le mien sont capables de définir cette fonction par eux-mêmes et j’ai même quelques idées comment inclure cette composante dans mon propre réseau. Quoi qu’il en soit, une fonction vitale est quelque chose à avoir dans un réseau neuronal. Sans elle, à quoi bon ? Je veux dire, s’il n’y a rien à achever, la vie perd son sens et l’intelligence se réduit à la capacité de commander un autre verre et à consulter Twitter pour la millionième fois.

Lorsque je considère l’intelligence collective d’une société réelle et je définis sa fonction vitale de la façon décrite ci-dessus, c’est une simplification grossière. Comme j’approche cette fonction vitale sous un angle purement mathématique, ça a plus de sens. La variable de résultat est celle à laquelle mon réseau neuronal touche relativement le moins : il la modifie beaucoup moins que les variables d’entrée. La distinction entre la variable de résultat et les variables d’entrée signifie qu’une variable dans le lot – celle de résultat – ancre la simulation d’intelligence collective dans un contexte similaire à celui, connu à tous les économistes, de caeteris paribus, ou « autres facteurs constants ». Je peux donc orienter ma simulation de façon à montrer les états possibles de réalité sociales sous des différentes ancres de résultat. Qu’est-ce qui se passe si j’ancre mon système social à un certain niveau d’efficience énergétique ? Comment l’état hypothétique de cette société, produit par le réseau neuronal, va changer avec une autre ancre de résultat ? Quelles différences de comportement produis-je sous des fonctions vitales différentes ?

Maintenant, question de langage. Le réseau neuronal parle nombres. Il comprend les données numériques et il communique des résultats numériques. En principe, le langage numérique des fonctions d’activation de base, celui du sigmoïde et la hyper-tangentielle, se limite aux valeurs numériques standardisées entre 0 et 1. En fait, la hyper-tangentielle est un peu plus polyglotte et comprend aussi du patois entre -1 et 0. Dans ma communication avec le réseau neuronal j’encontre donc deux défis linguistiques : celui de parler à cette chose en des nombres standardisés qui correspondent aussi étroitement que possible à la réalité, et celui de comprendre correctement les résultats numériques rendus par le réseau.

J’ai donc cette base de données, N = 1228 occurrences « pays < > année », et je traduis les valeurs empiriques dedans en des valeurs standardisées. La procédure de base, la plus simple, consiste à calculer le maximum observé pour chaque variable séparément et ensuite diviser chaque valeur empirique de cette variable par ledit maximum. Si je ne me trompe, ça s’appelle « dénomination ». Dans une approche plus élaborée, je peux standardiser sous la courbe de distribution normale. C’est ce que vous avez comme standardisation dans des logiciels statistiques. Il y a un petit problème avec les valeurs empiriques qui, après standardisation, sont égales rigoureusement à 0 ou 1. En théorie, il faudrait les transformer en des machins comme 0,001 ou 0,999. En fait, s’il n’y en a pas beaucoup, de ces « 0 » et ces « 1 » dans l’échantillon offert à mon réseau neuronal comme matériel d’apprentissage, je peux les ignorer.

La question de langage sur laquelle je me concentre maintenant est celle de compréhension de ce que le réseau neuronal rend comme résultat. Mathématiquement, ce résultat est égal à xf = xi + ∑e , où xf est la valeur finale crachée par le réseau, xi est la valeur initiale, et ∑e est la somme d’erreurs locales ajoutée à la valeur initiale après n rondes d’expérimentation. Supposons que je fais n = 3000 rondes d’expérimentation. Qu’est-ce qu’exactement ma valeur finale xf ? Est-ce la valeur obtenue dans la ronde no. 3000 ? C’est ce que j’assume souvent, mais il y a des « mais » contre cette approche. Premièrement, si les erreurs locales « e » accumulées par le réseau sont généralement positives, les valeurs xf obtenues dans cette dernière ronde sont d’habitude plus élevées que les initiales. Quelles contorsions que je fasse avec la standardisation, xf = max(xi ; xf) et inévitablement xf > xi.

Encore, ce n’est pas le plus dur des cas. Il y a des situations où les erreurs locales sont plutôt négatives que positives et après leur accumulation j’ai ∑e < 0 et xf = xi + ∑e < 0 également. Vachement embarrassant. Puis-je avoir une offre négative d’argent ou une efficience énergétique négative ?

Je peux faire une esquive élégante à travers le théorème de de Moivre – Laplace et assumer que dans un grand nombre des valeurs expérimentales rendues par le réseau neuronal la valeur espérée est leur moyenne arithmétique, soit xf = [∑(xi + ei)] / n. Élégant, certes, mais est-ce une interprétation valide du langage dont le réseau neuronal me parle ? L’intelligence artificielle est une forme d’intelligence. Ça peut créer de la signification et pas seulement adopter la signification que je lui impose. Est-ce que ça parle de Moivre – Laplace ? Allez savoir…

Bon, ça c’est de la philosophie. Temps de passer à l’expérimentation en tant que telle. Je reprends plus ou moins le perceptron décrit dans « Surpopulation sauvage ou compétition aux États-Unis » : une couche neuronale d’entrée et observation, une couche de combine (attribution des coefficients de pondération, ainsi que de fonctions d’adaptation locale aux données observées), une couche d’activation (deux fonctions parallèles : sigmoïde et hyper-tangentielle) et finalement une couche de sélection. Dans cette dernière, j’introduis deux mécanismes complexes et alternatifs de décision. Tous les deux assument qu’une intelligence collective humaine démontre deux tendances contradictoires. D’une part, nous sommes collectivement capables de nous ouvrir à du nouveau, donc de relâcher la cohérence mutuelle entre les variables qui nous représentent. D’autre part, nous avons une tolérance limitée à la dissonance cognitive. Au-delà de ce seuil de tolérance nous percevons le surplus du nouveau comme du mauvais et nous nous protégeons contre. Le premier mécanisme de sélection prend la moindre erreur des deux. Les deux neurones dans la couche d’activation produisent des activations concurrentes et le neurone de sélection, dans ce schéma-ci, choisit l’activation qui produit la moindre valeur absolue d’erreur. Pourquoi valeur absolue et non pas l’erreur en tant que telle ? Eh bien, l’erreur d’activation peut très bien être négative. Ça arrive tout le temps. Si j’ai une erreur négative et une positive, la moindre valeur des deux sera, arithmétiquement, l’erreur négative, même si son écart de la valeur d’activation est plus grand que celui de l’erreur positive. Moi, je veux minimiser l’écart et je le minimise dans l’instant. Je prends l’expérience qui me donne moins de dissonance cognitive dans l’instant.

 

Le deuxième mécanisme de sélection consiste à tirer la moyenne arithmétique des deux erreurs et de la diviser ensuite par un coefficient proportionnel au nombre ordinal de la ronde d’expérimentation. Cette division se fait uniquement dans les rondes d’expérimentation strictement dite, pas dans la phase d’apprentissage sur les données réelles. J’explique cette distinction dans un instant. Ce mécanisme de sélection correspond à une situation où nous, l’intelligence collective, sommes rationnels dans l’apprentissage à partir de l’expérience directe de réalité empirique – donc nous pondérons toute la réalité de façon uniforme – mais dès que ça vient à expérimentation pure, nous réduisons la dissonance cognitive dans le temps. Nous percevons l’expérience antérieure comme plus importante que l’expérience subséquente.

Le réseau neuronal travaille en deux étapes. D’abord, il observe les données empiriques, donc les N = 1228 occurrences « pays < > année » dans la base de données de départ. Il les observe activement : à partir de l’observation empirique n = 2 il ajoute l’erreur sélectionnée dans la ronde précédente aux valeurs standardisées des variables d’entrée et il touche pas à la variable de résultat. Après les 1228 rondes d’apprentissage le réseau passe à 3700 rondes d’expérimentation. Je ne sais pas pourquoi, mais j’aime arrondir le boulot total de mon perceptron à 5000 rondes au total. En tout cas, dans les 3700 rondes d’expérimentation, le réseau ajoute l’erreur de la ronde précédente aux variables d’entrée calculées dans la même ronde précédente.

En ce qui concerne le travail avec les variables d’entrée, le perceptron accumule l’expérience en forme d’une moyenne mouvante. Dans la première ronde d’expérimentation, le neurone d’observation dans la première couche du réseau tire la moyenne arithmétique des 1228 valeurs de la phase d’apprentissage et il y ajoute l’erreur sélectionnée pour propagation dans la dernière, 1228ième ronde d’apprentissage. Dans la deuxième ronde d’expérimentation, le perceptron tire la moyenne arithmétique des 1227 rondes d’apprentissage et de la première ronde d’expérimentation et il y ajoute l’erreur sélectionnée dans la première ronde d’expérimentation et ainsi de suite. La couche d’entrée du réseau est donc un peu conservative et perçoit les résultats d’expériences nouvelles à travers la valeur espérée, qui, à son tour, est construite sur la base du passé. Ça a l’air familier, n’est-ce pas ? En revanche, en ce qui concerne la variable de résultat, le perceptron est plus conservatif. Il tire la moyenne arithmétique des 1228 valeurs empiriques, comme valeur espérée, et il s’y tient. Encore une fois, je veux simuler une tendance à réduire la dissonance cognitive.

Côté langage, je teste deux manières d’écouter à ce que me dit mon perceptron. La première consiste à prendre, classiquement si j’ose dire, les valeurs standardisées produites par la dernière, 3700ième ronde expérimentale et les de-standardiser en les multipliant par les maximums enregistrés empiriquement dans la base de données de départ. Dans la deuxième méthode, je tire la moyenne arithmétique de toute la distribution de la variable donnée, donc valeurs empiriques et valeurs expérimentales prises ensemble. Je raisonne en termes du théorème de de Moivre – Laplace et j’assume que la signification d’un grand ensemble des nombres est la valeur espérée, soit la moyenne arithmétique.

En ce qui concerne mes variables, leur catalogue général est donné dans le tableau ci-dessous. Après le tableau, je continue avec la description.

Tableau 1

Code de la variable Description de la variable
Q/E PIB par kg d’équivalent pétrole d’énergie consommé (prix constants, 2011 PPP $) – VARIABLE DE RÉSULTAT
CK/PA Capital immobilisé moyen par une demande nationale de brevet (millions de 2011 PPP $, prix constants)
A/Q Amortissement agrégé d’actifs fixes comme % du PIB
PA/N Demandes nationales de brevet par 1 million d’habitants
M/Q Offre agrégée d’argent comme % du PIB
E/N Consommation finale d’énergie en kilogrammes d’équivalent pétrole par tête d’habitant
RE/E Consommation d’énergie renouvelable comme % de la consommation totale d’énergie
U/N Population urbaine comme % de la population totale
Q Produit Intérieur Brut (millions de 2011 PPP $, prix constants)
Q/N PIB par tête d’habitant (2011 PPP $, prix constants)
N Population
DA/N Déficit alimentaire par tête d’habitant (kcal par jour)

Je fais travailler mon réseau neuronal avec ces variables avec 4 fonctions vitales différentes, donc en mettant 4 variables différentes dans la catégorie de résultat à optimiser : le déficit alimentaire par personne, population urbaine comme % de la population totale, efficience énergétique de l’économie, et finalement les actifs fixes par une demande de brevet. En ce qui concerne l’importance que j’attache à cette dernière variable, vous pouvez consulter « My most fundamental piece of theory ». J’ai choisi les variables que je considère intuitivement comme structurelles. Intuitivement, j’ai dit.

Au départ, les moyennes arithmétiques de mes variables – donc leur valeurs statistiquement espérées – sont les suivantes :

Q/E = $8,72 par kg d’équivalent pétrole ;

CK/PA = $3 534,8 par demande de brevet ;

A/Q = 14,2% du PIB ;

PA/N = 158,9 demandes de brevet par 1 million d’habitants ;

M/Q = 74,6% du PIB en masse monétaire ;

E/N = 3007,3 kg d’équivalent pétrole par personne par an ;

DA/N = 26,4 kcal par personne par jour ;

RE/E = 16,05% de la consommation totale d’énergie ;

U/N = 69,7% de la population ;

Q = $1 120 874,23 mln ;

Q/N = $22 285,63 par tête d’habitant  ;

N = 89 965 651 personnes ;

Ça, c’est le point empirique de départ. C’est une société relativement opulente, quoi qu’avec des petits problèmes alimentaires, plutôt grande, moyennement avide d’énergie, et généralement moyenne, comme c’était à espérer. Deux variables font exception à cette tendance : le pourcentage de population urbaine et l’offre d’argent. L’urbanisation moyenne mondiale est à présent aux environs de 55%, pendant que notre échantillon se balance vers 70%. L’offre d’argent dans l’économie mondiale est couramment de presque 125% du PIB et notre échantillon fait gentiment 74,6%. Maintenant, allons voir ce que le réseau neuronal peut apprendre si sa fonction vitale est orientée sur un déficit alimentaire stable par personne par jour, donc DA/N est la variable de résultat. Tableaux no. 2 et 3, ci-dessous, présentent les résultats d’apprentissage, pendant que les Graphes 1 – 4, plus loin, donnent un aperçu de la manière dont le réseau apprend sous des conditions différentes.

Je commence par discuter la méta-variable de base : l’erreur locale du réseau. Graphes 1 et 2 donnent une idée de différence entre les deux stratégies d’apprentissage sous considération. L’apprentissage par la moindre erreur est paradoxal. Durant les 1228 rondes empiriques, il conduit effectivement à la réduction de l’erreur, comme tout gentil perceptron devrait le faire. Néanmoins, dès que le réseau passe à expérimenter avec lui-même, l’erreur croît à chaque ronde consécutive. Le réseau se balance de plus en plus entre des états alternatifs. Intéressant : lorsque le réseau est programmé pour choisir la moindre erreur, il génère de plus en plus d’erreur. En revanche, l’apprentissage par erreur moyenne décroissante – donc la stratégie qui reflète une tendance croissante à réduire la dissonance cognitive – ça marche de façon modèle. L’erreur dans la phase empirique est réduite à un niveau très bas et ensuite, dans la phase d’expérimentation pure, elle tend vers zéro.

Lorsque je passe à la fonction d’adaptation, donc à la distance Euclidienne moyenne entre les variables du réseau (Graphes 3 et 4) la différence entre les deux stratégies d’apprentissage est un peu moins prononcée, quoi que visible. Dans les deux cas, la cohésion interne du réseau change en deux phases bien distinctes. Aussi longtemps que le perceptron travaille avec les 1228 observations empiriques, sa cohésion oscille très fortement. Dès que ça passe à expérimenter avec soi-même, les oscillations s’éteignent, mais de deux façons différentes. Le perceptron qui choisit la moindre erreur et apprend uniformément dans le temps (Graphe 3) fixe sa cohésion interne à un niveau relativement bas et ensuite il accroît à nouveau l’amplitude d’oscillation. En revanche, le perceptron qui tire la moyenne de ses erreurs locales et démontre une résistance croissante aux informations nouvelles (Graphe 4) se tient très fermement au niveau de cohésion atteint vers la fin de la phase d’apprentissage sur les données empiriques.

Je vois ici deux intelligences différentes, qui représentent deux façons de représenter un phénomène bien connu, celui de résistance à la dissonance cognitive. Le perceptron qui apprend par la moindre erreur réduit sa dissonance sur le champ et localement, sans le faire à long terme. Celui qui apprend par l’erreur moyenne et la divise par le nombre ordinal de la ronde consécutive d’expérimentation agit différemment : il tolère plus d’erreur localement mais se ferme progressivement sur le long terme.

Dans la mesure où je les considère comme représentations d’une intelligence collective, j’y vois des analogies intéressantes à notre ordre social. Le perceptron qui apprend par la moindre erreur semble plus intelligent que celui qui tire l’erreur moyenne et se raidit à mesure d’apprendre. C’est comme si des controverses locales à propos des changements climatiques étaient plus fertiles en apprentissage qu’un système de savoir très codifié et rigide.

En ce qui concerne les résultats, les deux intelligences alternatives se comportent aussi de manière très différente. En général, l’intelligence qui choisit la moindre erreur locale mais s’en fout du passage de temps (Tableau 2) produit des valeurs plus élevées que celle qui tire l’erreur moyenne et développe le sentiment d’avoir appris tout ce qu’il y avait à apprendre (Tableau 3). En fait, la première ajoute à toutes les variables du perceptron, pendant que la deuxième les réduit toutes.

Je veux me pencher sur l’interprétation de ces nombres, donc sur la façon de comprendre ce que le réseau neuronal veut me dire. Les nombres du tableau 2 semblent vouloir dire que si nous – la civilisation – voulons accroître notre efficience énergétique, il nous faut accroître significativement la cadence de l’innovation. Je le vois surtout dans le pourcentage du PIB pris par l’amortissement d’actifs fixes : la variable A/Q. Plus ce pourcentage est élevé, plus rapide est la cadence de rotation des technologies. Pour avoir une efficience énergétique moyenne, comme civilisation, à un niveau à peine 50% plus élevé que maintenant, il nous faudrait accélérer la rotation des technologies d’à peu près 25%.

Il y a une variable collatérale à l’innovation, dans ma base de données : CK/PA ou le coefficient d’actifs fixes par une demande de brevet. C’est en quelque sorte le montant de capital qu’une invention moyenne peut se nourrir avec. Dans cette simulation avec le réseau neuronal vous pouvez voir que les différences de magnitude de CK/PA sont tellement grandes qu’elles en deviennent intéressantes. Le perceptron qui apprend avec la résistance croissante à l’information nouvelle donne des valeurs négatives de CK/PA, ce qui semble absurde. Absurde, peut-être, mais pourquoi ? C’est l’une de ces situations lorsque je me pose des questions de fond sur ce qu’est intelligence collective.

Tableau 2

Apprentissage par la moindre erreur, uniforme dans le temps
Valeurs de la 3700ième ronde expérimentale  

Valeurs des moyennes espérées

 

Q/E = $15,80 par kg d’équivalent pétrole ;

 

CK/PA = $78 989,68 par demande de brevet ;

 

A/Q = 25% du PIB ;

 

PA/N = 1 426,24 demandes de brevet par 1 million d’habitants;

 

M/Q = 167,49% du PIB en masse monétaire ;

 

E/N = 7 209,06 kg d’équivalent pétrole par personne par an ;

 

RE/E = 37,45% de consommation totale d’énergie en renouvelables ;

 

U/N = 115,88% ( ! ) de la population en villes ;

 

Q = $7 368 088,87 mln ;

 

Q/N = $63 437,19 par tête d’habitant ;

 

N = 553 540 602 personnes ;

 

Variable de résultat >> DA/N = 26,40 kcal par personne par jour

Q/E = $12,16 par kg d’équivalent pétrole ;

 

CK/PA = $42 171,01 par demande de brevet ;

 

A/Q = 19% du PIB ;

 

PA/N = 770,85 demandes de brevet par 1 million d’habitants ;

 

M/Q = 120,56% du PIB en masse monétaire ;

 

E/N = 5 039,16 kg d’équivalent pétrole par personne par an ;

 

RE/E = 25,34% de consommation totale d’énergie en renouvelables ;

 

U/N = 77,21% de la population totale en villes;

 

Q = $3 855 530,27 mln ;

 

Q/N = $41 288,52 par tête d’habitant ;

 

N = 295 288 302 personnes ;

 

Variable de résultat >> DA/N = 26,40 kcal par personne par jour

Tableau 3

Apprentissage par erreur moyenne décroissante à mesure des rondes d’expérimentation
Valeurs de la 3700ième ronde expérimentale  

Valeurs des moyennes espérées

 

Q/E = $7,41 par kg d’équivalent pétrole ;

 

CK/PA = ($2 228,03) par demande de brevet ;

 

A/Q = 11% du PIB ;

 

PA/N = 101,89 demandes de brevet par 1 mln d’habitants ;

 

M/Q = 71,93% du PIB en masse monétaire ;

 

E/N = 3 237,24 kg d’équivalent pétrole par personne par an ;

RE/E = 10,21% de la consommation totale d’énergie en renouvelables ;

 

U/N  = 65% de la population totale en villes ;

 

Q = $730 310,21 mln ;

 

Q/N = $25 095,49 par tête d’habitant ;

 

N = 15 716 495 personnes ;

 

Variable de résultat >> DA/N = 26,40 kcal par personne par jour ;

Q/E = $8,25 par kg d’équivalent pétrole ;

 

CK/PA = ($3 903,81) par demande de brevet ;

 

A/Q = 14% du PIB ;

 

PA/N = 101,78 demandes de brevet par 1 mln d’habitants ;

 

M/Q = 71,52% du PIB en masse monétaire ;

 

E/N = 3 397,75 kg d’équivalent pétrole par personne par an ;

 

RE/E = 12,64%  de la consommation totale d’énergie en renouvelables ;

 

U/N = 75,46% de la population totale en villes ;

 

Q = $615 711,51 mln  ;

 

Q/N = $24 965,23 par tête d’habitant ;

 

N = 2 784 733,90 personnes ;

 

Variable de résultat >> DA/N = 26,40 kcal par personne par jour ;

Graphe 1

Graphe 2

Graphe 3

Graphe 4

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

[1] Andreoni, V. (2017). Energy Metabolism of 28 World Countries: A Multi-scale Integrated Analysis. Ecological Economics, 142, 56-69

[2] Velasco-Fernández, R., Giampietro, M., & Bukkens, S. G. (2018). Analyzing the energy performance of manufacturing across levels using the end-use matrix. Energy, 161, 559-572

We, the average national economy. Research and case study in finance.

 

My editorial on You Tube

 

I am returning to a long-followed path of research, that on financial solutions for promoting renewable energies, and I am making it into educational content for my course of « Fundamentals of Finance ». I am developing on artificial intelligence as well. I think that artificial intelligence is just made for finance. Financial markets, and the contractual patterns they use, are akin endocrine systems. They generate signals, more or less complex, and those signals essentially say: ‘you lazy f**ks, you need to move and do something, and what that something is supposed to be you can read from between the lines of those financial instruments in circulation’. Anyway, what I am thinking about is to use artificial intelligence for simulating the social change that a financial scheme, i.e. a set of financial instruments, can possibly induce in the ways we produce and use energy. This update is at the frontier of scientific research, business planning, and education strictly spoken. I know that some students can find it hard to follow, but I just want to show real science at work, 100% pure beef.

 

I took a database which I have already used in my research on the so-called energy efficiency, i.e. on the amount of Gross Domestic Product we can derive on the basis of 1 kilogram of oil equivalent. It is a complex indicator of how efficient a given social system is as regards using energy for making things turn on the economic side. We take the total consumption of energy in a given country, and we convert it into standardized units equivalent to the amount of energy we can have out of one kilogram of natural oil. This standardized consumption of energy becomes the denominator of a coefficient, where the nominator consists in the Gross Domestic Product. Thus, it goes like “GDP / Energy consumed”. The greater the value of that coefficient, i.e. the more dollars we derive from one unit of energy, the greater is the energy efficiency of our economic system.

 

Since 2012, the global economy has been going through an unprecedentedly long period of expansion in real output[1]. Whilst the obvious question is “When will it crash?”, it is interesting to investigate the correlates of this phenomenon in the sector of energy. In other terms, are we, as a civilisation more energy-efficient as we get (temporarily) much more predictable in terms of economic growth? The very roots of this question are to find in the fundamental mechanics of our civilisation. We, humans, are generally good at transforming energy. There is a body of historical and paleontological evidence that accurate adjustment of energy balance was one of the key factors in the evolutionary success of humans, both at the level of individual organisms and whole communities (Leonard, Robertson 1997[2]; Robson, Wood 2008[3]; Russon 2010[4])

When we talk about energy efficiency of the human civilisation, it is useful to investigate the way we consume energy. In this article, the question is being tackled by observing the pace of growth in energy efficiency, defined as GDP per unit of energy use (https://data.worldbank.org/indicator/EG.GDP.PUSE.KO.PP.KD?view=chart ). The amount of value added we can generate out of a given set of production factors, when using one unit of energy, is an interesting metric. It shows energy efficiency as such, and, in the same time, the relative complexity of the technological basket we use. As stressed, for example, by Moreau and Vuille (2018[5]), when studying energy intensity, we need to keep in mind the threefold distinction between: a) direct consumption of energy b) transport c) energy embodied in goods and services.

One of the really deep questions one can ask about the energy intensity of our culture is to what extent it is being shaped by short-term economic fluctuations. Ziaei (2018[6]) proved empirically that observable changes in energy intensity of the U.S. economy are substantial, in response to changes in monetary policy. There is a correlation between the way that financial markets work and the consumption of energy. If the relative increase in energy consumption is greater than the pace of economic growth, GDP created with one unit of energy decreases, and vice versa. There is also a mechanism of reaction of the energy sector to public policies. In other words, some public policies have significant impact on the energy efficiency of the whole economy. Different sectors of the economy respond with different intensity, as for their consumption of energy, to public policies and to changes in financial markets. We can assume that a distinct sector of the economy corresponds to a distinct basket of technologies, and a distinct institutional outset.

Faisal et al. (2017[7]) found a long-run correlation between the consumption of energy and real output of the economy, studying the case of Belgium. Moreover, the same authors found significant causality from real output to energy consumption, and that causality seems to be uni-directional, without any significant, reciprocal loop.

Energy efficiency of national economies, as measured with the coefficient of GDP per unit of energy (e.g. per kg of oil equivalent), should take into account that any given market is a mix of goods – products and services – which generate aggregate output. Any combination “GDP <> energy use” is a combination of product markets, as well as technologies (Heun et al. 2018[8]).

There is quite a fruitful path of research, which assumes that aggregate use of energy in an economy can be approached in a biological way, as a metabolic process. The MuSIASEM methodological framework seems to be promising in this respect (e.g. Andreoni 2017[9]). This leads to a further question: can changes in the aggregate use of energy be considered as adaptive changes in an organism, or in generations of organisms? In another development regarding the MuSIASEM framework, Velasco-Fernández et al (2018[10]) remind that real output per unit of energy consumption can increase, on a given basis of energy supply, through factors other than technological change towards greater efficiency in energy use. This leads to investigating the very nature of technological change at the aggregate level. Is aggregate technological change made only of engineering improvements at the microeconomic level, or maybe the financial reshuffling of the economic system counts, too, as adaptive technological change?

The MuSIASEM methodology stresses the fact that international trade, and its accompanying financial institutions, allow some countries to externalise industrial production, thus, apparently, to decarbonise their economies. Still, the industrial output they need takes place, just somewhere else.

From the methodological point of view, the MuSIASEM approach explores the compound nature of energy efficiency measured as GDP per unit of energy consumption. Energy intensity can be understood at least at two distinct levels: aggregate and sectoral. At the aggregate level, all the methodological caveats make the « GDP per kg of oil equivalent » just a comparative metric, devoid of much technological meaning. At the sectoral level, we get closer to technology strictly spoken.

There is empirical evidence that at the sectoral level, the consumption of energy per unit of aggregate output tends to: a) converge across different entities (regions, entrepreneurs etc.) b) tends to decrease (see for example: Yu et al. 2012[11]).

There is also empirical evidence that general aging of the population is associated with a lower energy intensity, and urbanization has an opposite effect, i.e. it is positively correlated with energy intensity (Liu et al. 2017[12])

It is important to understand, how and to what extent public policies can influence the energy efficiency at the macroeconomic scale. These policies can either address directly the issue of thermodynamic efficiency of the economy, or just aim at offshoring the most energy – intensive activities. Hardt et al. (2018[13]) study, in this respect, the case of United Kingdom, where each percentage of growth in real output has been accompanied, those last years, by a 0,57% reduction in energy consumption per capita.

There is grounds for claiming that increasing energy efficiency of national economies matters more for combatting climate change that the strictly spoken transition towards renewable energies (Weng, Zhang 2017[14]). Still, other research suggest that the transition towards renewable energies has an indirectly positive impact upon the overall energy efficiency: economies that make a relatively quick transition towards renewables seem to associate that shift with better efficiency in using energy for creating real output (Akalpler, Shingil 2017[15]).

It is to keep in mind that the energy efficiency of national economies has two layers, namely the efficiency of producing energy in itself, as distinct from the usage we make of the so-obtained net energy. This is the concept of Energy Return on Energy Invested (EROI), (see: Odum 1971[16]; Hall 1972[17]). Changes in energy efficiency can occur on both levels, and in this respect, the transition towards renewable sources of energy seems to bring more energy efficiency in that first layer, i.e. in the extraction of energy strictly spoken, as compared with fossil fuels. The problematically slow growth in energy efficiency could be coming precisely from the de-facto decreasing efficiency of transformation in fossil fuels (Sole et al. 2018[18]).

 

Technology and social structures are mutually entangled (Mumford 1964[19], McKenzie 1984[20], Kline and Pinch 1996[21]; David 1990[22], Vincenti 1994[23]; Mahoney 1988[24]; Ceruzzi 2005[25]). An excellent, recent piece of research by Taalbi (2017[26]) attempts a systematic, quantitative investigation of that entanglement.

The data published by the World Bank regarding energy use per capita in kg of oil equivalent (OEPC) (https://data.worldbank.org/indicator/EG.USE.PCAP.KG.OE ) allows an interesting insight, when combined with structural information provided by the International Energy Agency (https://www.iea.org). As one ranks countries regarding their energy use per capita, the resulting hierarchy is, in the same time, a hierarchy in the broadly spoken socio-economic development. Countries displaying less than 200 kg of oil equivalent per capita are, in the same time, barely structured as economies, with little or no industry and transport infrastructure, with quasi-inexistent institutional orders, and with very limited access to electricity at the level of households and small businesses.  In the class comprised between 200 kg OEPC and approximately 600 ÷ 650 kg OEPC, one can observe countries displaying progressively more and more development in their markets and infrastructures, whilst remaining quite imbalanced in their institutional sphere. Past the mark of 650 OEPC, stable institutions are observable. Interestingly, the officially recognised threshold of « middle income », as macroeconomic attribute of whole nations, seems corresponding to a threshold in energy use around 1 500 kg OEPC. The neighbourhood of those 1 500 kg OEPC looks like the transition zone between developing economies, and the emerging ones. This is the transition towards really stable markets, accompanied by well-structured industrial networks, as well as truly stable public sectors. Finally, as income per capita starts qualifying a country into the class of « developed economies », that country is most likely to pass another mark of energy consumption, that of 3000 kg OEPC. This stylized observation of how energy consumption is linked to social structures is partly corroborated by other research, e.g. that regarding social equality in the access to energy (see for example: Luan, Chen 2018[27])

The nexus of energy use per capita, on the one hand, and institutions on the other hand, has even found a general designation in recent literature: “energy justice”. A cursory review of that literature demonstrates the depth of emotional entanglement between energy and social structures: it seems to be more about the connection between energy and self-awareness of societies than about anything else (see for example: Fuller, McCauley 2016[28]; Broto et al. 2018[29]). The difficulty in getting rid of emotionally grounded stereotypes in this path of research might have its roots in the fact that we can hardly understand what energy really is, and attempts at this understanding send us to the very foundations of our understanding as for what reality is (Coelho 2009[30]; McKagan et al. 2012[31]; Frontali 2014[32]). Recent research, conducted from the point of view of management science reveal just as recent an emergence of new, virtually unprecedented, institutional patterns in the sourcing and the use of energy. A good example of that institutional change is to find in the new role of cities as active players in the design and implementation of technologies and infrastructures critical for energy efficiency (see for example: Geels et al. 2016[33]; Heiskanen et al. 2018[34]; Matschoss, Heiskanen 2018[35]).

 

Changes observable in the global economy, with respect to energy efficiency measured as GDP per unit of energy consumed, are interestingly accompanied by those in the supply of money, urbanization, as well as the shift towards renewable energies. Years 2008 – 2010, which marked, with a deep global recession, the passage towards currently experienced, record-long and record-calm period of economic growth, displayed a few other interesting transitions. In 2008, the supply of broad money in the global economy exceeded, for the first documented time, 100% of the global GDP, and that coefficient of monetization (i.e. the opposite of the velocity of money) has been growing ever since (World Bank 2018[36]). Similarly, the coefficient of urbanization, i.e. the share of urban population in the global total, exceeded 50% in 2008, and has kept growing since (World Bank 2018[37]). Even more intriguingly, the global financial crisis of 2007 – 2009 took place exactly when the global share of renewable energies in the total consumption of energy was hitting a trough, below 17%, and as the global recovery started in 2010, that coefficient started swelling as well, and has been displaying good growth since then[38]. Besides, empirical data indicates that since 2008, the share of aggregate amortization (of fixed assets) in the global GDP has been consistently growing, after having passed the cap of 15% (Feenstra et al. 2015[39]). Some sort of para-organic pattern emerges out of those observations, where energy efficiency of the global economy is being achieved through more intense a pace of technological change, in the presence of money acting as a hormone, catabolizing real output and fixed assets, whilst anabolizing new generations of technologies.

 

Thus, I have that database, which you can download precisely by clicking this link. One remark: this is an Excel file, and when you click on the link, it downloads without further notice. There is no opening on the screen. In this set, we have 12 variables: i) GDP per unit of energy use (constant 2011 PPP $ per kg of oil equivalent) ii) Fixed assets per 1 resident patent application iii) Share of aggregate depreciation in the GDP – speed of technological obsolescence iv) Resident patent applications per 1 mln people v) Supply of broad money as % of GDP vi)

Energy use per capita (kg of oil equivalent) vii) Depth of the food deficit (kilocalories per person per day) viii) Renewable energy consumption (% of total final energy consumption) ix) Urban population as % of total population x) GDP (demand side) xi) GDP per capita, and finally xii) Population. My general, intuitive idea is to place energy efficiency in a broad socio-economic context, and to see what role in that context is being played by financial liquidity. In simpler words, I want to discover how can the energy efficiency of our civilization be modified by a possible change in financial liquidity.

 

My database is a mix-up of 59 countries and years of observation ranging from 1960 to 2014, 1228 records in total. Each record is the state of things, regarding the above-named variables, in a given year. In quantitative research we call it a data panel. You have bits of information inside and you try to make sense out of it. I like pictures. Thus, I made some. These are the two graphs below. One of them shows the energy efficiency of national economies, the other one focuses on the consumption of energy per capita, and both variables are being shown as a function of supply of broad money as % of GDP. I consider the latter to be a crude measure of financial liquidity in the given place and time. The more money is being supplied per unit of Gross Domestic Product, the more financial liquidity people have as for doing something with them units of GDP. As you can see, the thing goes really all over the place. You can really say: ‘that is a cloud of points’. As it is usually the case with clouds, you can see any pattern in it, except anything mathematically regular. I can see a dung beetle in the first one, and a goose flapping its wings in the second. Many possible connections exist between the basic financial liquidity of the economic system, on the one hand, and the way we use energy, on the other hand.

 

I am testing my database for general coherence. In the table below, I am showing the arithmetical average of each variable. As you hopefully know, since Abraham de Moivre we tend to assume that arithmetical average of a large sample of something is the expected value of that something. Thus, the table below shows what we can reasonably expect from the database. We can see a bit of incoherence. Mean energy efficiency is $8,72 per kg of oil equivalent in energy. Good. Now, I check. I take the energy consumption per capita and I multiply in by the number of capitae, thus I go 3 007,28 * 89 965 651 =  270 551 748,43 tons of oil equivalent. This is the amount of energy consumed in one year by the average expected national society of homo sapiens in my database. Now, I divide the average expected GDP in the sample, i.e. $1 120 874,23 mln, by that expected total consumption of energy, and I hit just $1 120 874,23 mln / 270 551 748,43 tons = $4,14 per kilogram.

 

It is a bit low, given that a few sentences ago the same variable was supposed to be$8,72 per kg. This is just a minor discrepancy as compared to the GDP per capita, which is the central measure of wealth in a population. The average calculated straight from the database is $22 285,63. Cool. This is quite a lot, you know. Now, I check. I take the aggregate average GDP per country, i.e.  $1 120 874,23 mln, and I divide it by the average headcount of population, i.e. I go $1 120 874 230 000 / 89 965 651 =  $12 458,91. What? $12 458,91 ? But it was supposed to be is $22 285,63! Who took those 10 thousand dollars away from me? I mean, $12 458,91 is quite respectable, it is just a bit below my home country, Poland, presently, but still… Ten thousand dollars of difference? How is it possible?

 

It is so embarrassing when numbers are not what we expect them to be. As a matter of fact, they usually aren’t. It is just our good will that makes them look so well fitting to each other. Still, this is what numbers do, when they are well accounted for: they embarrass. As they do so, they force us to think, and to dig meaning out from underneath the numbers. This is what quantitative analysis in social sciences is supposed to do: give us the meaning that we expect when we measure things about our own civilisation.

 

Table 1 – Average values from the pooled database of N = 1228 country-year observations

Variable Average expected value from empirical data, N = 1228 records
GDP per unit of energy use (constant 2011 PPP $ per kg of oil equivalent) 8,72
Fixed assets per 1 resident patent application (constant 2011 PPP $) 3 534,80
Share of aggregate depreciation in the GDP – speed of technological obsolescence 14%
Resident patent applications per 1 mln people – speed of invention 158,90
Supply of broad money % of GDP – observed financial liquidity 74,60%
Energy use (kg of oil equivalent per capita) 3 007,28 kg
Depth of the food deficit (kilocalories per person per day) 26,40
Renewable energy consumption (% of total final energy consumption) 16,05%
Urban population as % of total population 69,70%
GDP (demand side; millions of constant 2011 PPP $) 1 120 874,23
GDP per capita (constant 2011 PPP $) $22 285,63
Population 89 965 651

 

Let’s get back to the point, i.e. to finance. As I explain over and over again to my students, when we say ‘finance’, we almost immediately need to say: ‘balance sheet’. We need to think in terms of a capital account. Those expected average values from the table can help us to reconstruct at least the active side of that representative, expected, average economy in my database. There are three variables which sort of overlap: a) fixed assets per 1 resident patent application b) resident patent applications per 1 mln people and c) population. I divide the nominal headcount of population by 1 000 000, and thus I get population denominated in millions. I multiply the so-denominated population by the coefficient of resident patent applications per 1 mln people, which gives me, for each country and each year of observation, the absolute number of patent applications in the set. In my next step, I take the coefficient of fixed assets per 1 patent application, and I multiply it by the freshly-calculated-still-warm absolute number of patent applications.

 

Now, just to make it arithmetically transparent, when I do (« Fixed assets » / « Patent applications ») * « Patent applications », I take a fraction and I multiply it by its own denominator. It is de-factorisation. I stay with just the nominator of that initial fraction, thus with the absolute amount of fixed assets. For my representative, average, expected country in the database, I get Fixed Assets = $50 532 175,96 mln.

 

I do slightly the same with money. I take “Supply of money as % of the GDP”, and I multiply it by the incriminated GDP, which makes Money Supplied = 74,60% * $1 120 874,23 mln =  $836 213,98 mln. We have a fragment in the broader balance sheet of our average expected economy: Fixed Assets $50 532 175,96 mln and Monetary Balances $836 213,98 mln. Interesting. How does it unfold over time? Let’s zeee… A bit of rummaging, and I get the contents of Table 2, below. There are two interesting things about that table.

 

 

Table 2 – Changes over time in the capital account of the average national economy

Year Average fixed assets per national economy, $ mln constant 2011 PPP GDP per unit of energy use (constant 2011 PPP $ per kg of oil equivalent), in the average national economy Supply of broad money in average national economy, $ mln constant 2011 PPP Money to fixed assets
1990 2 036 831,928 8,08 61,526 0,0030%
1991 1 955 283,198 8,198 58,654 0,0030%
1992 2 338 609,511 8,001 61,407 0,0026%
1993 2 267 728,024 7,857 60,162 0,0027%
1994 2 399 075,082 7,992 60,945 0,0025%
1995 2 277 869,991 7,556 60,079 0,0026%
1996 2 409 816,67 7,784 64,268 0,0027%
1997 2 466 046,108 7,707 71,853 0,0029%
1998 2 539 482,259 7,76 77,44 0,0030%
1999 2 634 454,042 8,085 82,987 0,0032%
2000 2 623 451,217 8,422 84,558 0,0032%
2001 2 658 255,842 8,266 88,335 0,0033%
2002 2 734 170,979 8,416 92,739 0,0034%
2003 2 885 480,779 8,473 97,477 0,0034%
2004 3 088 417,325 8,638 100,914 0,0033%
2005 3 346 005,071 8,877 106,836 0,0032%
2006 3 781 802,623 9,106 119,617 0,0032%
2007 4 144 895,314 9,506 130,494 0,0031%
2008 4 372 927,883 9,57 140,04 0,0032%
2009 5 166 422,174 9,656 171,191 0,0033%
2010 5 073 697,622 9,62 164,804 0,0032%
2011 5 702 948,813 9,983 178,381 0,0031%
2012 6 039 017,049 10,112 195,487 0,0032%
2013 6 568 280,779 10,368 205,159 0,0031%
2014 5 559 781,782 10,755 161,435 0,0029%

 

This is becoming really interesting. Both components in the capital account of the representative, averaged economy had been growing until 2013, then it fell. Energy efficiency has been growing quite consistently, as well. The ratio of money to assets, thus a crude measure of financial liquidity in this capital account, remains sort of steady, with a slight oscillation. You can see it in the graph below. I represented all the variables as fixed-base indexes: the value recorded for the year 2000 is 1,00, and any other value is indexed over that one. We do that thing all the time, in social sciences, when we want to study apparently incompatible magnitudes. A little test of Pearson correlation, and… Yesss! Energy efficiency is Pearson correlated with the amount of fixed assets at r = 0,953096394, and with the amount of money supplied at r = 0,947606073. All that in the presence of more or less steady a liquidity.

 

Provisional conclusion: the more capital we accumulate, we, the average national economy, the more energy efficient we are, and we sort of dynamically adjust to keep the liquidity of that capital, at least the strictly monetary liquidity, at a constant level.

 

I am consistently delivering good, almost new science to my readers, and love doing it, and I am working on crowdfunding this activity of mine. As we talk business plans, I remind you that you can download, from the library of my blog, the business plan I prepared for my semi-scientific project Befund  (and you can access the French version as well). You can also get a free e-copy of my book ‘Capitalism and Political Power’ You can support my research by donating directly, any amount you consider appropriate, to my PayPal account. You can also consider going to my Patreon page and become my patron. If you decide so, I will be grateful for suggesting me two things that Patreon suggests me to suggest you. Firstly, what kind of reward would you expect in exchange of supporting me? Secondly, what kind of phases would you like to see in the development of my research, and of the corresponding educational tools?

 

[1] https://data.worldbank.org/indicator/NY.GDP.MKTP.KD.ZG

[2] Leonard, W.R., and Robertson, M.L. (1997). Comparative primate energetics and hominoid evolution. Am. J. Phys. Anthropol. 102, 265–281.

[3] Robson, S.L., and Wood, B. (2008). Hominin life history: reconstruction and evolution. J. Anat. 212, 394–425

[4] Russon, A. E. (2010). Life history: the energy-efficient orangutan. Current Biology, 20(22), pp. 981- 983.

[5] Moreau, V., & Vuille, F. (2018). Decoupling energy use and economic growth: Counter evidence from structural effects and embodied energy in trade. Applied Energy, 215, 54-62.

[6] Ziaei, S. M. (2018). US interest rate spread and energy consumption by sector (Evidence of pre and post implementation of the Fed’s LSAPs policy). Energy Reports, 4, 288-302.

[7] Faisal, F., Tursoy, T., & Ercantan, O. (2017). The relationship between energy consumption and economic growth: Evidence from non-Granger causality test. Procedia Computer Science, 120, 671-675

[8] Heun, M. K., Owen, A., & Brockway, P. E. (2018). A physical supply-use table framework for energy analysis on the energy conversion chain. Applied Energy, 226, 1134-1162

[9] Andreoni, V. (2017). Energy Metabolism of 28 World Countries: A Multi-scale Integrated Analysis. Ecological Economics, 142, 56-69

[10] Velasco-Fernández, R., Giampietro, M., & Bukkens, S. G. (2018). Analyzing the energy performance of manufacturing across levels using the end-use matrix. Energy, 161, 559-572

[11] Yu, S., Wei, Y. M., Fan, J., Zhang, X., & Wang, K. (2012). Exploring the regional characteristics of inter-provincial CO2 emissions in China: An improved fuzzy clustering analysis based on particle swarm optimization. Applied energy, 92, 552-562

[12] Liu, F., Yu, M., & Gong, P. (2017). Aging, Urbanization, and Energy Intensity based on Cross-national Panel Data. Procedia computer science, 122, 214-220

[13] Hardt, L., Owen, A., Brockway, P., Heun, M. K., Barrett, J., Taylor, P. G., & Foxon, T. J. (2018). Untangling the drivers of energy reduction in the UK productive sectors: Efficiency or offshoring?. Applied Energy, 223, 124-133.

[14] Weng, Y., & Zhang, X. (2017). The role of energy efficiency improvement and energy substitution in achieving China’s carbon intensity target. Energy Procedia, 142, 2786-2790.

[15] Akalpler, E., & Shingil, M. E. (2017). Statistical reasoning the link between energy demand, CO2 emissions and growth: Evidence from China. Procedia Computer Science, 120, 182-188.

[16] Odum, H.T. (1971) Environment, Power, and Society, Wiley, New York, NY, 1971.

[17] Hall, C.A.S., (1972) Migration and metabolism in a temperate stream ecosystem, Ecology, vol. 53 (1972), pp. 585 – 604.

[18] Solé, J., García-Olivares, A., Turiel, A., & Ballabrera-Poy, J. (2018). Renewable transitions and the net energy from oil liquids: A scenarios study. Renewable Energy, 116, 258-271.

[19] Mumford, L., 1964, Authoritarian and Democratic Technics, Technology and Culture, Vol. 5, No. 1 (Winter, 1964), pp. 1-8

[20] MacKenzie, D., 1984, Marx and the Machine, Technology and Culture, Vol. 25, No. 3. (Jul., 1984), pp. 473-502.

[21] Kline, R., Pinch, T., 1996, Users as Agents of Technological Change : The Social Construction of the Automobile in the Rural United States, Technology and Culture, vol. 37, no. 4 (Oct. 1996), pp. 763 – 795

[22] David, P. A. (1990). The dynamo and the computer: an historical perspective on the modern productivity paradox. The American Economic Review, 80(2), 355-361.

[23] Vincenti, W.G., 1994, The Retractable Airplane Landing Gear and the Northrop “Anomaly”: Variation-Selection and the Shaping of Technology, Technology and Culture, Vol. 35, No. 1 (Jan., 1994), pp. 1-33

[24] Mahoney, M.S., 1988, The History of Computing in the History of Technology, Princeton, NJ, Annals of the History of Computing 10(1988), pp. 113-125

[25] Ceruzzi, P.E., 2005, Moore’s Law and Technological Determinism : Reflections on the History of Technology, Technology and Culture, vol. 46, July 2005, pp. 584 – 593

[26] Taalbi, J. (2017). What drives innovation? Evidence from economic history. Research Policy, 46(8), 1437-1453.

[27] Duan, C., & Chen, B. (2018). Analysis of global energy consumption inequality by using Lorenz curve. Energy Procedia, 152, 750-755.

[28] Fuller S, McCauley D. Framing energy justice: perspectives from activism and advocacy. Energy Res Social Sci 2016;11:1–8.

[29] Broto, V. C., Baptista, I., Kirshner, J., Smith, S., & Alves, S. N. (2018). Energy justice and sustainability transitions in Mozambique. Applied Energy, 228, 645-655.

[30] Coelho, R. L. (2009). On the concept of energy: History and philosophy for science teaching. Procedia-Social and Behavioral Sciences, 1(1), 2648-2652.

[31] McKagan, S. B., Scherr, R. E., Close, E. W., & Close, H. G. (2012, February). Criteria for creating and categorizing forms of energy. In AIP Conference Proceedings (Vol. 1413, No. 1, pp. 279-282). AIP.

[32] Frontali, C. (2014). History of physical terms:‘Energy’. Physics Education, 49(5), 564.

[33] Geels, F., Kern, F., Fuchs, G., Hinderer, N., Kungl, G., Mylan, J., Neukirch, M., Wassermann, S., 2016. The enactment of socio-technical transition pathways: a reformulated typology and a comparative multi-level analysis of the German and UK low-carbon electricity transitions (1990–2014). Res. Policy 45, 896–913.

[34] Heiskanen, E., Apajalahti, E. L., Matschoss, K., & Lovio, R. (2018). Incumbent energy companies navigating the energy transitions: Strategic action or bricolage?. Environmental Innovation and Societal Transitions.

[35] Matschoss, K., & Heiskanen, E. (2018). Innovation intermediary challenging the energy incumbent: enactment of local socio-technical transition pathways by destabilization of regime rules. Technology Analysis & Strategic Management, 30(12), 1455-1469

[36] https://data.worldbank.org/indicator/FM.LBL.BMNY.GD.ZS last accessed November 25th, 2018

[37] https://data.worldbank.org/indicator/SP.URB.TOTL.IN.ZS last accessed November 25th, 2018

[38] https://data.worldbank.org/indicator/EG.FEC.RNEW.ZS last accessed November 25th, 2018

[39] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at http://www.ggdc.net/pwt

Locally smart. Case study in finance.

 

My editorial on You Tube

 

Here I go, at the frontier between research and education. This is how I earn my living, basically, combining research and education. I am presenting and idea I am currently working on, in a team, regarding a financial scheme for local governments. I am going to develop it here as a piece of educational material for my course « Fundamentals of Finance ». I am combining educational explanation with specific techniques of scientific research.

 

Here is the deal: creating a financial scheme, combining pooled funds, crowdfunding, securities, and cryptocurriences, for facilitating smart urban development through the creation of local start-up businesses. A lot of ideas in one concept, but this is science, for one, and thus anything is possible, and this is education, for two, hence we need to go through as many basic concepts as possible. It goes more or less as follows: a local government creates two financial instruments, a local investment fund, and a local crowdfunding platform. Both serve to facilitate the creation and growth of local start-ups, which, in turn, facilitate smart urban development.

 

We need a universe in order to do anything sensible. Good. Let’s make a universe, out of local governments, local start-up businesses, and local projects in smart urban development. Projects are groups of people with a purpose and a commitment to achieve it together. Yes, wars are projects, just as musical concerts and public fundraising campaigns for saving the grey wolf. Projects in smart urban development are groups of people with a purpose and a commitment to do something interesting about implementing new technologies into the urban infrastructures and this improving the quality, and the sustainability of urban life.

 

A project is like a demon. It needs a physical body, a vessel to carry out the mission at hand. Projects need a physical doorstep to put a clear sign over it. It is called ‘headquarters’, it has an official address, and we usually need it if we want to do something collective and social. This is where letters from the bank should be addressed to. I have the idea to embody local projects of smart urban development in physical bodies of local start-up businesses. This, in turn, implies turning those projects into profitable ventures. What is the point? A business has assets and it has equity. Assets can back equity, and liabilities. Both equity and liabilities can be represented with financial instruments, namely tradable securities. With that, we can do finance.

 

Why securities? The capital I need, and which I don’t have, is the capital somebody is supposed to entrust with me. Thus, by acquiring capital to finance my project, I give other people claims on the assets I am operating with. Those people will be much more willing to entrust me with their capital if those claims are tradable, i.e. when they can back off out of the business really quickly. That’s the idea of financial instruments: making those claims flow and float around, a bit like water.

 

Question: couldn’t we just make securities for projects, without embodying them in businesses? Problematic. Any financial instrument needs some assets to back it up, on the active side of the balance sheet. Projects, as long as they have no such back up in assets, are not really in a position to issue any securities. Another question: can we embody those projects in institutional forms other than businesses, e.g. foundations, trusts, cooperatives, associations? Yes, we can. Each institutional form has its pluses and its minuses. Business structures have one peculiar trait, however: they have at their disposal probably the broadest range of clearly defined financial instruments, as compared to other institutional forms.

 

Still, we can think out of the box. We can take some financial instruments peculiar to business, and try to transplant them onto another institutional body, like that of an association. Let’s just try and see what happens. I am a project in smart urban development. I go to a notary, and I write the following note: “Whoever hands this note on December 31st of any calendar year from now until 2030, will be entitled to receive 20% of net profits after tax from the business identified as LHKLSHFKSDHF”. Signature, date of signature, stamp by the notary. Looks like a security? Mmmwweeelll, maybe. Let’s try and put it in circulation. Who wants my note? What? What do I want in exchange? Let’s zeeee… The modest sum of $2 000 000? You good with that offer?

 

Some of you will say: you, project, you stop right there and you explain a few things. First of all, what if you really have those profits, and 20% of them really make it worth to hand you $2 000 000 now? How exactly can anyone claim those 20%? How will they know the exact sum they are entitled to? Right, say I (project), we need to write some kind of contract with those rules inside. It can be called corporate bylaw, and we need to write it all down. For example, what if somebody has this note on December 31st, 2025, and then they sell it to someone else on January 2nd, 2026, and the profits for 2025 will be really accounted for like in February 2026 at best, and then, who is entitled to have those 20% of profits: the person who had the note on December 31st, 2025, or the one presenting it in 2026, when all is said and done about profits? Sort of tricky, isn’t it? The note says: ‘Whoever hands this note on December 31st… etc.’, only the act of handing is now separated from the actual disclosure of profits. We keep that in mind: the whole point of making a claim into a security is to make it apt for circulation. If the circulation in itself becomes too troublesome, the security loses a lot of its appeal.

 

See? This note contains a conditional claim. Someone needs to hand the note at the right moment and in the right place, there need to be any profit to share etc. That’s the thing about conditional claims: you need to know exactly how to apprehend those conditions, which the claim is enforceable upon.

 

As I think about the exact contents of that contract, it looks like me and anyone holds that note are partners in business. We are supposed to share profits. Profits come from the exploitation of some assets, and they become real only after all the current liabilities have been paid. Hence, we actually share equity in those assets. The note is an equity-based security, a bit primitive, yes, certainly, still an equity-based security.

 

Another question from the audience: “Project, with all the due respect, I don’t really want to be partners in business with you. Do you have an alternative solution to propose?”. Maybe I have… What do you say about a slightly different note, like “Whoever hands this note on December 31st of any calendar year from now until 2030, will be entitled to receive $500 000 from the bank POIUYTR not later than until January 15th of the next calendar year”. Looks good? You remember what is that type of note? This is a draft, or routed note, a debt-based security. It embodies an unconditional claim, routed on that bank with an interesting name, a bit hard to spell aloud. No conditions attached, thus less paperwork with a contract. Worth how much? Maybe $2 000 000, again?

 

No conditions, yet a suggestion. If, on the one hand, I grant you a claim on 20% of my net profit after tax, and, on the other hand, I am ready to give an unconditional claim on $500 000, you could search some mathematical connection between the 20% and the $500 000. Oh, yes, and there are those $2 000 000. You are connecting the dots. Same window in time, i.e. from 2019 through 2030, which makes 11 occasions to hand the note and claim the money. I multiply occasions by unconditional claims, and I go 11*$500 000 = $5 500 000. An unconditional claim on $5 000 000 spread over 11 annual periods is being sold for $2 000 000. Looks like a ton of good business to do, still let’s do the maths properly. You could invest your $2 000 000 in some comfy sovereign bonds, for example the federal German ones. Rock solid, those ones, and they can yield like 2% a year. I simulate: $2 000 000*(1+0,02)11 =  $2 486 748,62. You pay me $2 000 000, you forego the opportunity to earn $486 748,62, and, in exchange, you receive an unconditional claim on $5 500 000. Looks good, at least at the first sight. Gives you a positive discount rate of ($5 500 000 – $2 486 748,62)/ $2 486 748,62 = 121,2% on the whole 11 years of the deal, thus 121,2%/11 = 11% a year. Not bad.

 

When you have done the maths from the preceding paragraph, you can assume that I expect, in that project of smart urban development, a future stream of net profit after tax, over the 11 fiscal periods to come, somewhere around those $5 500 000. Somewhere around could be somewhere above or somewhere below.  Now, we enter the world of behavioural finance. I have laid my cards on the table, with those two notes. Now, you try to figure out my future behaviour, as well as the behaviour to expect in third parties. When you hold a claim, on whatever and whomever you want, this claim has two financial characteristics: enforceability and risk on the one hand, and liquidity on the other hand. You ask yourself, what exactly can the current holder of the note enforce in terms of payback from my part, and what kind of business you can do by selling those notes to someone else.

 

In a sense, we are playing a game. You face a choice between different moves. Move #1: buy the equity-based paper and hold. Move #2: buy the equity-based one and sell it to third parties. Move #3: buy the debt-based routed note and hold. Move #4: buy the routed note and sell it shortly after. You can go just for one of those moves, or make a basket thereof, if you have enough money to invest more than one lump injection of $2 000 000 into my project of smart urban development.

 

You make your move, and you might wonder what kind of move will I make, and what will other people do. Down that avenue of thinking, madness lies. Finance means, very largely, domesticated madness, and thus, when you are a financial player, instead of wondering what other people will do, you look for reliable benchmarks in the existing markets. This is an important principle of finance: quantities and prices are informative about the human behaviour to expect. When you face the choice between moves #1 ÷ #4, you will look, in the first place, for and upon the existing markets. If I grant you 20% of my profits in exchange of $2 000 000, which, in fact, seem corresponding to at least $500 000 of future annual cash flow. If 20% of something is $500 000, the whole something makes $500 000/ 20% = $2 500 000. How much equity does it correspond to? Here it comes to benchmarking. Aswath Damodaran, from NYU Stern Undergraduate College, publishes average ROE (return on equity) in different industries. Let’s suppose that my project of smart urban development is focused on Environmental & Waste Services. It is urban, it claims being smart, hence it could be about waste management. That makes 17,95% of average ROE, i.e. net profit/equity = 17,95%. Logically, equity = net profit/17,95%, thus I go $2 500 000/17,95% = $13 927 576,60 and this is the equity you can reasonably expect I expect to accumulate in that project of smart urban development.

 

Among the numerous datasets published by Aswath Damodaran, there is one containing the so-called ROIC, or return on invested capital, thus on the total equity and debt invested in the business. In the same industry, i.e. Environmental & Waste Services, it is 13,58%. It spells analogously to ROE, thus it is net profit divided by the total capital invested, and, logically, total capital invested = net profit / ROIC = $2 500 000 / 13,58% = $18 409 425,63. Equity alone makes $13 927 576,60, equity plus debt makes $18 409 425,63, therefore debt = $18 409 425,63 – $13 927 576,60 =  $4 481 849,02.

 

With those rates of return on, respectively, equity and capital invested, those 11% of annual discount, benchmarked against German sovereign bonds, look acceptable. If I take a look at the financial instruments listed in the AIM market of London Stock Exchange, and I dig a bit, I can find corporate bonds, i.e. debt-based securities issued by incorporated business structures. Here come, for example, the bonds issued by 3i Group, an investment fund. They are identified with ISIN (International Securities Identification Number) XS0104440986, they were issued in 1999, and their maturity date is December 3rd, 2032. They are endowed with an interest rate of 5,75% a year, payable in two semi-annual instalments every year. Once again, the 11% discount offered on those imaginary routed notes of my project look interesting in comparison.

 

Before I go further, I am once again going to play at anticipating your questions. What is the connection between the interest rate and the discount rate, in this case? I am explaining numerically. Imagine you buy corporate bonds, like those 3i Group bonds, with an interest rate 5,75% a year. You spend $2 000 000 on them. You hold them for 5 years, and then you sell them to third persons. Just for the sake of simplifying, I suppose you sell them for the same face value you bought them, i.e. for $2 000 000. What happened arithmetically, from your point of view, can be represented as follows: – $2 000 000 + 5*5,75%*$2 000 000 + $2 000 000 = $575 000. Now, imagine that instead of those bonds, you bought, for an amount of $2 000 000,  debt-based routed notes of my project, phrased as follows: “Whoever hands this note on December 31st of any calendar year from now until Year +5, will be entitled to receive $515 000 from the bank POIUYTR not later than until January 15th of the next calendar year”. With such a draft (remember: another name for a routed note), you will total – $2 000 000 + 5*$515 000 = $575 000.

 

Same result at the end of the day, just phrased differently. With those routed notes of mine, I earn a a discount of $575 000, and with the 3i bonds, you earn an interest of $575 000. You understand? Whatever you do with financial instruments, it sums up to a cash flow. You spend your capital on buying those instruments in the first place, and you write that initial expenditure with a ‘-’ sign in your cash flow. Then you receive some ‘+’ cash flows, under various forms, and variously described. At the end of the day, you sum up the initial outflow (minus) of cash with the subsequent inflows (pluses).

 

Now, I look back, I mean back to the beginning of this update on my blog, and I realize how far have I ventured myself from the initial strand of ideas. I was about to discuss a financial scheme, combining pooled funds, crowdfunding, securities, and cryptocurriences, for facilitating smart urban development through the creation of local start-up businesses. Good. I go back to it. My fundamental concept is that of public-private partnership, just peppered with a bit of finance. Local governments do services connected to waste and environmental care. The basic way they finance it is through budgetary spending, and sometimes they create or take interest in local companies specialized in doing it. My idea is to go one step further, and make local governments create and run investment funds specialized in taking interest in such businesses.

 

One of the basic ideas when running an investment fund is to make a portfolio of participations in various businesses, with various temporal horizons attached. We combine the long term with the short one. In some companies we invest for like 10 years, and in some others just for 2 years, and then we sell those shares, bonds, or whatever. When I was working on the business plan for the BeFund project, I had a look at the shape those investment portfolios take. You can sort of follow back that research of mine in « Sort of a classical move » from March 15th, 2018. I had quite a bit of an exploration into the concept of smart cities. See « My individual square of land, 9 meters on 9 », from January 11, 2018, or « Smart cities, or rummaging in the waste heap of culture » from January 31, 2018, as for this topic. What comes out of my research is that the combination of digital technologies with the objectively growing importance of urban structures in our civilisation brings new investment opportunities. Thus, I have this idea of local governments, like city councils, becoming active investors in local businesses, and that local investment would combine the big, steady ventures – like local waste management companies – with a lot of small startup companies.

 

This basic structure in the portfolio of a local investment fund reflects my intuitive take on the way a city works. There is the fundamental, big, heavy stuff that just needs to work – waste management, again, but also water supply, energy supply etc. – and there is the highly experimental part, where the city attempts to implement radically new solutions on the grounds of radically new technologies. The usual policy that I can observe in local governments, now, is to create big local companies for the former category, and to let private businesses take over entirely the second one. Now, imagine that when you pay taxes to the local government, part of your tax money goes into an investment fund, which takes participations in local startups, active in the domain on those experimental solutions and new technologies. Your tax money goes into a portfolio of investments.

 

Imagine even more. There is local crowdfunding platform, similar to Kickstarter or StartEngine, where you can put your money directly into those local ventures, without passing by the local investment fund as a middleman. On that crowdfunding platform, the same local investment fund can compete for funding with other ventures. A cryptocurrency, internal to that crowdfunding platform, could be used to make clearer financial rules in the investment game.

 

When I filed that idea for review, in the form of an article, with a Polish scientific journal, I received back an interestingly critical review. There were two main lines of criticism. Firstly, where is the advantage of my proposed solution over the presently applied institutional schemes? How could my solution improve smart urban development, as compared to what local governments currently do? Secondly, doesn’t it go too far from the mission of local governments? Doesn’t my scheme push public goods too far into private hands and doesn’t it make local governments too capitalistic?

 

I need to address those questions, both for revising my article, and for giving a nice closure to this particular, educational story in the fundamentals of finance. Functionality first, thus: what is the point? What can be possibly improved with that financial scheme I propose? Finance has two essential functions: it meets the need for liquidity, and, through the mechanism of financial markets. Liquidity is the capacity to enter in transactions. For any given situation there is a total set T of transactions that an entity, finding themselves in this situation, could be willing to enter into. Usually, we can’t enter it all, I mean we, entities. Individuals, businesses, governments: we are limited in our capacity to enter transactions. For the given total set T of transactions, there is just a subset Ti that i-th entity can participate in. The fraction « Ti/T » is a measure of liquidity this entity has.

 

Question: if, instead of doing something administratively, or granting a simple subsidy to a private agent, local governments act as investment funds in local projects, how does it change their liquidity, and the liquidity of local communities they are the governments of? I went to the website of the Polish Central Statistical Office, there I took slightly North-East and landed in their Local Data Bank. I asked around for data regarding the financial stance of big cities in Poland, and I found out some about: Wroclaw, Lodz, Krakow, Gdansk, Kielce, and Poznan. I focused on the investment outlays of local governments, the number of new business entities registered every year, per 10 000 residents, and on population. Here below, you can find three summary tables regarding these metrics. You will see by yourself, but in a bird’s eye view, we have more or less stationary populations, and local governments spending a shrinking part of their total budgets on fixed local assets. Local governments back off from financing those assets. In the same time, there is growing stir in business. There are more and more new business entities registered every year, in relation to population. Those local governments look as if they were out of ideas as for how to work with that local business. Can my idea change the situation? I develop on this one further below those two tables.

 

 

The share of investment outlays in the total expenditures of the city council, in major Polish cities
  City
Year Wroclaw Lodz Krakow Gdansk Kielce Poznan Warsaw
2008 31,8% 21,0% 19,7% 22,6% 15,3% 27,9% 19,8%
2009 34,6% 23,5% 20,4% 20,6% 18,6% 28,4% 17,8%
2010 24,2% 15,2% 16,7% 24,5% 21,2% 29,6% 21,4%
2011 20,3% 12,5% 14,5% 33,9% 26,9% 30,1% 17,1%
2012 21,5% 15,3% 12,6% 38,2% 21,9% 20,8% 16,8%
2013 15,0% 19,3% 11,0% 28,4% 18,5% 18,1% 15,0%
2014 15,6% 24,4% 16,4% 27,0% 18,6% 11,8% 17,5%
2015 18,4% 26,8% 13,7% 21,3% 23,8% 24,1% 10,2%
2016 13,3% 14,3% 11,5% 15,2% 10,7% 17,5% 9,0%
2017 11,7% 10,2% 11,5% 12,2% 14,1% 12,3% 12,0%
               
Delta 2017 – 2008 -20,1% -10,8% -8,2% -10,4% -1,2% -15,6% -7,8%

 

 

Population of major cities
  City
Year Wroclaw Lodz Krakow Gdansk Kielce Poznan Warsaw
2008 632 162 747 152 754 624 455 581 205 094 557 264 1 709 781
2009 632 146 742 387 755 000 456 591 204 835 554 221 1 714 446
2010 630 691 730 633 757 740 460 509 202 450 555 614 1 700 112
2011 631 235 725 055 759 137 460 517 201 815 553 564 1 708 491
2012 631 188 718 960 758 334 460 427 200 938 550 742 1 715 517
2013 632 067 711 332 758 992 461 531 199 870 548 028 1 724 404
2014 634 487 706 004 761 873 461 489 198 857 545 680 1 735 442
2015 635 759 700 982 761 069 462 249 198 046 542 348 1 744 351
2016 637 683 696 503 765 320 463 754 197 704 540 372 1 753 977
2017 638 586 690 422 767 348 464 254 196 804 538 633 1 764 615
               
Delta 2017 – 2008 6 424 (56 730) 12 724 8 673 (8 290) (18 631) 54 834

 

Number of newly registered business entities per 10 000 residents, in major Polish cities
  City
Year Wroclaw Lodz Krakow Gdansk Kielce Poznan Warsaw
2008 190 160 200 190 140 210 200
2009 195 167 205 196 149 216 207
2010 219 193 241 213 182 238 274
2011 221 169 204 195 168 244 249
2012 228 187 230 201 168 255 274
2013 237 187 224 211 175 262 307
2014 236 189 216 217 157 267 303
2015 252 183 248 236 185 283 348
2016 265 186 251 238 176 270 364
2017 272 189 257 255 175 267 345
               
Delta 2017 – 2008 82,00 29,00 57,00 65,00 35,00 57,00 145,00

 

Let’s take two cases from the table: my hometown Krakow, and my capital Warsaw. In the former case, the negative gap in the investment outlays of the local government is – 44 mlns of zlotys – some €10 mln – and in the latter case it is minus 248,46 millions of zlotys, thus about €56,5 mln. If we want to really get after new technologies in cities, we need to top up those gaps, possibly with a surplus. How can my idea help to save the day?

 

When I try to spend €10 mln euro more on the urban fixed assets, I need to have all those €10 mln. I need to own them directly, in my balance sheet, before spending them. On the other hand, when I want to create an investment fund, which would take part in local startups, and by their intermediary would make those €10 mln worth of assets to happen in real life, I need much less. I start with the balance sheet directly attached to those assets: €10 mln in fixed assets = equity of the startup(s) + liabilities of the startup(s). Now, equity of the startup(s) = shares of our investment fund + shares of other partners. At the end of the day, the local government could finance assets of €10 mln with 1 or 2 millions of euro of own equity, maybe even less.

 

From there on, it went sort of out of hand. I have that mental fixation on things connected to artificial intelligence and neural networks. You can find the latest account in English in the update entitled « What are the practical outcomes of those hypotheses being true or false? ». If you speak French, there is a bit more, and more recent, in « Surpopulation sauvage ou compétition aux États-Unis ». Anyway, I did it. I made a neural network in order to simulate the behaviour of my financial concept. Below, I am presenting a graphical idea of that network. It combines a strictly spoken multilayer perceptron with components of deep learning: observation of the fitness function, and the feeding back of it, as well as selection and preference regarding different neural outputs of the network. I am using that neural network as a simulator of collective intelligence.

 

So, as I am assuming that we are collectively intelligent in our local communities, I make the following logical structure. Step 1: I take four input variables, as listed below. They are taken from real statistics about those 7 big Polish cities, named above – Wroclaw, Lodz, Krakow, Gdansk, Kielce, Poznan, Warsaw – over the period from 2008 through 2017.

 

Input variable 1: Investment outlays of the local government [mln]

Input variable 2: Overall expenses of the local government [mln]

Input variable 3: Population [headcount]

Input variable 4: Number of new business entities registered annually [coefficient]

 

In step 2, I attach to those real input variables an Output variable – Hypothetical variable: capital engaged in the local governments investment fund, initially calculated as if 5% of new business entities were financed with €100 000 each. I calculate the average value of that variable across the whole sample of 7 cities, and it makes €87 mln as expected value. This is the amount of money the average city among those seven could put in that local investment fund to support local startups and their projects of smart urban development.

 

In step 3, I run my neural network through the empirical data, and then I make it do additional 5000 experimental rounds, just to make it look for a match between the input variables – which can change as they want – and the output variable, which I have almost pegged at €87 mln. I say ‘almost’, as in practice the network will generate a bit of wobbling around those €87 mln. I want to see what possible configurations of the input variables can arise, through different patterns of collective learning, around that virtually pegged value of the output variable.

 

I hypothesise 5 different ways of learning, or 5 different selections in that Neuron 4 you can see in the picture above. Learning pattern #1 consists in systematically preferring the neural output of the sigmoid neural function. It is a type of function, which systematically calms down any shocks and sudden swings in input phenomena. It is like a collective pretention that whatever kind of s**t is really going on, everything is just fine. Learning pattern #2 prefers the output of the hyperbolic tangent function. This one tends to be honest, and when there is a shock, it yields a shock, without any f**kery about it. It is like a market with clear rules of competition. Learning pattern #3 takes the least error of the two functions. It is a most classical approach in neural networks. The closer I get to the expected value, the better I am learning, that sort of things. Learning pattern #4 makes an average of those two functions. The greatest value among those being averaged has the greatest impact on the resulting average. Thus, the average of two functions is like hierarchy of importance, expressed in one number. Finally, learning pattern #5 takes that average, just as #3, but it adds the component of growing resistance to new information. At each experimental round, it divides the value of the error fed back into the network by the consecutive number of the round. Error generated in round 2 gets divided by 2, and that generated in round 4000 is being divided by 4000 etc. This is like a person who, as they process new information, develops a growing sentiment of being fully schooled on the topic, and is more and more resistant to new input.

 

In the table below, I present the results of those simulations. Learning patterns #2 and #4 develop structures somehow more modest than the actual reality, expressed as empirical averages in the first numerical line of the table. These are urban communities, where that investment fund I am thinking about slightly grows in importance, in relation to the whole municipal budget. Learning patterns #1 and #3 develop crazy magnitudes in those input variables. Populations grow 9 or 10 times bigger than the present ones, the probability of having new businesses in each 10 000 people grows 6 or 7 times, and municipal budgets swell by 14 ÷ 15 times. The urban investment fund becomes close to insignificant. Learning pattern #5 goes sort of in the middle between those extremes.

 

 

  Input variable 1 Input variable 2 Input variable 3 Input variable 4 Output variable
Initial averages of empirical values  €177 mln  €996 mln                     721 083                               223  €87 mln
Type of selection in neural output Sample results of simulation with the neural network
Sigmoid preferred €2 440 mln €14 377 mln 7 093 526,21 1 328,83 €87 mln
Hyperbolic Tangent preferred €145 mln €908 mln 501 150,03 237,78 €87 mln
Least error preferred €2 213 mln €13 128 mln 6 573 058,50 1 490,28 €87 mln
Average of the two errors €122 mln €770 mln 432 702,57 223,66 €87 mln
Average of the two errors, with growing resistance to learning €845 mln €5 043 mln 2 555 800,36 661,61 €87 mln

 

What is the moral of the fairy tale? As I see it now, it means that for any given initial situation as for that financial scheme I have in mind for cities and their local governments, future development can go two opposite ways. The city can get sort of slightly smaller and smarter, with more or less the same occurrence of new businesses emerging every year. It happens when the local community learns, as a collective intelligence, with little shielding from external shocks. This is like a market-oriented city. In terms of quantitative dynamics, it makes me think about cities like Vienna (Austria), Lyon (France), or my home city, Krakow (Poland). On the other hand, the city can shield itself somehow against socio-economic shocks, for example with heavy subsidies, and then it gets out of control. It grows big like hell, and business starts just to pop around.

 

At the first sight, it seems counterintuitive. We associate market-based, open-to-shocks solutions with uncontrolled growth, and interventionist, counter-cyclical policies with sort of a tame status quo. Still, cities are strange beasts. They are like crocodiles. When you make them compete for food and territory, they grow just to a certain size, ‘cause when they grow bigger than that, they die. Yet, when you allow a crocodile to live in a place without much competition, and plenty of food around, it grows to enormous proportions.

 

My temporary conclusion is that my idea of a local investment fund to boost smart change in cities is workable, i.e. has the chances to thrive as a financial mechanism, when the whole city is open to market-based solutions and receives little shielding from economic shocks.

 

I am consistently delivering good, almost new science to my readers, and love doing it, and I am working on crowdfunding this activity of mine. As we talk business plans, I remind you that you can download, from the library of my blog, the business plan I prepared for my semi-scientific project Befund  (and you can access the French version as well). You can also get a free e-copy of my book ‘Capitalism and Political Power’ You can support my research by donating directly, any amount you consider appropriate, to my PayPal account. You can also consider going to my Patreon page and become my patron. If you decide so, I will be grateful for suggesting me two things that Patreon suggests me to suggest you. Firstly, what kind of reward would you expect in exchange of supporting me? Secondly, what kind of phases would you like to see in the development of my research, and of the corresponding educational tools?

Surpopulation sauvage ou compétition aux États-Unis

 

Mon éditorial sur You Tube

 

Me revoilà à vous casser les pieds avec les réseaux neuronaux et leur application dans les sciences sociales. Je reste essentiellement dans l’univers de l’efficience énergétique. J’enchaîne donc sur « Tenez-vous bien, chers Autrichiens ». Cette fois, je m’y prends à la plus grande économie du monde, celle des États-Unis, et leur efficience énergétique. Les Américains aiment la compétition et c’est bien que j’inclue dans le réseau neuronal : la compétition entre neurones.

Comme d’habitude, c’est un peu de chaos, dans mon cheminement intellectuel. Hier, j’ai eu cette idée : suivant la structure logique de mon perceptron, j’obtiens des schémas de comportement différents de sa part. Et si je mettais ces comportements en compétition de quelque sorte ? Et si je construisais un perceptron qui organise cette compétition ?

Je veux donc mettre mes neurones en compétition entre eux. Je veux dire, pas mes neurones à moi, strictement parlé, juste les neurones de mon perceptron. J’avais commencé à mapper cette idée dans un fichier Excel, un peu à tâtons. Tout d’abord, les acteurs. Qui est en compétition contre qui ? Jusqu’alors, j’ai identifié deux grandes distinctions fonctionnelles parmi les comportements possibles de mon perceptron. Premièrement, c’est la distinction entre deux fonctions d’activation de base : la fonction sigmoïde d’une part et la tangente hyperbolique d’autre part. Deuxièmement, j’ai observé une différence prononcée lorsque j’introduis dans mon perceptron l’auto observation (rétropropagation) de la cohésion, comprise comme la distance Euclidienne entre les variables. Je construis donc quatre neurones d’activation, comme des combinaisons de ces possibilités :

 

Le neurone de sortie no.1 : le sigmoïde de base

Le neurone de sortie no.2 : la tangente hyperbolique de base

Le neurone de sortie no.3 : sigmoïde avec observation de la cohésion

Le neurone de sortie no.4 : la tangente hyperbolique avec observation de la cohésion

 

Les neurones de sortie 1 et 2 sont connectés au sentier synaptique suivant : absorption des variables d’entrée dans la première couche (neurone d’observation), suivie par l’attribution des coefficients aléatoires de pondération à chaque variable et la sommation des variables d’entrée ainsi pondérées (neurone de pondération) dans la couche cachée. Le neurone de pondération crache la moyenne pondérée des variables d’entrée, et on la met comme argument dans la fonction d’activation neurale (neurone de traitement) et celle-ci crache un résultat. Le neurone d’observation compare ce résultat à la valeur espérée de la variable de résultat, une mesure d’erreur locale est prise et le perceptron ajoute cette erreur aux valeurs des variables d’entrée dans la ronde suivante d’expérimentation.

 

Les neurones de sortie 3 et 4 impliquent un sentier synaptique un peu plus complexe. Tout d’abord, dans la couche d’entrée du perceptron, j’ajoute un neurone parallèle à celui qui génère les coefficients aléatoires. Ce deuxième neurone s’active après la première ronde d’expérimentation. Lorsque celle-ci à pris lieu, ce neurone calcule les distances Euclidiennes entre les variables, il rend une distance moyenne pour chaque variable séparément, ainsi que la distance moyenne entre toutes les variables. En fait, c’est un job pour tout une séquence synaptique à part, mais pour simplifier je décris ça comme un neurone. Je vois sa place dans la couche d’entrée puisque sa fonction essentielle est celle d’observation. Observation complexe, certes, observation quand même. J’appelle ce neurone « neurone de cohésion perçue » et j’assume qu’il a besoin d’un partenaire dans la couche cachée, donc d’un neurone qui combine la perception de cohésion avec le signal nerveux qui vient de la perception des variables d’entrée en tant que telles. Je baptise ce deuxième neurone caché « neurone de pondération par cohésion ».

 

Bon, j’en étais à la compétition. Compétition veut dire sélection. Lorsque j’entre en compétition contre entité A, cela implique l’existence d’au moins une entité B qui va choisir entre moi et A.

Le choix peut être digital ou analogue. Le choix digital c’est 0 ou 1, avec rien au milieu. B va choisir moi ou bien A et le vainqueur prend toute la cagnotte. Le choix analogue laisse B faire un panier des participations respectives de moi et de A. B peut prendre comme 60% de moi et 40% de A, par exemple. Comme je veux introduire dans mon perceptron la composante de compétition, j’ajoute une couche neuronale supplémentaire, avec un seul neurone pour commencer, le neurone de sélection. Ce neurone reçoit les signaux de la part des 4 neurones de sortie et fait son choix.

 

Important : c’est un jeu lourd en conséquences. La sélection faite dans une ronde d’expérimentation détermine la valeur d’erreur qui est propagée dans la ronde suivante dans tous les quatre neurones de sortie. Le résultat de compétition à un moment donné détermine les conditions de compétition aux moments ultérieurs.

 

Le signal nerveux envoyé par les neurones de sortie c’est l’erreur locale d’estimation. Le neurone de sélection fait son choix entre quatre erreurs. Plus loin, je discute les résultats des différentes stratégies de ce choix. Pour le moment, je veux montrer le contexte empirique de ces stratégies.  Ci-dessous, j’introduis deux graphes qui montrent l’erreur générée par les quatre neurones de sortie au tout début du processus d’apprentissage, respectivement dans les 20 premières rondes d’expérimentation et dans les 100 premières rondes. Vous pouvez voir que la ligne noire sur les deux graphes, qui représente l’erreur crachée par le neurone de sortie no. 4, donc par la tangente hyperbolique avec observation de la cohésion, est de loin la plus grande et la plus variable. Celle générée par le sigmoïde avec observation de la cohésion est substantiellement moindre, mais elle reste bien au-dessus des erreurs qui viennent des neurones de sortie no. 1 et 2, donc ceux qui s’en foutent de la cohésion interne du perceptron.

Je me demande qu’est-ce que l’apprentissage, au juste ? Les deux graphes montrent trois façons d’apprendre radicalement différentes l’une de l’autre. Laquelle est la meilleure ? Quelle est la fonction éducative de ces erreurs ? Lorsque je fais des essais où je me goure juste un tout petit peu, donc lorsque j’opère comme les neurones de sortie 1 et 2, je suis exact et précis, mais je m’aventure très près de mon point d’origine. J’accumule peu d’expérience nouvelle, en fait. En revanche, si mes erreurs se balancent dans les valeurs comme celles montrées par la ligne noire, donc par la tangente hyperbolique avec observation de la cohésion, j’ai peu de précision mais j’accumule beaucoup plus de mémoire expérimentale.

 

Quatre stratégies de sélection se dessinent, équivalentes à trois types de compétition entre les neurones de sortie. Sélection façon 1 : le neurone de sélection choisit le neurone de sortie qui génère la moindre erreur des quatre. D’habitude, c’est le neurone qui produit la tangente hyperbolique sans observation de la cohésion. C’est une compétition où le plus précis et le plus prévisible gagne à chaque fois. Sélection façon 2 : c’est le neurone qui génère l’erreur la plus grande qui a l’honneur de propager son erreur dans les générations suivantes du perceptron. Normalement c’est le neurone de sortie no.4 : la tangente hyperbolique avec observation de la cohésion. Sélection no. 3 : Le neurone de sélection tire la moyenne arithmétique des quatre erreurs fournies par les quatre neurones de sortie. Logiquement, le neurone de sortie qui génère l’erreur la plus grande va dominer. Cette sélection est donc une représentation mathématique de hiérarchie entre les neurones de sortie.

 

Finalement, la compétition conditionnelle à une condition prédéfinie. Je prends le mode de sélection no. 2, donc je choisis l’erreur la plus grande des quatre et je la compare à un critère. Disons me j’espère que le perceptron génère une erreur plus grande que la croissance moyenne annuelle standardisée de l’efficience énergétique du pays en question. Dans le cas des États-Unis cette valeur-jauge est de 0,014113509. Si un neurone quelconque de sortie (soyons honnêtes, ce sera la tangente hyperbolique qui observe sa propre cohésion) génère une erreur supérieure à 0,014113509, cette erreur est propagée dans la prochaine ronde d’expérimentation. Sinon, l’erreur à propager est 0. C’est donc une condition où je dis à mon perceptron : soit tu apprends vite et bien, soit tu n’apprends pas du tout.

 

Bon, passons aux actes. Voilà, ci-dessous, la liste de mes variables.

 

Code de la variable Description de la variable
Q/E PIB par kg d’équivalent pétrole d’énergie consommé (prix constants, 2011 PPP $) – VARIABLE DE RÉSULTAT

 

CK/PA Capital immobilisé moyen par une demande nationale de brevet (millions de 2011 PPP $, prix constants)

 

A/Q Amortissement agrégé d’actifs fixes comme % du PIB

 

PA/N Demandes nationales de brevet par 1 million d’habitants

 

M/Q Offre agrégée d’argent comme % du PIB

 

E/N Consommation finale d’énergie en kilogrammes d’équivalent pétrole par tête d’habitant

 

RE/E Consommation d’énergie renouvelable comme % de la consommation totale d’énergie

 

U/N Population urbaine comme % de la population totale

 

Q Produit Intérieur Brut (millions de 2011 PPP $, prix constants)

 

Q/N PIB par tête d’habitant (2011 PPP $, prix constants)

 

N Population

 

 

Je prends ces variables et je les mets dans mon perceptron enrichi avec ce neurone de sélection. Je simule quatre cas alternatifs de sélection, comme discutés plus haut. Voilà, dans le prochain tableau ci-dessous, les résultats de travail de mon perceptron après 5000 rondes d’apprentissage. Remarquez, pour la stratégie de sélection avec condition prédéfinie, les 5000 rondes tournent en à peine 72 rondes, puisque toutes les autres rendent erreur 0.

 

Valeur 1990 Valeur 2014 Sélection de la moindre erreur Sélection de l’erreur la plus grande Moyenne des erreurs – hiérarchie Compétition conditionnelle au seuil prédéfini
Q/E $                   4,83 $                         7,46 $                         9,39 $                       38,18 $                       34,51 $                       34,16
CK/PA 291,84 185,38 263,29 1 428,92 1 280,59 1 266,39
A/Q 14,5% 15,0% 19,0% 79,1% 71,4% 70,7%
PA/N 358,49 892,46 1 126,42 4 626,32 4 180,92 4 138,29
M/Q 71,0% 90,1% 113,6% 464,7% 420,0% 415,8%
E/N 7 671,77 6 917,43 8 994,27 40 063,47 36 109,61 35 731,13
RE/E 4,2% 8,9% 11,2% 45,6% 41,3% 40,8%
U/N 75,3% 81,4% 102,4% 416,5% 376,6% 372,7%
Q 9 203 227,00 16 704 698,00 21 010 718,45 85 428 045,72 77 230 318,76 76 445 587,64
Q/N $ 36 398,29 $ 52 292,28 $  65 771,82 $ 267 423,42 $ 241 761,31 $ 239 304,79
N 252 847 810 319 448 634 401 793 873 1 633 664 524 1 476 897 088 1 461 890 454

 

Oui, juste la sélection no. 1 semble être raisonnable. Les autres stratégies de compétition rendent des valeurs absurdement élevées. Quoi que là, il faut se souvenir du truc essentiel à propos d’un réseau neuronal artificiel : c’est une structure logique, pas organique. Structure logique veut dire un ensemble de proportions. Je transforme donc ces valeurs absolues rendues par mon perceptron en des proportions par rapport à la valeur de la variable de résultat. La variable de résultat Q/E est donc égale à 1 et les valeurs des variables d’entrée {CK/PA ; A/Q ; PA/N ; M/Q ; E/N ; RE/E ; U/N ; Q ; Q/N ; N} sont exprimées comme des multiples de 1. Je montre les résultats d’une telle dénomination dans le tableau suivant, ci-dessous. Comment les lire ? Eh bien, si vous lisez A/Q = 0,02024, cela veut dire que l’amortissement agrégé d’actifs fixes pris comme pourcentage du PIB est égal à la fraction 0,02024 du coefficient Q/E etc. Chaque colonne de ce tableau de valeurs indexées représente une structure définie par des proportions par rapport à Q/E. Vous pouvez remarquer que pris sous cet angle, ces résultats de simulation du réseau neuronal ne sont plus aussi absurdes. Comme ensembles de proportions, ce sont des structures tout à fait répétitives. La différence c’est la valeur-ancre, donc efficience énergétique. Intuitivement, j’y vois des scénarios différents d’efficience énergétique des États-Unis en cas ou la société américaine doit s’adapter à des niveaux différents de surpopulation et cette surpopulation est soit gentille (sélection de la moindre erreur) soit sauvage (toutes les autres sélections).

 

 

  Valeurs indexées sur la variable de résulat
Valeur 1990 Valeur 2014 Sélection de la moindre erreur Sélection de l’erreur la plus grande Moyenne des erreurs – hiérarchie Compétition conditionnelle au seuil prédéfini
Q/E 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000
CK/PA 60,41009 24,83314 28,13989 37,41720 37,12584 37,08887
A/Q 0,03005 0,02007 0,02024 0,02071 0,02070 0,02070
PA/N 74,20624 119,55525 119,98332 121,18428 121,14657 121,14178
M/Q 0,14703 0,12070 0,12097 0,12173 0,12171 0,12171
E/N 1 588,03883 926,66575 958,89830 1 049,32878 1 046,48878 1 046,12839
RE/E 0,00864 0,01194 0,01194 0,01196 0,01196 0,01196
U/N 0,15587 0,10911 0,10911 0,10911 0,10911 0,10911
Q 1 905 046,16228 2 237 779,02450 2 237 779,02450 2 237 779,02450 2 237 779,02450 2 237 779,02450
Q/N 7 534,35896 7 005,12942 7 005,12942 7 005,12942 7 005,12942 7 005,12942
N 52 338 897,00657 42 793 677,11833 42 793 677,11833 42 793 677,11833 42 793 677,11833 42 793 677,11833

 

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Nie przejmuj się, mój perceptronku

 

Mój wstępniak na You Tube

 

A takie tam różne. Robię trochę badań nad zjawiskiem inteligencji zbiorowej i ponieważ trudno mi tak z biegu znaleźć dobre przykłady inteligencji zbiorowej w prawdziwym życiu, to zrobiłem sobie taki mały perceptron – czyli sieć neuronalną – który ma zastępować prawdziwe życie. Tak trochę w kontekście tej inteligencji zbiorowej, dalej przegryzam się przez Rozporządzenia Ministra Nauki i Szkolnictwa Wyższego z dnia 22 lutego 2019 roku w sprawie ewaluacji jakości działalności naukowej. Ogólnie się dzieje.

Interesuję się inteligencją zbiorową, ponieważ mam wrażenie, że nawet najdziwniejsze relacje międzyludzkie, takie na pozór naprawdę pogięte, mają jakiś swój funkcjonalny sens. Robimy coś na pierwszy rzut oka idiotycznego. Kiedy jednak pierwszy rzut oka ustępuje miejsca drugiemu, wtedy ten drugi widzi trochę inny kontekst i widzi sens w tym pozornym idiotyzmie. Weźmy takie przejście dla pieszych. Gdyby przyglądał się temu człowiek z dżungli, stwierdziłby: „Idiotyzm. Chodzą zawsze tak samo, po ścieżkach oznakowanych tak, że tylko niewidomy tapir by nie zauważył. Są przewidywalni jak fiks. Nic nie upolują. Zdechną z głodu. Przykre”. A jednak my nie zdychamy z głodu i te przejścia dla pieszych jakoś działają, tyle że w innym kontekście niż dżungla.

Kiedy używam sztucznej inteligencji, odkrywam mnóstwo ciekawych rzeczy na temat działania naszej inteligencji. Znacie zapewne tą zasadę, że nagrody działają na nas mocniej niż kary. Wzmocnienie pozytywne działa mocniej niż wzmocnienie negatywne. No i ja tu właśnie prowadzę badania na temat efektywności energetycznej gospodarek, w sensie na temat ilości PeKaBe (Produktu Krajowego Brutto) w przeliczeniu na 1 kilogram przeliczeniowy ropy naftowej w sensie finalnej konsumpcji energii, no i zrobiłem taki prosty perceptron wielowarstwowy (zaraz tam „wielo-„… trzy warstwy wszystkiego), no i ten perceptron kombinuje jak łączyć tą efektywność energetyczną z PeKaBe na głowę, z odsetkiem energii odnawialnych w całości konsumpcji finalnej i z różnymi innymi zjawiskami. W zasadzie, perceptron wielowarstwowy uczy się na podstawie porażek i związanych z tym kar. Perceptron się multiplikuje i próbuje, jaka mu wyjdzie efektywność energetyczna z tej jego chwilowej postaci. Jak się multiplikuje, to się nieuchronnie myli, ale umie się do błędu przyznać, a nawet mierzy ten błąd i następnie go wpuszcza do wartości swoich zmiennych wejściowych. Perceptron uczy się czegokolwiek tylko wtedy, kiedy się pomyli i w pewnym sensie karze sam siebie za pomyłkę.

Postanowiłem spróbować co będzie, kiedy dam mojemu perceptronowi wzmocnienie pozytywne. Dzielę błędy na korzystne i niekorzystne. Te pierwsze to efektywność energetyczna wyższa od oczekiwanej, te drugie to wręcz przeciwnie. Kiedy perceptron popełnia błąd korzystny, wtedy pozwalam mu wykorzystać go w całości w kolejnych rundach eksperymentalnych. Kiedy jednak popełnia błąd niekorzystny, to ja ten błąd zmniejszam i dopiero taki zmniejszony jest propagowany dalej. Wzmacniam wydźwięk sukcesów, zmniejszam wagę porażek.

No i co? No i w sumie to kicha. Mój standardowy eksperyment z perceptronem to 5000 prób, no i zawsze coś z tego wychodzi. Kiedy jednak wprowadzam do algorytmu mechanizm wzmacniania sukcesów i osłabiania porażek – czyli kiedy wprowadzam arbitralne rozróżnienie na sukcesy i porażki – to perceptron już po 30 ÷ 40 rundach eksperymentalnych stwierdza, że zjadł wszystkie rozumy. Przestaje generować błąd, fiksuje wszystkie zmienne i wszystko byłoby fajnie, gdyby ich nie fiksował na poziomach absurdalnie niskich. Wyszło mu, na ten przykład, że Austriacy mogliby mieć taką samą efektywność energetyczną, jak mają teraz, przy liczbie ludności o ¾ niższej od obecnej i generalnie ze wszystkim co się da o ¾ poniżej poziomów dzisiejszych. Jak mu dałem wzmocnienie pozytywne, to doradził Austriakom powrót do prymitywu. Dobrze, że mu nie wrzuciłem danych na temat Polski. Dopiero by wstyd był, a tak to co najwyżej może być incydent dyplomatyczny.

Jeszcze parę słów wyjaśnienia, dlaczego i jak stosuję perceptron wielowarstwowy, aby przedstawić działanie inteligencji zbiorowej. Opieram się na tzw. teorii roju (patrz np. Stradner et al 2013[1]), zgodnie z którą inteligencja zbiorowa przejawia się jako koordynacja. W ten sposób ograniczamy nieco nasze ambicje względem naszej własnej zbiorowej inteligencji. Fajnie byłoby myśleć, że jako zbiorowość dążymy do jakiegoś sensownego zbiorowego celu i robimy to rozsądnie. Zauważmy jednak, że ocena wartości naszego celu oraz ocena racjonalności drogi, którą przyjęliśmy wymagają odniesienia etycznego i prakseologicznego. Układ odniesienia musimy oczywiście stworzyć sami. Nikt inny tego za nas nie zrobi. Jeżeli sami tworzymy układ odniesienia dla oceny naszych celów i ścieżki do ich osiągnięcia, to tak trochę mało ambitnie. Sami sobie kadzimy, do jakich to fajnych celów dążymy albo też sami siebie wbijamy w kompleksy, że niby te nasze cele za mało ambitne.

W teorii roju zakłada się że wystarczy, jak jesteśmy skoordynowani. Możemy być skoordynowani na trzech poziomach: statycznym, dynamicznym skorelowanym i dynamicznym losowym. Koordynacja statyczna to tak, jak w synapsach albo w McDonaldzie. Jak podmiot A zrobi X, to podmiot B zawsze zrobi Y. Zawsze tak samo. Koordynacja dynamiczna skorelowana jest wtedy, jak podmiot B może zachować się różnie wobec działania podmiotu B, ale to różnie ma swój powtarzalny wzorzec. B czasami zrobi Y1, a czasami Y2, ale Y3 to już raczej nie, a to czy Y1 czy Y2 zależy od subtelnych różnic w zachowaniu X ze strony podmiotu A. Kiedy jednak podmiot A nawet nie wie, który inny podmiot zareaguje na jego zachowanie A, wtedy musi to zachowanie jakoś zasygnalizować szerszej zbiorowości. Może zareaguje B, a może C? Kto wie? Tak działa roznoszenie zarodników roślin i grzybów, czy też rozprzestrzenianie feromonów.  To jest koordynacja dynamiczna losowa.

Rój jest inteligentny, kiedy potrafi przystosować się do nowych okoliczności poprzez zmianę stopnia koordynacji. Eksperymentujemy z nowymi wariantami naszych nawyków i strategii. Na chwilę przechodzimy od koordynacji statycznej do dynamicznej skorelowanej. Ta ostatnia może się na chwilę przekształcić w koordynację dynamiczną losową. Wszystko po to, żeby wpuścić trochę świeżego powietrza i nauczyć się nowych wzorców zachowań. Nowe wzorce zachowań będą prawdopodobnie faworyzować nieco inny typ partnerów seksualnych, a tym samym nieco inną pulę genów. W ten inteligencja przekłada się na trwałą mutację genetyczną całego gatunku.

Sieć neuronalna wykorzystuje zbiór zmiennych. Kiedy są to zmienne ekonomiczne, takie jak PKB na głowę mieszkańca czy efektywność energetyczna, każdą z nich można traktować jako chwilowy przejaw zbioru decyzji podejmowanych przez dużą liczbę ludzi w dłuższym okresie czasu. Stopień wzajemnego powiązania tych decyzji można traktować jako stopień wzajemnej koordynacji zachowań, które stoją za takimi a nie innymi wartościami zmiennych. Związki pomiędzy liczbami są prostsze niż związki między ludźmi. Można te związki zmierzyć, np. przy pomocy odległości Euklidesowej: V(x1;x2) = [(x1 – x2)2]0,5.  Z tym pierwiastkiem z kwadratu to chodzi o zlikwidowanie możliwego minusa. Ujemna odległość źle wygląda w pomiarach. W tym wypadku należy pohamować zapędy wpojone na lekcjach matematyki. Mówili nam „upraszczaj !”. W tym wypadku, jeżeli uproszczę potęgi, to wyjdzie mi potęga „1”, a to z minusem nic nie zrobi. Nie upraszczamy więc nadmiernie, tylko grzecznie, po kolei, najpierw do kwadratu, a potem dopiero z tego pierwiastek kwadratowy.

Kiedy mam wiele zmiennych, wtedy dla każdej z nich mogę określić jej odległości Euklidesowe wobec wszystkich pozostałych i wyciągnąć średnią arytmetyczną z tych odległości. Potem z tych średnich arytmetycznych wyciągam kolejną średnią arytmetyczną i otrzymuję w ten sposób jedną z możliwych postaci funkcji spójności, która określa jak ciasne są relacje między zmiennymi.

Moje eksperymenty z perceptronem wielowarstwowym pokazały, że zmienia on wartość swojej funkcji spójności, a dokładnie zwiększa średnią odległość Euklidesową między swoimi zmiennymi wejściowymi po to, żeby zminimalizować błąd w szacowaniu zmiennej wyjściowej (wynikowej). W tym sensie perceptron zachowuje się jak inteligentny rój żywych istot. Daje sobie trochę dodatkowego luzu, żeby się czegoś nauczyć. Co ciekawe, kiedy w skład błędu odnotowywanego przez perceptron włączam także wartość jego funkcji spójności – czyli wzajemną odległość Euklidesową zmiennych – wtedy sieć neuronalna zachowuje się bardzo rożnie w zależności od zastosowanej funkcji aktywacyjnej. Kiedy stosuję funkcję sigmoidalną unipolarną, wtedy perceptron mniej się uczy i zachowuje większą spójność. Zachowuje się trochę jak człowiek, któremu nagle kazano zwracać uwagę na nieznane mu wcześniej zasady savoir-vivre’u. Zachowywać to się zachowuje, ale jakby tak z lekkim odcieniem kija w d**ie. Kiedy jednak zmieniam funkcję aktywacji na tangens hiperboliczny, wtedy perceptron zmuszony do obserwacji swojej własnej spójności zaczyna się bujać w krainę wyobraźni: znacznie zmniejsza swoją wewnętrzną spójność i wymyśla bardzo wysokie wartości zmiennych wejściowych.

No i ja tu tak gadu gadu i ni z tego, ni z owego prawie dokładnie wyjaśniłem, o co mi chodzi z tym perceptronem jako wyrazem inteligencji zbiorowej. Mam coś, co potrafi samo ze sobą eksperymentować i stopniowo zmniejszać błąd generowany przez te eksperymenty. Znaczy będą z tego czegoś ludzie. Jak się uczy, to rozluźnia swoją wewnętrzną spójność, czyli otwiera się na inherentny chaos egzystencji. Otwiera się różnie w zależności od zastosowanej funkcji aktywacyjnej oraz tego, czy ma zwracać uwagę na to, jak się otwiera. Jak pozwolę temu czemuś odróżniać sukcesy od porażek i wyciągać optymistyczne wnioski z niektórych odchyleń od wartości oczekiwanych, to nagle stwierdza, że już wszystko wie i że dość tego eksperymentowania.

 

No dobrze. Teraz ważne pytanie: co z tego? Jaka jest wartość naukowa tego narzędzia? Przypuszczam, że mogę w ten sposób tworzyć dość dokładne hipotezy dla badań empirycznych. Przy pomocy perceptrona symuluję, jakie mogą być oczekiwane wartości zmiennych empirycznych, w różnych warunkach uczenia się. Następnie sprawdzam dopasowanie wartości empirycznych do tych oczekiwanych i mogę określić, która hipoteza na temat zbiorowego uczenia się jest najbliższa prawdy.

 

Perceptron opiera się na akumulacji danych z przeszłości. To typ sztucznej inteligencji, który dokłada kolejne porcje informacji do już posiadanej wiedzy i w ten sposób coś optymalizuje. To jest mechanizm uczenia się, który wykracza poza potocznie pojmowany schemat « bodziec <> reakcja » (już raz o tym pisałem, w „Dwie kule w Kalifornii i wielebny Thomas Bayes”). W tej chwili chyba najbardziej fascynuje mnie to, w jaki sposób modyfikacja tej pamięci – czy też raczej zmiana sposobu zbierania informacji do pamięci – wpływa na proces uczenia się. Przedstawię teraz krótki eksperyment, jaki prowadzę przy pomocy mojego perceptronu, na danych dotyczących efektywności energetycznej gospodarki Polski.

 

Mój podstawowy model, który wykorzystałem już do jednego artykułu, zakłada że efektywność energetyczna gospodarki jest efektem oddziaływania następujących zmiennych:

 

  1. Współczynnika kapitału w bilansowych środkach trwałych przedsiębiorstw w przeliczeniu na 1 krajowe zgłoszenie patentowe; to nam mówi, jak przeciętnie dokapitalizowany jest każdy wynalazek zgłaszany do patentowania;
  2. Współczynnika udziału zagregowanej amortyzacji środków trwałych w PKB; ta zmienna mierzy, jakim obciążeniem dla gospodarki jest nadążanie za zmianą technologiczną;
  3. Liczby krajowych zgłoszeń patentowych na 1 mln mieszkańców, czyli stopnia innowacyjności społeczeństwa;
  4. Finalnego zużycia energii per capita;
  5. Odsetka ludności miejskiej w całości populacji;
  6. Zagregowanego PKB
  7. PKB per capita
  8. Liczby ludności

 

Biorę jedną i tą samą funkcję aktywacji neuronalnej: sigmoid unipolarny. Jako materiał wyjściowy, żeby perceptron oparty na tej funkcji cośkolwiek zakumał, daję mu dane empiryczne na temat powyższych zmiennych w Polsce, włącznie z samą efektywnością energetyczną, dla lat 1990 – 2014. Dane standaryzuję, czyli dla każdej zmiennej każdą wartość z osobna dzielę przez zaobserwowaną w jej rozkładzie wartość maksymalną. W efekcie każda zmienna ma wartości w przedziale 0 < x ≤ 1. Zaczynamy w roku 1990. Perceptron generuje wagi losowe, w przedziale 0 < w < 1 dla każdej zmiennej. Mnoży zestandaryzowane wartości zmiennych przez te wagi losowe i suma iloczynów „xi*wi” stanowi złożony argument „x” dla funkcji sigmoidalnej unipolarnej. Funkcja zwraca jakąś lokalną wartość i jakąś lokalną pochodną, dla roku 1990. Biorę rzeczywistą, zestandaryzowaną wartość zmiennej wynikowej – efektywności energetycznej dla roku 1990 – i odejmuję od niej wartość zwróconą przez funkcję aktywacji. Tą różnicę mnożę przez lokalną pochodną i mam lokalny błąd ważony znaczeniem lokalnej zmiany wartości (czyli pochodnej).

 

Swoją drogą, na boku, obliczam średnią arytmetyczną dla odległości Euklidesowych każdej zmiennej, w roku 1990, od wszystkich pozostałych. Potem z tych średnich arytmetycznych wyciągam kolejną średnią arytmetyczną, a następnie obliczam jej odwrotność, czyli 1/V(x). To jest ogólna funkcja spójności mojego perceptronu.

 

Dalej, począwszy od roku 1991 i dalej w przyszłość, mam jeden stały sposób postępowania – czyli podstawowy schemat uczenia się mojego perceptronu – oraz kilka możliwych wariacji na ten główny temat. Co do zasady, w roku 1991, perceptron bierze zestandaryzowaną wartość każdej zmiennej, zarówno wynikowej efektywności energetycznej i jak i zmiennych wejściowych (a – h), dodaje do tej empirycznej wartości te lokalny błąd ważony pochodną dla roku poprzedniego – 1990 – i dalej tak samo, czyli wagi losowe, suma iloczynów zmiennych wejściowych przez wagi losowe jako złożony argument dla funkcji aktywacji neuronalnej itd. To się nazywa propagacja błędu.

 

W ten sposób, dla każdego roku od 1991 do 2014, perceptron buduje stopniowo coraz bardziej odchyloną od rzeczywistości wersję wydarzeń. Daje to 2014 – 1990 = 24 rundy eksperymentalne, podczas których perceptron twórczo uczy się na danych empirycznych.

Począwszy od rundy 25 i dalej, perceptron już nie ma danych empirycznych jako układu odniesienia. Wtedy zaczyna powtarzać tą samą operację na swojej własnej, zmodyfikowanej wersji roku 2014. Nadbudowuje na tym ostatnim rzeczywistym zdarzeniu swoją całkowicie własną wersję wydarzeń, wciąż według tego samego mechanizmu dodawania błędu zaobserwowanego w bezpośrednio poprzedzającej przeszłości.

 

Teraz możliwe modyfikacje. Pierwsza polega na obserwacji własnej spójności. W każdej kolejnej rundzie eksperymentu, poza dodawaniem błędu z poprzedniej rundy, perceptron dodaje średnią spójność tej konkretnej zmiennej z pozostałymi zmiennymi (jej średnią odległość Euklidesową od pozostałych zmiennych), zaobserwowaną w rundzie poprzedniej. Innymi słowy, perceptron zapamiętuje, jak daleko była ta konkretna zmienna od pozostałych. Potem jak w scenariuszu podstawowym: wagi losowe, suma iloczynów itede.

 

Druga modyfikacja to rozróżnienie na sukcesy i porażki. Obliczam, o ile wzrosła standaryzowana efektywność energetyczna gospodarki Polski w okresie 1990 – 2014. Wychodzi (11,77694401 – 9,673094195) / 11,77694401 = 0,178641404. Dalej dzielę to przez 24 lata, czyli 0,178641404 / 24 = 0,007443392. To jest próg odniesienia „y*” dla odróżnienia sukcesu od porażki. Błąd „e” zwracany przez funkcję aktywacji perceptronu i spełniający warunek „e > y*” jest sukcesem, każda inna jest porażką. Daję więc mojemu perceptronowi do zrozumienia: jeżeli wygenerowałeś błąd większy od średniego rocznego przyrostu efektywności energetycznej, to brawo. Jak nie, to niestety, ale wtopiłeś.

Teraz pytanie, jak mu to powiedzieć. Niektórzy ludzie źle reagują na krytykę. Nie wiem, jak zareaguje sztuczna inteligencja. Muszę sprawdzić. Na początek robię tak, jak doradza psychologia: zamiast krytykować, pokaż konsekwencje sukcesu oraz porażki. Mogę te konsekwencje wzmocnić w jednym albo w drugim kierunku, czyli wzmocnić sukcesy kosztem porażek („nieważne, że nie zająłeś pierwszego miejsca, perceptronku, ten przed Tobą i tak był na koksach, ważne jest uczestnictwo i rywalizacja”) albo też mogę wzmocnić porażki kosztem sukcesów („Ty łajzo, jak mogłeś tak polec!”). Kiedy chcę wzmocnić pamięć o sukcesach i osłabić pamięć o porażkach, to robię na przykład tak, że kiedy e > y*, to wtedy pozwalam perceptronowi dalej propagować błąd „e”, kiedy jednak e ≤ ∆y*, to wtedy pozwalam propagować tylko jakiś ułamek błędu „e”. Kiedy chcę wzmocnić pamięć o porażkach kosztem pamięci o sukcesach, to robię odwrotnie. Wszystko to mogę ująć elegancko w ramy jednego warunku logicznego:

 

>> jeżeli (e > y*), to propaguj ß1*e, a jeżeli (e ≤ y*), to propaguj ß2*e.

 

Parametry ß1 oraz ß2 określają odpowiednie wzmocnienie pamięci o sukcesach oraz o porażkach. Jeżeli ß1 > ß2, to wzmacniam wspomnienie sukcesu („W 1970-tym tośmy im pokazali!”). Jeżeli ß1 < ß2, wzmacniam z kolei wspomnienie porażki („Nigdy nie zapomnimy tego, jak ONI nas skrzywdzili!”). Konstruuję pięć scenariuszy:

 

Scenariusz 0: Bez uczenia się na spójności, bez nagrody

Scenariusz A.1: Bez uczenia się na spójności, wzmocnienie nagrody *2 ó ß1 = 1, ß2 = 0,5

Scenariusz A.2: Bez uczenia się na spójności, wzmocnienie nagrody o 5% ó ß1 = 1, ß2 = 0,95

Scenariusz B.1: Uczenie się na spójności, wzmocnienie nagrody *2 ó ß1 = 1, ß2 = 0,5

Scenariusz B.2: Uczenie się na spójności, wzmocnienie nagrody o 5% ó ß1 = 1, ß2 = 0,95

 

Dla każdego z pięciu scenariuszy obserwuję funkcję spójności mojego perceptronu – czyli to, na ile zachowuje się jak inteligentny rój – oraz procent energii odnawialnych w konsumpcji finalnej energii ogółem. Obserwacja obejmuje 100 rund eksperymentalnych: interesuje mnie przede wszystkim to, jak perceptron zaczyna się uczyć. Tak, dla perceptrona wielowarstwowego 100 rund eksperymentalnych to zaledwie rozgrzewka. To jest chyba największa odmiana w stosunku do moich poprzednich eksperymentów z tym perceptronem. Wcześniej moja standardowa obserwacja obejmowała 5000 rund eksperymentalnych, czyli okres 50 razy dłuższy (dłuższy w sensie zgromadzonego doświadczenia, a nie upływu czasu – perceptron nie ma pojęcia czasu). Ten eksperymentalny zoom przyniósł bardzo ciekawe wyniki, które pokazuję na dwóch wykresach poniżej i komentuję dalej, pod wykresami.

 

Widać wyraźnie dwa etapy uczenia się perceptronu. Pierwszy etap to ten, kiedy perceptron pracuje na danych empirycznych i tylko trochę je tak sobie przekształca. W tym etapie wszystkie pięć scenariuszy uczenia się idzie łeb w łeb. Wszystkie pięć zmniejsza wartość funkcji spójności – a więc usztywnia strukturę logiczną i czyni ją mniej podatną na zmiany adaptacyjne – a jednocześnie zwiększa udział energii odnawialnych w ogólnej konsumpcji. W momencie kiedy perceptron przechodzi we fristajl, czyli kiedy już sam buduje wartości danych wejściowych na podstawie zapamiętanych informacji o rzeczywistości, wszystko się zmienia. Scenariusz 0 oraz scenariusze A.1 i A.2 utrzymują sztywną strukturę logiczną (niską wartość funkcji spójności) oraz mniej więcej ten sam mix energetyczny, w sensie względem odnawialnych. Z kolei scenariusze B.1 i B.2 wracają częściowo do poprzedniej, nieco luźniejszej struktury logicznej perceptronu (wartość funkcji spójności zwiększa się), a jednocześnie generują coraz większy odsetek energii odnawialnych.

 

Kiedy więc robię zbliżenie na 100 pierwszych rund eksperymentalnych, obserwuję coś przeciwnego niż relacje zaobserwowane dla 5000 rund. Perceptron wyposażony w zdolność uczenia się na swojej własnej spójności zachowuje się jak o wiele bardziej inteligentny rój niż perceptron bez takiej zdolności. Przy 5000 rund perceptron obserwujący własną spójność wydawał się mieć kij w tyłku, a tutaj, przy zbliżeniu na pierwsze 100 rund, jest dokładnie odwrotnie: jest bardziej elastyczny i jakby śmielszy i więcej fantazji ma i w ogóle. Co ciekawe, perceptron operujący stosunkowo niewielkim rozróżnieniem między karą a nagrodą  –  jeżeli (e > y*), to propaguj e, a jeżeli (e ≤ y*), to propaguj 0,95*e – buja się bardziej niż ten, który operuje rozróżnieniem jak jeden do dwóch.

 

Najważniejszym czynnikiem różnicującym procesy uczenia się okazuje się być obserwacja własnej spójności. Jeżeli traktuję perceptron jako przedstawienie rzeczywiście działającej inteligencji zbiorowej, społeczność wyposażona w zdolność wyciągania wniosków z własnej spójności może nauczyć się więcej, niż społeczność pozbawiona takiej zdolności. No jednak musi być jakieś jednakowoż. Jednakowoż, kiedy sięgam do rundy eksperymentalnej 5000, obraz się zmienia. Perceptron wyposażony w zdolność obserwacji własnej spójności generuje odsetek energii odnawialnych ok. 16,5%. Z kolei ten, który ignoruje własną spójność osiąga ok. 17,5%. Coś się zmienia gdzieś po drodze między setną rundą eksperymentalną, a tą pięciotysięczną. Jest taka masa krytyczna pamięci zgromadzonej przez perceptron, która w pewnym sensie odwraca jego działanie. Ciekawe.

[1] Stradner, J., Thenius, R., Zahadat, P., Hamann, H., Crailsheim, K., & Schmickl, T. (2013). Algorithmic requirements for swarm intelligence in differently coupled collective systems. Chaos, Solitons & Fractals, 50, 100-114.