The batteries we don’t need anymore

I continue on the thread I started to develop in my last update in French, titled ‘De quoi parler à la prochaine réunion de faculté’, i.e. I am using that blog, and the fact of writing, to put some order in the almost ritual mess that happens at the beginning of the academic year. New calls for tenders start in the ministerial grant programs, new syllabuses need to be prepared, new classes start. Ordinary stuff, mind you, this is just something about September, as if I were in Vivaldi’s ‘Four seasons’: the hot, tumultuous Summer slowly folds into the rich, textured, and yet implacably realistic Autumn.

My central idea is to use some of the science which I dove into during the summer holidays as an intellectual tool for putting order in that chaos. That almost new science of mine is mostly based on the theory of complex systems, and my basic claim is that technological change is an emergent phenomenon in complex social systems. We don’t know why exactly our technologies change the way they change. We can trace the current technologies back to their most immediate ancestors and sometimes we can predict their most immediate successors, but that’s about it. Futuristic visions of technologies that could be there in 50 years from now are already some kind of traditional entertainment. The concept of technological progress, when we try to find a developmental logic in the historically known technological change, is usually standing on wobbly legs, on the other hand. Yes, electricity allowed the emergence of medical technologies used in hospitals, and that saved a lot of human lives, but there is no way Thomas Edison could have known that. The most spectacular technological achievements of mankind, such as the Egyptian pyramids, the medieval cathedrals, the Dutch windmills from the 16th century, or the automobile, seen from the historical distance, look ambiguous. Yes, it all solved some problems, but it facilitated the emergence of new problems. The truly unequivocal benefit of those technological leaps, which could have been actually experienced by the people who made them, was to learn how to develop technologies.

The studies I did during the Summer holidays 2021 focused on four essential, mathematical models of emergent technological change: cellular automata, flock of birds AKA particle swarm, ants’ nest, and imperfect Markov chains. I start with passing in review the model of cellular automata. At any given moment, the social complexity can be divided into a finite number of social entities (agents). They can be individual humans, businesses, NGOs, governments, local markets etc. Each such entity has an immediate freedom of movement, i.e. a finite number of one-step moves. The concept is related to the theory of games and corresponds to what happens in real life. When we do something social, we seldom just rush forwards. Most frequently, we make one step, observe the outcomes, adjust, then we make the next step etc. When all social agents do it, the whole social complexity can be seen as a collection of cells, or pixels. Each such cell (pixel) is a local state of being in society. A social entity can move into that available state, or not, at their pleasure and leisure. All the one-step moves a social entity can make translate into a trajectory it can follow across the social space. Collective outcomes we strive for and achieve can be studied as temporary complex states of those entities following their respective trajectories. The epistemological trick here is that individual moves and their combinations can be known for sure only ex post. All we can do ex ante is to define the possible states, and just wait where does the reality go.

As we are talking about the possible states of social complexity, I found an interesting mathematical mindf**k at quite an unexpected source, namely in the book titled ‘Aware. The Science and Practice of Presence. The Groundbreaking Meditation Practice’ by Daniel J. Siegel [Penguin Random House LLC, 2018, Identifiers: LCCN 2018016987 (print), LCCN 2018027672 (ebook), ISBN 9780143111788, ISBN 9781101993040 (hardback)]. This is a mathematical way of thinking, apparently taken from quantum physics. Here is the essence of it. Everything that happens does so as 100% probability of the given thing happening. Each phenomenon which takes place is the actualization of the same phenomenon being just likely to happen.

Actualization of probability can be seen as collision of two vehicles in traffic. When the two vehicles are at a substantial distance from each other, the likelihood of them colliding is zero, for all practical purposes. As they converge towards each other, there comes a point when they become sort of provisionally entangled, e.g. they find themselves heading towards the same crossroads. The probability of collision increases slightly, and yet it is not even the probability of collision, it is just the probability that these two might find themselves in a vicinity conducive to a possible collision. Nothing to write home about, yet, like really. It can be seen as a plateau of probability slowly emerging out of the initial soup of all the things which can possibly happen.

As the two cars drive closer and closer to the crossroads in question, the panoply of possible states narrows down. There is a very clear chunk of reality which gains in likelihood, as if it was a mountain range pushing up from the provisional plateau. There comes a point where the two cars (and their drivers) just come on collision course, and there is no way around it, and this is a peak of 100% probability. Boom! Probability is being consumed.

What do those cars have in common with meditation and with the emergence of technological change? As regards meditation, thought can be viewed as a progressively emerging actualization of something that was just a weak probability, sort of a month ago it was just weakly probable that today I would think what I think, it became much more likely yesterday, as the thoughts from yesterday have an impact on the thoughts of today, and today it all comes to fruition, i.e. to the 100% probability. As regards emergent technological change, the way technology changes today can be viewed as actualization of something that was highly probable last year, just somehow probable 10 years ago, and had been just part of the amorphous soup of probability 30 years ago. Those trajectories followed by individual agents inside social complexity, as defined in the theory of cellular automata, are entangled together precisely according to that pattern of emergent probabilities. Two businesses coming up with two mutually independent, and yet similar technologies, are like two peak actualizations of 100% probability in a plateau of probable technological change, which, in turn, has been slowly emerging for some time.

Those other theories I use explain and allow to model mathematically that entanglement. The theory of particle swarm, pertinent to flocks of birds, assumes that autonomous social agents strive for a certain level of behavioural coupling. We expect some level of predictability from others, and we can cooperate with others when we are satisfactorily predictable in our actions. The strive for social coherence is, therefore, one mechanism of entanglement between individual trajectories of cellular automata. The theory of ants’ nest focuses on a specific category of communication systems in societies, working like pheromones. Ants organize by marking, reinforcing and following paths across their environment, and their pheromones serve as markers and reinforcement agents for those paths. In human societies, there are social pheromones. Money and financial markets make probably the most obvious example, but scientific publications are another one. The more scientific articles are being published on a given topic, the more likely are other articles being written on the same topic, until the whole thing reaches a point of saturation, when some ants (pardon me, scientists) start thinking about another path to mark with intellectual pheromones.

Cool. I have (OK, we have) complex social states, made of entangled probabilities that something specific happens, and they encompass technology. Those complex states change, i.e. one complex state morphs into another. Now, how the hell can I know, as a researcher, what is happening exactly? Such as the theory of complex systems suggests it, I can never know exactly, for one, and I need to observe, for two. As I don’t know exactly what is it exactly, that thing which I label ‘technological change’, it is problematic to set too many normative assumptions as for which specific path that technological change should take. I think this is the biggest point of contention as I apply my theory, such as I have just outlined it, to my main field of empirical research, namely energy economics, and technological change in the sector of energy. The more I do that research, the more convinced I am that the so-called ‘energy policies’, ‘climate policies’ etc. are politically driven bullshit based on wishful thinking, with not much of a chance to bring the positive change we expect. I have that deep feeling that setting a strategy for future innovations in our business/country/world is very much like that Polish expression ‘sharing the skin of a bear which is still running in the woods’. First, you need to kill the bear, only then you can bicker about who takes what part of the skin. In the case of innovation, long-term strategies in that domain consist in predicting what we will do when we have something we don’t even know yet what is it exactly.

I am trying to apply this general theory in the grant applications which I am in charge of preparing now, and in my teaching. We have that idea, at the faculty, to apply for funding to study the market of electric vehicles in Europe and in Poland. This is an interesting situation as regards business models. In the US, the market of electric cars is clearly divided among three categories of players. There is Tesla, which is a category and an industry in itself, with its peculiar strategy of extreme vertical integration. Then there are the big, classical car makers, such as Toyota, General Motors etc., with their business models based on rather a short vertical chain of value added inside the business, and a massive supply chain upstream of the house. Finally, there is a rising tide of small start-ups in the making of electric vehicles. I wonder what I could be in Europe. As our European market of electric vehicles is taking off, it is dominated by the incumbent big manufacturers, the old school ones, with Tesla building a factory in Germany, and progressively building a beachhead in the market. There is some timid movement towards small start-up businesses in the field, but it is really timid. In my home country, Poland, the most significant attempt at starting up an electric vehicle made in Poland is a big consortium of state-controlled companies, running under the name of ‘Electromobility Poland’.  

I have that intuition, which I provisionally express as a working hypothesis, namely that business models are an emergent property of technologies which they use. As regards the market of electric vehicles, it means that Tesla’s business model is not an accidental explosion of Elon Musk’s genius mind: it is an emergent characteristic of the technologies involved.

Good. I have some theory taking shape, nice and easy. I let it ripen a bit, and I start sniffing around for facts. What is a business model, in my mind? It is the way of operating the chain of value added, and getting paid for it, in the first place. Then, it is the way of using capital. I noticed that highly innovative environments force businesses to build up and keep large amounts of cash money, arguably to manage the diverse uncertainties emerging as technologies around morph like hell. In some cases, e.g. in biotech, the right business model for rapid innovation is a money-sucker, with apparently endless pay-ins of additional equity by the shareholders, and yet with a big value in terms of technological novelty created. I can associate that phenomenon of vacuum cleaning equity with the case of Tesla, who just recently started being profitable, and had gone through something like a decade in permanent operational loss. That is all pertinent to fixed costs, thus to the cash we need to build up and keep in place the organizational structure required for managing the value chain the way we want to manage it.

I am translating those loose remarks of mine into observable phenomena. Everything I have just mentioned is to be found in the annual financial reports. This is my first source of information. When I want to study business models in the market of electric vehicles, I need to look into financial and corporate reports of businesses active in the market. I need to look into the financial reports of Mercedes Benz, BMW, Renault, PSA, Volkswagen, Fiat, Volvo, and Opel – thus the European automotive makers – and see how it is going, and whether whatever is going on can be correlated with changes in the European market of electric vehicles. Then, it is useful to look into the financial reports of global players present in the European market, e.g. Tesla, Toyota, Honda and whatnot, just to see what changes in them as the European market of electric vehicles is changing.

If my intuition is correct, i.e. if business models are truly an emergent property of technologies used, the fact of engaging into the business of electric vehicles should be correlated with some sort of recurrent pattern in those companies.         

Good. This is about the big boys in the playground. Now, I turn toward the small ones, the start-up businesses. As I already said, it is not like we have a crowd of them in the European industry of electric vehicles. The intuitive axis of research which comes to my mind is to look at start-ups active in the U.S., study their business models, and see if there is any chance of something similar emerging in Europe. Somehow tangentially to that, I think it would be interesting to check whether the plan of Polish government regarding ‘Electromobility Poland’, that is the plan to develop it with public and semi-public money, and then sell it to private investors, has any grounds and under what conditions it can be a workable plan.

Good. I have rummaged a bit in my own mind, time to do the same to other people. I mean, I am passing to reviewing the literature. I type ‘electric vehicles Europe business model’ at the https://www.sciencedirect.com/ platform, and I look at what’s popping up. Here comes the paper by Pardo-Bosch, F., Pujadas, P., Morton, C., & Cervera, C. (2021). Sustainable deployment of an electric vehicle public charging infrastructure network from a city business model perspective. Sustainable Cities and Society, 71, 102957., https://doi.org/10.1016/j.scs.2021.102957 . The abstract says: ‘The unprecedented growth of global cities together with increased population mobility and a heightened concern regarding climate change and energy independence have increased interest in electric vehicles (EVs) as one means to address these challenges. The development of a public charging infrastructure network is a key element for promoting EVs, and with them reducing greenhouse gas emissions attributable to the operation of conventional cars and improving the local environment through reductions in air pollution. This paper discusses the effectiveness, efficiency, and feasibility of city strategic plans for establishing a public charging infrastructure network to encourage the uptake and use of EVs. A holistic analysis based on the Value Creation Ecosystem (VCE) and the City Model Canvas (CMC) is used to visualise how such plans may offer public value with a long-term and sustainable approach. The charging infrastructure network implementation strategy of two major European cities, Nantes (France) and Hamburg (Germany), are analysed and the results indicate the need to involve a wide range of public and private stakeholders in the metropolitan areas. Additionally, relevant, and fundamental patterns and recommendations are provided, which may help other public managers effectively implement this service and scale-up its use and business model.

Well, I see there is a lot of work to do, as I read that abstract. I rarely find a paper where I have so much to argue with, just after having read the abstract. First of all, ‘the unprecedented growth of global cities’ thing. Actually, if you care to have a look at the World Bank data on urban land (https://data.worldbank.org/indicator/AG.LND.TOTL.UR.K2 ), as well as that on urban population (https://data.worldbank.org/indicator/SP.URB.TOTL.IN.ZS ), you will see that urbanization is an ambiguous phenomenon, strongly region-specific. The central thing is that cities become increasingly distinct from the countryside, as types of human settlements. The connection between electric vehicles and cities is partly clear, but just partly. Cities are the most obvious place to start with EVs, because of the relatively short distance to travel between charging points. Still, moving EVs outside the cities, and making them functional in rural areas, is the next big challenge.

Then comes the ‘The development of a public charging infrastructure network is a key element for promoting EVs’ part. As I studied the thing in Europe, the network of charging stations, as compared to the fleet of EVs in the streets is so dense that we have like 12 vehicles per charging station on average, across the European Union. There is no way a private investor can have it for their money, when financing a private charging station, with that average density. We face a paradox: there are so many publicly funded charging stations, in relation to the car fleet out there, that private investment gets discouraged. I agree that it could be an acceptable transitory state in the market, although it begs the question whether private charging stations are a viable business in Europe. Tesla has based a large part of its business model in the US precisely on the development of their own charging stations. Is it a viable solution in Europe?

Here comes another general remark, contingent to my hypothesis of business models being emergent on the basis of technologies. Automotive technologies in general, thus the technology of a vehicle moving by itself, regardless the method of propulsion (i.e. internal combustion vs electric) is a combination of two component technologies. Said method of propulsion is one of them, and the other one is the technology of distributing the power source across space. Electric vehicles can be viewed as cousins to tramways and electric trains, with just more pronounced a taste for independence: instead of drinking electricity from a permanent wiring, EVs carry their electricity around with them, in batteries.

As we talk about batteries, here comes another paper in my cursory rummaging across other people’s science: Albertsen, L., Richter, J. L., Peck, P., Dalhammar, C., & Plepys, A. (2021). Circular business models for electric vehicle lithium-ion batteries: An analysis of current practices of vehicle manufacturers and policies in the EU. Resources, Conservation and Recycling, 172, 105658., https://doi.org/10.1016/j.resconrec.2021.105658 . Yes, indeed, the advent of electric vehicles creates a problem to solve, namely what to do with all those batteries. I mean two categories of batteries. Those which we need, and hope to acquire easily when the time comes for changing them in our vehicles, in the first place, and those we don’t need anymore and expect someone to take care of them swiftly and elegantly.       

De quoi parler à la prochaine réunion de faculté

Je change un peu de style par rapport à mes dernières mises à jour sur ce blog et je change parce que c’est le début de l’année académique, chez moi. C’est donc le chaos habituel que je commence à aimer, par ailleurs. Cette mise à jour est donc une mise en ordre dans mes idées et mes projets.

Je commence par essayer de résumer la recherche que j’ai faite pendant les vacances. Je pose donc l’hypothèse générale que le changement technologique est un phénomène émergent, qui survient comme intégration des phénomènes partiels dans le système social dont la complexité est essentiellement insaisissable pour nous. L’hypothèse d’émergence impose par ailleurs une distinction entre le terme de changement technologique et celui de progrès technologique. Le progrès technologique est un terme fortement subjectif, basé sur un système des valeurs communes dans une société. Le progrès c’est donc du changement, comme phénomène émergent, plus notre interprétation de ce phénomène.

Cette hypothèse a d’autres conséquences, dont la plus importante et la plus pratique c’est une mise en question radicale du concept de politique technologique ou politique d’innovation, au niveau agrégé d’état, de communauté internationale ou même au niveau des grandes entreprises. Dans les soi-disant « politiques technologiques » leurs créateurs assument que nous pouvons collectivement décider de développer nos technologies dans une direction donnée et que ça va marcher. Pour autant que je sache, c’est problématique déjà au niveau des grandes entreprises. Les politiques d’innovation des années 1990 dans l’industrie automobile, par exemple, étaient dans ce style. C’était comme « tout le monde se concentre sur la création de la technologie AVBG pour les 10 années à venir et pas de discussion ». Dans la plupart des cas, les résultats étaient désastreux. Des milliards des dollars dépensés sur des projets qui échouaient de façon spectaculaire au moment de confrontation au marché. Je pense que la seule technologie fondamentale dans l’automobile qui avait émergé avec succès des années 1990 c’était la propulsion hybride (moteur électrique plus moteur à combustion interne). C’était une technologie à laquelle personne de donnait arbitrairement la priorité dans les stratégies des grandes entreprises du secteur. Le pionnier dans ce domaine, Toyota, approchait le développement de la propulsion hybride de façon très prudente et pragmatique, comme une série heuristique d’expériences contrôlées, très loin des stratégies du type « tout le monde à bord ».  

Après les échecs des politiques centralisées d’innovation des années 1990, les grandes entreprises sont devenues beaucoup plus prudentes dans ce domaine. La meilleure politique semble être celle d’expérimentation abondante avec plusieurs idées nouvelles à la fois, avec une composante de compétition interne. Eh bien, lorsque je regarde les politiques qui se donnent l’étiquette « climatiques », quoi que cela veuille dire au juste, je me dis que ces hommes et femmes politiques (à propos, peut-on dire « les gens politiques » ?) feraient bien de prendre exemple des grandes entreprises. Les politiques qui commencent avec « Nous devons tous… » sont déjà suspectes. Si une telle politique assume, en plus, que la meilleure façon de stimuler l’innovation est d’introduire des nouveaux impôts, je suis contre. Oui, pour être clair : je suis vigoureusement contre le soi-disant « impôt carbone ». Je trouve cette idée dysfonctionnelle sur plusieurs niveaux, mais j’y reviendrai à une autre occasion.

Mon plat scientifique à emporter, après les vacances d’été AD 2021, est donc celui de changement technologique comme phénomène émergent qui intègre un système social complexe en ce qui concerne l’usage des ressources. Je me réfère fortement à la théorie des systèmes complexes en général et plus particulièrement à quatre modèles mathématiques là-dedans : le modèle d’automates cellulaires, celui d’essaim d’oiseaux, celui de fourmilière, et enfin celui des chaînes imparfaites de Markov.   

Avec cette perspective générale dans l’esprit, je me tourne vers un projet de recherche qui est en train de prendre forme parmi moi et mes collègues à l’université. Nous pensons qu’il serait intéressant d’étudier les développements possibles dans le marché européen des véhicules électriques, plus particulièrement en ce qui concerne les modèles d’entreprise. Par « modèle d’entreprise » je veux dire la même chose que le terme anglais « business model », donc la façon d’intégrer et de gérer la chaîne de valeur ajoutée dans le marché en question.

J’explique. Si on prend le marché global des véhicules électriques, on a essentiellement trois modèles d’entreprise : Tesla, les sociétés automobiles classiques et les startups. Tesla est idiosyncratique, c’est pratiquement une industrie en soi. Leur modèle d’entreprise est basé sur une intégration verticale très poussée, aussi bien au niveau des technologies qu’à celui d’organisation. Tesla avait commencé par faire des bagnoles électriques, puis ils ont enchaîné avec des stations de chargement et du photovoltaïque. C’est une chaîne de plus en plus longue des technologies verticalement connectées. D’autre part, le concept de « giga factory », chez Tesla, c’est de l’intégration verticale opérationnelle. L’idée consiste à convaincre les fournisseurs de localiser, dans la mesure du possible, leurs centres de fabrication dans la même usine où Tesla fait ses voitures. Simple et génial, j’ai envie de dire.

Tesla a donc un modèle d’entreprise très fortement intégré à la verticale et – comme j’ai pu le constater en observant leurs finances au fil des années – ça a pris du temps d’apprendre comment gérer cette chaîne de façon à capter proprement la valeur ajoutée. Ce n’est que récemment que tout ce bazar a commencé à être profitable. Là, il y a une question qui me fascine : pourquoi est-ce qu’autant de gens avaient mis autant d’effort dans l’expérimentation tellement coûteuse avec un modèle d’entreprise qui, pendant des années (pendant presque une décennie, en fait), semblait n’avoir aucune perspective réaliste de dégager du profit ?

Oui, je sais, Elon Musk. Le gars est fascinant, je suis d’accord. Seulement une organisation de la taille de Tesla, ça ne se crée pas autour d’une seule personne, même aussi géniale qu’Elon Musk, qui, par ailleurs, tout en étant un génie, n’est pas vraiment charismatique. Les grandes organisations, ça émerge de la complexité du tissu social, en intégrant certaines parties de ce tissu. Il est très dur de créer une grande organisation et il est encore plus dur de la tenir en place à long terme. Il doit y avoir des mécanismes sociaux sous-jacents qui soutiennent et stimulent ce phénomène.      

A côté de Tesla, il y a les producteurs automobiles établis, comme Daimler Chrysler, Toyota, le groupe PSA etc. Aujourd’hui, c’est devenu presque un impératif pour un producteur automobile de faire des véhicules électriques. Seulement ces producteurs-là, ils maintiennent le modèle d’entreprise bien morcelé verticalement, avec du outsourcing poussé et aucune tentative marquée d’adopter le modèle super-intégré de Tesla.

A côté de tout ça, il y a beaucoup des startups dans le marché des voitures électriques et ça, c’est même plus fascinant que Tesla. Pendant des décennies, l’automobile semblait être complétement fermé à ce type de petite entreprise créative, agile et coriace dont en voit plein dans l’informatique, la nanotechnologie ou bien la biotechnologie. Paradoxalement, le moment où Tesla a réussi de stabiliser financièrement sont modèle d’entreprise super intégrée, des startups ont commencé à proliférer. C’est comme si l’émergence d’un organisme géant très spécifique avait enclenché l’émergence des petites bestioles expérimentales de toute sorte.

Je me demande donc quel peut bien être ce mécanisme sous-jacent d’émergence des modèles nouveaux d’entreprise avec l’avènement des véhicules électriques. Voilà mon hypothèse de travail no. 1 à ce sujet : l’émergence rapide de nouveaux modèles d’entreprise manifeste une tendance poussée de la société à expérimenter et ceci, à son tour, témoigne de l’orientation collective sur un certain type de résultat.

Il y a ce principe, formulé, je crois, par Sigmund Freud. Si nous voulons découvrir les motivations réelles et profondes d’une personne qui ne sait pas comment les articuler, regardons les conséquences de ses actions. Ces conséquences disent beaucoup sur les valeurs et les tendances personnelles. La civilisation est une histoire. C’est un peu comme une personnalité. La prolifération des véhicules électriques à deux conséquences majeures. D’une part, nous réduisons notre dépendance du pétrole. Ceci contribue à protéger l’environnement, mais ça permet aussi de remuer un peu l’équilibre géopolitique. En Europe, par exemple, nous n’avons pas de pétrole local et aussi longtemps que nous roulons sur des moteurs à combustion interne, notre système de transport routier est stratégiquement dépendant d’une ressource que nous n’avons pas. A l’échelle globale, l’abandon du combustible en faveur des véhicules électriques, ça réduit la dépendance stratégique vis-à-vis des pays pétroliers et c’est in changement géopolitique majeur.   

La seconde conséquence majeure de la transition vers le véhicule électrique est une accélération spectaculaire dans le développement des technologies de stockage d’énergie. Remarquons, par ailleurs, que chaque voiture est un réservoir mobile d’énergie. Ça concerne toutes les voitures, celles à combustion interne aussi. Le réservoir d’essence est un réservoir mobile d’énergie. Le développement d’automobile en général, donc des moyens de transport qui bougent avec leur propre énergie, équivaut au développement d’un réseau géant de petits réservoirs mobiles d’énergie.

Notre civilisation s’est largement développée, à travers des millénaires, sur la base des technologies de stockage. Le stockage de nourriture semble avoir joué un rôle crucial, mais le stockage d’énergie est important aussi. Toute l’industrie des carburants fossiles est largement l’histoire de découverte comment stocker et transporter une source d’énergie. Les véhicules électriques, ça peut être la génération 2.0 dans ce domaine.

Voilà donc que je peaufine mon hypothèse de travail, comme no. 2 : l’émergence rapide de nouveaux modèles d’entreprise dans l’industrie des véhicules électriques est un phénomène émergent d’expérimentation collective orientée sur le réaménagement des relations géopolitiques basées sur la dépendance du pétrole ainsi que sur le développement des technologies de stockage d’énergie.

Eh bien voilà une jolie hypothèse. De quoi parler à la prochaine réunion de la faculté.

The possible Black Swans

I am re-digesting, like a cow, some of the intellectual food I figured out recently. I return to the specific strand of my research to be found in the unpublished manuscript ‘The Puzzle of Urban Density And Energy Consumption’, and I want to rummage a bit inside one specific issue, namely the meaning which I can attach to the neural activation function in the quantitative method I use.

Just to give a quick sketch of the landscape, I work through a general hypothesis that our human civilization is based on two factories: the factory of food in the countryside, and the factory of new social roles in cities. The latter produce new social roles by creating demographic anomalies, i.e. by packing humans tightly together, in abnormally high density. Being dense together makes us interact more with each other, which, whilst not always pleasant, stimulates our social brains and makes us figure out new interesting s**t, i.e. new social roles.

I made a metric of density in population, which is a coefficient derived from the available data of the World Bank. I took the coefficient of urbanization (World Bank 1[1]), and I multiplied it by the headcount of population (World Bank 4[2]). This is how I got the number of people living in cities. I divided it by the surface of urban land (World Bank 2[3]), and I got the density of population in cities, which I further label as ‘DU’. Further, I gather that the social difference between cities and the countryside, hence the relative impact of cities as breeding ground for new social roles, is determined by the difference in the depth of demographic anomalies created by the urban density of population. Therefore, I took the just-calculated coefficient DU and I divided it by the general density of population, or ‘DG’ (World Bank 5[4]). This is how I ended up the with the coefficient ‘DU/DG’, which, mathematically, denominates the density of urban population in units of general density in population.

I simulate an artificial reality, where we, humans, optimize the coefficient ‘DU/DG’ as our chief collective orientation. We just want to get it right. Enough human density in cities to be creative, and yet enough space for each human being able to practice mindfulness when taking a #2 in the toilet. We optimize ourselves being dense together in cities on the base of 7 input characteristics of ours, namely:   

Population – this is a typical scale variable. The intuition behind it is that size matters, and that’s why in most socio-economic research, when we really mean business in quantitative terms, we add such variables, pertinent to the size of the social entity studied. Urbanization occurring in a small country, like Belgium (with all my due respect for Belgians), is likely to occur differently from urbanization in India or in the U.S. In this specific case, I assume that a big population, like hundreds of millions of people, has to move more resources around to accommodate people in cities, as compared to a population counted in dozens of millions.  
Urban population absolute – same tune, a scale variable, more specifically pertinent to the headcount of urban populations.   
Gross Domestic Product (GDP, constant 2010 US$) – scale variable, once again, but this time it is about the real output of the economy. In my approach, the GDP is not exactly a measure of the wealth produced, but more of an appraisal of total productive activity in the humans living around. This is why I use constant prices. That shaves off the price-and-relative-wealth component, and leaves GDP as a metric pertinent to how much tradable surpluses do humans create in a given place and time.  
Broad money (% of GDP) – this is essentially the opposite to the velocity of money, and it corresponds to another strand in my research. I discovered and I keep studying the fact that in the presence of quick technological change, human societies stuff themselves up with abnormally high amounts of cash (or cash equivalents, for that matter). It holds for entire countries as well as for individual businesses. You can find more on that in my article ‘Technological change as a monetary phenomenon’. I guess that when humans make more new social roles in cities, technologies change faster.            
Energy use (kg of oil equivalent per capita) – this is one of the fundamental variables I frequently work with. I guess I included it in this particular piece of research just in case, in order to be able to connect with my research on the market of energy.  
Agricultural land (km2) – the surface of agricultural land available is a logical correlate of urban population. A given number of people in cities need a given amount of food, which, in turn, can be provided by a given surface of agricultural land.            
Cereal yield (kg per hectare) – logically complementary to the surface of agricultural land. Yield per hectare in France is different from what an average hectare can contribute in Nigeria, and that is likely to be correlated with urbanization.  

You can get the raw data I used UNDER THIS LINK. It covers Australia, Brazil, Canada, China, Colombia, France, Gabon, Germany, Ghana, India, Malaysia, Mexico, Mozambique, Namibia, New Zealand, Nigeria, Norway, Poland, Russian Federation, United Kingdom, and the United States. All that lot observed over the window in time stretching from 1961 all the way to 2015.

I make that data into a neural network, which means that I make h(tj) = x1(tj)*R* E[xi(tj-1)] + x2(tj)*R* E[x2(tj-1)] + … + xn(tj)*R* E[xn(tj-1)], as explained in my update titled ‘Representative for collective intelligence’, with x1, x2,…, x7 input variables described above, grouped in 21 social entities (countries), and spread over 2015 – 1961= 54 years. After the curation of data for empty cells, I have m = 896 experimental rounds in the (alleged) collective intelligence, whose presence I guess behind the numbers. I made that lot learn how to squeeze the partly randomized input, controlled for internal coherence, into the mould of the desired output of the coefficient xo = DU/DG. I ran the procedure of learning with 4 different methods of estimating the error of optimization. Firstly, I computed that error the way we do it in basic statistics, namely e1 = xo – h(tj). The mixed-up input is simply subtracted from expected output. In the background, I assume that the locally output xo is an expected value in statistical terms, i.e. it is the mean value of some hypothetical Gaussian distribution, local and specific to that concrete observation.  With that approach to error, there is no neural activation as such. It is an autistic neural network, which does not discriminate input as for its strength. It just reacts.

As I want my collective intelligence to be smarter than your average leech, I make three more estimations of errors, with the input h(tj) passing through a neural activation function. I start with the ReLU rectifier, AKA max[0, h(tj)], and, correspondingly, with e2 = xo – ReLU[h(tj)]. Then I warm up, and I use neural activation via hyperbolic tangent tanh[h] = (e2h – 1) / (e2h + 1), and I compute e3 = xo – tanh[h(tj)]. The hyperbolic tangent is a transcendental number generated by periodical observation of a hyperbola, and that means that hyperbolic tangent has no functional correlation to its input. Neural activation with hyperbolic tangent creates a projection of input into a separate, non-correlated space of states, like cultural transformation of cognitive input into symbols, ideologies and whatnot. Fourthly and finally, I use the sigmoid function (AKA logistic function) sig(h) = 1 / (1 + e-h) which can be read as smoothed likelihood that something happens, i.e. that input h(tj) has full power. The corresponding error is e4 = xo – sig[h(tj)].

From there, I go my normal way. I create 4 artificial realities out of my source dataset. Each of these realities assumes that humans strive to nail down the right social difference between cities and the countryside, as measured with the DU/DG coefficient. Each of these realities is generated with a different way of appraising how far we are from the desired DU/DG, this with four different ways of computing the error: e1, e2, e3, and e4.  The expected states of both the source empirical dataset, and sets representative for those 4 alternative realities, are given by their respective vectors of mean values, i.e. mean DU/DG, mean population etc. Those vectors of means are provided in Table 1 below. The source dataset shows a mean DU/DG = 41,14, which means that cities in this dataset display, on average across countries, 41 times greater a density of population than the general density of population. Mean empirical population is 149,6 million people, with mean urban population being 67,34 million people. Yes, we have China and India in the lot, and they really pump those scale numbers up.

Table 1 – Vectors of mean values in the source empirical set and in the perceptrons simulating alternative realities, optimizing the coefficient DU/DG

  Perceptrons pegged on DU/DG
VariableSource dataseterror = xo – herror = xo – ReLu(h)error = xo – tanh(h)error = xo – sigmoid(h)
DU/DG41,1436,384,9161,56324,29
Population149 625 587,07125 596 355,00(33 435 417,00)252 800 741,001 580 356 431,00
GDP (constant 2010 US$)1 320 025 624 972,081 025 700 000 000,00(922 220 000 000,00)2 583 780 000 000,0018 844 500 000 000,00
Broad money (% of GDP)57,5054,1331,8071,99258,38
Urban population absolute67 349 480,4254 311 459,20(31 977 590,00)123 331 287,00843 649 729,00
Energy use (kg of oil equivalent per capita)2 918,692 769,761 784,113 558,1611 786,15
Agricultural land km21 227 301,861 135 064,25524 611,511 623 345,716 719 245,69
Cereal yield (kg per hectare)3 153,313 010,542 065,683 766,3111 653,77

One of the first things which jumps to the eye in Table 1 – at least to my eye – is that one of the alternative realities, namely that based on the ReLU activation function, is an impossible reality. There are negative populations in this one, and this is not a livable state of things. I don’t know about you, my readers, but I would feel horrible knowing that I am a minus. People can’t be negative by default. By the way, in this specific dataset, the ReLU looks like almost identical to the basic difference e1 = xo – h(tj). Yet, whilst making an alternative reality with no neural transformation of quasi-randomized input, thus making it with e1 = xo – h(tj), creates something pretty close to the original empirics.

Another alternative reality which looks sort of sketchy is the one based on neural activation via the sigmoid function. This one transforms the initial mean expected values into their several-times-multiples. Looks like the sigmoid is equivalent, in this case, to powering the collective intelligence of societies studied with substantial doses of interesting chemicals. That particular reality is sort of a wild dream, like what it would be like to produce almost 4 times more cereal yield per hectare, having more than 4 times more agricultural land, and over 10 times more people in cities. The surface of available land being finite as it is, 4 times more agricultural land and 10 times more people in cities would mean cities tiny in terms of land surface, probably all in height, both under and above ground, with those cities being 324 times denser with humans than the general landscape. Sounds familiar, a bit like sci fi movies.  

Four different ways of pitching input variables against the expected output of optimal DU/DG coefficient produce four very different alternative realities. Out of these four, one is impossible, one is hilarious, and we stay with two acceptable ones, namely that based on no proper neural activation at all, and the other one using the hyperbolic tangent for assessing the salience of things. Interestingly, errors estimated as e1 = xo – h(tj) are essentially correlated with the input variables, whilst those assessed as e3 = xo – tanh[h(tj)] are essentially uncorrelated. It means that in the former case one can more or less predict how satisfied the neural network will be with the local input, and that prediction can be reliably made a priori. In the latter case, with the hyperbolic tangent, there is no way to know in advance. In this case, neural activation is a true transformation of reality.

Table 2 below provides the formal calculation of standardized Euclidean distance between all the 4 alternative realities and the real world of tears we live in. By standardized Euclidean I mean: E = {[(meanX – meanS)2]0,5} / meanX. The ‘/ meanX’ part means that divide the basic Euclidean distance by the mean value which serves me as benchmark, i.e. the empirical one. That facilitates subsequent averaging of those variable-specific Euclidean distances into one metric of mathematical similarity between entire vectors of values.   

Table 2 – Vectors of standardized Euclidean distances between the source set X and the perceptrons simulating alternative realities, optimizing the coefficient DU/DG

error = xo – herror = xo – ReLu(h)error = xo – tanh(h)error = xo – sigmoid(h)
DU/DG]0,1155978740,880654960,4963466216,882843342
Population0,1605957411,2234605570,689555559,562073386
GDP (constant 2010 US$)0,222969631,6986379530,95737109313,27585923
Broad money (% of GDP)0,0586723240,4469811720,2519234033,493424228
Urban population absolute0,1935875551,4748008420,83121363711,52644748
Energy use (kg of oil equivalent per capita)0,0510261810,3887308450,2190928923,038163202
Agricultural land km20,0751547870,5725489140,3226947364,474810971
Cereal yield (kg per hectare)0,0452750,3449168340,1943988412,695730596
Average0,1153598860,878841510,4953245966,868669054

Interestingly, whilst alternative reality based on neural activation through the ReLU function creates impossibly negative populations, its overall Euclidean similarity to the source dataset is not as big as it could seem. The impossible alternative is specific just to some variables.

Now, what does it all have to do with anything? How is that estimation of error representative for collective intelligence in human societies? Good question. I am doing my best to give some kind of answer to it. Quantitative socio-economic variables represent valuable collective outcomes, and thus are informative about alternative orientations in collective action. The process of learning how to nail those valuable outcomes down consumes said orientation in action. Assuming that figuring out the right proportion of demographic anomaly in cities, as measured with DU/DG, is a valuable collective outcome, four collective orientations thereon have been simulated. One goes a bit haywire (negative populations), and yet it shows a possible state of society which attempts to sort of smooth out the social difference between cities and the countryside, with DU/DG being ten times lower than reality. Another one goes fantasque, with huge numbers and a slightly sci-fi-ish shade. The remaining two look like realistic alternatives, one essentially predictable with e1 = xo – h(tj), and another one essentially unpredictable, with e3 = xo – tanh[h(tj)].

I want my method to serve as a predictive tool for sketching the possible scenarios of technological change, in particular as regards the emergence and absorption of radically new technologies. On the other hand, I want my method to be of help when it comes to identifying the possible Black Swans, i.e. the rather unlikely and yet profoundly disturbing states of nature. As I look at those 4 alternative realities my perceptron has just made up (it’s not me, its him! Well, it…), I can see two Black Swans. The one made with the sigmoid activation function shows a possible direction which, for example, African countries could follow, should they experience rapid demographic growth. This particular Black Swan is a hypothetical situation, when population grows like hell. This automatically puts enormous pressure on agriculture. More people need more food. More agriculture requires more space and there is fewer left for cities. Still, more people around need more social roles, and we need to ramp up the production thereof in very densely packed urban populations, where the sheer density of human interaction makes our social brains just race for novelty. This particular Black Swan could be actually a historical reconstruction. It could be representative for the type of social change which we know as civilisational revival: passage from the nomad life to the sedentary one, like a dozen of thousands of years ago, reconstruction of social tissue after the fall of the Western Roman Empire in Europe, that sort of stuff.

Another Black Swan is made with the ReLU activation function and simulates a society, where cities lose their function as factories of new social roles. It is the society in downsizing. It is actually a historical reconstruction, too. This is what must have happened when the Western Roman Empire was collapsing, and before the European civilization bounced back.

Well, well, well, that s**t makes sense… Amazing.


[1] World Bank 1: https://data.worldbank.org/indicator/SP.URB.TOTL.IN.ZS

[2] World Bank 4: https://data.worldbank.org/indicator/SP.POP.TOTL

[3] World Bank 2: https://data.worldbank.org/indicator/AG.LND.TOTL.UR.K2

[4] World Bank 5: https://data.worldbank.org/indicator/EN.POP.DNST

États transcendants par rapport à cette réalité

Je continue de réfléchir sur les fondements théoriques de ma méthode de simulation d’intelligence collective dans les sociétés humaines. Je sens le besoin de résumer les points les plus importants, d’une part, ainsi que d’explorer le lien théorique entre la structure logique d’un réseau neuronal et la façon dont l’intelligence collective se joue dans des sociétés en chair et en os.

L’essence de ma méthode de recherche consiste à utiliser les réseaux neuronaux artificiels pour simuler le fonctionnement d’intelligence collective des sociétés humaines. Je me concentre le plus sur le phénomène de changement technologique et dans ce cadre, je me concentre même plus sur le marché de l’énergie. Je veux utiliser ma méthode à deux fins pratiques : simuler l’absorption d’une nouvelle technologie dans l’environnement socio-économique et l’émergence des phénomènes soudains et transformatifs du type Cygne Noir.

J’assume que les variables socio-économiques que je peux utiliser de façon quantitative sont des représentations imparfaites – car simplifiées – des phénomènes sociaux autrement plus complexes. Ces variables sont des phénomènes sociaux en elles-mêmes, car elles représentent un enchevêtrement cognitif entre l’action collective et les résultats obtenus de celle-ci. Nous mesurons collectivement les trucs qui sont importants parce qu’ils représentent des récompenses existentielles pour notre société. Si je vois donc une base de données comme celle de la Banque Mondiale ou bien celle d’EUROSTAT, je vois une multitude des variables quantitatives qui, à leur tour, représentent autant d’orientations d’action collective des sociétés humaines.

Ma méthode consiste à déconstruire partiellement l’enchevêtrement de ces variables, à travers une simulation mathématique où je construis autant de réalités alternatives artificielles qu’il y a de variables à prendre en compte. Ensuite, j’étudie la similarité mathématique entre ces réalités alternatives d’une part et la réalité empirique telle que représentée par les données empiriques. La construction de ces réalités artificielles suit la logique essentielle d’un réseau neuronal artificiel qui optimise une variable de parmi toutes celles étudiées – comme variable de sortie – tout en utilisant les autres variables comme matériel d’entrée à optimiser. Chacune de ces réalités artificielles est donc une représentation mathématique d’une orientation spécifique de la (des) société(s) étudiées : l’orientation sur le type donné de récompense.

Ma méthode assume donc que la société telle quelle est observable de façon empirique est une superposition d’orientations différentes. Plus de variables j’utilise dans ma recherche, plus d’orientations alternatives je peux découvrir ainsi. D’un autre point de vue, plus diverse est le panier des variables, donc plus je mélange les données en provenance des sources différentes, y compris mes propres coefficients ou me propres observations, plus d’orientations différentes je peux déconstruire à partir de la réalité empirique.

Ça, c’est la théorie de base. Pour l’appliquer en pratique, donc pour étudier l’émergence ou bien l’absorption possible des nouvelles technologies dans l’environnement socio-économique, il me faut introduire dans mon observation empirique des variables pertinentes à ces technologies. Pertinence peut être directe aussi bien qu’indirecte. Si j’inclue dans ma soupe primaire des nombres une variable telle que le pourcentage d’électricité en provenance des sources renouvelables, je décris la probabilité qu’une kilowatt heure prise au hasard, comme ça, dans la rue, provienne de ces technologies de génération. Si je prends une variable telle que l’efficience énergétique de l’économie nationale, donc la quantité de produit par unité d’énergie consommée, c’est plus indirect : je mesure l’incidence des technologies relativement plus efficientes en énergie par comparaison à celles relativement moins efficientes.

En pratique, l’observation directe de l’émergence et l’absorption des technologies a des limites qui se sentent très vite. Je peux mesurer, par exemple, le pourcentage de génération éolienne dans le panier d’énergie consommée. En revanche, lorsqu’il s’agit de mesurer la prévalence relative des solutions spécifiques dans les turbines, la transmission d’énergie, l’équilibrage du réseau etc., alors là, il n’y a pas vraiment foule comme données empiriques. Alors, je fais ce que les scientifiques font tout le temps en l’absence des données empiriques pertinentes : je triche. J’introduis dans mon ensemble des données des probabilités théoriques. J’ai donc une base de données bien catholique, avec des trucs comme PIB ou inflation dedans et j’ajoute un pourcentage théorique qui correspond à la probabilité qu’une technologie spécifique soit adoptée par un utilisateur pris au hasard. Enfin, j’hésite entre « adoptée » et « appliquée ». Lorsque j’adopte, je prends responsabilité. Lorsque j’applique, ‘y a moins de poids éthique.

Cette probabilité théorique, je peux la piloter à mon gré. Elle peut être complétement discrète – donc je lui donne des valeurs déterminées à priori – ou bien je peux la faire danser à un rythme plus ou moins aléatoire. Dans ce dernier cas, je simule une situation ou la société comme structure collectivement intelligente n’est jamais sûre de quel trou cette nouvelle technologie va surgir. Je peux simuler des réalités alternatives orientées sur des variables bien respectables, comme sur le nombre de demandes de brevet par 1 million d’habitants, et alors ces probabilités théoriques attachées aux technologies nouvelles sont un facteur de distorsion comme variable d’entrée. Je peux aussi construire des réalités alternatives qui sont bel et bien orientées sur ces variables probabilistes théoriques, l’histoire de voir la similarité mathématique entre elles et la réalité empirique telle que je l’ai devant mes yeux dans ma base des données.

Dans mon expérience jusqu’alors, les réalités alternatives orientées sur les variables « technologiques », empiriques ou théoriques, tombent mathématiquement plus loin de la réalité empirique que celles orientées sur des variables typiquement économiques, comme le nombre d’heures travaillées par personne par an. Ça arrive tout le temps, en fait, avec des configurations de données différentes. C’est comme si le changement technologique – soit l’orientation collective sur des variables « technologiques » – était une orientation instrumentale aux celles axées sur des effets purement sociétaux, comme le marché de travail. 

Mes réalités alternatives, je les construis à travers un processus d’apprentissage numérique, donc avec un réseau neuronal. Voilà donc que vient le moment vraiment délicat dans mon autoréflexion, celui de démontrer le lien entre la structure du réseau neuronal – et de même la structure d’apprentissage numérique – et le phénomène d’adaptation intelligente dans les sociétés humaines réelles. Je prends mes variables d’entrée et je les transforme en un seul nombre qui représente le signal d’apprentissage pour la fonction d’activation neuronale. Cette transformation par agrégation a deux composantes. Le truc général que je prends de la structure typique d’un perceptron consiste à multiplier chaque variable d’entrée par un facteur aléatoire compris entre 0 et 1, donc par le bon vieux RANDOM. Le truc spécifique que j’ai développé par moi-même est d’ajouter un facteur non-aléatoire de distance Euclidienne moyenne entre la variable en question et toutes les autres variables de l’ensemble, dans le pas expérimental précèdent. Évidemment, ce facteur non-aléatoire est absent du premier pas expérimental, puisqu’il n’a pas de pas précèdent. Selon mon intuition, cette distance Euclidienne représente le fait d’apprendre tout en prenant en compte la cohérence interne de la réalité représentée par des nombres. Selon mes observations empiriques, un réseau neuronal équipé de cette fonction de cohérence apprend de façon différente, par rapport au réseau qui s’en fiche. Avec facteur de cohérence, la courbe de l’erreur résiduelle est plus saccadée mais en fin de compte elle converge plus vite vers erreur minimale.

Je fais donc ce signal d’apprentissage « h », à partir de « n » variables d’entrée, comme h = R*E(tj-1)*x1(tj) + R*E(tj-1)*x2(tj) + … + R*E(tj-1)*xn(tj), où R est le facteur purement aléatoire et E est le facteur non-aléatoire de cohérence. Une fois le « h » calculé, je le mets dans ma fonction d’activation neuronale et là, il faut que je réfléchisse. Les fonctions d’activation que j’utilise le plus c’est soit le sigmoïde soit la tangente hyperbolique, avec un penchant pour la seconde. Je commence par déconstruire la tangente hyperbolique. Sa formule générale est tanh = (e2h – 1) / (e2h + 1), où « h » est bien le « h » comme spécifié plus haut, pendant que « e » est la constante d’Euler.              

Je commence par étudier les propriétés mathématiques de la tangente hyperbolique pour comprendre ce qu’elle fait à mes variables d’entrée. Les fonctions hyperboliques sont analogiques aux fonctions trigonométriques de base, seulement elles sont décrites sur une hyperbole et non pas sur un cercle. Une hyperbole est discontinue. Chaque portion d’une hyperbole représente un gradient différent. La tangente hyperbolique est donc une fonction périodique qui superpose plusieurs rythmes d’oscillation. La valeur de tangente hyperbolique n’est donc jamais en corrélation avec la variable d’entrée. La tangente hyperbolique est plus autonome par rapport à ces variables d’entrée que la tangente régulière (circulaire). Cette autonomie est exprimée par l’inclusion de la tangente hyperbolique dans la catégorie des nombres transcendants.   

La tangente hyperbolique transforme donc mes variables d’entrée en quelque chose qui n’a pas de corrélation fonctionnelle avec elles. C’est comme si les variables d’entrée créaient un plan différent de réalité. Pas si bête que ça, en fait. La perception (des variables d’entrée) forme un plan cognitif qui est différent de la réalité elle-même. Lorsque la société s’adapte à un signal d’apprentissage complexe, l’adaptation prend une forme spéciale. Le premier exemple qui me vient à l’esprit est notre adaptation collective au changement climatique. Le climat change et nous transformons ce changement en des symboles complexes : « il faut défendre la Terre », « il faut inventer quelque chose de nouveau », « il faut abandonner ces carburants fossiles ignobles » etc. Ce n’est qu’après s’être pompé culturellement avec ces symboles qu’on fait quoi que ce soit d’utile.

La tangente hyperbolique a une autre propriété intéressante. Dans tanh = (e2h – 1) / (e2h + 1), il y a le « h » qui change, accompagné de la constante : (e2 – 1) / (e2 + 1) = 6,389056099 / 8,389056099 = 0,761594156. J’ai remarqué qu’avec le calcul h = R*E(tj-1)*x1(tj) + R*E(tj-1)*x2(tj) + … + R*E(tj-1)*xn(tj), plus j’ai de variables différentes dans mon ensemble, donc dans ma réalité empirique de base, plus grande est l’amplitude d’oscillation dans « ». Plus complexe est donc ma représentation de réalité, plus d’états différents d’activation neuronale, transcendants par rapport à cette réalité, sont créés avec la tangente hyperbolique.  

Representative for collective intelligence

I am generalizing from the article which I am currently revising, and I am taking a broader view on many specific strands of research I am running, mostly in order to move forward with my hypothesis of collective intelligence in human social structures. I want to recapitulate on my method – once more – in order to extract and understand its meaning. 

I have recently realized a few things about my research. Firstly, I am using the logical structure of an artificial neural network as a simulator more than an optimizer, as digital imagination rather than functional, goal-oriented intelligence, and that seems to be the way of using AI which hardly anyone else in social sciences seems to be doing. The big question which I am (re)asking myself is to what extent are my simulations representative for the collective intelligence of human societies.

I start gently, with variables, hence with my phenomenology. I mostly use the commonly accessible and published variables, such as those published by the World Bank, the International Monetary Fund, STATISTA etc. Sometimes, I make my own coefficients out of those commonly accepted metrics, e.g. the coefficient of resident patent applications per 1 million people, the proportion between the density of population in cities and the general one, or the coefficient of fixed capital assets per 1 patent application.

My take on any variables in social sciences is very strongly phenomenological, or even hermeneutic. I follow the line of logic which you can find, for example, in “Phenomenology of Perception” by Maurice Merleau-Ponty (reprint, revised, Routledge, 2013, ISBN 1135718601, 9781135718602). I assume that any of the metrics we have in social sciences is an entanglement of our collective cognition with the actual s**t going on. As the actual s**t going on encompasses our way of forming our collective cognition, any variable used in social sciences is very much like a person’s attempt to look at themselves from a distance. Yes! This is what we use mirrors for! Variables used in social sciences are mirrors. Still, they are mirrors made largely by trial and error, with a little bit of a shaky hand, and each of them shows actual social reality in slightly disformed a manner.

Empirical research in social sciences consists, very largely, in a group of people trying to guess something about themselves on the basis of repeated looks into a set of imperfect mirrors. Those mirrors are imperfect, and yet they serve some purpose. I pass to my second big phenomenological take on social reality, namely that our entangled observations thereof are far from being haphazard. The furtive looks we catch of the phenomenal soup, out there, are purposeful. We pay attention to things which pay off. We define specific variables in social sciences because we know by experience that paying attention to those aspects of social reality brings concrete rewards, whilst not paying attention thereto can hurt, like bad.

Let’s take inflation. Way back in the day, like 300 years ago, no one really used the term of inflation because the monetary system consisted in a multitude of currencies, mixing private and public deeds of various kinds. Entire provinces in European countries could rely on bills of exchange issued by influential merchants and bankers, just to switch to other type of bills 5 years later. Fluctuations in the rates of exchange in those multiple currencies very largely cancelled each other. Each business of respectable size was like a local equivalent of the today’s Forex exchange. Inflation was a metric which did not even make sense at the time, as any professional of finance would intuitively ask back: ‘Inflation? Like… inflation in which exactly among those 27 currencies I use everyday?’.

Standardized monetary systems, which we call ‘FIAT money’ today, steadied themselves only in the 19th century. Multiple currencies progressively fused into one, homogenized monetary mass, and mass conveys energy. Inflation is loss of monetary energy, like entropy of the monetary mass. People started paying attention to inflation when it started to matter.

We make our own social reality, which is fundamentally unobservable to us, and it makes sense because it is hard to have an objective, external look at a box when we are staying inside the box. Living in that box, we have learnt, over time, how to pay attention to the temporarily important properties of the box. We have learnt how to use maths for fine tuning in that selective perception of ours. We learnt, for example, to replace the basic distinction between people doing business and people not doing business at all with finer shades of how much business are people doing exactly in a unit of time-space.   

Therefore, a set of empirical variables, e.g. from the World Bank, is a collection of imperfect observations, which represent valuable outcomes social outcomes. A set of N socio-economic variables represents N collectively valuable social outcomes, which, in turn, correspond to N collective pursuits – it is a set of collective orientations. Now, my readers have the full right to protest: ‘Man, just chill. You are getting carried away by your own ideas. Quantitative variables about society and economy are numbers, right? They are the metrics of something. Measurement is objective and dispassionate. How can you say that objectively gauged metrics are collective orientations?’. Yes, these are all valid objections, and I made up that little imaginary voice of my readers on the basis of reviews that I had for some of my papers.

Once again, then. We measure the things we care about, and we go to great lengths in creating accurate scales and methods of measurement for the things we very much care about. Collective coordination is costly and hard to achieve. If we devote decades of collective work to nail down the right way of measuring, e.g. the professional activity of people, it probably matters. If it matters, we are collectively after optimizing it. A set of quantitative, socio-economic variables represents a set of collectively pursued orientations.

In the branch of philosophy called ethics, there is a stream of thought labelled ‘contextual ethics’, whose proponents claim that whatever normatively defined values we say we stick to, the real values we stick to are to be deconstructed from our behaviour. Things we are recurrently and systematically after are our contextual ethical values. Yes, the socio-economic variables we can get from your average statistical office are informative about the contextual values of our society.

When I deal with a variable like the % of electricity in the total consumption of energy, I deal with a superimposition of two cognitive perspectives. I observe something that happens in the social reality, and that phenomenon takes the form of a spatially differentiated, complex state of things, which changes over time, i.e. one complex state transitions into another complex state etc. On the other hand, I observe a collective pursuit to optimize that % of electricity in the total consumption of energy.

The process of optimizing a socio-economic metric makes me think once again about the measurement of social phenomena. We observe and measure things which are important to us because they give us some sort of payoff. We can have collective payoffs in three basic ways. We can max out, for one. Case: Gross Domestic Product, access to sanitation. We can keep something as low as possible, for two. Case: murder, tuberculosis. Finally, we can maintain some kind of healthy dynamic balance. Case: inflation, use of smartphones. Now, let’s notice that we don’t really do fine calculations about murder or tuberculosis. Someone is healthy or sick, still alive or already murdered. Transitional states are not really of much of a collective interest. As it comes to outcomes which pay off by the absence of something, we tend to count them digitally, like ‘is there or isn’t there’. On the other hand, those other outcomes, which we max out on or keep in equilibrium, well, that’s another story. We invent and perfect subtle scales of measurement for those phenomena. That makes me think about a seminal paper titled ‘Selection by consequences’, by the founding father of behaviourism, Burrhus Frederic Skinner. Skinner introduced the distinction between positive and negative reinforcements. He claimed that negative reinforcements are generally stronger in shaping human behaviour, whilst being clumsier as well. We just run away from a tiger, we don’t really try to calibrate the right distance and the right speed of evasion. On the other hand, we tend to calibrate quite finely our reactions to positive reinforcements. We dose our food, we measure exactly the buildings we make, we learn by small successes etc.  

If a set of quantitative socio-economic variables is informative about a set of collective orientations (collectively pursued outcomes), one of the ways we can study that set consists in establishing the hierarchy of orientations. Are some of those collective values more important than others? What does it even mean ‘more important’ in this context, and how can it be assessed? We can imagine that each among the many collective orientations is an individual pursuing their idiosyncratic path of payoffs from interactions with the external world. By the way, this metaphor is closer to reality than it could appear at the first sight. Each human is, in fact, a distinct orientation. Each of us is action. This perspective has been very sharply articulated by Martin Heidegger, in his “Being and Time”.    

Hence, each collective orientation can be equated to an individual force, pulling the society in a specific direction. In the presence of many socio-economic variables, I assume the actual social reality is a superimposition of those forces. They can diverge or concur, as they please, I do not make any assumptions about that. Which of those forces pulls the most powerfully?

Here comes my mathematical method, in the form of an artificial neural network. I proceed step by step. What does it mean that we collectively optimize a metric? Mostly by making it coherent with our other orientations. Human social structures are based on coordination, and coordination happens both between social entities (individuals, cities, states, political parties etc.), and between different collective pursuits. Optimizing a metric representative for a collectively valuable outcome means coordinating with other collectively valuable outcomes. In that perspective, a phenomenon represented (imperfectly) with a socio-economic metric is optimized when it remains in some kind of correlation with other phenomena, represented with other metrics. The way I define correlation in that statement is a broad one: correlation is any concurrence of events displaying a repetitive, functional pattern.

Thus, when I study the force of a given variable as a collective orientation in a society, I take this variable as the hypothetical output in the process (of collective orientation, and I simulate that process as the output variable sort of dragging the remaining variables behind it, by the force of functional coherence. With a given set of empirical variables, I make as many mutations thereof as I have variables. Each mutated set represents a process, where one variable as output, and the remaining ones as input. The process consists of as many experiments as there are observational rows in my database. Most socio-economic variables come in rows of the type “country A in year X”.  

Here, I do a little bit of mathematical cavalry with two different models of swarm intelligence: particle swarm and ants’ colony (see: Gupta & Srivastava 2020[1]). The model of particle swarm comes from the observation of birds, which keeps me in a state of awe about human symbolic creativity, and it models the way that flocks of birds stay collectively coherent when they fly around in the search of food. Each socio-economic variable is a collective orientation, and in practical terms it corresponds to a form of social behaviour. Each such form of social behaviour is a bird, which observes and controls its distance from other birds, i.e. from other forms of social behaviour. Societies experiment with different ways of maintaining internal coherence between different orientations. Each distinct collective orientation observes and controls its distance from other collective orientations. From the perspective of an ants’ colony, each form of social behaviour is a pheromonal trace which other forms of social behaviour can follow and reinforce, or not give a s**t about it, to their pleasure and leisure. Societies experiment with different strengths attributed to particular forms of social behaviour, which mimics an ants’ colony experimenting with different pheromonal intensities attached to different paths toward food.

Please, notice that both models – particle swarm and ants’ colony – mention food. Food is the outcome to achieve. Output variables in mutated datasets – which I create out of the empirical one – are the food to acquire. Input variables are the moves and strategies which birds (particles) or ants can perform in order to get food. Experimentation the ants’ way involves weighing each local input (i.e. the input of each variable in each experimental round) with a random weight R, 0 < R < 1. When experimenting the birds’ way, I drop into my model the average Euclidean distance E from the local input to all the other local inputs.   

I want to present it all rolled nicely into an equation, and, as noblesse oblige, I introduce symbols. The local input of an input variable xi in experimental round tj is represented with xi(tj), whilst the local value of the output variable xo is written as xo(tj). The compound experimental input which the society makes, both the ants’ way and the birds’ way, is written as h(tj), and it spells h(tj) = x1(tj)*R* E[xi(tj-1)] + x2(tj)*R* E[x2(tj-1)] + … + xn(tj)*R* E[xn(tj-1)].    

Up to that point, this is not really a neural network. It mixes things up, but it does not really adapt. I mean… maybe there is a little intelligence? After all, when my variables act like a flock of birds, they observe each other’s position in the previous experimental round, through the E[xi(tj-1)] Euclidean thing. However, I still have no connection, at this point, between the compound experimental input h(tj) and the pursued output xo(tj). I need a connection which would work like an observer, something like a cognitive meta-structure.

Here comes the very basic science of artificial neural networks. There is a function called hyperbolic tangent, which spells tanh = (e2x – 1)/(e2x + 1) where x can be whatever you want. This function happens to be one of those used in artificial neural networks, as neural activation, i.e. as a way to mediate between a compound input and an expected output. When I have that compound experimental input h(tj) = x1(tj)*R* E[xi(tj-1)] + x2(tj)*R* E[x2(tj-1)] + … + xn(tj)*R* E[xn(tj-1)], I can put it in the place of x in the hyperbolic tangent, and I bet tanh = (e2h  – 1)/(e2h  + 1). In a neural network, error in optimization can be calculated, generally, as e = xo(tj) – tanh[h(tj)]. That error can be fed forward into the next experimental round, and then we are talking, ‘cause the compound experimental input morphs into:

>>  input h(tj) = x1(tj)*R* E[xi(tj-1)]*e(tj-1) + x2(tj)*R* E[x2(tj-1)] *e(tj-1) + … + xn(tj)*R* E[xn(tj-1)] *e(tj-1)   

… and that means that each compound experimental input takes into account both the coherence of the input in question (E), and the results of previous attempts to optimize.

Here, I am a bit stuck. I need to explain, how exactly the fact of computing the error of optimization e = xo(tj) – tanh[h(tj)] is representative for collective intelligence.


[1] Gupta, A., & Srivastava, S. (2020). Comparative analysis of ant colony and particle swarm optimization algorithms for distance optimization. Procedia Computer Science, 173, 245-253. https://doi.org/10.1016/j.procs.2020.06.029

Cœur de réflexion

Je me concentre sur un aspect particulier de la révision finale de mon article pour « International Journal of Energy Sector Management » – sous le titre « Climbing the right hill – an evolutionary approach to the European market of electricity » – notamment sur le rapport entre ma méthodologie et celle de MuSIASEM, soit « Multi-scale Integrated Analysis of Societal and Ecosystem Metabolism ».

Je me réfère plus particulièrement à trois articles que je juge représentatifs pour ce créneau de recherche :

>> Al-Tamimi and Al-Ghamdi (2020), ‘Multiscale integrated analysis of societal and ecosystem metabolism of Qatar’ Energy Reports, 6, 521-527, https://doi.org/10.1016/j.egyr.2019.09.019 

>> Andreoni, V. (2020). The energy metabolism of countries: Energy efficiency and use in the period that followed the global financial crisis. Energy Policy, 139, 111304. https://doi.org/10.1016/j.enpol.2020.111304

>> Velasco-Fernández, R., Pérez-Sánchez, L., Chen, L., & Giampietro, M. (2020), A becoming China and the assisted maturity of the EU: Assessing the factors determining their energy metabolic patterns. Energy Strategy Reviews, 32, 100562.  https://doi.org/10.1016/j.esr.2020.100562

De parmi ces trois, je choisis subjectivement le travail de prof. Andreoni (2020[1]) comme le plus solide en termes de théorie. L’idée de base de MuSIASEM est d’étudier l’efficience énergétique des sociétés humaines comme un métabolisme, donc comme un système complexe qui se soutient et se développe à travers la transformation d’énergie et de ressources matérielles.  

J’essaie de comprendre et présenter la logique de base de MuSIASEM en explorant les avantages que professeur Andreoni attribue à cette méthode. Je me permets de traduire fidèlement un passage de l’article (2020[2]) : « […] l’approche MuSIASEM présente des avantages par rapport aux autres méthodologies utilisées pour étudier le métabolisme des sociétés, telles que ‘emergy’, empreinte écologique et l’analyse entrée-sortie […]. En fournissant des descriptions intégrées à travers des niveaux d’analyse différents, l’approche MuSIASEM ne réduit pas l’information en un index quantitatif unique et analyse l’énergie utilisée par rapport aux structures socio-économiques concrètes. Qui plus est, l’inclusion de dimensions multiples (telles que le PIB, temps humain et consommation d’énergie) en combinaison avec des échelles différentes d’analyse (telles que le niveau sectoriel et le niveau national) rend possible de fournir l’information pertinente aux processus à l’intérieur du système ainsi que d’analyser la façon dont les variables externes (telles que la crise économique et la pénurie des ressources) peuvent affecter l’allocation et l’utilisation des ressources ».      

Je me dis que si quelqu’un se vante d’avoir des avantages par rapport à quoi que ce soit d’autre, ces avantages reflètent les aspects les plus importants des phénomènes en question, selon le même quelqu’un. Ainsi donc, prof. Andreoni assume que MuSIASEM permet d’étudier quelque chose d’important – l’efficience énergétique des sociétés comme un métabolisme – toute en ayant l’avantage de déconstruction des variables agrégées en des variables composantes ainsi que celui de multi-dimensionnalité d’analyse. 

Les variables étudiées semblent donc être la base de la méthode. Parlons donc des variables. Professeur Andreoni présente dans son article trois variables essentielles :

>> L’activité humaine totale, calculée comme le produit de : [la population] x [24 heures] x [365 jours]

>> Transformation totale d’énergie, calculée comme la somme de : [consommation finale d’énergie] + [Consommation interne d’énergie dans le secteur d’énergie] + [Pertes d’énergie dans sa transformation]

>> Produit Intérieur Brut  

Ces trois variables fondamentales sont étudiées à trois niveaux différents d’agrégation. Le niveau de base est celui d’économie(s) nationale(s), à partir d’où on décompose, tout d’abord, entre les secteurs macroéconomiques de : ménages par opposition à celui d’activité payée (entreprises plus secteur public). Ensuite, ces secteurs macroéconomiques sont tous les deux désagrégés en l’agriculture, l’industrie et les services.

A chaque niveau d’agrégation, les trois variables fondamentales sont mises en relation entre elles pour calculer deux coefficients : intensité énergétique et métabolisme d’énergie. Celui d’intensité énergétique est calculé comme quantité d’énergie utilisée pour produire un euro de Produit Intérieur Brut et c’est donc l’inverse de l’efficience énergétique (cette dernière est calculée comme quantité de PIB produite à partir d’une unité d’énergie). Le coefficient métabolique, en revanche, est calculé comme la quantité d’énergie par heure d’activité humaine.

J’ai quelques remarques critiques par rapport à ces variables, mais avant de développer là-dessus je contraste rapidement avec ma méthode. Les variables de professeur Andreoni sont des transformations des variables utilisées dans des bases de données publiquement accessibles. Professeur Andreoni prend donc une méthode générale d’observation empirique – donc par exemple la méthode de calculer la consommation finale d’énergie – et transforme cette méthode générale de façon à obtenir une vue différente de la même réalité empirique. Cette transformation tend à agréger des variables « communes ». Moi, de mon côté, j’utilise un éventail large des variables communément formalisées et présentées dans des bases de données publiquement accessibles plus un petit zest des coefficients que je calcule moi-même. En fait, dans la recherche sur l’énergie, j’utilise juste deux coefficients originaux, soit le nombre moyen de demandes de brevet nationales par 1 million d’habitants, d’une part, et la quantité moyenne de capital fixe d’entreprise par une demande nationale de brevet. Quant au reste, j’utilise des variables communes. Dans cet article que je suis en train de finir pour « International Journal of Energy Sector Management » j’utilise les quarante et quelques variables de Penn Tables 9.1. (Feenstra et al. 2015[3]) plus des variables de la Banque Mondiale au sujet d’énergie (consommation finale, participation des sources renouvelables, participation d’électricité) plus des données Eurostat sur les prix d’électricité, plus ces deux coefficients relatifs aux demandes nationales de brevets.

La différence entre ma méthode et celle de MuSIASEM est donc visible déjà au niveau phénoménologique. Moi, je prends la phénoménologie généralement acceptée – donc par exemple la phénoménologie de consommation d’énergie ou celle d’activité économique – et ensuite j’étudie le rapport entre les variables correspondantes pour en extraire un tableau plus complexe. Je sais déjà que dans ma méthode, la quantité et la diversité des variables est un facteur clé. Mes résultats deviennent vraiment robustes – donc cohérents à travers des échantillons empiriques différents – lorsque j’utilise une panoplie riche de variables. Chez MuSIASEM, en revanche, ils commencent par construire leur propre phénoménologie au tout début en ensuite ils raisonnent avec.

Il semble y avoir un terrain commun entre ma méthode et celle de MuSIASEM : on semble être d’accord que les variables macroéconomiques telles qu’elles sont accessibles publiquement donnent l’image imparfaite d’une réalité autrement plus complexe. A partir de là, toutefois, il y différence. Moi, j’assume que si je prends beaucoup d’observations imparfaites distinctes – donc beaucoup de variables différentes, chacune un peu à côté de la réalité – je peux reconstruire quelque chose à propos de ladite réalité en transformant ces observations imparfaites avec un réseau neuronal. J’assume donc que je ne sais pas d’avance de quelle manière exacte ces variables sont imparfaites et je m’en fiche par ailleurs. C’est comme si reconstruisais un crime (j’adore les romans policiers) à partir d’un grand nombre des dépositions faites par des témoins qui, au moment et en présence du crime en question étaient soit ivres, soit drogués soit ils regardaient un match de foot sur leur portable. J’assume qu’aussi peu fiables soient tous ces témoins, je peux interposer et recombiner leurs dépositions de façon à cerner le mécréant qui a tué la vieille dame. J’expérimente avec des combinaisons différentes et j’essaie de voir laquelle est la plus cohérente. Chez MuSIASEM, en revanche, ils établissent d’avance une méthode de mettre en concours des dépositions imparfaites des témoins en état d’ébriété et ensuite ils l’appliquent de façon cohérente à travers tous les cas de tels témoignages.

Jusqu’à ce point-là, ma méthode est garnie d’assomptions moins fortes que celle de MuSIASEM. De manière générale je préfère des méthodes avec des assomptions faibles. Lorsque je mets en question des idées reçues, tout simplement en les suspendant et en vérifiant si elles tiennent le coup (de suspension), j’ai la chance de trouver plus de trucs nouveaux et intéressants.  Maintenant, je m’offre le plaisir pervers de passer au peigne fin les assomptions fortes de MuSIASEM, juste pour voir où bien puis-je leur enfoncer une épingle. Je commence par l’activité humaine totale, calculée comme le produit de : [la population] x [24 heures] x [365 jours]. Première remarque : le produit 24 heures fois 365 jours = 8760 heures est une constante. Si je compare deux pays aux populations différentes, leur activités humaines totales respectives seront différentes uniquement à travers leurs démographies différentes. Le produit [24 heures] x [365 jours] est donc une décoration redondante du point de vue mathématique. Toutefois, c’est une redondance astucieuse. Le produit 24 heures fois 365 jours = 8760 c’est le facteur de multiplication communément utilisé pour transformer la capacité énergétique en énergie effectivement accessible. On prend la puissance d’une bombe atomique, en joules, on la recalcule en kilowatts, on la multiplie par 24 heures fois 365 jours et boum : on obtient la quantité d’énergie accessible à la population générale si cette bombe explosait continuellement tout le long de l’année. On ajoute toutefois 24 heures supplémentaires d’explosion pour les années bissextiles.

Bombe atomique ou pas, le produit 24 heures fois 365 jours = 8760 est donc utile lorsqu’on veut faire une connexion élégante entre la démographie et la transformation d’énergie, ce qui semble judicieux dans une méthode de recherche qui se concentre précisément sur l’énergie. La multiplication « population x 8760 heures dans l’année » est-elle donc pertinente comme mesure d’activité humaine ? Hmmouiais… peut-être, à la rigueur… Je veux dire, si nous avons des populations très similaires en termes de style de vie et de technologie, elles peuvent démontrer des niveaux d’activité similaires par heure et donc des niveaux d’activité humaine totales distincts uniquement sur la base de leurs démographies différentes. Néanmoins, il nous faut des populations vraiment très similaires. Si nous prenons une portion essentielle de l’activité humaine – la production agricole par tête d’habitant – et nous la comparons entre la Belgique, l’Argentine et Botswana, nous obtenons des coefficients d’activité tout à fait différents.

Je pense donc que les assomptions qui maintiennent l’identité phénoménologique l’activité humaine totale = [la population] x [24 heures] x [365 jours] sont des assomptions tellement fortes qu’elles en deviennent dysfonctionnelles. J’assume donc que la méthode MuSIASEM utilise en fait la taille de la population comme une variable fondamentale, point à la ligne. Moi je fais de même, par ailleurs. Je trouve la démographie jouer un rôle injustement secondaire dans la recherche économique. Je vois que beaucoup de chercheurs utilisent des variables démographiques comme « calibrage » ou « facteurs d’ajustement ».  Tout ce que je sais sur la théorie générale des systèmes complexes, par exemple le créneau de recherche sur la théorie d’automates cellulaires (Bandini, Mauri & Serra 2001[4] ; Yu et al. 2021[5]) ou bien la théorie d’essaims (Gupta & Srivastava (2020[6]), suggère que la taille des populations ainsi que leur intensité d’interactions sociales sont des attributs fondamentaux de chaque civilisation.                    

Je trouve donc que l’identité phénoménologique l’activité humaine totale = [la population] x [24 heures] x [365 jours] dans la méthode MuSIASEM est donc une sorte de ruse, un peu superflue, pour introduire la démographie au cœur de la réflexion sur l’efficience énergétique. Par conséquent, le coefficient métabolique de MuSIASEM, calculé comme la quantité d’énergie par heure d’activité humaine, est équivalent à la consommation d’énergie par tête d’habitant. Le métabolisme énergétique d’une société humaine est donc défini par la consommation d’énergie par tête d’habitant (https://data.worldbank.org/indicator/EG.USE.PCAP.KG.OE ) ainsi que le coût énergétique de PIB (https://data.worldbank.org/indicator/EG.USE.COMM.GD.PP.KD ). Les liens hypertexte entre parenthèses renvoient à des bases de données correspondantes de la Banque Mondiale. Lorsque je regarde ces deux coefficients à travers le monde et je fais un truc absolument simpliste – je discrimine les pays et les régions en une liste hiérarchique – deux histoires différentes émergent. Le coefficient de consommation d’énergie par tête d’habitant raconte une histoire de hiérarchie pure et simple de bien-être économique et social. Plus ce coefficient est élevé, plus le pays donné est développé en termes non seulement de revenu par tête d’habitant mais aussi en termes de complexité institutionnelle, droits de l’homme, complexité technologique etc.

Lorsque j’écoute l’histoire dite par le coût énergétique de PIB (https://data.worldbank.org/indicator/EG.USE.COMM.GD.PP.KD ), c’est compliqué comme une enquête policière. Devinez donc les points communs entre Panama, Sri Lanka, la Suisse, l’Irlande, Malte et la République Dominicaine. Fascinant, non ? Eh bien, ces 6 pays sont en tête de la course planétaire à l’efficience énergétique, puisqu’ils sont tous les six capables de produire 1000 dollars de PIB avec moins de 50 kilogrammes d’équivalent pétrole en énergie consommée. Pour placer leur exploit dans un contexte géographique plus large, les États-Unis et la Serbie sont plus de deux fois plus bas dans cette hiérarchie, tout près l’un de l’autre, à 122 kilogrammes d’équivalent pétrole par 1000 dollars de PIB. Par ailleurs, ça les place tous les deux près de la moyenne planétaire ainsi que celle des pays dans la catégorie « revenu moyen inférieur ».

Si je récapitule mes observations sur la géographie de ces deux coefficients, les sociétés humaines différentes semblent avoir une capacité très idiosyncratique d’optimiser le coût énergétique de PIB à des niveaux différents de la consommation d’énergie par tête d’habitant. C’est comme s’il y avait une façon différente d’optimiser l’efficience énergétique en étant pauvre, par rapport à celle d’optimiser la même efficience lorsqu’on est riche et développé.

Nous, les homo sapiens, on peut faire des trucs vraiment bêtes dans le quotidien mais dans le long terme nous sommes plutôt pratiques, ce qui pourrait notre capacité actuelle de transformer quelque 30% de l’énergie totale à la surface de la planète. Si hiérarchie il y a, cette hiérarchie a probablement un rôle à jouer. Difficile à dire quel rôle exactement mais ça semble important d’avoir cette structure hiérarchique d’efficience énergétique. C’est un autre point où je diverge de la méthode MuSIASEM. Les chercheurs actifs dans le créneau MuSIASEM assument que l’efficience énergétique maximale est un impératif évolutif de notre civilisation et que tous les pays devraient aspirer à l’optimiser. Hiérarchies d’efficiences énergétique sont donc perçues comme un accident historique dysfonctionnel, probablement effet d’oppression des pauvres par les riches. Bien sûr, on peut demander si les habitants de la République Dominicaine sont tellement plus riches que ceux des États-Unis, pour avoir une efficience énergétique presque trois fois supérieure.


[1] Andreoni, V. (2020). The energy metabolism of countries: Energy efficiency and use in the period that followed the global financial crisis. Energy Policy, 139, 111304. https://doi.org/10.1016/j.enpol.2020.111304

[2] Andreoni, V. (2020). The energy metabolism of countries: Energy efficiency and use in the period that followed the global financial crisis. Energy Policy, 139, 111304. https://doi.org/10.1016/j.enpol.2020.111304

[3] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at http://www.ggdc.net/pwt&nbsp;

[4] Bandini, S., Mauri, G., & Serra, R. (2001). Cellular automata: From a theoretical parallel computational model to its application to complex systems. Parallel Computing, 27(5), 539-553. https://doi.org/10.1016/S0167-8191(00)00076-4

[5] Yu, J., Hagen-Zanker, A., Santitissadeekorn, N., & Hughes, S. (2021). Calibration of cellular automata urban growth models from urban genesis onwards-a novel application of Markov chain Monte Carlo approximate Bayesian computation. Computers, environment and urban systems, 90, 101689. https://doi.org/10.1016/j.compenvurbsys.2021.101689

[6] Gupta, A., & Srivastava, S. (2020). Comparative analysis of ant colony and particle swarm optimization algorithms for distance optimization. Procedia Computer Science, 173, 245-253. https://doi.org/10.1016/j.procs.2020.06.029