Laisse tomber les modèles d’entreprise

Une fois de plus, j’ai eu du décalage entre mes mises à jour. Remarquez, ça a été un décalage productif. J’ai développé un peu sur le sujet des voitures électriques. J’ai discuté le sujet avec quelques-uns de mes collègues, que j’avais invité à participer au projet et j’ai changé un peu d’optique. Le premier truc est abjectement opportuniste : la formulation de sujet. L’un de mes collègues a dit : « Écoute, le modèle d’entreprise, c’est occupé. Á l’École Supérieure de Commerce, à Varsovie, il y a une équipe qui a déjà défini plus de 100 modèles distincts d’entreprise et leur truc, ça a l’air solide côté méthode. Vaut mieux pas s’engager dans de territoire. Lorsqu’il sera question d’évaluation de notre demande de financement au ministère, ces gars-là, ils vont mettre nos têtes coupées sur leurs piques. Laisse tomber. Donnons à notre projet un sujet que presque personne ne veut toucher : l’innovation et la théorie de changement technologique dans le secteur des voitures électriques ». 

J’y a réfléchi et je suis bien d’accord. De ma part, toute cette histoire de modèles d’entreprise c’était un peu forcé. J’essayais d’emballer mes idées – qui par ailleurs sont 100% dans l’étude de changement technologique – dans le paquet étiqueté « modèle d’entreprise » parce que je pensais que ça se vendrait mieux. Je viens donc de (ré)apprendre une leçon importante : reste fidèle à tes idées et ton intuition. Prendre en considération les idées des autres est une chose, mais te déguiser en ces idées en est une autre et c’est une erreur stratégique.

Puisque je rejette le déguisement et je décide de rester fidèle à mes idées, je reviens à une idée dont il est même difficile de dire que je l’ai. C’est plutôt cette idée qui m’a et son essence est la suivante : les automobiles de toute sorte, à combustion interne ou électriques, peu importe, à part de mouvoir par eux-mêmes, ont un autre trait intéressant, celui d’être des réservoirs d’énergie par eux-mêmes. Une population d’automobiles est un réseau mobile de réservoirs d’énergie. Ceci dit, voilà quelques observations intéressantes.   

Premièrement, il y a de plus en plus d’automobiles nouvelles par chaque personne nouvelle née. Les nombres de base, je les montre dans le tableau ci-dessous. Le nombre d’automobiles produites annuellement vient de https://www.worldometers.info/cars/ , pendant que la démographie est basée sur les données de la Banque Mondiale (https://data.worldbank.org/indicator/SP.POP.TOTL ). Plus loin, en-dessous du tableau numérique, je présente le même sujet graphiquement, en forme d’index 2010 = 1,00.

AnnéeAutomobiles produites globalementPopulation mondiale
1999               39 759 847       6 034 491 778 
2000               41 215 653       6 114 332 537 
2001               39 825 888       6 193 671 774 
2002               41 358 394       6 272 752 973 
2003               41 968 666       6 351 882 363 
2004               44 554 268       6 431 551 642 
2005               46 862 978       6 511 748 367 
2006               49 918 578       6 592 734 537 
2007               53 201 346       6 674 203 645 
2008               52 726 117       6 756 917 893 
2009               47 772 598       6 839 574 286 
2010               58 264 852       6 921 871 603 
2011               59 897 273       7 002 860 245 
2012               63 081 024       7 085 762 277 
2013               65 745 403       7 169 638 368 
2014               67 782 035       7 254 226 881 
2015               68 539 516       7 338 964 954 
2016               72 105 435       7 424 286 143 

Deuxièmement, il y a de plus en plus de puissance électrique installée par personne dans le monde (https://unstats.un.org/unsd/energystats/ ). C’est un fait qui apparemment a peu en commun avec les automobiles mais j’explique un peu plus loin. En tout cas, voilà les données numériques, ci-dessous. La troisième colonne, avec « Delta puissance / delta population » en tête est une valeur marginale. C’est la croissance annuelle de la puissance électrique installée divisée par la croissance annuelle analogue dans la population. Ça montre combien de kilowatts nouveaux de puissance électrique correspondent à chaque être humain nouveau sur la planète. Nous pouvons voir que ça bouge, ce quotient des deltas. Au fil des années, chaque homo sapiens reçoit plus de puissance électrique en cadeau. Enfin, pas tout à fait en cadeau : les parents de cet homo sapiens doivent payer pour l’énergie fournie par la puissance en question.     

AnnéePuissance électrique installée dans le monde (MW)Puissance électrique par tête d’habitant (kW)Delta puissance / delta population
19993 363 432,460,561,13
20003 472 904,930,571,37
20013 576 290,560,581,30
20023 754 233,590,602,25
20033 908 520,310,621,95
20044 043 439,790,631,69
20054 175 549,310,641,65
20064 367 561,020,662,37
20074 550 173,790,682,24
20084 748 664,030,702,40
20094 950 686,180,722,44
20105 182 394,400,752,82
20115 443 572,280,783,22
20125 664 728,480,802,67
20135 893 934,280,822,73
20146 170 181,660,853,27

Maintenant, j’interpose les bagnoles avec la puissance électrique et voilà : troisièmement, il y a de moins en moins d’automobiles nouvelles par chaque MW nouveau de puissance électrique installée. Si on inverse le raisonnement, il y a de plus en plus de puissance électrique nouvelle par chaque voiture nouvelle.

Nous avons donc la situation suivante : nos réserves des carburants fossiles – surtout calculés par tête d’habitant – se rétrécissent, pendant que la puissance électrique installée par tête d’habitant est en train de croître. Point de vue jus en réserve, il y a une transition vers l’électricité à partir de la combustion directe des carburants fossiles.

Je pose donc l’hypothèse que le développement des voitures électriques est une fonction émergente de notre civilisation et dans cette fonction émergente, la technologie de stockage d’énergie, dans les batteries aussi bien que dans les stations de chargement, est l’intermédiaire naturel entre la puissance électrique installée et le développement d’électromobilité.

The batteries we don’t need anymore

I continue on the thread I started to develop in my last update in French, titled ‘De quoi parler à la prochaine réunion de faculté’, i.e. I am using that blog, and the fact of writing, to put some order in the almost ritual mess that happens at the beginning of the academic year. New calls for tenders start in the ministerial grant programs, new syllabuses need to be prepared, new classes start. Ordinary stuff, mind you, this is just something about September, as if I were in Vivaldi’s ‘Four seasons’: the hot, tumultuous Summer slowly folds into the rich, textured, and yet implacably realistic Autumn.

My central idea is to use some of the science which I dove into during the summer holidays as an intellectual tool for putting order in that chaos. That almost new science of mine is mostly based on the theory of complex systems, and my basic claim is that technological change is an emergent phenomenon in complex social systems. We don’t know why exactly our technologies change the way they change. We can trace the current technologies back to their most immediate ancestors and sometimes we can predict their most immediate successors, but that’s about it. Futuristic visions of technologies that could be there in 50 years from now are already some kind of traditional entertainment. The concept of technological progress, when we try to find a developmental logic in the historically known technological change, is usually standing on wobbly legs, on the other hand. Yes, electricity allowed the emergence of medical technologies used in hospitals, and that saved a lot of human lives, but there is no way Thomas Edison could have known that. The most spectacular technological achievements of mankind, such as the Egyptian pyramids, the medieval cathedrals, the Dutch windmills from the 16th century, or the automobile, seen from the historical distance, look ambiguous. Yes, it all solved some problems, but it facilitated the emergence of new problems. The truly unequivocal benefit of those technological leaps, which could have been actually experienced by the people who made them, was to learn how to develop technologies.

The studies I did during the Summer holidays 2021 focused on four essential, mathematical models of emergent technological change: cellular automata, flock of birds AKA particle swarm, ants’ nest, and imperfect Markov chains. I start with passing in review the model of cellular automata. At any given moment, the social complexity can be divided into a finite number of social entities (agents). They can be individual humans, businesses, NGOs, governments, local markets etc. Each such entity has an immediate freedom of movement, i.e. a finite number of one-step moves. The concept is related to the theory of games and corresponds to what happens in real life. When we do something social, we seldom just rush forwards. Most frequently, we make one step, observe the outcomes, adjust, then we make the next step etc. When all social agents do it, the whole social complexity can be seen as a collection of cells, or pixels. Each such cell (pixel) is a local state of being in society. A social entity can move into that available state, or not, at their pleasure and leisure. All the one-step moves a social entity can make translate into a trajectory it can follow across the social space. Collective outcomes we strive for and achieve can be studied as temporary complex states of those entities following their respective trajectories. The epistemological trick here is that individual moves and their combinations can be known for sure only ex post. All we can do ex ante is to define the possible states, and just wait where does the reality go.

As we are talking about the possible states of social complexity, I found an interesting mathematical mindf**k at quite an unexpected source, namely in the book titled ‘Aware. The Science and Practice of Presence. The Groundbreaking Meditation Practice’ by Daniel J. Siegel [Penguin Random House LLC, 2018, Identifiers: LCCN 2018016987 (print), LCCN 2018027672 (ebook), ISBN 9780143111788, ISBN 9781101993040 (hardback)]. This is a mathematical way of thinking, apparently taken from quantum physics. Here is the essence of it. Everything that happens does so as 100% probability of the given thing happening. Each phenomenon which takes place is the actualization of the same phenomenon being just likely to happen.

Actualization of probability can be seen as collision of two vehicles in traffic. When the two vehicles are at a substantial distance from each other, the likelihood of them colliding is zero, for all practical purposes. As they converge towards each other, there comes a point when they become sort of provisionally entangled, e.g. they find themselves heading towards the same crossroads. The probability of collision increases slightly, and yet it is not even the probability of collision, it is just the probability that these two might find themselves in a vicinity conducive to a possible collision. Nothing to write home about, yet, like really. It can be seen as a plateau of probability slowly emerging out of the initial soup of all the things which can possibly happen.

As the two cars drive closer and closer to the crossroads in question, the panoply of possible states narrows down. There is a very clear chunk of reality which gains in likelihood, as if it was a mountain range pushing up from the provisional plateau. There comes a point where the two cars (and their drivers) just come on collision course, and there is no way around it, and this is a peak of 100% probability. Boom! Probability is being consumed.

What do those cars have in common with meditation and with the emergence of technological change? As regards meditation, thought can be viewed as a progressively emerging actualization of something that was just a weak probability, sort of a month ago it was just weakly probable that today I would think what I think, it became much more likely yesterday, as the thoughts from yesterday have an impact on the thoughts of today, and today it all comes to fruition, i.e. to the 100% probability. As regards emergent technological change, the way technology changes today can be viewed as actualization of something that was highly probable last year, just somehow probable 10 years ago, and had been just part of the amorphous soup of probability 30 years ago. Those trajectories followed by individual agents inside social complexity, as defined in the theory of cellular automata, are entangled together precisely according to that pattern of emergent probabilities. Two businesses coming up with two mutually independent, and yet similar technologies, are like two peak actualizations of 100% probability in a plateau of probable technological change, which, in turn, has been slowly emerging for some time.

Those other theories I use explain and allow to model mathematically that entanglement. The theory of particle swarm, pertinent to flocks of birds, assumes that autonomous social agents strive for a certain level of behavioural coupling. We expect some level of predictability from others, and we can cooperate with others when we are satisfactorily predictable in our actions. The strive for social coherence is, therefore, one mechanism of entanglement between individual trajectories of cellular automata. The theory of ants’ nest focuses on a specific category of communication systems in societies, working like pheromones. Ants organize by marking, reinforcing and following paths across their environment, and their pheromones serve as markers and reinforcement agents for those paths. In human societies, there are social pheromones. Money and financial markets make probably the most obvious example, but scientific publications are another one. The more scientific articles are being published on a given topic, the more likely are other articles being written on the same topic, until the whole thing reaches a point of saturation, when some ants (pardon me, scientists) start thinking about another path to mark with intellectual pheromones.

Cool. I have (OK, we have) complex social states, made of entangled probabilities that something specific happens, and they encompass technology. Those complex states change, i.e. one complex state morphs into another. Now, how the hell can I know, as a researcher, what is happening exactly? Such as the theory of complex systems suggests it, I can never know exactly, for one, and I need to observe, for two. As I don’t know exactly what is it exactly, that thing which I label ‘technological change’, it is problematic to set too many normative assumptions as for which specific path that technological change should take. I think this is the biggest point of contention as I apply my theory, such as I have just outlined it, to my main field of empirical research, namely energy economics, and technological change in the sector of energy. The more I do that research, the more convinced I am that the so-called ‘energy policies’, ‘climate policies’ etc. are politically driven bullshit based on wishful thinking, with not much of a chance to bring the positive change we expect. I have that deep feeling that setting a strategy for future innovations in our business/country/world is very much like that Polish expression ‘sharing the skin of a bear which is still running in the woods’. First, you need to kill the bear, only then you can bicker about who takes what part of the skin. In the case of innovation, long-term strategies in that domain consist in predicting what we will do when we have something we don’t even know yet what is it exactly.

I am trying to apply this general theory in the grant applications which I am in charge of preparing now, and in my teaching. We have that idea, at the faculty, to apply for funding to study the market of electric vehicles in Europe and in Poland. This is an interesting situation as regards business models. In the US, the market of electric cars is clearly divided among three categories of players. There is Tesla, which is a category and an industry in itself, with its peculiar strategy of extreme vertical integration. Then there are the big, classical car makers, such as Toyota, General Motors etc., with their business models based on rather a short vertical chain of value added inside the business, and a massive supply chain upstream of the house. Finally, there is a rising tide of small start-ups in the making of electric vehicles. I wonder what I could be in Europe. As our European market of electric vehicles is taking off, it is dominated by the incumbent big manufacturers, the old school ones, with Tesla building a factory in Germany, and progressively building a beachhead in the market. There is some timid movement towards small start-up businesses in the field, but it is really timid. In my home country, Poland, the most significant attempt at starting up an electric vehicle made in Poland is a big consortium of state-controlled companies, running under the name of ‘Electromobility Poland’.  

I have that intuition, which I provisionally express as a working hypothesis, namely that business models are an emergent property of technologies which they use. As regards the market of electric vehicles, it means that Tesla’s business model is not an accidental explosion of Elon Musk’s genius mind: it is an emergent characteristic of the technologies involved.

Good. I have some theory taking shape, nice and easy. I let it ripen a bit, and I start sniffing around for facts. What is a business model, in my mind? It is the way of operating the chain of value added, and getting paid for it, in the first place. Then, it is the way of using capital. I noticed that highly innovative environments force businesses to build up and keep large amounts of cash money, arguably to manage the diverse uncertainties emerging as technologies around morph like hell. In some cases, e.g. in biotech, the right business model for rapid innovation is a money-sucker, with apparently endless pay-ins of additional equity by the shareholders, and yet with a big value in terms of technological novelty created. I can associate that phenomenon of vacuum cleaning equity with the case of Tesla, who just recently started being profitable, and had gone through something like a decade in permanent operational loss. That is all pertinent to fixed costs, thus to the cash we need to build up and keep in place the organizational structure required for managing the value chain the way we want to manage it.

I am translating those loose remarks of mine into observable phenomena. Everything I have just mentioned is to be found in the annual financial reports. This is my first source of information. When I want to study business models in the market of electric vehicles, I need to look into financial and corporate reports of businesses active in the market. I need to look into the financial reports of Mercedes Benz, BMW, Renault, PSA, Volkswagen, Fiat, Volvo, and Opel – thus the European automotive makers – and see how it is going, and whether whatever is going on can be correlated with changes in the European market of electric vehicles. Then, it is useful to look into the financial reports of global players present in the European market, e.g. Tesla, Toyota, Honda and whatnot, just to see what changes in them as the European market of electric vehicles is changing.

If my intuition is correct, i.e. if business models are truly an emergent property of technologies used, the fact of engaging into the business of electric vehicles should be correlated with some sort of recurrent pattern in those companies.         

Good. This is about the big boys in the playground. Now, I turn toward the small ones, the start-up businesses. As I already said, it is not like we have a crowd of them in the European industry of electric vehicles. The intuitive axis of research which comes to my mind is to look at start-ups active in the U.S., study their business models, and see if there is any chance of something similar emerging in Europe. Somehow tangentially to that, I think it would be interesting to check whether the plan of Polish government regarding ‘Electromobility Poland’, that is the plan to develop it with public and semi-public money, and then sell it to private investors, has any grounds and under what conditions it can be a workable plan.

Good. I have rummaged a bit in my own mind, time to do the same to other people. I mean, I am passing to reviewing the literature. I type ‘electric vehicles Europe business model’ at the https://www.sciencedirect.com/ platform, and I look at what’s popping up. Here comes the paper by Pardo-Bosch, F., Pujadas, P., Morton, C., & Cervera, C. (2021). Sustainable deployment of an electric vehicle public charging infrastructure network from a city business model perspective. Sustainable Cities and Society, 71, 102957., https://doi.org/10.1016/j.scs.2021.102957 . The abstract says: ‘The unprecedented growth of global cities together with increased population mobility and a heightened concern regarding climate change and energy independence have increased interest in electric vehicles (EVs) as one means to address these challenges. The development of a public charging infrastructure network is a key element for promoting EVs, and with them reducing greenhouse gas emissions attributable to the operation of conventional cars and improving the local environment through reductions in air pollution. This paper discusses the effectiveness, efficiency, and feasibility of city strategic plans for establishing a public charging infrastructure network to encourage the uptake and use of EVs. A holistic analysis based on the Value Creation Ecosystem (VCE) and the City Model Canvas (CMC) is used to visualise how such plans may offer public value with a long-term and sustainable approach. The charging infrastructure network implementation strategy of two major European cities, Nantes (France) and Hamburg (Germany), are analysed and the results indicate the need to involve a wide range of public and private stakeholders in the metropolitan areas. Additionally, relevant, and fundamental patterns and recommendations are provided, which may help other public managers effectively implement this service and scale-up its use and business model.

Well, I see there is a lot of work to do, as I read that abstract. I rarely find a paper where I have so much to argue with, just after having read the abstract. First of all, ‘the unprecedented growth of global cities’ thing. Actually, if you care to have a look at the World Bank data on urban land (https://data.worldbank.org/indicator/AG.LND.TOTL.UR.K2 ), as well as that on urban population (https://data.worldbank.org/indicator/SP.URB.TOTL.IN.ZS ), you will see that urbanization is an ambiguous phenomenon, strongly region-specific. The central thing is that cities become increasingly distinct from the countryside, as types of human settlements. The connection between electric vehicles and cities is partly clear, but just partly. Cities are the most obvious place to start with EVs, because of the relatively short distance to travel between charging points. Still, moving EVs outside the cities, and making them functional in rural areas, is the next big challenge.

Then comes the ‘The development of a public charging infrastructure network is a key element for promoting EVs’ part. As I studied the thing in Europe, the network of charging stations, as compared to the fleet of EVs in the streets is so dense that we have like 12 vehicles per charging station on average, across the European Union. There is no way a private investor can have it for their money, when financing a private charging station, with that average density. We face a paradox: there are so many publicly funded charging stations, in relation to the car fleet out there, that private investment gets discouraged. I agree that it could be an acceptable transitory state in the market, although it begs the question whether private charging stations are a viable business in Europe. Tesla has based a large part of its business model in the US precisely on the development of their own charging stations. Is it a viable solution in Europe?

Here comes another general remark, contingent to my hypothesis of business models being emergent on the basis of technologies. Automotive technologies in general, thus the technology of a vehicle moving by itself, regardless the method of propulsion (i.e. internal combustion vs electric) is a combination of two component technologies. Said method of propulsion is one of them, and the other one is the technology of distributing the power source across space. Electric vehicles can be viewed as cousins to tramways and electric trains, with just more pronounced a taste for independence: instead of drinking electricity from a permanent wiring, EVs carry their electricity around with them, in batteries.

As we talk about batteries, here comes another paper in my cursory rummaging across other people’s science: Albertsen, L., Richter, J. L., Peck, P., Dalhammar, C., & Plepys, A. (2021). Circular business models for electric vehicle lithium-ion batteries: An analysis of current practices of vehicle manufacturers and policies in the EU. Resources, Conservation and Recycling, 172, 105658., https://doi.org/10.1016/j.resconrec.2021.105658 . Yes, indeed, the advent of electric vehicles creates a problem to solve, namely what to do with all those batteries. I mean two categories of batteries. Those which we need, and hope to acquire easily when the time comes for changing them in our vehicles, in the first place, and those we don’t need anymore and expect someone to take care of them swiftly and elegantly.       

De quoi parler à la prochaine réunion de faculté

Je change un peu de style par rapport à mes dernières mises à jour sur ce blog et je change parce que c’est le début de l’année académique, chez moi. C’est donc le chaos habituel que je commence à aimer, par ailleurs. Cette mise à jour est donc une mise en ordre dans mes idées et mes projets.

Je commence par essayer de résumer la recherche que j’ai faite pendant les vacances. Je pose donc l’hypothèse générale que le changement technologique est un phénomène émergent, qui survient comme intégration des phénomènes partiels dans le système social dont la complexité est essentiellement insaisissable pour nous. L’hypothèse d’émergence impose par ailleurs une distinction entre le terme de changement technologique et celui de progrès technologique. Le progrès technologique est un terme fortement subjectif, basé sur un système des valeurs communes dans une société. Le progrès c’est donc du changement, comme phénomène émergent, plus notre interprétation de ce phénomène.

Cette hypothèse a d’autres conséquences, dont la plus importante et la plus pratique c’est une mise en question radicale du concept de politique technologique ou politique d’innovation, au niveau agrégé d’état, de communauté internationale ou même au niveau des grandes entreprises. Dans les soi-disant « politiques technologiques » leurs créateurs assument que nous pouvons collectivement décider de développer nos technologies dans une direction donnée et que ça va marcher. Pour autant que je sache, c’est problématique déjà au niveau des grandes entreprises. Les politiques d’innovation des années 1990 dans l’industrie automobile, par exemple, étaient dans ce style. C’était comme « tout le monde se concentre sur la création de la technologie AVBG pour les 10 années à venir et pas de discussion ». Dans la plupart des cas, les résultats étaient désastreux. Des milliards des dollars dépensés sur des projets qui échouaient de façon spectaculaire au moment de confrontation au marché. Je pense que la seule technologie fondamentale dans l’automobile qui avait émergé avec succès des années 1990 c’était la propulsion hybride (moteur électrique plus moteur à combustion interne). C’était une technologie à laquelle personne de donnait arbitrairement la priorité dans les stratégies des grandes entreprises du secteur. Le pionnier dans ce domaine, Toyota, approchait le développement de la propulsion hybride de façon très prudente et pragmatique, comme une série heuristique d’expériences contrôlées, très loin des stratégies du type « tout le monde à bord ».  

Après les échecs des politiques centralisées d’innovation des années 1990, les grandes entreprises sont devenues beaucoup plus prudentes dans ce domaine. La meilleure politique semble être celle d’expérimentation abondante avec plusieurs idées nouvelles à la fois, avec une composante de compétition interne. Eh bien, lorsque je regarde les politiques qui se donnent l’étiquette « climatiques », quoi que cela veuille dire au juste, je me dis que ces hommes et femmes politiques (à propos, peut-on dire « les gens politiques » ?) feraient bien de prendre exemple des grandes entreprises. Les politiques qui commencent avec « Nous devons tous… » sont déjà suspectes. Si une telle politique assume, en plus, que la meilleure façon de stimuler l’innovation est d’introduire des nouveaux impôts, je suis contre. Oui, pour être clair : je suis vigoureusement contre le soi-disant « impôt carbone ». Je trouve cette idée dysfonctionnelle sur plusieurs niveaux, mais j’y reviendrai à une autre occasion.

Mon plat scientifique à emporter, après les vacances d’été AD 2021, est donc celui de changement technologique comme phénomène émergent qui intègre un système social complexe en ce qui concerne l’usage des ressources. Je me réfère fortement à la théorie des systèmes complexes en général et plus particulièrement à quatre modèles mathématiques là-dedans : le modèle d’automates cellulaires, celui d’essaim d’oiseaux, celui de fourmilière, et enfin celui des chaînes imparfaites de Markov.   

Avec cette perspective générale dans l’esprit, je me tourne vers un projet de recherche qui est en train de prendre forme parmi moi et mes collègues à l’université. Nous pensons qu’il serait intéressant d’étudier les développements possibles dans le marché européen des véhicules électriques, plus particulièrement en ce qui concerne les modèles d’entreprise. Par « modèle d’entreprise » je veux dire la même chose que le terme anglais « business model », donc la façon d’intégrer et de gérer la chaîne de valeur ajoutée dans le marché en question.

J’explique. Si on prend le marché global des véhicules électriques, on a essentiellement trois modèles d’entreprise : Tesla, les sociétés automobiles classiques et les startups. Tesla est idiosyncratique, c’est pratiquement une industrie en soi. Leur modèle d’entreprise est basé sur une intégration verticale très poussée, aussi bien au niveau des technologies qu’à celui d’organisation. Tesla avait commencé par faire des bagnoles électriques, puis ils ont enchaîné avec des stations de chargement et du photovoltaïque. C’est une chaîne de plus en plus longue des technologies verticalement connectées. D’autre part, le concept de « giga factory », chez Tesla, c’est de l’intégration verticale opérationnelle. L’idée consiste à convaincre les fournisseurs de localiser, dans la mesure du possible, leurs centres de fabrication dans la même usine où Tesla fait ses voitures. Simple et génial, j’ai envie de dire.

Tesla a donc un modèle d’entreprise très fortement intégré à la verticale et – comme j’ai pu le constater en observant leurs finances au fil des années – ça a pris du temps d’apprendre comment gérer cette chaîne de façon à capter proprement la valeur ajoutée. Ce n’est que récemment que tout ce bazar a commencé à être profitable. Là, il y a une question qui me fascine : pourquoi est-ce qu’autant de gens avaient mis autant d’effort dans l’expérimentation tellement coûteuse avec un modèle d’entreprise qui, pendant des années (pendant presque une décennie, en fait), semblait n’avoir aucune perspective réaliste de dégager du profit ?

Oui, je sais, Elon Musk. Le gars est fascinant, je suis d’accord. Seulement une organisation de la taille de Tesla, ça ne se crée pas autour d’une seule personne, même aussi géniale qu’Elon Musk, qui, par ailleurs, tout en étant un génie, n’est pas vraiment charismatique. Les grandes organisations, ça émerge de la complexité du tissu social, en intégrant certaines parties de ce tissu. Il est très dur de créer une grande organisation et il est encore plus dur de la tenir en place à long terme. Il doit y avoir des mécanismes sociaux sous-jacents qui soutiennent et stimulent ce phénomène.      

A côté de Tesla, il y a les producteurs automobiles établis, comme Daimler Chrysler, Toyota, le groupe PSA etc. Aujourd’hui, c’est devenu presque un impératif pour un producteur automobile de faire des véhicules électriques. Seulement ces producteurs-là, ils maintiennent le modèle d’entreprise bien morcelé verticalement, avec du outsourcing poussé et aucune tentative marquée d’adopter le modèle super-intégré de Tesla.

A côté de tout ça, il y a beaucoup des startups dans le marché des voitures électriques et ça, c’est même plus fascinant que Tesla. Pendant des décennies, l’automobile semblait être complétement fermé à ce type de petite entreprise créative, agile et coriace dont en voit plein dans l’informatique, la nanotechnologie ou bien la biotechnologie. Paradoxalement, le moment où Tesla a réussi de stabiliser financièrement sont modèle d’entreprise super intégrée, des startups ont commencé à proliférer. C’est comme si l’émergence d’un organisme géant très spécifique avait enclenché l’émergence des petites bestioles expérimentales de toute sorte.

Je me demande donc quel peut bien être ce mécanisme sous-jacent d’émergence des modèles nouveaux d’entreprise avec l’avènement des véhicules électriques. Voilà mon hypothèse de travail no. 1 à ce sujet : l’émergence rapide de nouveaux modèles d’entreprise manifeste une tendance poussée de la société à expérimenter et ceci, à son tour, témoigne de l’orientation collective sur un certain type de résultat.

Il y a ce principe, formulé, je crois, par Sigmund Freud. Si nous voulons découvrir les motivations réelles et profondes d’une personne qui ne sait pas comment les articuler, regardons les conséquences de ses actions. Ces conséquences disent beaucoup sur les valeurs et les tendances personnelles. La civilisation est une histoire. C’est un peu comme une personnalité. La prolifération des véhicules électriques à deux conséquences majeures. D’une part, nous réduisons notre dépendance du pétrole. Ceci contribue à protéger l’environnement, mais ça permet aussi de remuer un peu l’équilibre géopolitique. En Europe, par exemple, nous n’avons pas de pétrole local et aussi longtemps que nous roulons sur des moteurs à combustion interne, notre système de transport routier est stratégiquement dépendant d’une ressource que nous n’avons pas. A l’échelle globale, l’abandon du combustible en faveur des véhicules électriques, ça réduit la dépendance stratégique vis-à-vis des pays pétroliers et c’est in changement géopolitique majeur.   

La seconde conséquence majeure de la transition vers le véhicule électrique est une accélération spectaculaire dans le développement des technologies de stockage d’énergie. Remarquons, par ailleurs, que chaque voiture est un réservoir mobile d’énergie. Ça concerne toutes les voitures, celles à combustion interne aussi. Le réservoir d’essence est un réservoir mobile d’énergie. Le développement d’automobile en général, donc des moyens de transport qui bougent avec leur propre énergie, équivaut au développement d’un réseau géant de petits réservoirs mobiles d’énergie.

Notre civilisation s’est largement développée, à travers des millénaires, sur la base des technologies de stockage. Le stockage de nourriture semble avoir joué un rôle crucial, mais le stockage d’énergie est important aussi. Toute l’industrie des carburants fossiles est largement l’histoire de découverte comment stocker et transporter une source d’énergie. Les véhicules électriques, ça peut être la génération 2.0 dans ce domaine.

Voilà donc que je peaufine mon hypothèse de travail, comme no. 2 : l’émergence rapide de nouveaux modèles d’entreprise dans l’industrie des véhicules électriques est un phénomène émergent d’expérimentation collective orientée sur le réaménagement des relations géopolitiques basées sur la dépendance du pétrole ainsi que sur le développement des technologies de stockage d’énergie.

Eh bien voilà une jolie hypothèse. De quoi parler à la prochaine réunion de la faculté.

The possible Black Swans

I am re-digesting, like a cow, some of the intellectual food I figured out recently. I return to the specific strand of my research to be found in the unpublished manuscript ‘The Puzzle of Urban Density And Energy Consumption’, and I want to rummage a bit inside one specific issue, namely the meaning which I can attach to the neural activation function in the quantitative method I use.

Just to give a quick sketch of the landscape, I work through a general hypothesis that our human civilization is based on two factories: the factory of food in the countryside, and the factory of new social roles in cities. The latter produce new social roles by creating demographic anomalies, i.e. by packing humans tightly together, in abnormally high density. Being dense together makes us interact more with each other, which, whilst not always pleasant, stimulates our social brains and makes us figure out new interesting s**t, i.e. new social roles.

I made a metric of density in population, which is a coefficient derived from the available data of the World Bank. I took the coefficient of urbanization (World Bank 1[1]), and I multiplied it by the headcount of population (World Bank 4[2]). This is how I got the number of people living in cities. I divided it by the surface of urban land (World Bank 2[3]), and I got the density of population in cities, which I further label as ‘DU’. Further, I gather that the social difference between cities and the countryside, hence the relative impact of cities as breeding ground for new social roles, is determined by the difference in the depth of demographic anomalies created by the urban density of population. Therefore, I took the just-calculated coefficient DU and I divided it by the general density of population, or ‘DG’ (World Bank 5[4]). This is how I ended up the with the coefficient ‘DU/DG’, which, mathematically, denominates the density of urban population in units of general density in population.

I simulate an artificial reality, where we, humans, optimize the coefficient ‘DU/DG’ as our chief collective orientation. We just want to get it right. Enough human density in cities to be creative, and yet enough space for each human being able to practice mindfulness when taking a #2 in the toilet. We optimize ourselves being dense together in cities on the base of 7 input characteristics of ours, namely:   

Population – this is a typical scale variable. The intuition behind it is that size matters, and that’s why in most socio-economic research, when we really mean business in quantitative terms, we add such variables, pertinent to the size of the social entity studied. Urbanization occurring in a small country, like Belgium (with all my due respect for Belgians), is likely to occur differently from urbanization in India or in the U.S. In this specific case, I assume that a big population, like hundreds of millions of people, has to move more resources around to accommodate people in cities, as compared to a population counted in dozens of millions.  
Urban population absolute – same tune, a scale variable, more specifically pertinent to the headcount of urban populations.   
Gross Domestic Product (GDP, constant 2010 US$) – scale variable, once again, but this time it is about the real output of the economy. In my approach, the GDP is not exactly a measure of the wealth produced, but more of an appraisal of total productive activity in the humans living around. This is why I use constant prices. That shaves off the price-and-relative-wealth component, and leaves GDP as a metric pertinent to how much tradable surpluses do humans create in a given place and time.  
Broad money (% of GDP) – this is essentially the opposite to the velocity of money, and it corresponds to another strand in my research. I discovered and I keep studying the fact that in the presence of quick technological change, human societies stuff themselves up with abnormally high amounts of cash (or cash equivalents, for that matter). It holds for entire countries as well as for individual businesses. You can find more on that in my article ‘Technological change as a monetary phenomenon’. I guess that when humans make more new social roles in cities, technologies change faster.            
Energy use (kg of oil equivalent per capita) – this is one of the fundamental variables I frequently work with. I guess I included it in this particular piece of research just in case, in order to be able to connect with my research on the market of energy.  
Agricultural land (km2) – the surface of agricultural land available is a logical correlate of urban population. A given number of people in cities need a given amount of food, which, in turn, can be provided by a given surface of agricultural land.            
Cereal yield (kg per hectare) – logically complementary to the surface of agricultural land. Yield per hectare in France is different from what an average hectare can contribute in Nigeria, and that is likely to be correlated with urbanization.  

You can get the raw data I used UNDER THIS LINK. It covers Australia, Brazil, Canada, China, Colombia, France, Gabon, Germany, Ghana, India, Malaysia, Mexico, Mozambique, Namibia, New Zealand, Nigeria, Norway, Poland, Russian Federation, United Kingdom, and the United States. All that lot observed over the window in time stretching from 1961 all the way to 2015.

I make that data into a neural network, which means that I make h(tj) = x1(tj)*R* E[xi(tj-1)] + x2(tj)*R* E[x2(tj-1)] + … + xn(tj)*R* E[xn(tj-1)], as explained in my update titled ‘Representative for collective intelligence’, with x1, x2,…, x7 input variables described above, grouped in 21 social entities (countries), and spread over 2015 – 1961= 54 years. After the curation of data for empty cells, I have m = 896 experimental rounds in the (alleged) collective intelligence, whose presence I guess behind the numbers. I made that lot learn how to squeeze the partly randomized input, controlled for internal coherence, into the mould of the desired output of the coefficient xo = DU/DG. I ran the procedure of learning with 4 different methods of estimating the error of optimization. Firstly, I computed that error the way we do it in basic statistics, namely e1 = xo – h(tj). The mixed-up input is simply subtracted from expected output. In the background, I assume that the locally output xo is an expected value in statistical terms, i.e. it is the mean value of some hypothetical Gaussian distribution, local and specific to that concrete observation.  With that approach to error, there is no neural activation as such. It is an autistic neural network, which does not discriminate input as for its strength. It just reacts.

As I want my collective intelligence to be smarter than your average leech, I make three more estimations of errors, with the input h(tj) passing through a neural activation function. I start with the ReLU rectifier, AKA max[0, h(tj)], and, correspondingly, with e2 = xo – ReLU[h(tj)]. Then I warm up, and I use neural activation via hyperbolic tangent tanh[h] = (e2h – 1) / (e2h + 1), and I compute e3 = xo – tanh[h(tj)]. The hyperbolic tangent is a transcendental number generated by periodical observation of a hyperbola, and that means that hyperbolic tangent has no functional correlation to its input. Neural activation with hyperbolic tangent creates a projection of input into a separate, non-correlated space of states, like cultural transformation of cognitive input into symbols, ideologies and whatnot. Fourthly and finally, I use the sigmoid function (AKA logistic function) sig(h) = 1 / (1 + e-h) which can be read as smoothed likelihood that something happens, i.e. that input h(tj) has full power. The corresponding error is e4 = xo – sig[h(tj)].

From there, I go my normal way. I create 4 artificial realities out of my source dataset. Each of these realities assumes that humans strive to nail down the right social difference between cities and the countryside, as measured with the DU/DG coefficient. Each of these realities is generated with a different way of appraising how far we are from the desired DU/DG, this with four different ways of computing the error: e1, e2, e3, and e4.  The expected states of both the source empirical dataset, and sets representative for those 4 alternative realities, are given by their respective vectors of mean values, i.e. mean DU/DG, mean population etc. Those vectors of means are provided in Table 1 below. The source dataset shows a mean DU/DG = 41,14, which means that cities in this dataset display, on average across countries, 41 times greater a density of population than the general density of population. Mean empirical population is 149,6 million people, with mean urban population being 67,34 million people. Yes, we have China and India in the lot, and they really pump those scale numbers up.

Table 1 – Vectors of mean values in the source empirical set and in the perceptrons simulating alternative realities, optimizing the coefficient DU/DG

  Perceptrons pegged on DU/DG
VariableSource dataseterror = xo – herror = xo – ReLu(h)error = xo – tanh(h)error = xo – sigmoid(h)
DU/DG41,1436,384,9161,56324,29
Population149 625 587,07125 596 355,00(33 435 417,00)252 800 741,001 580 356 431,00
GDP (constant 2010 US$)1 320 025 624 972,081 025 700 000 000,00(922 220 000 000,00)2 583 780 000 000,0018 844 500 000 000,00
Broad money (% of GDP)57,5054,1331,8071,99258,38
Urban population absolute67 349 480,4254 311 459,20(31 977 590,00)123 331 287,00843 649 729,00
Energy use (kg of oil equivalent per capita)2 918,692 769,761 784,113 558,1611 786,15
Agricultural land km21 227 301,861 135 064,25524 611,511 623 345,716 719 245,69
Cereal yield (kg per hectare)3 153,313 010,542 065,683 766,3111 653,77

One of the first things which jumps to the eye in Table 1 – at least to my eye – is that one of the alternative realities, namely that based on the ReLU activation function, is an impossible reality. There are negative populations in this one, and this is not a livable state of things. I don’t know about you, my readers, but I would feel horrible knowing that I am a minus. People can’t be negative by default. By the way, in this specific dataset, the ReLU looks like almost identical to the basic difference e1 = xo – h(tj). Yet, whilst making an alternative reality with no neural transformation of quasi-randomized input, thus making it with e1 = xo – h(tj), creates something pretty close to the original empirics.

Another alternative reality which looks sort of sketchy is the one based on neural activation via the sigmoid function. This one transforms the initial mean expected values into their several-times-multiples. Looks like the sigmoid is equivalent, in this case, to powering the collective intelligence of societies studied with substantial doses of interesting chemicals. That particular reality is sort of a wild dream, like what it would be like to produce almost 4 times more cereal yield per hectare, having more than 4 times more agricultural land, and over 10 times more people in cities. The surface of available land being finite as it is, 4 times more agricultural land and 10 times more people in cities would mean cities tiny in terms of land surface, probably all in height, both under and above ground, with those cities being 324 times denser with humans than the general landscape. Sounds familiar, a bit like sci fi movies.  

Four different ways of pitching input variables against the expected output of optimal DU/DG coefficient produce four very different alternative realities. Out of these four, one is impossible, one is hilarious, and we stay with two acceptable ones, namely that based on no proper neural activation at all, and the other one using the hyperbolic tangent for assessing the salience of things. Interestingly, errors estimated as e1 = xo – h(tj) are essentially correlated with the input variables, whilst those assessed as e3 = xo – tanh[h(tj)] are essentially uncorrelated. It means that in the former case one can more or less predict how satisfied the neural network will be with the local input, and that prediction can be reliably made a priori. In the latter case, with the hyperbolic tangent, there is no way to know in advance. In this case, neural activation is a true transformation of reality.

Table 2 below provides the formal calculation of standardized Euclidean distance between all the 4 alternative realities and the real world of tears we live in. By standardized Euclidean I mean: E = {[(meanX – meanS)2]0,5} / meanX. The ‘/ meanX’ part means that divide the basic Euclidean distance by the mean value which serves me as benchmark, i.e. the empirical one. That facilitates subsequent averaging of those variable-specific Euclidean distances into one metric of mathematical similarity between entire vectors of values.   

Table 2 – Vectors of standardized Euclidean distances between the source set X and the perceptrons simulating alternative realities, optimizing the coefficient DU/DG

error = xo – herror = xo – ReLu(h)error = xo – tanh(h)error = xo – sigmoid(h)
DU/DG]0,1155978740,880654960,4963466216,882843342
Population0,1605957411,2234605570,689555559,562073386
GDP (constant 2010 US$)0,222969631,6986379530,95737109313,27585923
Broad money (% of GDP)0,0586723240,4469811720,2519234033,493424228
Urban population absolute0,1935875551,4748008420,83121363711,52644748
Energy use (kg of oil equivalent per capita)0,0510261810,3887308450,2190928923,038163202
Agricultural land km20,0751547870,5725489140,3226947364,474810971
Cereal yield (kg per hectare)0,0452750,3449168340,1943988412,695730596
Average0,1153598860,878841510,4953245966,868669054

Interestingly, whilst alternative reality based on neural activation through the ReLU function creates impossibly negative populations, its overall Euclidean similarity to the source dataset is not as big as it could seem. The impossible alternative is specific just to some variables.

Now, what does it all have to do with anything? How is that estimation of error representative for collective intelligence in human societies? Good question. I am doing my best to give some kind of answer to it. Quantitative socio-economic variables represent valuable collective outcomes, and thus are informative about alternative orientations in collective action. The process of learning how to nail those valuable outcomes down consumes said orientation in action. Assuming that figuring out the right proportion of demographic anomaly in cities, as measured with DU/DG, is a valuable collective outcome, four collective orientations thereon have been simulated. One goes a bit haywire (negative populations), and yet it shows a possible state of society which attempts to sort of smooth out the social difference between cities and the countryside, with DU/DG being ten times lower than reality. Another one goes fantasque, with huge numbers and a slightly sci-fi-ish shade. The remaining two look like realistic alternatives, one essentially predictable with e1 = xo – h(tj), and another one essentially unpredictable, with e3 = xo – tanh[h(tj)].

I want my method to serve as a predictive tool for sketching the possible scenarios of technological change, in particular as regards the emergence and absorption of radically new technologies. On the other hand, I want my method to be of help when it comes to identifying the possible Black Swans, i.e. the rather unlikely and yet profoundly disturbing states of nature. As I look at those 4 alternative realities my perceptron has just made up (it’s not me, its him! Well, it…), I can see two Black Swans. The one made with the sigmoid activation function shows a possible direction which, for example, African countries could follow, should they experience rapid demographic growth. This particular Black Swan is a hypothetical situation, when population grows like hell. This automatically puts enormous pressure on agriculture. More people need more food. More agriculture requires more space and there is fewer left for cities. Still, more people around need more social roles, and we need to ramp up the production thereof in very densely packed urban populations, where the sheer density of human interaction makes our social brains just race for novelty. This particular Black Swan could be actually a historical reconstruction. It could be representative for the type of social change which we know as civilisational revival: passage from the nomad life to the sedentary one, like a dozen of thousands of years ago, reconstruction of social tissue after the fall of the Western Roman Empire in Europe, that sort of stuff.

Another Black Swan is made with the ReLU activation function and simulates a society, where cities lose their function as factories of new social roles. It is the society in downsizing. It is actually a historical reconstruction, too. This is what must have happened when the Western Roman Empire was collapsing, and before the European civilization bounced back.

Well, well, well, that s**t makes sense… Amazing.


[1] World Bank 1: https://data.worldbank.org/indicator/SP.URB.TOTL.IN.ZS

[2] World Bank 4: https://data.worldbank.org/indicator/SP.POP.TOTL

[3] World Bank 2: https://data.worldbank.org/indicator/AG.LND.TOTL.UR.K2

[4] World Bank 5: https://data.worldbank.org/indicator/EN.POP.DNST

États transcendants par rapport à cette réalité

Je continue de réfléchir sur les fondements théoriques de ma méthode de simulation d’intelligence collective dans les sociétés humaines. Je sens le besoin de résumer les points les plus importants, d’une part, ainsi que d’explorer le lien théorique entre la structure logique d’un réseau neuronal et la façon dont l’intelligence collective se joue dans des sociétés en chair et en os.

L’essence de ma méthode de recherche consiste à utiliser les réseaux neuronaux artificiels pour simuler le fonctionnement d’intelligence collective des sociétés humaines. Je me concentre le plus sur le phénomène de changement technologique et dans ce cadre, je me concentre même plus sur le marché de l’énergie. Je veux utiliser ma méthode à deux fins pratiques : simuler l’absorption d’une nouvelle technologie dans l’environnement socio-économique et l’émergence des phénomènes soudains et transformatifs du type Cygne Noir.

J’assume que les variables socio-économiques que je peux utiliser de façon quantitative sont des représentations imparfaites – car simplifiées – des phénomènes sociaux autrement plus complexes. Ces variables sont des phénomènes sociaux en elles-mêmes, car elles représentent un enchevêtrement cognitif entre l’action collective et les résultats obtenus de celle-ci. Nous mesurons collectivement les trucs qui sont importants parce qu’ils représentent des récompenses existentielles pour notre société. Si je vois donc une base de données comme celle de la Banque Mondiale ou bien celle d’EUROSTAT, je vois une multitude des variables quantitatives qui, à leur tour, représentent autant d’orientations d’action collective des sociétés humaines.

Ma méthode consiste à déconstruire partiellement l’enchevêtrement de ces variables, à travers une simulation mathématique où je construis autant de réalités alternatives artificielles qu’il y a de variables à prendre en compte. Ensuite, j’étudie la similarité mathématique entre ces réalités alternatives d’une part et la réalité empirique telle que représentée par les données empiriques. La construction de ces réalités artificielles suit la logique essentielle d’un réseau neuronal artificiel qui optimise une variable de parmi toutes celles étudiées – comme variable de sortie – tout en utilisant les autres variables comme matériel d’entrée à optimiser. Chacune de ces réalités artificielles est donc une représentation mathématique d’une orientation spécifique de la (des) société(s) étudiées : l’orientation sur le type donné de récompense.

Ma méthode assume donc que la société telle quelle est observable de façon empirique est une superposition d’orientations différentes. Plus de variables j’utilise dans ma recherche, plus d’orientations alternatives je peux découvrir ainsi. D’un autre point de vue, plus diverse est le panier des variables, donc plus je mélange les données en provenance des sources différentes, y compris mes propres coefficients ou me propres observations, plus d’orientations différentes je peux déconstruire à partir de la réalité empirique.

Ça, c’est la théorie de base. Pour l’appliquer en pratique, donc pour étudier l’émergence ou bien l’absorption possible des nouvelles technologies dans l’environnement socio-économique, il me faut introduire dans mon observation empirique des variables pertinentes à ces technologies. Pertinence peut être directe aussi bien qu’indirecte. Si j’inclue dans ma soupe primaire des nombres une variable telle que le pourcentage d’électricité en provenance des sources renouvelables, je décris la probabilité qu’une kilowatt heure prise au hasard, comme ça, dans la rue, provienne de ces technologies de génération. Si je prends une variable telle que l’efficience énergétique de l’économie nationale, donc la quantité de produit par unité d’énergie consommée, c’est plus indirect : je mesure l’incidence des technologies relativement plus efficientes en énergie par comparaison à celles relativement moins efficientes.

En pratique, l’observation directe de l’émergence et l’absorption des technologies a des limites qui se sentent très vite. Je peux mesurer, par exemple, le pourcentage de génération éolienne dans le panier d’énergie consommée. En revanche, lorsqu’il s’agit de mesurer la prévalence relative des solutions spécifiques dans les turbines, la transmission d’énergie, l’équilibrage du réseau etc., alors là, il n’y a pas vraiment foule comme données empiriques. Alors, je fais ce que les scientifiques font tout le temps en l’absence des données empiriques pertinentes : je triche. J’introduis dans mon ensemble des données des probabilités théoriques. J’ai donc une base de données bien catholique, avec des trucs comme PIB ou inflation dedans et j’ajoute un pourcentage théorique qui correspond à la probabilité qu’une technologie spécifique soit adoptée par un utilisateur pris au hasard. Enfin, j’hésite entre « adoptée » et « appliquée ». Lorsque j’adopte, je prends responsabilité. Lorsque j’applique, ‘y a moins de poids éthique.

Cette probabilité théorique, je peux la piloter à mon gré. Elle peut être complétement discrète – donc je lui donne des valeurs déterminées à priori – ou bien je peux la faire danser à un rythme plus ou moins aléatoire. Dans ce dernier cas, je simule une situation ou la société comme structure collectivement intelligente n’est jamais sûre de quel trou cette nouvelle technologie va surgir. Je peux simuler des réalités alternatives orientées sur des variables bien respectables, comme sur le nombre de demandes de brevet par 1 million d’habitants, et alors ces probabilités théoriques attachées aux technologies nouvelles sont un facteur de distorsion comme variable d’entrée. Je peux aussi construire des réalités alternatives qui sont bel et bien orientées sur ces variables probabilistes théoriques, l’histoire de voir la similarité mathématique entre elles et la réalité empirique telle que je l’ai devant mes yeux dans ma base des données.

Dans mon expérience jusqu’alors, les réalités alternatives orientées sur les variables « technologiques », empiriques ou théoriques, tombent mathématiquement plus loin de la réalité empirique que celles orientées sur des variables typiquement économiques, comme le nombre d’heures travaillées par personne par an. Ça arrive tout le temps, en fait, avec des configurations de données différentes. C’est comme si le changement technologique – soit l’orientation collective sur des variables « technologiques » – était une orientation instrumentale aux celles axées sur des effets purement sociétaux, comme le marché de travail. 

Mes réalités alternatives, je les construis à travers un processus d’apprentissage numérique, donc avec un réseau neuronal. Voilà donc que vient le moment vraiment délicat dans mon autoréflexion, celui de démontrer le lien entre la structure du réseau neuronal – et de même la structure d’apprentissage numérique – et le phénomène d’adaptation intelligente dans les sociétés humaines réelles. Je prends mes variables d’entrée et je les transforme en un seul nombre qui représente le signal d’apprentissage pour la fonction d’activation neuronale. Cette transformation par agrégation a deux composantes. Le truc général que je prends de la structure typique d’un perceptron consiste à multiplier chaque variable d’entrée par un facteur aléatoire compris entre 0 et 1, donc par le bon vieux RANDOM. Le truc spécifique que j’ai développé par moi-même est d’ajouter un facteur non-aléatoire de distance Euclidienne moyenne entre la variable en question et toutes les autres variables de l’ensemble, dans le pas expérimental précèdent. Évidemment, ce facteur non-aléatoire est absent du premier pas expérimental, puisqu’il n’a pas de pas précèdent. Selon mon intuition, cette distance Euclidienne représente le fait d’apprendre tout en prenant en compte la cohérence interne de la réalité représentée par des nombres. Selon mes observations empiriques, un réseau neuronal équipé de cette fonction de cohérence apprend de façon différente, par rapport au réseau qui s’en fiche. Avec facteur de cohérence, la courbe de l’erreur résiduelle est plus saccadée mais en fin de compte elle converge plus vite vers erreur minimale.

Je fais donc ce signal d’apprentissage « h », à partir de « n » variables d’entrée, comme h = R*E(tj-1)*x1(tj) + R*E(tj-1)*x2(tj) + … + R*E(tj-1)*xn(tj), où R est le facteur purement aléatoire et E est le facteur non-aléatoire de cohérence. Une fois le « h » calculé, je le mets dans ma fonction d’activation neuronale et là, il faut que je réfléchisse. Les fonctions d’activation que j’utilise le plus c’est soit le sigmoïde soit la tangente hyperbolique, avec un penchant pour la seconde. Je commence par déconstruire la tangente hyperbolique. Sa formule générale est tanh = (e2h – 1) / (e2h + 1), où « h » est bien le « h » comme spécifié plus haut, pendant que « e » est la constante d’Euler.              

Je commence par étudier les propriétés mathématiques de la tangente hyperbolique pour comprendre ce qu’elle fait à mes variables d’entrée. Les fonctions hyperboliques sont analogiques aux fonctions trigonométriques de base, seulement elles sont décrites sur une hyperbole et non pas sur un cercle. Une hyperbole est discontinue. Chaque portion d’une hyperbole représente un gradient différent. La tangente hyperbolique est donc une fonction périodique qui superpose plusieurs rythmes d’oscillation. La valeur de tangente hyperbolique n’est donc jamais en corrélation avec la variable d’entrée. La tangente hyperbolique est plus autonome par rapport à ces variables d’entrée que la tangente régulière (circulaire). Cette autonomie est exprimée par l’inclusion de la tangente hyperbolique dans la catégorie des nombres transcendants.   

La tangente hyperbolique transforme donc mes variables d’entrée en quelque chose qui n’a pas de corrélation fonctionnelle avec elles. C’est comme si les variables d’entrée créaient un plan différent de réalité. Pas si bête que ça, en fait. La perception (des variables d’entrée) forme un plan cognitif qui est différent de la réalité elle-même. Lorsque la société s’adapte à un signal d’apprentissage complexe, l’adaptation prend une forme spéciale. Le premier exemple qui me vient à l’esprit est notre adaptation collective au changement climatique. Le climat change et nous transformons ce changement en des symboles complexes : « il faut défendre la Terre », « il faut inventer quelque chose de nouveau », « il faut abandonner ces carburants fossiles ignobles » etc. Ce n’est qu’après s’être pompé culturellement avec ces symboles qu’on fait quoi que ce soit d’utile.

La tangente hyperbolique a une autre propriété intéressante. Dans tanh = (e2h – 1) / (e2h + 1), il y a le « h » qui change, accompagné de la constante : (e2 – 1) / (e2 + 1) = 6,389056099 / 8,389056099 = 0,761594156. J’ai remarqué qu’avec le calcul h = R*E(tj-1)*x1(tj) + R*E(tj-1)*x2(tj) + … + R*E(tj-1)*xn(tj), plus j’ai de variables différentes dans mon ensemble, donc dans ma réalité empirique de base, plus grande est l’amplitude d’oscillation dans « ». Plus complexe est donc ma représentation de réalité, plus d’états différents d’activation neuronale, transcendants par rapport à cette réalité, sont créés avec la tangente hyperbolique.  

Representative for collective intelligence

I am generalizing from the article which I am currently revising, and I am taking a broader view on many specific strands of research I am running, mostly in order to move forward with my hypothesis of collective intelligence in human social structures. I want to recapitulate on my method – once more – in order to extract and understand its meaning. 

I have recently realized a few things about my research. Firstly, I am using the logical structure of an artificial neural network as a simulator more than an optimizer, as digital imagination rather than functional, goal-oriented intelligence, and that seems to be the way of using AI which hardly anyone else in social sciences seems to be doing. The big question which I am (re)asking myself is to what extent are my simulations representative for the collective intelligence of human societies.

I start gently, with variables, hence with my phenomenology. I mostly use the commonly accessible and published variables, such as those published by the World Bank, the International Monetary Fund, STATISTA etc. Sometimes, I make my own coefficients out of those commonly accepted metrics, e.g. the coefficient of resident patent applications per 1 million people, the proportion between the density of population in cities and the general one, or the coefficient of fixed capital assets per 1 patent application.

My take on any variables in social sciences is very strongly phenomenological, or even hermeneutic. I follow the line of logic which you can find, for example, in “Phenomenology of Perception” by Maurice Merleau-Ponty (reprint, revised, Routledge, 2013, ISBN 1135718601, 9781135718602). I assume that any of the metrics we have in social sciences is an entanglement of our collective cognition with the actual s**t going on. As the actual s**t going on encompasses our way of forming our collective cognition, any variable used in social sciences is very much like a person’s attempt to look at themselves from a distance. Yes! This is what we use mirrors for! Variables used in social sciences are mirrors. Still, they are mirrors made largely by trial and error, with a little bit of a shaky hand, and each of them shows actual social reality in slightly disformed a manner.

Empirical research in social sciences consists, very largely, in a group of people trying to guess something about themselves on the basis of repeated looks into a set of imperfect mirrors. Those mirrors are imperfect, and yet they serve some purpose. I pass to my second big phenomenological take on social reality, namely that our entangled observations thereof are far from being haphazard. The furtive looks we catch of the phenomenal soup, out there, are purposeful. We pay attention to things which pay off. We define specific variables in social sciences because we know by experience that paying attention to those aspects of social reality brings concrete rewards, whilst not paying attention thereto can hurt, like bad.

Let’s take inflation. Way back in the day, like 300 years ago, no one really used the term of inflation because the monetary system consisted in a multitude of currencies, mixing private and public deeds of various kinds. Entire provinces in European countries could rely on bills of exchange issued by influential merchants and bankers, just to switch to other type of bills 5 years later. Fluctuations in the rates of exchange in those multiple currencies very largely cancelled each other. Each business of respectable size was like a local equivalent of the today’s Forex exchange. Inflation was a metric which did not even make sense at the time, as any professional of finance would intuitively ask back: ‘Inflation? Like… inflation in which exactly among those 27 currencies I use everyday?’.

Standardized monetary systems, which we call ‘FIAT money’ today, steadied themselves only in the 19th century. Multiple currencies progressively fused into one, homogenized monetary mass, and mass conveys energy. Inflation is loss of monetary energy, like entropy of the monetary mass. People started paying attention to inflation when it started to matter.

We make our own social reality, which is fundamentally unobservable to us, and it makes sense because it is hard to have an objective, external look at a box when we are staying inside the box. Living in that box, we have learnt, over time, how to pay attention to the temporarily important properties of the box. We have learnt how to use maths for fine tuning in that selective perception of ours. We learnt, for example, to replace the basic distinction between people doing business and people not doing business at all with finer shades of how much business are people doing exactly in a unit of time-space.   

Therefore, a set of empirical variables, e.g. from the World Bank, is a collection of imperfect observations, which represent valuable outcomes social outcomes. A set of N socio-economic variables represents N collectively valuable social outcomes, which, in turn, correspond to N collective pursuits – it is a set of collective orientations. Now, my readers have the full right to protest: ‘Man, just chill. You are getting carried away by your own ideas. Quantitative variables about society and economy are numbers, right? They are the metrics of something. Measurement is objective and dispassionate. How can you say that objectively gauged metrics are collective orientations?’. Yes, these are all valid objections, and I made up that little imaginary voice of my readers on the basis of reviews that I had for some of my papers.

Once again, then. We measure the things we care about, and we go to great lengths in creating accurate scales and methods of measurement for the things we very much care about. Collective coordination is costly and hard to achieve. If we devote decades of collective work to nail down the right way of measuring, e.g. the professional activity of people, it probably matters. If it matters, we are collectively after optimizing it. A set of quantitative, socio-economic variables represents a set of collectively pursued orientations.

In the branch of philosophy called ethics, there is a stream of thought labelled ‘contextual ethics’, whose proponents claim that whatever normatively defined values we say we stick to, the real values we stick to are to be deconstructed from our behaviour. Things we are recurrently and systematically after are our contextual ethical values. Yes, the socio-economic variables we can get from your average statistical office are informative about the contextual values of our society.

When I deal with a variable like the % of electricity in the total consumption of energy, I deal with a superimposition of two cognitive perspectives. I observe something that happens in the social reality, and that phenomenon takes the form of a spatially differentiated, complex state of things, which changes over time, i.e. one complex state transitions into another complex state etc. On the other hand, I observe a collective pursuit to optimize that % of electricity in the total consumption of energy.

The process of optimizing a socio-economic metric makes me think once again about the measurement of social phenomena. We observe and measure things which are important to us because they give us some sort of payoff. We can have collective payoffs in three basic ways. We can max out, for one. Case: Gross Domestic Product, access to sanitation. We can keep something as low as possible, for two. Case: murder, tuberculosis. Finally, we can maintain some kind of healthy dynamic balance. Case: inflation, use of smartphones. Now, let’s notice that we don’t really do fine calculations about murder or tuberculosis. Someone is healthy or sick, still alive or already murdered. Transitional states are not really of much of a collective interest. As it comes to outcomes which pay off by the absence of something, we tend to count them digitally, like ‘is there or isn’t there’. On the other hand, those other outcomes, which we max out on or keep in equilibrium, well, that’s another story. We invent and perfect subtle scales of measurement for those phenomena. That makes me think about a seminal paper titled ‘Selection by consequences’, by the founding father of behaviourism, Burrhus Frederic Skinner. Skinner introduced the distinction between positive and negative reinforcements. He claimed that negative reinforcements are generally stronger in shaping human behaviour, whilst being clumsier as well. We just run away from a tiger, we don’t really try to calibrate the right distance and the right speed of evasion. On the other hand, we tend to calibrate quite finely our reactions to positive reinforcements. We dose our food, we measure exactly the buildings we make, we learn by small successes etc.  

If a set of quantitative socio-economic variables is informative about a set of collective orientations (collectively pursued outcomes), one of the ways we can study that set consists in establishing the hierarchy of orientations. Are some of those collective values more important than others? What does it even mean ‘more important’ in this context, and how can it be assessed? We can imagine that each among the many collective orientations is an individual pursuing their idiosyncratic path of payoffs from interactions with the external world. By the way, this metaphor is closer to reality than it could appear at the first sight. Each human is, in fact, a distinct orientation. Each of us is action. This perspective has been very sharply articulated by Martin Heidegger, in his “Being and Time”.    

Hence, each collective orientation can be equated to an individual force, pulling the society in a specific direction. In the presence of many socio-economic variables, I assume the actual social reality is a superimposition of those forces. They can diverge or concur, as they please, I do not make any assumptions about that. Which of those forces pulls the most powerfully?

Here comes my mathematical method, in the form of an artificial neural network. I proceed step by step. What does it mean that we collectively optimize a metric? Mostly by making it coherent with our other orientations. Human social structures are based on coordination, and coordination happens both between social entities (individuals, cities, states, political parties etc.), and between different collective pursuits. Optimizing a metric representative for a collectively valuable outcome means coordinating with other collectively valuable outcomes. In that perspective, a phenomenon represented (imperfectly) with a socio-economic metric is optimized when it remains in some kind of correlation with other phenomena, represented with other metrics. The way I define correlation in that statement is a broad one: correlation is any concurrence of events displaying a repetitive, functional pattern.

Thus, when I study the force of a given variable as a collective orientation in a society, I take this variable as the hypothetical output in the process (of collective orientation, and I simulate that process as the output variable sort of dragging the remaining variables behind it, by the force of functional coherence. With a given set of empirical variables, I make as many mutations thereof as I have variables. Each mutated set represents a process, where one variable as output, and the remaining ones as input. The process consists of as many experiments as there are observational rows in my database. Most socio-economic variables come in rows of the type “country A in year X”.  

Here, I do a little bit of mathematical cavalry with two different models of swarm intelligence: particle swarm and ants’ colony (see: Gupta & Srivastava 2020[1]). The model of particle swarm comes from the observation of birds, which keeps me in a state of awe about human symbolic creativity, and it models the way that flocks of birds stay collectively coherent when they fly around in the search of food. Each socio-economic variable is a collective orientation, and in practical terms it corresponds to a form of social behaviour. Each such form of social behaviour is a bird, which observes and controls its distance from other birds, i.e. from other forms of social behaviour. Societies experiment with different ways of maintaining internal coherence between different orientations. Each distinct collective orientation observes and controls its distance from other collective orientations. From the perspective of an ants’ colony, each form of social behaviour is a pheromonal trace which other forms of social behaviour can follow and reinforce, or not give a s**t about it, to their pleasure and leisure. Societies experiment with different strengths attributed to particular forms of social behaviour, which mimics an ants’ colony experimenting with different pheromonal intensities attached to different paths toward food.

Please, notice that both models – particle swarm and ants’ colony – mention food. Food is the outcome to achieve. Output variables in mutated datasets – which I create out of the empirical one – are the food to acquire. Input variables are the moves and strategies which birds (particles) or ants can perform in order to get food. Experimentation the ants’ way involves weighing each local input (i.e. the input of each variable in each experimental round) with a random weight R, 0 < R < 1. When experimenting the birds’ way, I drop into my model the average Euclidean distance E from the local input to all the other local inputs.   

I want to present it all rolled nicely into an equation, and, as noblesse oblige, I introduce symbols. The local input of an input variable xi in experimental round tj is represented with xi(tj), whilst the local value of the output variable xo is written as xo(tj). The compound experimental input which the society makes, both the ants’ way and the birds’ way, is written as h(tj), and it spells h(tj) = x1(tj)*R* E[xi(tj-1)] + x2(tj)*R* E[x2(tj-1)] + … + xn(tj)*R* E[xn(tj-1)].    

Up to that point, this is not really a neural network. It mixes things up, but it does not really adapt. I mean… maybe there is a little intelligence? After all, when my variables act like a flock of birds, they observe each other’s position in the previous experimental round, through the E[xi(tj-1)] Euclidean thing. However, I still have no connection, at this point, between the compound experimental input h(tj) and the pursued output xo(tj). I need a connection which would work like an observer, something like a cognitive meta-structure.

Here comes the very basic science of artificial neural networks. There is a function called hyperbolic tangent, which spells tanh = (e2x – 1)/(e2x + 1) where x can be whatever you want. This function happens to be one of those used in artificial neural networks, as neural activation, i.e. as a way to mediate between a compound input and an expected output. When I have that compound experimental input h(tj) = x1(tj)*R* E[xi(tj-1)] + x2(tj)*R* E[x2(tj-1)] + … + xn(tj)*R* E[xn(tj-1)], I can put it in the place of x in the hyperbolic tangent, and I bet tanh = (e2h  – 1)/(e2h  + 1). In a neural network, error in optimization can be calculated, generally, as e = xo(tj) – tanh[h(tj)]. That error can be fed forward into the next experimental round, and then we are talking, ‘cause the compound experimental input morphs into:

>>  input h(tj) = x1(tj)*R* E[xi(tj-1)]*e(tj-1) + x2(tj)*R* E[x2(tj-1)] *e(tj-1) + … + xn(tj)*R* E[xn(tj-1)] *e(tj-1)   

… and that means that each compound experimental input takes into account both the coherence of the input in question (E), and the results of previous attempts to optimize.

Here, I am a bit stuck. I need to explain, how exactly the fact of computing the error of optimization e = xo(tj) – tanh[h(tj)] is representative for collective intelligence.


[1] Gupta, A., & Srivastava, S. (2020). Comparative analysis of ant colony and particle swarm optimization algorithms for distance optimization. Procedia Computer Science, 173, 245-253. https://doi.org/10.1016/j.procs.2020.06.029

Cœur de réflexion

Je me concentre sur un aspect particulier de la révision finale de mon article pour « International Journal of Energy Sector Management » – sous le titre « Climbing the right hill – an evolutionary approach to the European market of electricity » – notamment sur le rapport entre ma méthodologie et celle de MuSIASEM, soit « Multi-scale Integrated Analysis of Societal and Ecosystem Metabolism ».

Je me réfère plus particulièrement à trois articles que je juge représentatifs pour ce créneau de recherche :

>> Al-Tamimi and Al-Ghamdi (2020), ‘Multiscale integrated analysis of societal and ecosystem metabolism of Qatar’ Energy Reports, 6, 521-527, https://doi.org/10.1016/j.egyr.2019.09.019 

>> Andreoni, V. (2020). The energy metabolism of countries: Energy efficiency and use in the period that followed the global financial crisis. Energy Policy, 139, 111304. https://doi.org/10.1016/j.enpol.2020.111304

>> Velasco-Fernández, R., Pérez-Sánchez, L., Chen, L., & Giampietro, M. (2020), A becoming China and the assisted maturity of the EU: Assessing the factors determining their energy metabolic patterns. Energy Strategy Reviews, 32, 100562.  https://doi.org/10.1016/j.esr.2020.100562

De parmi ces trois, je choisis subjectivement le travail de prof. Andreoni (2020[1]) comme le plus solide en termes de théorie. L’idée de base de MuSIASEM est d’étudier l’efficience énergétique des sociétés humaines comme un métabolisme, donc comme un système complexe qui se soutient et se développe à travers la transformation d’énergie et de ressources matérielles.  

J’essaie de comprendre et présenter la logique de base de MuSIASEM en explorant les avantages que professeur Andreoni attribue à cette méthode. Je me permets de traduire fidèlement un passage de l’article (2020[2]) : « […] l’approche MuSIASEM présente des avantages par rapport aux autres méthodologies utilisées pour étudier le métabolisme des sociétés, telles que ‘emergy’, empreinte écologique et l’analyse entrée-sortie […]. En fournissant des descriptions intégrées à travers des niveaux d’analyse différents, l’approche MuSIASEM ne réduit pas l’information en un index quantitatif unique et analyse l’énergie utilisée par rapport aux structures socio-économiques concrètes. Qui plus est, l’inclusion de dimensions multiples (telles que le PIB, temps humain et consommation d’énergie) en combinaison avec des échelles différentes d’analyse (telles que le niveau sectoriel et le niveau national) rend possible de fournir l’information pertinente aux processus à l’intérieur du système ainsi que d’analyser la façon dont les variables externes (telles que la crise économique et la pénurie des ressources) peuvent affecter l’allocation et l’utilisation des ressources ».      

Je me dis que si quelqu’un se vante d’avoir des avantages par rapport à quoi que ce soit d’autre, ces avantages reflètent les aspects les plus importants des phénomènes en question, selon le même quelqu’un. Ainsi donc, prof. Andreoni assume que MuSIASEM permet d’étudier quelque chose d’important – l’efficience énergétique des sociétés comme un métabolisme – toute en ayant l’avantage de déconstruction des variables agrégées en des variables composantes ainsi que celui de multi-dimensionnalité d’analyse. 

Les variables étudiées semblent donc être la base de la méthode. Parlons donc des variables. Professeur Andreoni présente dans son article trois variables essentielles :

>> L’activité humaine totale, calculée comme le produit de : [la population] x [24 heures] x [365 jours]

>> Transformation totale d’énergie, calculée comme la somme de : [consommation finale d’énergie] + [Consommation interne d’énergie dans le secteur d’énergie] + [Pertes d’énergie dans sa transformation]

>> Produit Intérieur Brut  

Ces trois variables fondamentales sont étudiées à trois niveaux différents d’agrégation. Le niveau de base est celui d’économie(s) nationale(s), à partir d’où on décompose, tout d’abord, entre les secteurs macroéconomiques de : ménages par opposition à celui d’activité payée (entreprises plus secteur public). Ensuite, ces secteurs macroéconomiques sont tous les deux désagrégés en l’agriculture, l’industrie et les services.

A chaque niveau d’agrégation, les trois variables fondamentales sont mises en relation entre elles pour calculer deux coefficients : intensité énergétique et métabolisme d’énergie. Celui d’intensité énergétique est calculé comme quantité d’énergie utilisée pour produire un euro de Produit Intérieur Brut et c’est donc l’inverse de l’efficience énergétique (cette dernière est calculée comme quantité de PIB produite à partir d’une unité d’énergie). Le coefficient métabolique, en revanche, est calculé comme la quantité d’énergie par heure d’activité humaine.

J’ai quelques remarques critiques par rapport à ces variables, mais avant de développer là-dessus je contraste rapidement avec ma méthode. Les variables de professeur Andreoni sont des transformations des variables utilisées dans des bases de données publiquement accessibles. Professeur Andreoni prend donc une méthode générale d’observation empirique – donc par exemple la méthode de calculer la consommation finale d’énergie – et transforme cette méthode générale de façon à obtenir une vue différente de la même réalité empirique. Cette transformation tend à agréger des variables « communes ». Moi, de mon côté, j’utilise un éventail large des variables communément formalisées et présentées dans des bases de données publiquement accessibles plus un petit zest des coefficients que je calcule moi-même. En fait, dans la recherche sur l’énergie, j’utilise juste deux coefficients originaux, soit le nombre moyen de demandes de brevet nationales par 1 million d’habitants, d’une part, et la quantité moyenne de capital fixe d’entreprise par une demande nationale de brevet. Quant au reste, j’utilise des variables communes. Dans cet article que je suis en train de finir pour « International Journal of Energy Sector Management » j’utilise les quarante et quelques variables de Penn Tables 9.1. (Feenstra et al. 2015[3]) plus des variables de la Banque Mondiale au sujet d’énergie (consommation finale, participation des sources renouvelables, participation d’électricité) plus des données Eurostat sur les prix d’électricité, plus ces deux coefficients relatifs aux demandes nationales de brevets.

La différence entre ma méthode et celle de MuSIASEM est donc visible déjà au niveau phénoménologique. Moi, je prends la phénoménologie généralement acceptée – donc par exemple la phénoménologie de consommation d’énergie ou celle d’activité économique – et ensuite j’étudie le rapport entre les variables correspondantes pour en extraire un tableau plus complexe. Je sais déjà que dans ma méthode, la quantité et la diversité des variables est un facteur clé. Mes résultats deviennent vraiment robustes – donc cohérents à travers des échantillons empiriques différents – lorsque j’utilise une panoplie riche de variables. Chez MuSIASEM, en revanche, ils commencent par construire leur propre phénoménologie au tout début en ensuite ils raisonnent avec.

Il semble y avoir un terrain commun entre ma méthode et celle de MuSIASEM : on semble être d’accord que les variables macroéconomiques telles qu’elles sont accessibles publiquement donnent l’image imparfaite d’une réalité autrement plus complexe. A partir de là, toutefois, il y différence. Moi, j’assume que si je prends beaucoup d’observations imparfaites distinctes – donc beaucoup de variables différentes, chacune un peu à côté de la réalité – je peux reconstruire quelque chose à propos de ladite réalité en transformant ces observations imparfaites avec un réseau neuronal. J’assume donc que je ne sais pas d’avance de quelle manière exacte ces variables sont imparfaites et je m’en fiche par ailleurs. C’est comme si reconstruisais un crime (j’adore les romans policiers) à partir d’un grand nombre des dépositions faites par des témoins qui, au moment et en présence du crime en question étaient soit ivres, soit drogués soit ils regardaient un match de foot sur leur portable. J’assume qu’aussi peu fiables soient tous ces témoins, je peux interposer et recombiner leurs dépositions de façon à cerner le mécréant qui a tué la vieille dame. J’expérimente avec des combinaisons différentes et j’essaie de voir laquelle est la plus cohérente. Chez MuSIASEM, en revanche, ils établissent d’avance une méthode de mettre en concours des dépositions imparfaites des témoins en état d’ébriété et ensuite ils l’appliquent de façon cohérente à travers tous les cas de tels témoignages.

Jusqu’à ce point-là, ma méthode est garnie d’assomptions moins fortes que celle de MuSIASEM. De manière générale je préfère des méthodes avec des assomptions faibles. Lorsque je mets en question des idées reçues, tout simplement en les suspendant et en vérifiant si elles tiennent le coup (de suspension), j’ai la chance de trouver plus de trucs nouveaux et intéressants.  Maintenant, je m’offre le plaisir pervers de passer au peigne fin les assomptions fortes de MuSIASEM, juste pour voir où bien puis-je leur enfoncer une épingle. Je commence par l’activité humaine totale, calculée comme le produit de : [la population] x [24 heures] x [365 jours]. Première remarque : le produit 24 heures fois 365 jours = 8760 heures est une constante. Si je compare deux pays aux populations différentes, leur activités humaines totales respectives seront différentes uniquement à travers leurs démographies différentes. Le produit [24 heures] x [365 jours] est donc une décoration redondante du point de vue mathématique. Toutefois, c’est une redondance astucieuse. Le produit 24 heures fois 365 jours = 8760 c’est le facteur de multiplication communément utilisé pour transformer la capacité énergétique en énergie effectivement accessible. On prend la puissance d’une bombe atomique, en joules, on la recalcule en kilowatts, on la multiplie par 24 heures fois 365 jours et boum : on obtient la quantité d’énergie accessible à la population générale si cette bombe explosait continuellement tout le long de l’année. On ajoute toutefois 24 heures supplémentaires d’explosion pour les années bissextiles.

Bombe atomique ou pas, le produit 24 heures fois 365 jours = 8760 est donc utile lorsqu’on veut faire une connexion élégante entre la démographie et la transformation d’énergie, ce qui semble judicieux dans une méthode de recherche qui se concentre précisément sur l’énergie. La multiplication « population x 8760 heures dans l’année » est-elle donc pertinente comme mesure d’activité humaine ? Hmmouiais… peut-être, à la rigueur… Je veux dire, si nous avons des populations très similaires en termes de style de vie et de technologie, elles peuvent démontrer des niveaux d’activité similaires par heure et donc des niveaux d’activité humaine totales distincts uniquement sur la base de leurs démographies différentes. Néanmoins, il nous faut des populations vraiment très similaires. Si nous prenons une portion essentielle de l’activité humaine – la production agricole par tête d’habitant – et nous la comparons entre la Belgique, l’Argentine et Botswana, nous obtenons des coefficients d’activité tout à fait différents.

Je pense donc que les assomptions qui maintiennent l’identité phénoménologique l’activité humaine totale = [la population] x [24 heures] x [365 jours] sont des assomptions tellement fortes qu’elles en deviennent dysfonctionnelles. J’assume donc que la méthode MuSIASEM utilise en fait la taille de la population comme une variable fondamentale, point à la ligne. Moi je fais de même, par ailleurs. Je trouve la démographie jouer un rôle injustement secondaire dans la recherche économique. Je vois que beaucoup de chercheurs utilisent des variables démographiques comme « calibrage » ou « facteurs d’ajustement ».  Tout ce que je sais sur la théorie générale des systèmes complexes, par exemple le créneau de recherche sur la théorie d’automates cellulaires (Bandini, Mauri & Serra 2001[4] ; Yu et al. 2021[5]) ou bien la théorie d’essaims (Gupta & Srivastava (2020[6]), suggère que la taille des populations ainsi que leur intensité d’interactions sociales sont des attributs fondamentaux de chaque civilisation.                    

Je trouve donc que l’identité phénoménologique l’activité humaine totale = [la population] x [24 heures] x [365 jours] dans la méthode MuSIASEM est donc une sorte de ruse, un peu superflue, pour introduire la démographie au cœur de la réflexion sur l’efficience énergétique. Par conséquent, le coefficient métabolique de MuSIASEM, calculé comme la quantité d’énergie par heure d’activité humaine, est équivalent à la consommation d’énergie par tête d’habitant. Le métabolisme énergétique d’une société humaine est donc défini par la consommation d’énergie par tête d’habitant (https://data.worldbank.org/indicator/EG.USE.PCAP.KG.OE ) ainsi que le coût énergétique de PIB (https://data.worldbank.org/indicator/EG.USE.COMM.GD.PP.KD ). Les liens hypertexte entre parenthèses renvoient à des bases de données correspondantes de la Banque Mondiale. Lorsque je regarde ces deux coefficients à travers le monde et je fais un truc absolument simpliste – je discrimine les pays et les régions en une liste hiérarchique – deux histoires différentes émergent. Le coefficient de consommation d’énergie par tête d’habitant raconte une histoire de hiérarchie pure et simple de bien-être économique et social. Plus ce coefficient est élevé, plus le pays donné est développé en termes non seulement de revenu par tête d’habitant mais aussi en termes de complexité institutionnelle, droits de l’homme, complexité technologique etc.

Lorsque j’écoute l’histoire dite par le coût énergétique de PIB (https://data.worldbank.org/indicator/EG.USE.COMM.GD.PP.KD ), c’est compliqué comme une enquête policière. Devinez donc les points communs entre Panama, Sri Lanka, la Suisse, l’Irlande, Malte et la République Dominicaine. Fascinant, non ? Eh bien, ces 6 pays sont en tête de la course planétaire à l’efficience énergétique, puisqu’ils sont tous les six capables de produire 1000 dollars de PIB avec moins de 50 kilogrammes d’équivalent pétrole en énergie consommée. Pour placer leur exploit dans un contexte géographique plus large, les États-Unis et la Serbie sont plus de deux fois plus bas dans cette hiérarchie, tout près l’un de l’autre, à 122 kilogrammes d’équivalent pétrole par 1000 dollars de PIB. Par ailleurs, ça les place tous les deux près de la moyenne planétaire ainsi que celle des pays dans la catégorie « revenu moyen inférieur ».

Si je récapitule mes observations sur la géographie de ces deux coefficients, les sociétés humaines différentes semblent avoir une capacité très idiosyncratique d’optimiser le coût énergétique de PIB à des niveaux différents de la consommation d’énergie par tête d’habitant. C’est comme s’il y avait une façon différente d’optimiser l’efficience énergétique en étant pauvre, par rapport à celle d’optimiser la même efficience lorsqu’on est riche et développé.

Nous, les homo sapiens, on peut faire des trucs vraiment bêtes dans le quotidien mais dans le long terme nous sommes plutôt pratiques, ce qui pourrait notre capacité actuelle de transformer quelque 30% de l’énergie totale à la surface de la planète. Si hiérarchie il y a, cette hiérarchie a probablement un rôle à jouer. Difficile à dire quel rôle exactement mais ça semble important d’avoir cette structure hiérarchique d’efficience énergétique. C’est un autre point où je diverge de la méthode MuSIASEM. Les chercheurs actifs dans le créneau MuSIASEM assument que l’efficience énergétique maximale est un impératif évolutif de notre civilisation et que tous les pays devraient aspirer à l’optimiser. Hiérarchies d’efficiences énergétique sont donc perçues comme un accident historique dysfonctionnel, probablement effet d’oppression des pauvres par les riches. Bien sûr, on peut demander si les habitants de la République Dominicaine sont tellement plus riches que ceux des États-Unis, pour avoir une efficience énergétique presque trois fois supérieure.


[1] Andreoni, V. (2020). The energy metabolism of countries: Energy efficiency and use in the period that followed the global financial crisis. Energy Policy, 139, 111304. https://doi.org/10.1016/j.enpol.2020.111304

[2] Andreoni, V. (2020). The energy metabolism of countries: Energy efficiency and use in the period that followed the global financial crisis. Energy Policy, 139, 111304. https://doi.org/10.1016/j.enpol.2020.111304

[3] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at http://www.ggdc.net/pwt&nbsp;

[4] Bandini, S., Mauri, G., & Serra, R. (2001). Cellular automata: From a theoretical parallel computational model to its application to complex systems. Parallel Computing, 27(5), 539-553. https://doi.org/10.1016/S0167-8191(00)00076-4

[5] Yu, J., Hagen-Zanker, A., Santitissadeekorn, N., & Hughes, S. (2021). Calibration of cellular automata urban growth models from urban genesis onwards-a novel application of Markov chain Monte Carlo approximate Bayesian computation. Computers, environment and urban systems, 90, 101689. https://doi.org/10.1016/j.compenvurbsys.2021.101689

[6] Gupta, A., & Srivastava, S. (2020). Comparative analysis of ant colony and particle swarm optimization algorithms for distance optimization. Procedia Computer Science, 173, 245-253. https://doi.org/10.1016/j.procs.2020.06.029

Living next door to such small success

Just two updates ago, I was trying to combine my work on the technological concept which I labelled ‘Energy Ponds’ AKA ‘Project Aqueduct’, with more theoretical a strand of research on collective intelligence in human societies. A third component thread has come into the game, a bit as a surprise. The editor of ‘International Journal of Energy Sector Management’ has just asked me to give a final revision to the manuscript which I am about to publish with them, titled ‘Climbing the right hill – an evolutionary approach to the European market of electricity’. More specifically, the editor asks me to refine the style of the paper, so as to make it more accessible to non-initiated readers.

I think I am smart. Many people think they are. I know I tend to overestimate my work capacity, though. I need an intellectual synthesis for all the three things: ‘Energy Ponds’, research on collective intelligence, and the final revision of my article. I need some kind of common denominator over which I could put and denominate all that intellectual stuff. I focus on the phenomenon of technological change. My most fundamental intuition about technological change is that it happens as a by-product of us, humans, collectively pursuing some other outcomes. I perceive technology as an emergence (not to confound with emergency) which happens when human societies reach a given level of complexity. Technologies are complex ways human interaction with the broadly spoken natural environment, i.e. with both natural resources and natural constraints.

I am rummaging in my most personal cases of technological change, namely my idea of ‘Energy Ponds’, and my investment decisions in the stock market. Non-linearity of change keeps floating to the surface. When the most obvious path of development in a technology is tight optimization through a sequence of small incremental improvements in efficiency, that technology is close to maturity in its lifecycle, and is not much of a big deal anymore. The truly promising technologies, those able to wake up the neighbours, are those with yet unclear prospects for optimization, with different alternative paths of experimentation in view.

Deep technological change occurs as non-linear path of experimentation in collective human interaction with both natural resources and natural constraints. Non-linearity means uncertainty, and uncertainty implies alternative states of nature, spread over a broad spectrum of outcomes. Them Black Swans are just waiting around the street corner. Deep technological change can play out according to different scenarios. We tend to think about scenarios as sequences, only with technological change the sequence is highly speculative, and the more uncertain the further we go from the starting point. There is another way of defining a scenario, namely as an orientation, a social force which pushes in a specific direction.

I start connecting the dots. Deep, break-through technological change practically never happens as a clearly purposeful collective strategy. It is always a disruption, and it takes us by surprise. Technological change happens as a sudden shortcut to achieve whatever collective outcomes we are after. People who invented the wheel probably didn’t want to invent the wheel as such, they were after a better way of transportation by land. Internet was invented because scientists started to work in large, dispersed networks of labs and needed a fast communication system for a lot of content.

Thus, we are after something, and, accidentally, we invent something else, which makes ripples across the social structure. We use the transformational force conveyed in those ripples to keep pursuing the same collective outcomes. It is interesting to notice that a new technology is practically never superior per se to the incumbent solutions. Social improvement happens only when human societies wrap themselves around that novel stuff and learn how to use it. Let’s suppose that a benevolent and very advanced alien race hands out to us a technology to travel between parallel universes. Looks cool, at the first sight. When we think about it longer, though, questions arise. What are the practical benefits of travelling between parallel universes? It is only when we figure out those benefits that we start absorbing that otherwise revolutionary technology.

I double back a bit on my own words. Deep technological change is essentially disruptive and surprising, and yet there is more to technological change than just the deep and disruptive kind. Periods of grinding, progressive optimization come after and between deep technological ripples. Here, I ask: why? Why the hell having all that business of technological change? It is interesting to notice that rapid technological change makes rifts in space just as it does in time. There are places on this planet where humans have been living for quite a few millennia without inventing s**t. It is even more interesting to notice that some among those no-progress lands used to be quite the opposite in the past. Amazonian jungle is a good example. Pre-Colombian people (i.e. people who used to live there before they learnt they had just been discovered) had a thriving civilization, with a lot of innovations up their sleeve, such as altitude specific agriculture in terraced fields, or written communication using pieces of string. Afghanistan (hic!) is another example. Centuries before Pythagoras figured out his angles and them square roots from sums of square powers, the place which we call ‘Afghanistan’ today used to be a huge mining hub, providing tin to all of the Bronze Age civilization in the Mediterranean and the Levant.

My point is that we, humans, need a good kick where it really hurts, plus some favourable conditions to recover when it really hurts, and then we start inventing stuff. Still, many of us can pass entire epochs (literally epochs) without figuring out anything new. As I like surfing through literature as I write, a few quotes come to my mind, out of the books I am reading now. Out of ‘The Black Swan. The impact of the highly improbable’ by Nassim Nicolas Taleb , Penguin, 2010, I have that passage from page 114: “Consider the following: of all the colorful adventurers who have lived on our planet, many were occasionally crushed, and a few did bounce back repeatedly. It is those who survive who will tend to believe that they are indestructible; they will have a long and interesting enough experience to write books about it. Until, of course … Actually, adventurers who feel singled out by destiny abound, simply because there are plenty of adventurers, and we do not hear the stories of those down on their luck”. The point is that we mostly know about technological change we know, as it were. The folds of history, which we tend to smooth out ex post, cover thousands of episodes when inventions simply didn’t work. I wonder how many people got mauled to death before someone finally nailed down the right way to make big, strong oxen pull heavy carts on wheels.

The adventure of technological change plays out favourably just sometimes, and yet we keep trying. Here come two quotes from another book: ‘The Knowledge Illusion. Why we never think alone’ by Steven Sloman and Philip Fernbach, RIVERHEAD BOOKS (An imprint of Penguin Random House LLC, Ebook ISBN: 9780399184345, Kindle Edition). On page page 133 thereof a whole new chapter starts under the provocative title: Technology as an Extension of Thought. It goes: ‘The mastery of new technology has gone hand in hand with the evolution of our species. According to Ian Tattersall, curator emeritus with the American Museum of Natural History in New York, “cognitive capacity and technology reinforced each other” as civilization developed. Genetic evolution and technological change have run in tandem throughout our evolutionary history. As brains increased in size from one hominid species to its descendants, tools became more sophisticated and more common. Our predecessors started using rocks with sharp edges. Later generations discovered fire, stone axes, and knives, followed by harpoons and spears, then nets, hooks, traps, snares, and bows and arrows, and eventually farming. Each of these technological changes was accompanied by all the other changes that led to the modern human being: cultural, behavioral, and genetic changes’. A few pages further, p. 150, the same authors write about the modern technology of crowdsourcing: ‘The power of crowdsourcing and the promise of collaborative platforms suggest that the place to look for real superintelligence is not in a futuristic machine that can outsmart human beings. The superintelligence that is changing the world is in the community of knowledge’.

It seems that we, humans, invent new things just because we can, just because we are biologically wired for it. Still, that creative interaction with our environment is full of failures, which, from time to time, produce some timid successes. The local humans, living next door to such small success, have the drive and the capacity to put a big fire up, starting from such a small spark. Once it has worked, deep technological rift happens, which transforms civilizations.

As I return to the final revision of the manuscript which I am about to publish with them, titled ‘Climbing the right hill – an evolutionary approach to the European market of electricity’, for the ‘International Journal of Energy Sector Management’, I wonder how to describe the kind of technological change which I write about in that paper, namely the development of renewable energies and the transition to electricity from the straightforward use of fossil thermal energy, in the European market. What I see in the empirical data is a historically short window of progress which, whilst being a bit bumpy, generally follows an upward trend. As I look at all of my so-far research on collective intelligence, it is largely the same. I have been studying historically short windows of technological change which generally looks like progress with some minor accidents on the way. On the other hand, when I refer to my ‘Energy Ponds’ concept and to the feasibility studies I am running for it, it is the deep-ripple type. I propose to implement a complex solution whose outcomes will be more environmental (water management and landscape management) more than straightforwardly financial. Yes, the whole thing has a chance to earn a living by selling electricity from hydroelectric turbines, but this is like Nicola Tesla earning a living by repairing people’s house equipment.

Is there any theoretical way I can use my toolbox of collective intelligence – tested on incremental technological change – to represent the socio-economic absorption of ‘Energy Ponds’? Good question. It is about social structures reacting to something disturbing. The general intuition I have in that respect, and which I developed through simulations described in my draft paper: ‘Behavioral absorption of Black Swans: simulation with an artificial neural network’  is that social structures tend to smooth out disturbances, for one. New things enter the game easier and faster than old things get pushed out of it, for two. I think that both cases, namely technological change in the European market of electricity and the possible development of ‘Energy Ponds’ are the kind of story, when new technologies sort of pile up on the top of old ones. Increased complexity is created. Increasing complexity means the build-up of some kind of non-equilibrium, which either gest smoothed out, and the corresponding technological change is nicely absorbed, or it doesn’t, and we have the Schumpeterian creative destruction.

I pretty much know how social structures wrap themselves around new power installations. There is one Black Swan, though, swimming surreptitiously around: the nuclear. In Europe, we have a keen interest in passing from combustion engines to electric vehicles. Combustion engines run on gasoline or on diesel, which all boils down to oil, which we don’t have and need to import. Transportation based on electricity makes us much less dependent on imported fuels, and that means more strategic security. Still, I think we will need to come back to developing nuclear power plants if we want to have enough juice for all those batteries on wheels.  

As regards ‘Energy Ponds’, the big question is how will urban and peri-urban structures get along with swamp-like reservoirs of water. That is really a deep question. For centuries, cities in Europe have been developing by drying out and draining down swamps. Swamps and buildings do not really like each other. Do we have the technologies to make their mutual neighbourhood liveable?

Que je finisse de façon bien élégante

Me revoilà avec l’idée de faire un rapprochement théorique entre mon « Projet Aqueduc » et ma recherche sur le phénomène d’intelligence collective. Comme je passe en revue ce que j’ai écrit jusqu’à maintenant sur les deux sujets, des conclusions provisoires se forment dans ma tête. L’idée primordiale est que je ne suis pas sûr du tout si mon « Projet Aqueduc » n’est pas, par le plus grand des hasards, une connerie déguisée. Comme je fais de la recherche sur le business d’énergies renouvelables, j’ai pu constater maintes fois qu’à part l’écologie fonctionnelle et pragmatique il y a une écologie religieuse, quelque chose comme l’Église Généralisée de la Mère Nature. Moi je veux rester dans le fonctionnel. Je n’achète pas vraiment l’argument que toute solution « naturelle » est meilleure qu’une « artificielle ». Le retour à la nature que tellement de mes amis prêchent comme une confession de foi c’est aussi le retour à la tuberculose et à l’absence de canalisation.

Je pense donc que « Projet Aqueduc » est une idée intéressante pour expérimenter avec mais pas vraiment une solution complète à optimaliser. L’idée d’utiliser un algorithme génétique du type NSGA-II ou « Non-dominated Sorting Genetic Algorithm » (comparez : Chang et al. 2016[1]; Jain & Sachdeva 2017[2];  Assaf & Shabani 2018[3]; Zhou et al. 2019[4]), que j’avais formulée au début de juillet ( We keep going until we observe du 5 juillet) serait prématurée. Le « Projet Aqueduc » est une chaîne complexe des technologies dont certaines sont plutôt certaines – pardonnez le jeu de mots – pendant que d’autres sont très incertaines dans leur développement général ainsi que leur application exacte dans ce contexte spécifique.    

Je pense que je vais me concentrer sur la mise au point d’une méthode de vérifier la faisabilité du concept en question dans la phase où il est actuellement, donc dans la phase d’expérimentation initiale, tôt dans le cycle de développement. Une telle méthode pourrait être appliquée à l’étude de faisabilité d’autres technologies en phase de développement expérimental. Le « Projet Aqueduc » présente un défi intellectuel intéressant de ce point de vue. L’une des dimensions importantes de ce concept est sa taille physique, surtout la quantité d’eau retenue dans les structures marécageuses qui agissent comme des pseudo-réservoirs hydrologiques (Harvey et al. 2009[5]; Phiri et al. 2021[6] ; Lu et al. 2021[7]; Stocks et al. 2021[8]). Plus nous expérimentons avec la taille physique des installations, plus grands sont les risques liés à cette expérimentation. Tester une installation de petite taille pour le « Projet Aqueduc » engendre des risques négligeables mais en même temps n’apporte pas vraiment de données empiriques sur ce qui se passe dans une installation de taille autrement plus substantielle. C’est donc un cas où – apparemment au moins – je dois expérimenter avec des risques de plus en plus élevés pour acquérir des données sur ce qui peut se passer si ces risques se consument en vie réelle. Voilà un casse-tête digne de ce nom.

En termes de défi intellectuel, j’en ai un autre, tombé un peu à l’improviste. Le journal « International Journal of Energy Sector Management » vient de me demander de donner un dernier coup de pinceau, avant la publication, à mon article intitulé « Climbing the right hill – an evolutionary approach to the European market of electricity ». Les recommandations du réviseur ainsi que celles du rédacteur responsable sont à peu près homogènes et se résument à donner plus de clarté à mon texte, de façon à le rendre plus facile à approcher pour des lecteurs non-initiés à la méthode que j’y utilise. Je relève le gant pour ainsi dire et je vais essayer de résumer le manuscrit en français, de façon aussi claire que possible. J’espère que ça va me donner un bon point de départ pour faire la révision finale de mon manuscrit en anglais.

Je commence par le résumé d’en-tête, donc ce qui s’appelle « abstract » en jargon scientifique anglais. L’article étudie changement socio-économique comme phénomène évolutif et plus précisément comme une marche adaptative en paysage rugueux, avec l’assomption d’intelligence collective et en vue d’optimiser la participation d’électricité dans la consommation totale de l’énergie ainsi que la participation des sources renouvelables dans la consommation d’électricité. Une méthode originale est présentée, où un réseau neuronal artificiel est utilisé pour produire des réalités alternatives à partir de l’ensemble originel de données empiriques. La distance Euclidienne entre ces réalités alternatives et la réalité empirique est utilisée comme base pour évaluer les objectifs collectifs. La variance de distance Euclidienne entre variables est utilisée comme base pour évaluer l’intensité d’interactions épistatiques entre les phénomènes représentés avec les variables. La méthode est testée dans un échantillon de 28 pays européens, entre 2008 et 2017, en présence d’imperfections du marché au niveau des prix de détail d’électricité. Les variables-clés, pertinentes à l’énergie, semblent être instrumentales par rapport à la poursuite d’autres valeurs collectives et ces dernières semblent se concentrer sur l’intensité de travail ainsi que sa rémunération.

Voilà un résumé bien scientifique. J’avoue : si je n’avais pas écrit cet article moi-même, je n’y comprendrais que dalle, à ce résumé. Pas étonnant que le réviseur et le rédacteur responsable me demandent gentiment de simplifier et de clarifier. Où commence-je donc ? Voilà une question qui mérite un peu de réflexion. Je pense qu’il faut que recule dans le temps et que je me souvienne le cheminement logique que j’avais pris, il y a un an et demi, lorsque j’avais écrit la première version de cet article. Oui, un an et demi. La science, ça traine parfois. Les idées-éclair, ça ralentit considérablement dans la phase de publication.

Je recule donc dans le temps. Il y avait deux trucs en concours, pour ainsi dire. D’une part, j’étais content après la publication d’un article chez « Energy », un journal bien respectable, sous le titre « Energy efficiency as manifestation of collective intelligence in human societies ». La méthode que j’y avais utilisée était largement la même que dans cet article chez « International Journal of Energy Sector Management », auquel je suis en train de donner une touche finale. Un réseau neuronal artificiel produit des simulations d’intelligence collective des sociétés humaines. Chaque simulation est une sorte de réalité alternative orientée sur l’optimisation d’une variable spécifique. Chaque réalité alternative demeure à une certaine distance mathématique de la réalité empirique. J’assume que celles qui sont les plus proches reflètent le mieux les rapports entre les variables empiriques. Puisque ce rapport est en fait une orientation – la poursuite d’optimisation d’une variable précise – j’interprète le tout comme une évolution collectivement intelligente avec un système de valeurs collectives.

Les résultats empiriques que j’avais obtenus dans cet article chez « Energy » étaient un peu surprenants, mais juste un peu. Les économies nationales que j’étudiais semblaient être orientés sur l’optimisation de rapport entre le flux d’invention scientifique et la capitalisation des entreprises (coefficient du nombre des demandes domestique de brevet par un million de dollars en actifs productifs fixes) plus que tout le reste. L’efficience énergétique, mesurée à l’échelle d’économies nationales, semblait être le cadet des soucis de lesdites économies nationales, pour ainsi dire. En général, ces 59 pays que j’avais pris sous ma loupe, démontraient bien une croissance d’efficience énergétique, mais cette amélioration semblait être un effet secondaire obtenu dans la poursuite d’équilibre local entre la science mûre (pour demander des brevets) et l’investissement.

Le catalogue des variables que j’avais pris en considération dans « Energy efficiency as manifestation of collective intelligence in human societies » était plutôt restreint. J’avais étudié 14 variables, dont la plupart étaient là en raison d’assomptions que j’avais prises à propos du contexte socio-économique de l’efficience énergétique. Alors, je m’étais posé la question suivante : qu’est-ce qui va se passer si je prends une poignée des variables pertinentes au secteur d’énergie, dans un contexte plus ou moins environnemental, et je les plonge dans un bain commun avec un catalogue vraiment large des variables macroéconomiques ? Côté méthode, c’est une approche classique dans la science. Un truc marche avec des assomptions bien serrées et le pas suivant est de tester le même truc avec des assomptions plus relax, genre pas trop d’idées préconçues.

En ce qui concerne le catalogue exhaustif des variables macroéconomiques, Penn Tables 9.1. (Feenstra et al. 2015[9]), avec 49 variables du type classique (Produit National, inflation, le marché d’emploi etc.) semblaient être une source convenable. J’avais déjà expérimenté avec cette base des données et ma méthode d’étudier l’intelligence collective en produisant des réalités alternatives avec un réseau neuronal et j’avais obtenu des résultats intéressants. Je les avais décrits dans un manuscrit plutôt technique intitulé « The Labour Oriented, Collective Intelligence of Ours : Penn Tables 9.1 Seen Through the Eyes of A Neural Network ». Il semble que les économies nationales de quelques 168 pays décrits dans Penn Tables 9.1 sont orientées sur l’optimalisation du marché de l’emploi plus que sur quoi que ce soit d’autre. Les variables dont l’optimalisation produit des réalités alternatives les plus proches de la réalité empirique sont, dans ce cas : le nombre moyen d’heures ouvrables par année par personne, la participation des salaires dans le Revenu National Brut et finalement le coefficient de capital humain, qui mesure le nombre moyen d’années d’éducation que les jeunes gens ont dans leur CV au moment d’entrer le marché d’emploi.

Encore une fois : lorsque la plupart d’économistes développent sur le sort horrible des travailleurs dans un monde dominé par des capitalistes rapaces sans pitié ni conscience, ma méthode suggérait le contraire, donc un monde orienté sur le travail et les travailleurs, beaucoup plus que sur l’optimalisation du retour interne sur l’investissement, par exemple. Ma méthode donnait donc des résultats surprenants avec des données empiriques tout à fait classiques. J’étais donc bien sûr que les résultats tout aussi surprenants que j’avais présenté dans « Energy efficiency as manifestation of collective intelligence in human societies » n’étaient pas le résultat de mon propre biais cognitif au niveau du matériel empirique de base mais bel et bien le résultat d’une méthode originale de recherche.

Ces résultats en main, je me demandais comment faire un rapprochement avec le secteur d’énergie. A l’époque, j’avais participé à un colloque public à propos des voitures électriques. Le colloque lui-même n’était pas vraiment excitant, mais après j’ai eu une discussion très intéressante avec mon fils. Le fiston avait dit : « En Europe, on n’a pas de notre pétrole bien à nous. Nous avons un système de transport routier très dense, presque entièrement dépendant d’une source d’énergie que nous devons importer, donc sur le pétrole. Comme risque stratégique, c’en est un gros ». Je me suis dit : il a raison, mon fiston. Encore une fois. C’est agaçant. Faut que je fasse quelque chose. Les voitures électriques, ça a besoin d’électricité et donc la participation d’électricité dans la consommation totale d’énergie serait un bon indicateur de notre préparation à passer vers les véhicules électriques, en Europe. Je peux prendre Penn Tables 9.1. (Feenstra et al. 2015 op. cit.), en extraire les données à propos des pays Européens, ajouter des variables pertinentes au secteur d’énergie et voilà : je peux tester l’hypothèse générale que ces variables énergétiques sont des orientations significative dans l’intelligence collective des pays Européens.    

Il y avait un autre truc, en fait. Ça fait déjà un bout de temps que j’ai fait attention aux prix d’électricité en Europe, et plus précisément à la différence très marquée entre les prix pour petits consommateurs d’énergie, calibre ménages, d’une part, et les prix réservés aux usagers plus grands. Vous pouvez consulter, à ce sujet, ma mise à jour du 28 Juin 2018 : « Deux cerveaux, légèrement différents l’un de l’autre ». C’est une imperfection du marché en une forme classique. J’avais donc décidé d’ajouter les prix d’électricité en Europe à cet ensemble déjà bien hétéroclite et voilà que ça a commencé.

Bon, j’ai reconstitué à peu de choses près le raisonnement originel qui m’a poussé à écrire cet article « Climbing the right hill – an evolutionary approach to the European market of electricity ». Si je sais comment j’avais commencé, il y a des chances que je finisse de façon bien élégante.  


[1] Chang, F. J., Wang, Y. C., & Tsai, W. P. (2016). Modelling intelligent water resources allocation for multi-users. Water resources management, 30(4), 1395-1413. https://doi.org/10.1007/s11269-016-1229-6

[2] Jain, V., & Sachdeva, G. (2017). Energy, exergy, economic (3E) analyses and multi-objective optimization of vapor absorption heat transformer using NSGA-II technique. Energy Conversion and Management, 148, 1096-1113. https://doi.org/10.1016/j.enconman.2017.06.055

[3] Assaf, J., & Shabani, B. (2018). Multi-objective sizing optimisation of a solar-thermal system integrated with a solar-hydrogen combined heat and power system, using genetic algorithm. Energy Conversion and Management, 164, 518-532. https://doi.org/10.1016/j.enconman.2018.03.026

[4] Zhou, Y., Chang, L. C., Uen, T. S., Guo, S., Xu, C. Y., & Chang, F. J. (2019). Prospect for small-hydropower installation settled upon optimal water allocation: An action to stimulate synergies of water-food-energy nexus. Applied Energy, 238, 668-682. https://doi.org/10.1016/j.apenergy.2019.01.069

[5] Harvey, J.W., Schaffranek, R.W., Noe, G.B., Larsen, L.G., Nowacki, D.J., O’Connor, B.L., 2009. Hydroecological factors governing surface water flow on a low-gradient floodplain. Water Resour. Res. 45, W03421, https://doi.org/10.1029/2008WR007129.

[6] Phiri, W. K., Vanzo, D., Banda, K., Nyirenda, E., & Nyambe, I. A. (2021). A pseudo-reservoir concept in SWAT model for the simulation of an alluvial floodplain in a complex tropical river system. Journal of Hydrology: Regional Studies, 33, 100770. https://doi.org/10.1016/j.ejrh.2020.100770.

[7] Lu, B., Blakers, A., Stocks, M., & Do, T. N. (2021). Low-cost, low-emission 100% renewable electricity in Southeast Asia supported by pumped hydro storage. Energy, 121387. https://doi.org/10.1016/j.energy.2021.121387

[8] Stocks, M., Stocks, R., Lu, B., Cheng, C., & Blakers, A. (2021). Global atlas of closed-loop pumped hydro energy storage. Joule, 5(1), 270-284. https://doi.org/10.1016/j.joule.2020.11.015

[9] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at http://www.ggdc.net/pwt&nbsp;

Tax on Bronze

I am trying to combine the line of logic which I developed in the proof-of-concept for the idea I labelled ‘Energy Ponds’ AKA ‘Project Aqueduct’ with the research on collective intelligence in human societies. I am currently doing serious review of literature as regards the theory of complex systems, as it looks like just next door to my own conceptual framework. The general idea is to use the theory of complex systems – within the general realm of which the theory of cellular automata looks the most promising, for the moment – to simulate the emergence and absorption of a new technology in the social structure.  

I started to sketch the big lines of that picture in my last update in French, namely in ‘L’automate cellulaire respectable’. I assume that any new technology burgeons inside something like a social cell, i.e. a group of people connected by common goals and interests, together with some kind of institutional vehicle, e.g. a company, a foundation etc. It is interesting to notice that new technologies develop through the multiplication of such social cells rather than through linear growth of just one cell. Up to a point this is just one cell growing, something like the lone wolf of Netflix in the streaming business, and then ideas start breeding and having babies with other people.

I found an interesting quote in the book which is my roadmap through the theory of complex systems, namely in ‘What Is a Complex System?’ by James Landyman and Caroline Wiesner (Yale University Press 2020, ISBN 978-0-300-25110-4). On page 56 (Kindle Edition), Landyman and Wiesner write something interesting about the collective intelligence in colonies of ants: ‘What determines a colony’s survival is its ability to grow quickly, because individual workers need to bump into other workers often to be stimulated to carry out their tasks, and this will happen only if the colony is large. Army ants, for example, are known for their huge swarm raids in pursuit of prey. With up to 200 000 virtually blind foragers, they form trail systems that are up to 20 metres wide and 100 metres long (Franks et al. 1991). An army of this size harvests prey of 40 grams and more each day. But if a small group of a few hundred ants accidentally gets isolated, it will go round in a circle until the ants die from starvation […]’.

Interesting. Should nascent technologies have an ant-like edge to them, their survival should be linked to them reaching some sort of critical size, which allows the formation of social interactions in the amount which, in turn, an assure proper orientation in all the social cells involved. Well, looks like nascent technologies really are akin to ant colonies because this is exactly what happens. When we want to push a technology from its age of early infancy into the phase of development, a critical size of the social network is required. Customers, investors, creditors, business partners… all that lot is necessary, once again in a threshold amount, to give a new technology the salutary kick in the ass, sending it into the orbit of big business.

I like jumping quickly between ideas and readings, with conceptual coherence being an excuse just as frequently as it is a true guidance, and here comes an article on urban growth, by Yu et al. (2021[1]). The authors develop a model of urban growth, based on the empirical data on two British cities: Oxford and Swindon. The general theoretical idea here is that strictly speaking urban areas are surrounded by places which are sort of in two minds whether they like being city or countryside. These places can be represented as spatial cells, and their local communities are cellular automatons which move cautiously, step by step, into alternative states of being more urban or more rural. Each such i-th cellular automaton displays a transition potential Ni, which is a local balance between the benefits of urban agglomeration Ni(U), as opposed to the benefits Ni(N) of conserving scarce non-urban resources. The story wouldn’t be complete without the shit-happens component Ri of randomness, and the whole story can be summarized as: Ni = Ni(U) – Ni(N) + Ri.

Yu et al. (2021 op. cit.) add an interesting edge to the basic theory of cellular automata, such as presented e.g. in Bandini, Mauri & Serra (2001[2]), namely the component of different spatial scales. A spatial cell in a peri-urban area can be attracted to many spatial aspects of being definitely urban. Those people may consider the possible benefits of sharing the same budget for local schools in a perimeter of 5 kilometres, as well as the possible benefits of connecting to a big hospital 20 km away. Starting from there, it looks a bit gravitational. Each urban cell has a power of attraction for non-urban cells, however that power decays exponentially with physical distance.

I generalize. There are many technologies spreading across the social space, and each of them is like a city. I mean, it does not necessarily have a mayor, but it has dense social interactions inside, and those interactions create something like a gravitational force for external social cells. When a new technology gains new adherents, like new investors, new engineers, new business entities, it becomes sort of seen and known. I see two phases in the development of a nascent technology. Before it gains enough traction in order to exert significant gravitational force on the temporarily non-affiliated social cells, a technology grows through random interactions of the initially involved social cells. If those random interactions exceed a critical threshold, thus if there are enough forager ants in the game, their simple interactions create an emergence, which starts coagulating them into a new industry.

I return to cities and their growth, for a moment. I return to the story which Yu et al. (2021[3]) are telling. In my own story on a similar topic, namely in my draft paper ‘The Puzzle of Urban Density And Energy Consumption’, I noticed an amazing fact: whilst individual cities grow, others decay or even disappear, and the overall surface of urban areas on Earth seems to be amazingly stationary over many decades. It looks as if the total mass, and hence the total gravitational attraction of all the cities on Earth was a constant over at least one human generation (20 – 25 years). Is it the same with technologies? I mean, is there some sort of constant total mass that all technologies on Earth have, within the lifespan of one human generation, and there are just specific technologies getting sucked into that mass whilst others drop out and become moons (i.e. cold, dry places with not much to do and hardly any air to breathe).

What if a new technology spreads like Tik-Tok, i.e. like a wildfire? There is science for everything, and there is some science about fires in peri-urban areas as well. That science is based on the same theory of cellular automata. Jiang et al. (2021[4]) present a model, where territories prone to wildfires are mapped into grids of square cells. Each cell presents a potential to catch fire, through its local properties: vegetation, landscape, local climate. The spread of a wildfire from a given cell R0 is always based on the properties of the cells surrounding the fire.

Cirillo, Nardi & Spitoni (2021[5]) present an interesting mathematical study of what happens when, in a population of cellular automata, each local automaton updates itself into a state which is a function of the preceding state in the same cell, as well as of the preceding states in the two neighbouring cells. It means, among other things, that if we add the dimension of time to any finite space Zd where cellular automata dwell, the immediately future state of a cell is a component of the available neighbourhood for the present state of that cell. Cirillo, Nardi & Spitoni (2021) demonstrate, as well, that if we know the number and the characteristics of the possible states which one cellular automaton can take, like (-1, 0, 1), we can compute the total number of states that automaton can take in a finite number of moves. If we make many such cellular automatons move in the same space Zd , a probabilistic chain of complex states emerge.

As I wrote in ‘L’automate cellulaire respectable’, I see a social cell built around a new technology, e.g. ‘Energy Ponds’, moving, in the first place, along two completely clear dimensions: physical size of installations and financial size of the balance sheet. Movements along these two axes are subject to the influence happening along some foggy, unclear dimensions connected to preferences and behaviour: expected return on investment, expected future value of the firm, risk aversion as opposed to risk affinity etc. That makes me think, somehow, about a theory next door to that of cellular automata, namely the theory of swarms. This is a theory which explains complex changes in complex systems through changes in strength of correlation between individual movements. According to the swarm theory, a complex set which behaves like a swarm can adapt to external stressors by making the moves of individual members more or less correlated with each other. A swarm in routine action has its members couple their individual behaviour rigidly, like marching in step. A swarm alerted by a new stressor can loosen it a little, and allow individual members some play in their behaviour, like ‘If I do A, you do B or C or D, anyway one out of these three’. A swarm in mayhem loses it completely and there is no behavioural coupling whatsoever between members.

When it comes to the development and societal absorption of a new technology, the central idea behind the swarm-theoretic approach is that in order to do something new, the social swarm has to shake it off a bit. Social entities need to loosen their mutual behavioural coupling so as to allow some of them to do something else than just ritually respond to the behaviour of others. I found an article which I can use to transition nicely from the theory of cellular automata to the swarm theory: Puzicha & Buchholz (2021[6]). The paper is essentially applicable to the behaviour of robots, yet it is about a swarm of 60 distributed autonomous mobile robots which need to coordinate through a communication network with low reliability and restricted capacity. In other words, sometimes those robots can communicate with each other, and sometimes they don’t. When some robots out of the 60 are having a chat, they can jam the restricted capacity of the network and thus bar the remaining robots from communicating. Incidentally, this is how innovative industries work. When a few companies, let’s say the calibre of unicorns, are developing a new technology. They absorb the attention of investors, governments, potential business partners and potential employees. They jam the restricted field of attention available in the markets of, respectively, labour and capital.      

Another paper from the same symposium ‘Intelligent Systems’, namely Serov, Voronov & Kozlov (2021[7]), leads in a slightly different direction. Whilst directly derived from the functioning of communication systems, mostly the satellite-based ones, the paper suggests a path of learning in a network, where the capacity for communication is restricted, and the baseline method of balancing the whole thing is so burdensome for the network that it jams communication even further. You can compare it to a group of people who are all so vocal about the best way to allow each other to speak that they have no time and energy left for speaking their mind and listening to others. I have found another paper, which is closer to explaining the behaviour of those individual agents when they coordinate just sort of. It is Gupta & Srivastava (2020[8]), who compare two versions of swarm intelligence: particle swarm and ant colony. The former (particle swarm) generalises a problem applicable to birds. Simple, isn’t it? A group of birds will randomly search for food. Birds don’t know where exactly the food is, so they follow the bird which is nearest to the food.  The latter emulates the use of pheromones in a colony of ants. Ants selectively spread pheromones as they move around, and they find the right way of moving by following earlier deposits of pheromones. As many ants walk many times a given path, the residual pheromones densify and become even more attractive. Ants find the optimal path by following maximum pheromone deposition.

Gupta & Srivastava (2020) demonstrate that the model of ant colony, thus systems endowed with a medium of communication which acts by simple concentration in space and time are more efficient for quick optimization than the bird-particle model, based solely on observing each other’s moves. From my point of view, i.e. from that of new technologies, those results reach deeper than it could seem at the first sight. Financial capital is like a pheromone. One investor-ant drops some financial deeds at a project, and it can hopefully attract further deposits of capital etc. Still, ant colonies need to reach a critical size in order for that whole pheromone business to work. There needs to be a sufficient number of ants per unit of available space, in order to create those pheromonal paths. Below the critical size, no path becomes salient enough to create coordination and ants starve to death fault of communicating efficiently. Incidentally, the same is true for capital markets. Some 11 years ago, right after the global financial crisis, a fashion came to create small, relatively informal stock markets, called ‘alternative capital markets’. Some of them were created by the operators of big stock markets (e.g. the AIM market organized by the London Stock Exchange), some others were completely independent ventures. Now, a decade after that fashion exploded, the conclusion is similar to ant colonies: fault of reaching a critical size, those alternative capital markets just don’t work as smoothly as the big ones.

All that science I have quoted makes my mind wander, and it starts walking down the path of hilarious and absurd. I return, just for a moment, to another book: ‘1177 B.C. THE YEAR CIVILIZATION COLLAPSED. REVISED AND UPDATED’ by Eric H. Cline (Turning Points in Ancient History, Princeton University Press, 2021, ISBN 9780691208022). The book gives in-depth an account of the painful, catastrophic end of a whole civilisation, namely that of the Late Bronze Age, in the Mediterranean and the Levant. The interesting thing is that we know that whole network of empires – Egypt, Hittites, Mycenae, Ugarit and whatnot – collapsed at approximately the same moment, around 1200 – 1150 B.C., we know they collapsed violently, and yet we don’t know exactly how they collapsed.

Alternative history comes to my mind. I imagine the transition from Bronze Age to the Iron Age similarly to what we do presently. The pharaoh-queen VanhderLeyenh comes up with the idea of iron. Well, she doesn’t, someone she pays does. The idea is so seducing that she comes, by herself this time, with another one, namely tax on bronze. ‘C’mon, Mr Brurumph, don’t tell me you can’t transition to iron within the next year. How many appliances in bronze do you have? Five? A shovel, two swords, and two knives. Yes, we checked. What about your rights? We are going through a deep technological change, Mr Brurumph, this is not a moment to talk about rights. Anyway, this is not even the new era yet, and there is no such thing as individual rights. So, Mr Brurumph, a one-year notice for passing from bronze to iron is more than enough. Later, you pay the bronze tax on each bronze appliance we find. Still, there is a workaround. If you officially identify as a non-Bronze person, and you put the corresponding sign over your door, you have a century-long prolongation on that tax’.

Mr Brurumph gets pissed off. Others do too. They feel lost in a hostile social environment. They start figuring s**t out, starting from the first principles of their logic. They become cellular automata. They focus on nailing down the next immediate move to make. Errors are costly. Swarm behaviour forms. Fights break out. Cities get destroyed. Not being liable to pay the tax on bronze becomes a thing. It gets support and gravitational attraction. It becomes tempting to join the wandering hordes of ‘Tax Free People’ who just don’t care and go. The whole idea of iron gets postponed like by three centuries.  


[1] Yu, J., Hagen-Zanker, A., Santitissadeekorn, N., & Hughes, S. (2021). Calibration of cellular automata urban growth models from urban genesis onwards-a novel application of Markov chain Monte Carlo approximate Bayesian computation. Computers, environment and urban systems, 90, 101689. https://doi.org/10.1016/j.compenvurbsys.2021.101689

[2] Bandini, S., Mauri, G., & Serra, R. (2001). Cellular automata: From a theoretical parallel computational model to its application to complex systems. Parallel Computing, 27(5), 539-553. https://doi.org/10.1016/S0167-8191(00)00076-4

[3] Yu, J., Hagen-Zanker, A., Santitissadeekorn, N., & Hughes, S. (2021). Calibration of cellular automata urban growth models from urban genesis onwards-a novel application of Markov chain Monte Carlo approximate Bayesian computation. Computers, environment and urban systems, 90, 101689. https://doi.org/10.1016/j.compenvurbsys.2021.101689

[4] Jiang, W., Wang, F., Fang, L., Zheng, X., Qiao, X., Li, Z., & Meng, Q. (2021). Modelling of wildland-urban interface fire spread with the heterogeneous cellular automata model. Environmental Modelling & Software, 135, 104895. https://doi.org/10.1016/j.envsoft.2020.104895

[5] Cirillo, E. N., Nardi, F. R., & Spitoni, C. (2021). Phase transitions in random mixtures of elementary cellular automata. Physica A: Statistical Mechanics and its Applications, 573, 125942. https://doi.org/10.1016/j.physa.2021.125942

[6] Puzicha, A., & Buchholz, P. (2021). Decentralized model predictive control for autonomous robot swarms with restricted communication skills in unknown environments. Procedia Computer Science, 186, 555-562. https://doi.org/10.1016/j.procs.2021.04.176

[7] Serov, V. A., Voronov, E. M., & Kozlov, D. A. (2021). A neuro-evolutionary synthesis of coordinated stable-effective compromises in hierarchical systems under conflict and uncertainty. Procedia Computer Science, 186, 257-268. https://doi.org/10.1016/j.procs.2021.04.145

[8] Gupta, A., & Srivastava, S. (2020). Comparative analysis of ant colony and particle swarm optimization algorithms for distance optimization. Procedia Computer Science, 173, 245-253. https://doi.org/10.1016/j.procs.2020.06.029