Ugly little cherubs

I am working on my long-term investment strategy, and I keep using the Warren Buffet’s tenets of investment (Hagstrom, Robert G.. The Warren Buffett Way (p. 98). Wiley. Kindle Edition.).

At the same time, one of my strategic goals is coming true, progressively: other people reach out to me and ask whether I would agree to advise them on their investment in the stock market. People see my results, sometimes I talk to them about my investment philosophy, and it seems to catch on.

This is both a blessing and a challenge. My dream, 2 years ago, when I was coming back to the business of regular investing in the stock market, was to create, with time, something like a small investment fund specialized in funding highly innovative, promising start-ups. It looks like that dream is progressively becoming reality. Reality requires realistic and intelligible strategies. I need to phrase out my own experience as regards investment in a manner, which is both understandable and convincing to other people.

As I am thinking about it, I want to articulate my strategy along three logical paths. Firstly, what is the logic in my current portfolio? Why am I holding the investment positions I am holding? Why in these proportions? How have I come to have that particular portfolio? If I can verbally explain the process of my so-far investment, I will know what kind of strategy I have been following up to now. This is the first step, and the next one is to formulate a strategy for the future. In one of my recent updates (Tesla first in line), I briefly introduced my portfolio, such as it was on December 2nd, 2021. Since then, I did some thinking, most of all in reference to the investment philosophy of Warren Buffett, and I made some moves. I came to the conclusion that my portfolio was astride a bit too many stocks, and the whole was somehow baroque. By ‘baroque’ I mean that type of structure, where we can have a horribly ugly little cherub, accompanied by just as ugly a little shepherd, but the whole looks nice due to the presence of a massive golden rim, woven around ugliness.

I made myself an idea of what are the ugly cherubs in my portfolio from December 2nd, and I kicked them out of the picture. In the list below, these entities are marked in slashed bold italic:

>> Tesla (,

>> SA ( ),

>> Alten ( ),

>> Altimmune Inc ( ),

>> Apple Inc ( ),

>> CureVac NV ( ),

>> Deepmatter Group PLC ( ), 

>> FedEx Corp ( ),

>> First Solar Inc ( )

>> Inpost SA ( )

>> Intellia Therapeutics Inc ( )

>> Lucid Group Inc ( )

>> Mercator Medical SA ( )

>> Nucor Corp ( )

>> Oncolytics Biotech Inc ( )

>> Solaredge Technologies Inc ( )

>> Soligenix Inc ( )

>> Vitalhub Corp ( )

>> Whirlpool Corp ( )

>> Biogened ( )

>> Biomaxima ( )

>> CyfrPolsat ( )

>> Emtasia ( )

>> Forposta ( )

>> Gameops ( )

>> HMInvest ( )

>> Ifirma ( )

>> Moderncom ( )

>> PolimexMS ( )

>> Selvita ( )

>> Swissmed ( )  

Why did I put those specific investment positions into the bag labelled ‘ugly little cherubs in the picture’? Here comes a cognitive clash between the investment philosophy I used to have before I started studying in depth that of Warren Buffet and of Berkshire Hathaway. Before, I was using the purely probabilistic approach, according to which the stock market is so unpredictable that my likelihood of failure, on any individual investment, is greater than the likelihood of success, and, therefore, the more I spread my portfolio between different stocks, the less exposed I am to the risk of a complete fuck-up. As I studied the investment philosophy of Warren Buffet, I had great behavioural insights as regards my decisions. Diversifying one’s portfolio is cool, yet it can lead to careless individual choices. If my portfolio is really diversified, each individual position weighs so little that I am tempted to overlook its important features. At the end of the day, I might land with a bag full of potatoes instead of a chest full of gems.

I decided to kick out the superfluous. What did I put in this category? The superfluous investment positions which I kicked out shared some common characteristics, which I reconstructed from the history of the corresponding ‘buy’ orders. Firstly, these were comparatively small positions, hundreds of euros at best. This is one of the lessons by Warren Buffet. Small investments matter little, and they are probably going to stay this way. There is no point in collecting stocks which don’t matter to me. They give is a false sense of security, which is detrimental to the focus on capital gains.  

Secondly, I realized that I bought those ugly little cherubs by affinity to something else, not for their own sake. Two of them, FedEx and Allegro, are in the busines of express delivery. I made a ton of money of their stock, just as on the stock of Deutsche Post, during the trough of the pandemic, where retail distribution went mostly into the ‘online order >> express delivery’ pipeline. It was back then, and then I sold out, and then I thought ‘why not trying the same hack again?’. The ‘why not…?’ question was easy to answer, actually: because times change, and the commodity markets have adapted to the pandemic. FedEx and Allegro has returned to what it used to be: a solid business without much charm to me.  

Four others – Soligenix, Altimmune, CureVac and Oncolytics Biotech – are biotechnological companies. Once again: I made a ton of money in 2020 on biotech companies, because of the pandemic. Now, emotions in the market have settled, and biotech companies are back what they used to be, namely interesting investments endowed with high risk, high potential reward, and a bottomless capacity for burning cash. Those companies are what Tesla used to be a decade ago. I kept a serious position on a few other biotech businesses: Intellia Therapeutics, Biogened, Biomaxima, and Selvita. I want to keep a few of such undug gems in my portfolio, yet too much would be too much.

Thirdly, I had a loss on all of those ugly little cherubs I have just kicked out of my portfolio. Summing up, these were small positions, casually opened without much strategic thinking, and they were bringing me a loss. I could have waited to have a profit, but I preferred to sell them out and to concentrate my capital on the really promising stocks, which I nailed down using the method of intrinsic value. I realized that my portfolio was what it was, one week ago, before I started strategizing consciously, because I had hard times finding balance between two different motivations: running away from the danger of massive loss, on the one hand, and focusing on investments with a true potential for bringing long-term gains.

I focus more specifically on the concept of intrinsic value. Such as Warren Buffet used it, intrinsic value was based on what he called ‘owner’s earnings’ from a business. Owner’s earnings are spread over a window in time corresponding to the risk-free yield on sovereign bonds. The financial statement used for calculating intrinsic value is the cash-flow of the company in question, plus external data as regards average annual yield on sovereign bonds. The basic formula to calculate owner’s earnings goes like: net income after tax + amortization charges – capital expenditures). Once that nailed down, I divide those owner’s earnings by the interest rate on long-term sovereign bonds. For my positions in the US stock market, I use the long-term yield on the US federal bonds, i.e. 1,35% a year. As regards my portfolio in the Polish stock market, I use the yield 3,42% for Polish sovereign bonds on long-term.

I have calculated that intrinsic value for a few of my investments (I mean those I kept in my portfolio), on the basis of their financial results for 2020 and compared it to their market capitalisation. Then, additionally, I did the same calculation based on their published (yet unaudited) cash-flow for Q3 2021. Here are the results I had for Tesla. Net income 2020 $862,00 mln plus amortization charges 2020 $2 322,00 mln minus capital expenditures 2020 $3 132,00 mln equals owner’s earnings 2020 $52,00 mln. Divided by 1,35%, that gives an intrinsic value of $3 851,85 mln. Market capitalization on December 6th, 2021: $1 019 000,00 mln. The intrinsic value looks like several orders of magnitude smaller than market capitalisation. Looks risky.

Let’s see the Q3 2021 unaudited cash-flows. Here, I extrapolate the numbers for 9 months of 2021 over the whole year 2021: I multiply them by 4/3. Extrapolated net income for Q3 2021 $4 401,33 mln plus extrapolated amortization charges for Q3 2021 $2 750,67 minus extrapolated capital expenditures for Q3 2021 $7 936,00 equals extrapolated owner’s earnings amounting to $4 401,33 mln. Divided by 1,35%, it gives an extrapolated intrinsic value of $326 024,69 mln. It is much closer to market capitalization, yet much below it as for now. A lot of risk in that biggest investment position of mine. We live and we learn, as they say.

Another stock: Apple. With the economic size of a medium-sized country, Apple seems solid. Let’s walk it through the computational path of intrinsic value. There is an important methodological remark to formulate as for this cat. In the cash-flow statement of Apple for 2020-2021 (Apple Inc. ends its fiscal year by the end of September in the calendar year), under the category of ‘Investing activities’, most of the business pertains to buying and selling financial assets. It goes, ike:

Investing activities, in millions of USD:

>> Purchases of marketable securities (109 558)

>> Proceeds from maturities of marketable securities: 59 023

>> Proceeds from sales of marketable securities: 47 460

>> Payments for acquisition of property, plant and equipment (11 085)

>> Payments made in connection with business acquisitions, net (33)

>> Purchases of non-marketable securities (131)

>> Proceeds from non-marketable securities: 387

>> Bottom line: Cash generated by/(used in) investing activities (14 545)

Now, when I look at the thing through the lens of Warren Buffett’s investment tenets, anything that happens with and through financial securities, is retention of cash in the business. It just depends on what exact form we want to keep that cash under. Transactions grouped under the heading of ‘Purchases of marketable securities (109 558)’, for example, are not capital expenditures. They do not lead to exchanging cash money against productive technology. In all that list of investment activities, only two categories, namely: ‘Payments for acquisition of property, plant and equipment (11 085)’, and ‘Payments made in connection with business acquisitions, net (33)’ are capital expenditures sensu stricto. All the other categories, although placed in the account of investing activities, are labelled as such just because they pertain to transactions on assets. From the Warren Buffet’s point of view they all mean retained cash.

Therefore, when I calculate owner’s earnings for Apple, based on their latest annual cash-flow, I go like:

>> Net Income $94 680 mln + Depreciation and Amortization $11 284 mln + Purchases of marketable securities $109 558 mln + Proceeds from maturities of marketable securities $59 023 mln + Proceeds from sales of marketable securities $47 460 mln – Payments for acquisition of property, plant and equipment $11 085 mln – Payments made in connection with business acquisitions, net $33 mln + Purchases of non-marketable securities $131 mln + Proceeds from non-marketable securities $387 mln = Owner’s earnings $311 405 mln.

I divide that number by the 1,35% annual yield of the long-term Treasury bonds in the US, and I get an intrinsic value of $23 067 037 mln, against a market capitalisation floating around $2 600 000 mln, which gives a huge overhead in the former over the latter. Good investment.

I pass to another one of my investments, First Solar Inc. ( ). Same thing: investment activities consist most of all in moves pertinent to financial assets. It looks like:

>> Net income (loss) $398,35 mln

>> Depreciation, amortization and accretion $232,93 mln

>> Impairments and net losses on disposal of long-lived assets $35,81 mln

… and then come the Cash flows from investing activities:

 >> Purchases of property, plant and equipment ($416,64 mln)

>> Purchases of marketable securities and restricted marketable securities ($901,92 mln)

>> Proceeds from sales and maturities of marketable securities and restricted marketable securities $1 192,83 mln

>> Other investing activities ($5,5 mln)

… and therefore, from the perspective of owner’s earnings, the net cash used in investing activities is not, as stated officially, minus $131,23 mln. Net capital expenses, I mean net of transactions on financial assets, are: – $416,64 mln + $901,92 mln + $1 192,83 mln – $5,5 mln = $1 672,61 mln. Combined with the aforementioned net income, amortization and fiscally compensated impairments on long-lived assets, it makes owner’s earnings of $2 339,7 mln. And an intrinsic value of $173 311,11 mln, against some $10 450 000 mln in market capitalization. Once again, good and solid in terms of Warren Buffet’s margin of security.

I start using the method of intrinsic value for my investments, and it gives interesting results. It allows me to distinguish, with a precise gauge, between high-risk investments and the low-risk ones.

Je dois faire gaffe à la valeur intrinsèque

Me revoilà sur mon blog et je me concentre sur un truc : ma stratégie d’investissements boursiers. Je veux optimiser ma stratégie et à cette fin je me réfère à Warren Buffett et à sa philosophie d’investissement telle que vous et moi pouvons la trouver dans les rapports annuels de Berkshire Hathaway Inc. ( ). Je prends donc les principes de Warren Buffett et je les applique comparativement à deux compagnies : Tesla ( ), la plus grande position dans mon portefeuille d’investissement, d’une part, et Selvita ( ), une société polonaise de biotechnologie, sur les actions de laquelle je commence à développer un investissement sérieux.   

Avec Tesla, j’ai déjà entamé une analyse façon Warren Buffett (Tesla first in line) et maintenant je continue de manière comparative. C’est un truc qui marche : lorsque je veux comprendre quelque chose de complexe, je peux comparer cette chose complexe avec une autre chose complexe. Comparaison est une stratégie cognitive fondamentale. Elle me permet d’apercevoir les différences et les similarités entre des phénomènes complexes (tout est complexe, en fait) et de comprendre ainsi ce que la science cognitive désigne comme « saillance ».

Le genre de saillance sur laquelle je me concentre maintenant sont les traits distinctifs (et donc saillants et importants) de ces deux sociétés – Tesla ( ) et Selvita ( ) – en ce qui concerne les piliers conceptuels de la stratégie de Warren Buffett, qui sont :

>> l’entreprise en tant que telle : le modèle d’entreprise est-il simple et compréhensible ? l’entreprise a-t-elle une histoire cohérente d’exploitation ainsi que des perspectives favorables à long terme ?

>> la gestion : est-ce que la gestion de l’entreprise semble rationnelle ? Les gestionnaires semblent-ils agir dans le meilleur intérêt des actionnaires ? Les gestionnaires résistent-ils les

 modes et les pressions institutionnelles externes ?

>> la finance : quel est le retour sur capitaux propres ? quels sont les bénéfices agrégés pour les actionnaires ? Quelle est la marge de bénéfice dans les produits de l’entreprise ? Quelle est la concordance entre rétention de trésorerie d’une part et l’accroissement de valeur boursière ?   

>> le marché boursier : quelle est la valeur économique de la société en question ? comment cela concorde-t-il avec sa valeur boursière ?

Je me concentre sur la concordance entre la valeur économique de, respectivement, Tesla et Selvita, d’une part et leur valeur boursière d’autre part. Dans la stratégie modèle de Warren Buffett, la valeur économique d’une entreprise est égale au flux prévisible de trésorerie d’activités d’exploitation, escompté avec un taux de retour sur investissement sans risque. Pour donner un exemple pratiqe de cette méthode de base, je cite et traduis un passage du livre « The Warren Buffett Way » par Robert G. Hagstrom, plus précisément le fragment des pages 136 – 137 de l’édition Kindle, où la méthode de Buffett est démontrée dans son achat de Washington Post en 1973. Alors : « Nous commençons par calculer les revenus propriétaires pour l’année fiscale : bénéfice net de $13,3 millions plus dépréciation et amortissement de $3,7 millions moins les investissements capitalisables de $6,6 millions, ça donne un revenu propriétaire de $10,4 millions. Si nous divisons ce revenu par le taux de rendement des obligations souveraines long-terme de la Trésorerie Fédérale des États-Unis (6,81%), la valeur de Washington Post atteint $150 millions […]. Buffett dit qu’avec le temps, les investissements capitalisables d’un journal vont être égales au flux d’amortissement et de ce fait le bénéfice net devrait être une bonne estimation du revenu propriétaire. »

J’applique le même raisonnement à mes deux cas particuliers, donc Tesla et Selvita. Je vais chez et je sélectionne le rapport annuel pour 2020, soit Je vais droit au rapport des flux de trésorerie .

Le bénéfice net de Tesla pour 2020 était de $862 millions, la charge d’amortissement montait à $2 322 millions, et le solde d’investissements capitalisables fût $3 132. J’obtiens un revenu propriétaire de $52 millions.  J’utilise deux taux de rendement comme référence : celui des obligations souveraines du Trésor Polonais, soit 3,242% (puisque j’investis à partir de Pologne), ainsi que celui des obligations souveraines long-terme de la Trésorerie Fédérale des États-Unis (1,35%), puisque mon résultat sur Tesla est déterminé par la valeur intrinsèque de Tesla telle qu’estimée par le marché financier pour Tesla se trouve aux États-Unis.

Après avoir divisé le revenu propriétaire de Tesla pour 2020 par ces deux taux alternatifs, j’obtiens une fourchette de valeur intrinsèque entre $1 603,95 milliards et $3 851,85 milliards. La capitalisation boursière de Tesla est couramment de $1 019 milliards, mais tout récemment, le 4 novembre, elle atteignait $1 248,43 milliards.

Je répète le même exercice – donc basé sur les résultats financiers pour l’année 2020 – pour Selvita. Je prends leur rapport financier annuel 2020 ( ) et sur la page 8 je trouve le rapport des flux de trésorerie. Le bénéfice net était de PLN19 921 919, avec les charges d’amortissement de PLN13 525 722.

En ce qui concerne les d’investissements capitalisables, ça se corse. Je trouve un investissement en actifs matériels et immatériels de valeur totale de PLN15 003 636, ainsi que « l’acquisition d’autres actifs financiers » qui monte à PLN10 152 560. Selon la logique de Warren Buffett, l’investissement strictement dit, donc celui qui est déductible du revenu propriétaire, est celui en actifs productifs afférents à l’exploitation. L’acquisition d’actifs financiers est un placement, pas un investissement en actifs d’exploitation.

Je pense donc que je peux calculer le revenu propriétaire de Selvita de deux façons différentes. La première variante c’est « bénéfice net plus amortissement moins l’investissement en actifs matériels et immatériels » et dans la deuxième variante je considère l’acquisition d’actifs financiers comme un flux additionnel de trésorerie et je l’ajoute au solde du premier calcul. J’obtiens ainsi un revenu propriétaire façon Warren Buffett dans la fourchette entre PLN18 444 005 et PLN28 596 565. Je divise par le taux de rendement comme des obligations souveraines du Trésor Polonais (3,242%) et j’obtiens une fourchette correspondante de valeur intrinsèque entre PLN568 908 235 et PLN882 065 545. La dernière capitalisation boursière de Selvita est de PLN1 478 millions, avec un maximum sur les 12 mois derniers noté le 5 juillet 2021, égal à PLN2 894,7 millions.

Ma conclusion provisoire est que, sur la base des résultats financiers audités pour 2020, Tesla reste sous-valorisée par le marché boursier et ça donne des opportunités intéressantes. En revanche, Selvita semble être un peu gonflée en Bourse et je dois être sur mes gardes. Maintenant je passe à l’extension de l’exercice précèdent avec la méthode de MRQ ou « Most Recent Quarter », soit avec les résultats financiers non-audités de deux sociétés pour le troisième quart de 2021. Je fais un truc très primitif, qui est néanmoins utilisé fréquemment en analyse financière, donc j’extrapole les résultats de trois quarts de l’année fiscale en les multipliant par « 4/3 ». Oui, c’est simpliste et ça donne juste une estimation très provisoire de ce que les résultats annuels audités pour 2021 peuvent bien être. Néanmoins, cette méthode permet de simuler l’état d’esprit d’autres investisseurs qui – tout comme moi – utilisent la méthode de valeur intrinsèque façon Warren Buffett.

 Je commence par Tesla, encore une fois  ( . Bénéfice net $3 301 millions plus charge d’amortissement $2 063 moins investissements capitalisables de $5 952, ça donne… merde… – $588. Embarrassant, n’est-ce pas ? Revenu propriétaire négatif veut dire valeur intrinsèque négative. Esquive élégante : « Buffett dit qu’avec le temps, les investissements capitalisables d’un journal vont être égales au flux d’amortissement et de ce fait le bénéfice net devrait être une bonne estimation du revenu propriétaire. » Bon, Tesla, c’est presque comme un journal, quoi. Sauf que ça n’a rien à voir. Ce n’est même pas le même type fondamental de bien économique. Enfin, essayons avec l’équivalence « bénéfice net = revenu propriétaire ». J’extrapole le bénéfice net pour les 9 mois de 2021 sur les 12 mois de l’année fiscale et ça donne $4 401,33 millions. Je divise par le taux de rendement des obligations souveraines long-terme de la Trésorerie Fédérale des États-Unis (1,35%) et j’ai $326 024 milliards.

Je commence à comprendre la danse folle autour des actions de Tesla. Vous regardez le bénéfice net et ça a l’air de décoiffer (positivement). Vous jetez un coup d’œil sur les dépenses capitalisables d’investissement et vous commencer à vous poser des questions. Si le calcul très simple de Warren Buffett donne autant de doute, pas étonnant que plusieurs petits investisseurs se laissent prendre au jeu des grands fonds d’investissement futés.

Je passe à Selvita : . Bénéfice net sur les 9 mois de 2021 fait PLN8 844 005, les charges d’amortissement sur la même période montent à PLN17 764 894, acquisition d’actifs productifs est de PLN9 655 884 et celle d’actifs financiers c’est PLN3 172 566. Je somme des deux façons alternatives décrites plus tôt, j’extrapole sur les 12 mois, je divise par le taux d’intérêt sur les obligations de Trésor Polonais (3,242%)  et j’obtiens une valeur intrinsèque entre PLN660 936 257 et PLN784 623 041. C’est toujours très en-dessous de la capitalisation boursière de Selvita. Je dois faire gaffe.

Tesla first in line

Once again, a big gap in my blogging. What do you want – it happens when the academic year kicks in. As it kicks in, I need to divide my attention between scientific research and writing, on the one hand, and my teaching on the other hand.

I feel like taking a few steps back, namely back to the roots of my observation. I observe two essential types of phenomena, as a scientist: technological change, and, contiguously to that, the emergence of previously unexpected states of reality. Well, I guess we all observe the latter, we just sometimes don’t pay attention. I narrow it down a bit. When it comes to technological change, I am just bewildered with the amounts of cash that businesses have started holding, across the board, amidst an accelerating technological race. Twenty years ago, any teacher of economics would tell their students: ‘Guys, cash is the least productive asset of all. Keep just the sufficient cash to face the most immediate expenses. All the rest, invest it in something that makes sense’. Today, when I talk to my students, I tell them: ‘Guys, with the crazy speed of technological change we are observing, cash is king, like really. The greater reserves of cash you hold, the more flexible you stay in your strategy’.

Those abnormally big amounts of cash that businesses tend to hold, those last years, it has two dimensions in terms of research. On the one hand, it is economics and finance, and yet, on the other hand, it is management. For quite some time, digital transformation has been about the only thing worth writing about in management science, but that, namely the crazy accumulation of cash balances in corporate balance sheets, is definitely something worth writing about. Still, there is amazingly little published research on the general topic of cash flow and cash management in business, just as there is very little on financial liquidity in business. The latter topic is developed almost exclusively in the context of banks, mostly the central ones. Maybe it is all that craze about the abominable capitalism and the general claim that money is evil. I don’t know.

Anyway, it is interesting. Money, when handled at the microeconomic level, tells the hell of a story about our behaviour, our values, our mutual trust, and our emotions. Money held in corporate balance sheets tells the hell of a story about decision making. I explain. Please, consider the amount of money you carry around with you, like the contents of your wallet (credit cards included) plus whatever you have available instantly on your phone. Done? Visualised? Good. Now, ask yourself what percentage of all those immediately available monetary balances you use during your one average day. Done? Analysed? Good. In my case, it would be like 0,5%. Yes, 0,5%. I did that intellectual exercise with my students, many time. They usually hit no more than 10%, and they are gobsmacked. Their first reaction is WOKEish: ‘So I don’t really need all that money, right. Money is pointless, right?’. Not quite, my dear students. You need all that money; you just need it in a way which you don’t immediately notice.

There is a model in the theory of complex systems, called the ants’ colony (see for example: (Chaouch, Driss & Ghedira 2017[1]; Asghari & Azadi 2017[2]; Emdadi et al. 2019[3]; Gupta & Srivastava 2020[4]; Di Caprio et al. 2021[5]). Yes, Di Caprio. Not the Di Caprio you intuitively think about, though. Ants communicate with pheromones. They drop pheromones somewhere they sort of know (how?) it is going to be a signal for other ants. Each ant drops sort of a standard parcel of pheromones. Nothing to write home about, really, and yet enough to attract the attention of another ant which could drop its individual pheromonal parcel in the same location. With any luck, other ants will discover those chemical traces and validate them with their individual dumps of pheromones, and this is how the colony of ants maps its territories, mostly to find and exploit sources of food. This is interesting to find out that in order for all that chemical dance to work, there needs to be a minimum number of ants on the job. In there are not enough ants per square meter of territory, they just don’t find each other’s chemical imprints and have no chance to grab hold of the resources available. Yes, they all die prematurely. Money in human societies could be the equivalent of a pheromone. We need to spread it in order to carry out complex systemic changes. Interestingly, each of us, humans, is essentially blind to those complex changes: we just cannot wrap our mind around quickly around the technical details of something apparently as simple as the manufacturing chain of a gardening rake (do you know where exactly and in what specific amounts all the ingredients of steel come from? I don’t).  

All that talk about money made me think about my investments in the stock market. I feel like doing things the Warren Buffet’s way: going to the periodical financial reports of each company in my portfolio, and just passing in review what they do and what they are up to. By the way, talking about Warren Buffet’s way, I recommend my readers to go to the source: go to first, and then to as well as to . For now, I focus on studying my own portfolio according to the so called “12 immutable tenets by Warren Buffet”, such as I allow myself to quote them:

>> Business Tenets: Is the business simple and understandable? Does the business have a consistent operating history? Does the business have favourable long-term prospects?

>> Management Tenets: Is management rational? Is management candid with its shareholders? Does management resist the institutional imperative?

>> Financial Tenets Focus on return on equity, not earnings per share. Calculate “owner earnings.” Look for companies with high profit margins. For every dollar retained, make sure the company has created at least one dollar of market value.

>> Market Tenets: What is the value of the business? Can the business be purchased at a significant discount to its value?

(Hagstrom, Robert G.. The Warren Buffett Way (p. 98). Wiley. Kindle Edition.)

Anyway, here is my current portfolio:

>> Tesla (,

>> SA ( ),

>> Alten ( ),

>> Altimmune Inc ( ),

>> Apple Inc ( ),

>> CureVac NV ( ),

>> Deepmatter Group PLC ( ), 

>> FedEx Corp ( ),

>> First Solar Inc ( )

>> Inpost SA ( )

>> Intellia Therapeutics Inc ( )

>> Lucid Group Inc ( )

>> Mercator Medical SA ( )

>> Nucor Corp ( )

>> Oncolytics Biotech Inc ( )

>> Solaredge Technologies Inc ( )

>> Soligenix Inc ( )

>> Vitalhub Corp ( )

>> Whirlpool Corp ( )

>> Biogened ( )

>> Biomaxima ( )

>> CyfrPolsat ( )

>> Emtasia ( )

>> Forposta ( )

>> Gameops ( )

>> HMInvest ( )

>> Ifirma ( )

>> Moderncom ( )

>> PolimexMS ( )

>> Selvita ( )

>> Swissmed ( )   

Studying that whole portfolio of mine through the lens of Warren Buffet’s tenets looks like a piece of work, really. Good. I like working. Besides, as I have been reading Warren Buffett’s annual reports at , I realized that I need a real strategy for investment. So far, I have developed a few efficient hacks, such as, for example, the habit of keeping my s**t together when other people panic or when they get euphoric. Still, hacks are not the same as strategy.

I feel like adding my own general principles to Warren Buffet’s tenets. Principle #1: whatever I think I do my essential strategy consists in running away from what I perceive as danger. Thus, what am I afraid of, in my investment? What subjective fears and objective risks factors shape my actions as investor? Once I understand that, I will know more about my own actions and decisions. Principle #2: the best strategy I can think of is a game with nature, where each move serves to learn something new about the rules of the game, and each move should be both decisive and leaving me with a margin of safety. What am I learning as I make my moves? What my typical moves actually are?

Let’s rock. Tesla (, comes first in line, as it is the biggest single asset in my portfolio. I start my digging with their quarterly financial report for Q3 2021 ( ), and I fish out their Consolidated Balance Sheets (in millions, except per share data, unaudited: ).

Now, I assume that if I can understand why and how numbers change in the financial statements of a business, I can understand the business itself. The first change I can spot in that balance sheet is property, plant and equipment, net passing from $12 747 million to $17 298 million in 12 months. What exactly has happened? Here comes Note 7 – Property, Plant and Equipment, Net, in that quarterly report, and it starts with a specification of fixed assets comprised in that category. Good. What really increased in this category of assets is construction in progress, and here comes the descriptive explanation pertinent thereto: “Construction in progress is primarily comprised of construction of Gigafactory Berlin and Gigafactory Texas, expansion of Gigafactory Shanghai and equipment and tooling related to the manufacturing of our products. We are currently constructing Gigafactory Berlin under conditional permits in anticipation of being granted final permits. Completed assets are transferred to their respective asset classes, and depreciation begins when an asset is ready for its intended use. Interest on outstanding debt is capitalized during periods of significant capital asset construction and amortized over the useful lives of the related assets. During the three and nine months ended September 30, 2021, we capitalized $14 million and $52 million, respectively, of interest. During the three and nine months ended September 30, 2020, we capitalized $13 million and $33 million, respectively, of interest.

Depreciation expense during the three and nine months ended September 30, 2021 was $495 million and $1.38 billion, respectively. Depreciation expense during the three and nine months ended September 30, 2020 was $403 million and $1.13 billion, respectively. Gross property, plant and equipment under finance leases as of September 30, 2021 and December 31, 2020 was $2.60 billion and $2.28 billion, respectively, with accumulated depreciation of $1.11 billion and $816 million, respectively.

Panasonic has partnered with us on Gigafactory Nevada with investments in the production equipment that it uses to manufacture and supply us with battery cells. Under our arrangement with Panasonic, we plan to purchase the full output from their production equipment at negotiated prices. As the terms of the arrangement convey a finance lease under ASC 842, Leases, we account for their production equipment as leased assets when production commences. We account for each lease and any non-lease components associated with that lease as a single lease component for all asset classes, except production equipment classes embedded in supply agreements. This results in us recording the cost of their production equipment within Property, plant and equipment, net, on the consolidated balance sheets with a corresponding liability recorded to debt and finance leases. Depreciation on Panasonic production equipment is computed using the units-of-production method whereby capitalized costs are amortized over the total estimated productive life of the respective assets. As of September 30, 2021 and December 31, 2020, we had cumulatively capitalized costs of $1.89 billion and $1.77 billion, respectively, on the consolidated balance sheets in relation to the production equipment under our Panasonic arrangement.”

Good. I can try to wrap my mind around the contents of Note 7. Tesla is expanding its manufacturing base, including a Gigafactory in my beloved Europe. Expansion of the manufacturing capacity means significant, quantitative growth of the business. According to Warren Buffett’s philosophy: “The question of where to allocate earnings is linked to where that company is in its life cycle. As a company moves through its economic life cycle, its growth rates, sales, earnings, and cash flows change dramatically. In the development stage, a company loses money as it develops products and establishes markets. During the next stage, rapid growth, the company is profitable but growing so fast that it cannot support the growth; often it must not only retain all of its earnings but also borrow money or issue equity to finance growth” (Hagstrom, Robert G.. The Warren Buffett Way (p. 104). Wiley. Kindle Edition).  Tesla looks like they are in the phase of rapid growth. They have finally nailed down how to generate profits (yes, they have!), and they are expanding capacity-wise. They are likely to retain earnings and to be in need of cash, and that attracts my attention to another passage in Note 7: “Interest on outstanding debt is capitalized during periods of significant capital asset construction and amortized over the useful lives of the related assets”. If I understand correctly, the financial strategy consists in not servicing (i.e. not paying the interest due on) outstanding debt when that borrowed money is really being used to finance the construction of productive assets, and starting to service that debt only after the corresponding asset starts working and paying its bills. That means, in turn, that lenders are being patient and confident with Tesla. They assume their unconditional claims on Tesla’s future cash flows (this is one of the possible ways to define outstanding debt) are secure.   

Good. Now, I am having a look at Tesla’s Consolidated Statements of Operations (in millions, except per share data, unaudited: ). It is time to have a look at Warren Buffett’s Business Tenets as regards Tesla. Is the business simple and understandable? Yes, I think I can understand it. Does the business have a consistent operating history? No, operational results changed in 2020 and they keep changing. Tesla is passing from the stage of development (which took them a decade) to the stage of rapid growth. Does the business have favourable long-term prospects? Yes, they seem to have good prospects. The market of electric vehicles is booming (EV-Volumes[6]; IEA[7]).

Is Tesla’s management rational? Well, that’s another ball game. To develop in my next update.

[1] Chaouch, I., Driss, O. B., & Ghedira, K. (2017). A modified ant colony optimization algorithm for the distributed job shop scheduling problem. Procedia computer science, 112, 296-305.

[2] Asghari, S., & Azadi, K. (2017). A reliable path between target users and clients in social networks using an inverted ant colony optimization algorithm. Karbala International Journal of Modern Science, 3(3), 143-152.

[3] Emdadi, A., Moughari, F. A., Meybodi, F. Y., & Eslahchi, C. (2019). A novel algorithm for parameter estimation of Hidden Markov Model inspired by Ant Colony Optimization. Heliyon, 5(3), e01299.

[4] Gupta, A., & Srivastava, S. (2020). Comparative analysis of ant colony and particle swarm optimization algorithms for distance optimization. Procedia Computer Science, 173, 245-253.

[5] Di Caprio, D., Ebrahimnejad, A., Alrezaamiri, H., & Santos-Arteaga, F. J. (2021). A novel ant colony algorithm for solving shortest path problems with fuzzy arc weights. Alexandria Engineering Journal.



Laisse tomber les modèles d’entreprise

Une fois de plus, j’ai eu du décalage entre mes mises à jour. Remarquez, ça a été un décalage productif. J’ai développé un peu sur le sujet des voitures électriques. J’ai discuté le sujet avec quelques-uns de mes collègues, que j’avais invité à participer au projet et j’ai changé un peu d’optique. Le premier truc est abjectement opportuniste : la formulation de sujet. L’un de mes collègues a dit : « Écoute, le modèle d’entreprise, c’est occupé. Á l’École Supérieure de Commerce, à Varsovie, il y a une équipe qui a déjà défini plus de 100 modèles distincts d’entreprise et leur truc, ça a l’air solide côté méthode. Vaut mieux pas s’engager dans de territoire. Lorsqu’il sera question d’évaluation de notre demande de financement au ministère, ces gars-là, ils vont mettre nos têtes coupées sur leurs piques. Laisse tomber. Donnons à notre projet un sujet que presque personne ne veut toucher : l’innovation et la théorie de changement technologique dans le secteur des voitures électriques ». 

J’y a réfléchi et je suis bien d’accord. De ma part, toute cette histoire de modèles d’entreprise c’était un peu forcé. J’essayais d’emballer mes idées – qui par ailleurs sont 100% dans l’étude de changement technologique – dans le paquet étiqueté « modèle d’entreprise » parce que je pensais que ça se vendrait mieux. Je viens donc de (ré)apprendre une leçon importante : reste fidèle à tes idées et ton intuition. Prendre en considération les idées des autres est une chose, mais te déguiser en ces idées en est une autre et c’est une erreur stratégique.

Puisque je rejette le déguisement et je décide de rester fidèle à mes idées, je reviens à une idée dont il est même difficile de dire que je l’ai. C’est plutôt cette idée qui m’a et son essence est la suivante : les automobiles de toute sorte, à combustion interne ou électriques, peu importe, à part de mouvoir par eux-mêmes, ont un autre trait intéressant, celui d’être des réservoirs d’énergie par eux-mêmes. Une population d’automobiles est un réseau mobile de réservoirs d’énergie. Ceci dit, voilà quelques observations intéressantes.   

Premièrement, il y a de plus en plus d’automobiles nouvelles par chaque personne nouvelle née. Les nombres de base, je les montre dans le tableau ci-dessous. Le nombre d’automobiles produites annuellement vient de , pendant que la démographie est basée sur les données de la Banque Mondiale ( ). Plus loin, en-dessous du tableau numérique, je présente le même sujet graphiquement, en forme d’index 2010 = 1,00.

AnnéeAutomobiles produites globalementPopulation mondiale
1999               39 759 847       6 034 491 778 
2000               41 215 653       6 114 332 537 
2001               39 825 888       6 193 671 774 
2002               41 358 394       6 272 752 973 
2003               41 968 666       6 351 882 363 
2004               44 554 268       6 431 551 642 
2005               46 862 978       6 511 748 367 
2006               49 918 578       6 592 734 537 
2007               53 201 346       6 674 203 645 
2008               52 726 117       6 756 917 893 
2009               47 772 598       6 839 574 286 
2010               58 264 852       6 921 871 603 
2011               59 897 273       7 002 860 245 
2012               63 081 024       7 085 762 277 
2013               65 745 403       7 169 638 368 
2014               67 782 035       7 254 226 881 
2015               68 539 516       7 338 964 954 
2016               72 105 435       7 424 286 143 

Deuxièmement, il y a de plus en plus de puissance électrique installée par personne dans le monde ( ). C’est un fait qui apparemment a peu en commun avec les automobiles mais j’explique un peu plus loin. En tout cas, voilà les données numériques, ci-dessous. La troisième colonne, avec « Delta puissance / delta population » en tête est une valeur marginale. C’est la croissance annuelle de la puissance électrique installée divisée par la croissance annuelle analogue dans la population. Ça montre combien de kilowatts nouveaux de puissance électrique correspondent à chaque être humain nouveau sur la planète. Nous pouvons voir que ça bouge, ce quotient des deltas. Au fil des années, chaque homo sapiens reçoit plus de puissance électrique en cadeau. Enfin, pas tout à fait en cadeau : les parents de cet homo sapiens doivent payer pour l’énergie fournie par la puissance en question.     

AnnéePuissance électrique installée dans le monde (MW)Puissance électrique par tête d’habitant (kW)Delta puissance / delta population
19993 363 432,460,561,13
20003 472 904,930,571,37
20013 576 290,560,581,30
20023 754 233,590,602,25
20033 908 520,310,621,95
20044 043 439,790,631,69
20054 175 549,310,641,65
20064 367 561,020,662,37
20074 550 173,790,682,24
20084 748 664,030,702,40
20094 950 686,180,722,44
20105 182 394,400,752,82
20115 443 572,280,783,22
20125 664 728,480,802,67
20135 893 934,280,822,73
20146 170 181,660,853,27

Maintenant, j’interpose les bagnoles avec la puissance électrique et voilà : troisièmement, il y a de moins en moins d’automobiles nouvelles par chaque MW nouveau de puissance électrique installée. Si on inverse le raisonnement, il y a de plus en plus de puissance électrique nouvelle par chaque voiture nouvelle.

Nous avons donc la situation suivante : nos réserves des carburants fossiles – surtout calculés par tête d’habitant – se rétrécissent, pendant que la puissance électrique installée par tête d’habitant est en train de croître. Point de vue jus en réserve, il y a une transition vers l’électricité à partir de la combustion directe des carburants fossiles.

Je pose donc l’hypothèse que le développement des voitures électriques est une fonction émergente de notre civilisation et dans cette fonction émergente, la technologie de stockage d’énergie, dans les batteries aussi bien que dans les stations de chargement, est l’intermédiaire naturel entre la puissance électrique installée et le développement d’électromobilité.

The batteries we don’t need anymore

I continue on the thread I started to develop in my last update in French, titled ‘De quoi parler à la prochaine réunion de faculté’, i.e. I am using that blog, and the fact of writing, to put some order in the almost ritual mess that happens at the beginning of the academic year. New calls for tenders start in the ministerial grant programs, new syllabuses need to be prepared, new classes start. Ordinary stuff, mind you, this is just something about September, as if I were in Vivaldi’s ‘Four seasons’: the hot, tumultuous Summer slowly folds into the rich, textured, and yet implacably realistic Autumn.

My central idea is to use some of the science which I dove into during the summer holidays as an intellectual tool for putting order in that chaos. That almost new science of mine is mostly based on the theory of complex systems, and my basic claim is that technological change is an emergent phenomenon in complex social systems. We don’t know why exactly our technologies change the way they change. We can trace the current technologies back to their most immediate ancestors and sometimes we can predict their most immediate successors, but that’s about it. Futuristic visions of technologies that could be there in 50 years from now are already some kind of traditional entertainment. The concept of technological progress, when we try to find a developmental logic in the historically known technological change, is usually standing on wobbly legs, on the other hand. Yes, electricity allowed the emergence of medical technologies used in hospitals, and that saved a lot of human lives, but there is no way Thomas Edison could have known that. The most spectacular technological achievements of mankind, such as the Egyptian pyramids, the medieval cathedrals, the Dutch windmills from the 16th century, or the automobile, seen from the historical distance, look ambiguous. Yes, it all solved some problems, but it facilitated the emergence of new problems. The truly unequivocal benefit of those technological leaps, which could have been actually experienced by the people who made them, was to learn how to develop technologies.

The studies I did during the Summer holidays 2021 focused on four essential, mathematical models of emergent technological change: cellular automata, flock of birds AKA particle swarm, ants’ nest, and imperfect Markov chains. I start with passing in review the model of cellular automata. At any given moment, the social complexity can be divided into a finite number of social entities (agents). They can be individual humans, businesses, NGOs, governments, local markets etc. Each such entity has an immediate freedom of movement, i.e. a finite number of one-step moves. The concept is related to the theory of games and corresponds to what happens in real life. When we do something social, we seldom just rush forwards. Most frequently, we make one step, observe the outcomes, adjust, then we make the next step etc. When all social agents do it, the whole social complexity can be seen as a collection of cells, or pixels. Each such cell (pixel) is a local state of being in society. A social entity can move into that available state, or not, at their pleasure and leisure. All the one-step moves a social entity can make translate into a trajectory it can follow across the social space. Collective outcomes we strive for and achieve can be studied as temporary complex states of those entities following their respective trajectories. The epistemological trick here is that individual moves and their combinations can be known for sure only ex post. All we can do ex ante is to define the possible states, and just wait where does the reality go.

As we are talking about the possible states of social complexity, I found an interesting mathematical mindf**k at quite an unexpected source, namely in the book titled ‘Aware. The Science and Practice of Presence. The Groundbreaking Meditation Practice’ by Daniel J. Siegel [Penguin Random House LLC, 2018, Identifiers: LCCN 2018016987 (print), LCCN 2018027672 (ebook), ISBN 9780143111788, ISBN 9781101993040 (hardback)]. This is a mathematical way of thinking, apparently taken from quantum physics. Here is the essence of it. Everything that happens does so as 100% probability of the given thing happening. Each phenomenon which takes place is the actualization of the same phenomenon being just likely to happen.

Actualization of probability can be seen as collision of two vehicles in traffic. When the two vehicles are at a substantial distance from each other, the likelihood of them colliding is zero, for all practical purposes. As they converge towards each other, there comes a point when they become sort of provisionally entangled, e.g. they find themselves heading towards the same crossroads. The probability of collision increases slightly, and yet it is not even the probability of collision, it is just the probability that these two might find themselves in a vicinity conducive to a possible collision. Nothing to write home about, yet, like really. It can be seen as a plateau of probability slowly emerging out of the initial soup of all the things which can possibly happen.

As the two cars drive closer and closer to the crossroads in question, the panoply of possible states narrows down. There is a very clear chunk of reality which gains in likelihood, as if it was a mountain range pushing up from the provisional plateau. There comes a point where the two cars (and their drivers) just come on collision course, and there is no way around it, and this is a peak of 100% probability. Boom! Probability is being consumed.

What do those cars have in common with meditation and with the emergence of technological change? As regards meditation, thought can be viewed as a progressively emerging actualization of something that was just a weak probability, sort of a month ago it was just weakly probable that today I would think what I think, it became much more likely yesterday, as the thoughts from yesterday have an impact on the thoughts of today, and today it all comes to fruition, i.e. to the 100% probability. As regards emergent technological change, the way technology changes today can be viewed as actualization of something that was highly probable last year, just somehow probable 10 years ago, and had been just part of the amorphous soup of probability 30 years ago. Those trajectories followed by individual agents inside social complexity, as defined in the theory of cellular automata, are entangled together precisely according to that pattern of emergent probabilities. Two businesses coming up with two mutually independent, and yet similar technologies, are like two peak actualizations of 100% probability in a plateau of probable technological change, which, in turn, has been slowly emerging for some time.

Those other theories I use explain and allow to model mathematically that entanglement. The theory of particle swarm, pertinent to flocks of birds, assumes that autonomous social agents strive for a certain level of behavioural coupling. We expect some level of predictability from others, and we can cooperate with others when we are satisfactorily predictable in our actions. The strive for social coherence is, therefore, one mechanism of entanglement between individual trajectories of cellular automata. The theory of ants’ nest focuses on a specific category of communication systems in societies, working like pheromones. Ants organize by marking, reinforcing and following paths across their environment, and their pheromones serve as markers and reinforcement agents for those paths. In human societies, there are social pheromones. Money and financial markets make probably the most obvious example, but scientific publications are another one. The more scientific articles are being published on a given topic, the more likely are other articles being written on the same topic, until the whole thing reaches a point of saturation, when some ants (pardon me, scientists) start thinking about another path to mark with intellectual pheromones.

Cool. I have (OK, we have) complex social states, made of entangled probabilities that something specific happens, and they encompass technology. Those complex states change, i.e. one complex state morphs into another. Now, how the hell can I know, as a researcher, what is happening exactly? Such as the theory of complex systems suggests it, I can never know exactly, for one, and I need to observe, for two. As I don’t know exactly what is it exactly, that thing which I label ‘technological change’, it is problematic to set too many normative assumptions as for which specific path that technological change should take. I think this is the biggest point of contention as I apply my theory, such as I have just outlined it, to my main field of empirical research, namely energy economics, and technological change in the sector of energy. The more I do that research, the more convinced I am that the so-called ‘energy policies’, ‘climate policies’ etc. are politically driven bullshit based on wishful thinking, with not much of a chance to bring the positive change we expect. I have that deep feeling that setting a strategy for future innovations in our business/country/world is very much like that Polish expression ‘sharing the skin of a bear which is still running in the woods’. First, you need to kill the bear, only then you can bicker about who takes what part of the skin. In the case of innovation, long-term strategies in that domain consist in predicting what we will do when we have something we don’t even know yet what is it exactly.

I am trying to apply this general theory in the grant applications which I am in charge of preparing now, and in my teaching. We have that idea, at the faculty, to apply for funding to study the market of electric vehicles in Europe and in Poland. This is an interesting situation as regards business models. In the US, the market of electric cars is clearly divided among three categories of players. There is Tesla, which is a category and an industry in itself, with its peculiar strategy of extreme vertical integration. Then there are the big, classical car makers, such as Toyota, General Motors etc., with their business models based on rather a short vertical chain of value added inside the business, and a massive supply chain upstream of the house. Finally, there is a rising tide of small start-ups in the making of electric vehicles. I wonder what I could be in Europe. As our European market of electric vehicles is taking off, it is dominated by the incumbent big manufacturers, the old school ones, with Tesla building a factory in Germany, and progressively building a beachhead in the market. There is some timid movement towards small start-up businesses in the field, but it is really timid. In my home country, Poland, the most significant attempt at starting up an electric vehicle made in Poland is a big consortium of state-controlled companies, running under the name of ‘Electromobility Poland’.  

I have that intuition, which I provisionally express as a working hypothesis, namely that business models are an emergent property of technologies which they use. As regards the market of electric vehicles, it means that Tesla’s business model is not an accidental explosion of Elon Musk’s genius mind: it is an emergent characteristic of the technologies involved.

Good. I have some theory taking shape, nice and easy. I let it ripen a bit, and I start sniffing around for facts. What is a business model, in my mind? It is the way of operating the chain of value added, and getting paid for it, in the first place. Then, it is the way of using capital. I noticed that highly innovative environments force businesses to build up and keep large amounts of cash money, arguably to manage the diverse uncertainties emerging as technologies around morph like hell. In some cases, e.g. in biotech, the right business model for rapid innovation is a money-sucker, with apparently endless pay-ins of additional equity by the shareholders, and yet with a big value in terms of technological novelty created. I can associate that phenomenon of vacuum cleaning equity with the case of Tesla, who just recently started being profitable, and had gone through something like a decade in permanent operational loss. That is all pertinent to fixed costs, thus to the cash we need to build up and keep in place the organizational structure required for managing the value chain the way we want to manage it.

I am translating those loose remarks of mine into observable phenomena. Everything I have just mentioned is to be found in the annual financial reports. This is my first source of information. When I want to study business models in the market of electric vehicles, I need to look into financial and corporate reports of businesses active in the market. I need to look into the financial reports of Mercedes Benz, BMW, Renault, PSA, Volkswagen, Fiat, Volvo, and Opel – thus the European automotive makers – and see how it is going, and whether whatever is going on can be correlated with changes in the European market of electric vehicles. Then, it is useful to look into the financial reports of global players present in the European market, e.g. Tesla, Toyota, Honda and whatnot, just to see what changes in them as the European market of electric vehicles is changing.

If my intuition is correct, i.e. if business models are truly an emergent property of technologies used, the fact of engaging into the business of electric vehicles should be correlated with some sort of recurrent pattern in those companies.         

Good. This is about the big boys in the playground. Now, I turn toward the small ones, the start-up businesses. As I already said, it is not like we have a crowd of them in the European industry of electric vehicles. The intuitive axis of research which comes to my mind is to look at start-ups active in the U.S., study their business models, and see if there is any chance of something similar emerging in Europe. Somehow tangentially to that, I think it would be interesting to check whether the plan of Polish government regarding ‘Electromobility Poland’, that is the plan to develop it with public and semi-public money, and then sell it to private investors, has any grounds and under what conditions it can be a workable plan.

Good. I have rummaged a bit in my own mind, time to do the same to other people. I mean, I am passing to reviewing the literature. I type ‘electric vehicles Europe business model’ at the platform, and I look at what’s popping up. Here comes the paper by Pardo-Bosch, F., Pujadas, P., Morton, C., & Cervera, C. (2021). Sustainable deployment of an electric vehicle public charging infrastructure network from a city business model perspective. Sustainable Cities and Society, 71, 102957., . The abstract says: ‘The unprecedented growth of global cities together with increased population mobility and a heightened concern regarding climate change and energy independence have increased interest in electric vehicles (EVs) as one means to address these challenges. The development of a public charging infrastructure network is a key element for promoting EVs, and with them reducing greenhouse gas emissions attributable to the operation of conventional cars and improving the local environment through reductions in air pollution. This paper discusses the effectiveness, efficiency, and feasibility of city strategic plans for establishing a public charging infrastructure network to encourage the uptake and use of EVs. A holistic analysis based on the Value Creation Ecosystem (VCE) and the City Model Canvas (CMC) is used to visualise how such plans may offer public value with a long-term and sustainable approach. The charging infrastructure network implementation strategy of two major European cities, Nantes (France) and Hamburg (Germany), are analysed and the results indicate the need to involve a wide range of public and private stakeholders in the metropolitan areas. Additionally, relevant, and fundamental patterns and recommendations are provided, which may help other public managers effectively implement this service and scale-up its use and business model.

Well, I see there is a lot of work to do, as I read that abstract. I rarely find a paper where I have so much to argue with, just after having read the abstract. First of all, ‘the unprecedented growth of global cities’ thing. Actually, if you care to have a look at the World Bank data on urban land ( ), as well as that on urban population ( ), you will see that urbanization is an ambiguous phenomenon, strongly region-specific. The central thing is that cities become increasingly distinct from the countryside, as types of human settlements. The connection between electric vehicles and cities is partly clear, but just partly. Cities are the most obvious place to start with EVs, because of the relatively short distance to travel between charging points. Still, moving EVs outside the cities, and making them functional in rural areas, is the next big challenge.

Then comes the ‘The development of a public charging infrastructure network is a key element for promoting EVs’ part. As I studied the thing in Europe, the network of charging stations, as compared to the fleet of EVs in the streets is so dense that we have like 12 vehicles per charging station on average, across the European Union. There is no way a private investor can have it for their money, when financing a private charging station, with that average density. We face a paradox: there are so many publicly funded charging stations, in relation to the car fleet out there, that private investment gets discouraged. I agree that it could be an acceptable transitory state in the market, although it begs the question whether private charging stations are a viable business in Europe. Tesla has based a large part of its business model in the US precisely on the development of their own charging stations. Is it a viable solution in Europe?

Here comes another general remark, contingent to my hypothesis of business models being emergent on the basis of technologies. Automotive technologies in general, thus the technology of a vehicle moving by itself, regardless the method of propulsion (i.e. internal combustion vs electric) is a combination of two component technologies. Said method of propulsion is one of them, and the other one is the technology of distributing the power source across space. Electric vehicles can be viewed as cousins to tramways and electric trains, with just more pronounced a taste for independence: instead of drinking electricity from a permanent wiring, EVs carry their electricity around with them, in batteries.

As we talk about batteries, here comes another paper in my cursory rummaging across other people’s science: Albertsen, L., Richter, J. L., Peck, P., Dalhammar, C., & Plepys, A. (2021). Circular business models for electric vehicle lithium-ion batteries: An analysis of current practices of vehicle manufacturers and policies in the EU. Resources, Conservation and Recycling, 172, 105658., . Yes, indeed, the advent of electric vehicles creates a problem to solve, namely what to do with all those batteries. I mean two categories of batteries. Those which we need, and hope to acquire easily when the time comes for changing them in our vehicles, in the first place, and those we don’t need anymore and expect someone to take care of them swiftly and elegantly.       

De quoi parler à la prochaine réunion de faculté

Je change un peu de style par rapport à mes dernières mises à jour sur ce blog et je change parce que c’est le début de l’année académique, chez moi. C’est donc le chaos habituel que je commence à aimer, par ailleurs. Cette mise à jour est donc une mise en ordre dans mes idées et mes projets.

Je commence par essayer de résumer la recherche que j’ai faite pendant les vacances. Je pose donc l’hypothèse générale que le changement technologique est un phénomène émergent, qui survient comme intégration des phénomènes partiels dans le système social dont la complexité est essentiellement insaisissable pour nous. L’hypothèse d’émergence impose par ailleurs une distinction entre le terme de changement technologique et celui de progrès technologique. Le progrès technologique est un terme fortement subjectif, basé sur un système des valeurs communes dans une société. Le progrès c’est donc du changement, comme phénomène émergent, plus notre interprétation de ce phénomène.

Cette hypothèse a d’autres conséquences, dont la plus importante et la plus pratique c’est une mise en question radicale du concept de politique technologique ou politique d’innovation, au niveau agrégé d’état, de communauté internationale ou même au niveau des grandes entreprises. Dans les soi-disant « politiques technologiques » leurs créateurs assument que nous pouvons collectivement décider de développer nos technologies dans une direction donnée et que ça va marcher. Pour autant que je sache, c’est problématique déjà au niveau des grandes entreprises. Les politiques d’innovation des années 1990 dans l’industrie automobile, par exemple, étaient dans ce style. C’était comme « tout le monde se concentre sur la création de la technologie AVBG pour les 10 années à venir et pas de discussion ». Dans la plupart des cas, les résultats étaient désastreux. Des milliards des dollars dépensés sur des projets qui échouaient de façon spectaculaire au moment de confrontation au marché. Je pense que la seule technologie fondamentale dans l’automobile qui avait émergé avec succès des années 1990 c’était la propulsion hybride (moteur électrique plus moteur à combustion interne). C’était une technologie à laquelle personne de donnait arbitrairement la priorité dans les stratégies des grandes entreprises du secteur. Le pionnier dans ce domaine, Toyota, approchait le développement de la propulsion hybride de façon très prudente et pragmatique, comme une série heuristique d’expériences contrôlées, très loin des stratégies du type « tout le monde à bord ».  

Après les échecs des politiques centralisées d’innovation des années 1990, les grandes entreprises sont devenues beaucoup plus prudentes dans ce domaine. La meilleure politique semble être celle d’expérimentation abondante avec plusieurs idées nouvelles à la fois, avec une composante de compétition interne. Eh bien, lorsque je regarde les politiques qui se donnent l’étiquette « climatiques », quoi que cela veuille dire au juste, je me dis que ces hommes et femmes politiques (à propos, peut-on dire « les gens politiques » ?) feraient bien de prendre exemple des grandes entreprises. Les politiques qui commencent avec « Nous devons tous… » sont déjà suspectes. Si une telle politique assume, en plus, que la meilleure façon de stimuler l’innovation est d’introduire des nouveaux impôts, je suis contre. Oui, pour être clair : je suis vigoureusement contre le soi-disant « impôt carbone ». Je trouve cette idée dysfonctionnelle sur plusieurs niveaux, mais j’y reviendrai à une autre occasion.

Mon plat scientifique à emporter, après les vacances d’été AD 2021, est donc celui de changement technologique comme phénomène émergent qui intègre un système social complexe en ce qui concerne l’usage des ressources. Je me réfère fortement à la théorie des systèmes complexes en général et plus particulièrement à quatre modèles mathématiques là-dedans : le modèle d’automates cellulaires, celui d’essaim d’oiseaux, celui de fourmilière, et enfin celui des chaînes imparfaites de Markov.   

Avec cette perspective générale dans l’esprit, je me tourne vers un projet de recherche qui est en train de prendre forme parmi moi et mes collègues à l’université. Nous pensons qu’il serait intéressant d’étudier les développements possibles dans le marché européen des véhicules électriques, plus particulièrement en ce qui concerne les modèles d’entreprise. Par « modèle d’entreprise » je veux dire la même chose que le terme anglais « business model », donc la façon d’intégrer et de gérer la chaîne de valeur ajoutée dans le marché en question.

J’explique. Si on prend le marché global des véhicules électriques, on a essentiellement trois modèles d’entreprise : Tesla, les sociétés automobiles classiques et les startups. Tesla est idiosyncratique, c’est pratiquement une industrie en soi. Leur modèle d’entreprise est basé sur une intégration verticale très poussée, aussi bien au niveau des technologies qu’à celui d’organisation. Tesla avait commencé par faire des bagnoles électriques, puis ils ont enchaîné avec des stations de chargement et du photovoltaïque. C’est une chaîne de plus en plus longue des technologies verticalement connectées. D’autre part, le concept de « giga factory », chez Tesla, c’est de l’intégration verticale opérationnelle. L’idée consiste à convaincre les fournisseurs de localiser, dans la mesure du possible, leurs centres de fabrication dans la même usine où Tesla fait ses voitures. Simple et génial, j’ai envie de dire.

Tesla a donc un modèle d’entreprise très fortement intégré à la verticale et – comme j’ai pu le constater en observant leurs finances au fil des années – ça a pris du temps d’apprendre comment gérer cette chaîne de façon à capter proprement la valeur ajoutée. Ce n’est que récemment que tout ce bazar a commencé à être profitable. Là, il y a une question qui me fascine : pourquoi est-ce qu’autant de gens avaient mis autant d’effort dans l’expérimentation tellement coûteuse avec un modèle d’entreprise qui, pendant des années (pendant presque une décennie, en fait), semblait n’avoir aucune perspective réaliste de dégager du profit ?

Oui, je sais, Elon Musk. Le gars est fascinant, je suis d’accord. Seulement une organisation de la taille de Tesla, ça ne se crée pas autour d’une seule personne, même aussi géniale qu’Elon Musk, qui, par ailleurs, tout en étant un génie, n’est pas vraiment charismatique. Les grandes organisations, ça émerge de la complexité du tissu social, en intégrant certaines parties de ce tissu. Il est très dur de créer une grande organisation et il est encore plus dur de la tenir en place à long terme. Il doit y avoir des mécanismes sociaux sous-jacents qui soutiennent et stimulent ce phénomène.      

A côté de Tesla, il y a les producteurs automobiles établis, comme Daimler Chrysler, Toyota, le groupe PSA etc. Aujourd’hui, c’est devenu presque un impératif pour un producteur automobile de faire des véhicules électriques. Seulement ces producteurs-là, ils maintiennent le modèle d’entreprise bien morcelé verticalement, avec du outsourcing poussé et aucune tentative marquée d’adopter le modèle super-intégré de Tesla.

A côté de tout ça, il y a beaucoup des startups dans le marché des voitures électriques et ça, c’est même plus fascinant que Tesla. Pendant des décennies, l’automobile semblait être complétement fermé à ce type de petite entreprise créative, agile et coriace dont en voit plein dans l’informatique, la nanotechnologie ou bien la biotechnologie. Paradoxalement, le moment où Tesla a réussi de stabiliser financièrement sont modèle d’entreprise super intégrée, des startups ont commencé à proliférer. C’est comme si l’émergence d’un organisme géant très spécifique avait enclenché l’émergence des petites bestioles expérimentales de toute sorte.

Je me demande donc quel peut bien être ce mécanisme sous-jacent d’émergence des modèles nouveaux d’entreprise avec l’avènement des véhicules électriques. Voilà mon hypothèse de travail no. 1 à ce sujet : l’émergence rapide de nouveaux modèles d’entreprise manifeste une tendance poussée de la société à expérimenter et ceci, à son tour, témoigne de l’orientation collective sur un certain type de résultat.

Il y a ce principe, formulé, je crois, par Sigmund Freud. Si nous voulons découvrir les motivations réelles et profondes d’une personne qui ne sait pas comment les articuler, regardons les conséquences de ses actions. Ces conséquences disent beaucoup sur les valeurs et les tendances personnelles. La civilisation est une histoire. C’est un peu comme une personnalité. La prolifération des véhicules électriques à deux conséquences majeures. D’une part, nous réduisons notre dépendance du pétrole. Ceci contribue à protéger l’environnement, mais ça permet aussi de remuer un peu l’équilibre géopolitique. En Europe, par exemple, nous n’avons pas de pétrole local et aussi longtemps que nous roulons sur des moteurs à combustion interne, notre système de transport routier est stratégiquement dépendant d’une ressource que nous n’avons pas. A l’échelle globale, l’abandon du combustible en faveur des véhicules électriques, ça réduit la dépendance stratégique vis-à-vis des pays pétroliers et c’est in changement géopolitique majeur.   

La seconde conséquence majeure de la transition vers le véhicule électrique est une accélération spectaculaire dans le développement des technologies de stockage d’énergie. Remarquons, par ailleurs, que chaque voiture est un réservoir mobile d’énergie. Ça concerne toutes les voitures, celles à combustion interne aussi. Le réservoir d’essence est un réservoir mobile d’énergie. Le développement d’automobile en général, donc des moyens de transport qui bougent avec leur propre énergie, équivaut au développement d’un réseau géant de petits réservoirs mobiles d’énergie.

Notre civilisation s’est largement développée, à travers des millénaires, sur la base des technologies de stockage. Le stockage de nourriture semble avoir joué un rôle crucial, mais le stockage d’énergie est important aussi. Toute l’industrie des carburants fossiles est largement l’histoire de découverte comment stocker et transporter une source d’énergie. Les véhicules électriques, ça peut être la génération 2.0 dans ce domaine.

Voilà donc que je peaufine mon hypothèse de travail, comme no. 2 : l’émergence rapide de nouveaux modèles d’entreprise dans l’industrie des véhicules électriques est un phénomène émergent d’expérimentation collective orientée sur le réaménagement des relations géopolitiques basées sur la dépendance du pétrole ainsi que sur le développement des technologies de stockage d’énergie.

Eh bien voilà une jolie hypothèse. De quoi parler à la prochaine réunion de la faculté.

The possible Black Swans

I am re-digesting, like a cow, some of the intellectual food I figured out recently. I return to the specific strand of my research to be found in the unpublished manuscript ‘The Puzzle of Urban Density And Energy Consumption’, and I want to rummage a bit inside one specific issue, namely the meaning which I can attach to the neural activation function in the quantitative method I use.

Just to give a quick sketch of the landscape, I work through a general hypothesis that our human civilization is based on two factories: the factory of food in the countryside, and the factory of new social roles in cities. The latter produce new social roles by creating demographic anomalies, i.e. by packing humans tightly together, in abnormally high density. Being dense together makes us interact more with each other, which, whilst not always pleasant, stimulates our social brains and makes us figure out new interesting s**t, i.e. new social roles.

I made a metric of density in population, which is a coefficient derived from the available data of the World Bank. I took the coefficient of urbanization (World Bank 1[1]), and I multiplied it by the headcount of population (World Bank 4[2]). This is how I got the number of people living in cities. I divided it by the surface of urban land (World Bank 2[3]), and I got the density of population in cities, which I further label as ‘DU’. Further, I gather that the social difference between cities and the countryside, hence the relative impact of cities as breeding ground for new social roles, is determined by the difference in the depth of demographic anomalies created by the urban density of population. Therefore, I took the just-calculated coefficient DU and I divided it by the general density of population, or ‘DG’ (World Bank 5[4]). This is how I ended up the with the coefficient ‘DU/DG’, which, mathematically, denominates the density of urban population in units of general density in population.

I simulate an artificial reality, where we, humans, optimize the coefficient ‘DU/DG’ as our chief collective orientation. We just want to get it right. Enough human density in cities to be creative, and yet enough space for each human being able to practice mindfulness when taking a #2 in the toilet. We optimize ourselves being dense together in cities on the base of 7 input characteristics of ours, namely:   

Population – this is a typical scale variable. The intuition behind it is that size matters, and that’s why in most socio-economic research, when we really mean business in quantitative terms, we add such variables, pertinent to the size of the social entity studied. Urbanization occurring in a small country, like Belgium (with all my due respect for Belgians), is likely to occur differently from urbanization in India or in the U.S. In this specific case, I assume that a big population, like hundreds of millions of people, has to move more resources around to accommodate people in cities, as compared to a population counted in dozens of millions.  
Urban population absolute – same tune, a scale variable, more specifically pertinent to the headcount of urban populations.   
Gross Domestic Product (GDP, constant 2010 US$) – scale variable, once again, but this time it is about the real output of the economy. In my approach, the GDP is not exactly a measure of the wealth produced, but more of an appraisal of total productive activity in the humans living around. This is why I use constant prices. That shaves off the price-and-relative-wealth component, and leaves GDP as a metric pertinent to how much tradable surpluses do humans create in a given place and time.  
Broad money (% of GDP) – this is essentially the opposite to the velocity of money, and it corresponds to another strand in my research. I discovered and I keep studying the fact that in the presence of quick technological change, human societies stuff themselves up with abnormally high amounts of cash (or cash equivalents, for that matter). It holds for entire countries as well as for individual businesses. You can find more on that in my article ‘Technological change as a monetary phenomenon’. I guess that when humans make more new social roles in cities, technologies change faster.            
Energy use (kg of oil equivalent per capita) – this is one of the fundamental variables I frequently work with. I guess I included it in this particular piece of research just in case, in order to be able to connect with my research on the market of energy.  
Agricultural land (km2) – the surface of agricultural land available is a logical correlate of urban population. A given number of people in cities need a given amount of food, which, in turn, can be provided by a given surface of agricultural land.            
Cereal yield (kg per hectare) – logically complementary to the surface of agricultural land. Yield per hectare in France is different from what an average hectare can contribute in Nigeria, and that is likely to be correlated with urbanization.  

You can get the raw data I used UNDER THIS LINK. It covers Australia, Brazil, Canada, China, Colombia, France, Gabon, Germany, Ghana, India, Malaysia, Mexico, Mozambique, Namibia, New Zealand, Nigeria, Norway, Poland, Russian Federation, United Kingdom, and the United States. All that lot observed over the window in time stretching from 1961 all the way to 2015.

I make that data into a neural network, which means that I make h(tj) = x1(tj)*R* E[xi(tj-1)] + x2(tj)*R* E[x2(tj-1)] + … + xn(tj)*R* E[xn(tj-1)], as explained in my update titled ‘Representative for collective intelligence’, with x1, x2,…, x7 input variables described above, grouped in 21 social entities (countries), and spread over 2015 – 1961= 54 years. After the curation of data for empty cells, I have m = 896 experimental rounds in the (alleged) collective intelligence, whose presence I guess behind the numbers. I made that lot learn how to squeeze the partly randomized input, controlled for internal coherence, into the mould of the desired output of the coefficient xo = DU/DG. I ran the procedure of learning with 4 different methods of estimating the error of optimization. Firstly, I computed that error the way we do it in basic statistics, namely e1 = xo – h(tj). The mixed-up input is simply subtracted from expected output. In the background, I assume that the locally output xo is an expected value in statistical terms, i.e. it is the mean value of some hypothetical Gaussian distribution, local and specific to that concrete observation.  With that approach to error, there is no neural activation as such. It is an autistic neural network, which does not discriminate input as for its strength. It just reacts.

As I want my collective intelligence to be smarter than your average leech, I make three more estimations of errors, with the input h(tj) passing through a neural activation function. I start with the ReLU rectifier, AKA max[0, h(tj)], and, correspondingly, with e2 = xo – ReLU[h(tj)]. Then I warm up, and I use neural activation via hyperbolic tangent tanh[h] = (e2h – 1) / (e2h + 1), and I compute e3 = xo – tanh[h(tj)]. The hyperbolic tangent is a transcendental number generated by periodical observation of a hyperbola, and that means that hyperbolic tangent has no functional correlation to its input. Neural activation with hyperbolic tangent creates a projection of input into a separate, non-correlated space of states, like cultural transformation of cognitive input into symbols, ideologies and whatnot. Fourthly and finally, I use the sigmoid function (AKA logistic function) sig(h) = 1 / (1 + e-h) which can be read as smoothed likelihood that something happens, i.e. that input h(tj) has full power. The corresponding error is e4 = xo – sig[h(tj)].

From there, I go my normal way. I create 4 artificial realities out of my source dataset. Each of these realities assumes that humans strive to nail down the right social difference between cities and the countryside, as measured with the DU/DG coefficient. Each of these realities is generated with a different way of appraising how far we are from the desired DU/DG, this with four different ways of computing the error: e1, e2, e3, and e4.  The expected states of both the source empirical dataset, and sets representative for those 4 alternative realities, are given by their respective vectors of mean values, i.e. mean DU/DG, mean population etc. Those vectors of means are provided in Table 1 below. The source dataset shows a mean DU/DG = 41,14, which means that cities in this dataset display, on average across countries, 41 times greater a density of population than the general density of population. Mean empirical population is 149,6 million people, with mean urban population being 67,34 million people. Yes, we have China and India in the lot, and they really pump those scale numbers up.

Table 1 – Vectors of mean values in the source empirical set and in the perceptrons simulating alternative realities, optimizing the coefficient DU/DG

  Perceptrons pegged on DU/DG
VariableSource dataseterror = xo – herror = xo – ReLu(h)error = xo – tanh(h)error = xo – sigmoid(h)
Population149 625 587,07125 596 355,00(33 435 417,00)252 800 741,001 580 356 431,00
GDP (constant 2010 US$)1 320 025 624 972,081 025 700 000 000,00(922 220 000 000,00)2 583 780 000 000,0018 844 500 000 000,00
Broad money (% of GDP)57,5054,1331,8071,99258,38
Urban population absolute67 349 480,4254 311 459,20(31 977 590,00)123 331 287,00843 649 729,00
Energy use (kg of oil equivalent per capita)2 918,692 769,761 784,113 558,1611 786,15
Agricultural land km21 227 301,861 135 064,25524 611,511 623 345,716 719 245,69
Cereal yield (kg per hectare)3 153,313 010,542 065,683 766,3111 653,77

One of the first things which jumps to the eye in Table 1 – at least to my eye – is that one of the alternative realities, namely that based on the ReLU activation function, is an impossible reality. There are negative populations in this one, and this is not a livable state of things. I don’t know about you, my readers, but I would feel horrible knowing that I am a minus. People can’t be negative by default. By the way, in this specific dataset, the ReLU looks like almost identical to the basic difference e1 = xo – h(tj). Yet, whilst making an alternative reality with no neural transformation of quasi-randomized input, thus making it with e1 = xo – h(tj), creates something pretty close to the original empirics.

Another alternative reality which looks sort of sketchy is the one based on neural activation via the sigmoid function. This one transforms the initial mean expected values into their several-times-multiples. Looks like the sigmoid is equivalent, in this case, to powering the collective intelligence of societies studied with substantial doses of interesting chemicals. That particular reality is sort of a wild dream, like what it would be like to produce almost 4 times more cereal yield per hectare, having more than 4 times more agricultural land, and over 10 times more people in cities. The surface of available land being finite as it is, 4 times more agricultural land and 10 times more people in cities would mean cities tiny in terms of land surface, probably all in height, both under and above ground, with those cities being 324 times denser with humans than the general landscape. Sounds familiar, a bit like sci fi movies.  

Four different ways of pitching input variables against the expected output of optimal DU/DG coefficient produce four very different alternative realities. Out of these four, one is impossible, one is hilarious, and we stay with two acceptable ones, namely that based on no proper neural activation at all, and the other one using the hyperbolic tangent for assessing the salience of things. Interestingly, errors estimated as e1 = xo – h(tj) are essentially correlated with the input variables, whilst those assessed as e3 = xo – tanh[h(tj)] are essentially uncorrelated. It means that in the former case one can more or less predict how satisfied the neural network will be with the local input, and that prediction can be reliably made a priori. In the latter case, with the hyperbolic tangent, there is no way to know in advance. In this case, neural activation is a true transformation of reality.

Table 2 below provides the formal calculation of standardized Euclidean distance between all the 4 alternative realities and the real world of tears we live in. By standardized Euclidean I mean: E = {[(meanX – meanS)2]0,5} / meanX. The ‘/ meanX’ part means that divide the basic Euclidean distance by the mean value which serves me as benchmark, i.e. the empirical one. That facilitates subsequent averaging of those variable-specific Euclidean distances into one metric of mathematical similarity between entire vectors of values.   

Table 2 – Vectors of standardized Euclidean distances between the source set X and the perceptrons simulating alternative realities, optimizing the coefficient DU/DG

error = xo – herror = xo – ReLu(h)error = xo – tanh(h)error = xo – sigmoid(h)
GDP (constant 2010 US$)0,222969631,6986379530,95737109313,27585923
Broad money (% of GDP)0,0586723240,4469811720,2519234033,493424228
Urban population absolute0,1935875551,4748008420,83121363711,52644748
Energy use (kg of oil equivalent per capita)0,0510261810,3887308450,2190928923,038163202
Agricultural land km20,0751547870,5725489140,3226947364,474810971
Cereal yield (kg per hectare)0,0452750,3449168340,1943988412,695730596

Interestingly, whilst alternative reality based on neural activation through the ReLU function creates impossibly negative populations, its overall Euclidean similarity to the source dataset is not as big as it could seem. The impossible alternative is specific just to some variables.

Now, what does it all have to do with anything? How is that estimation of error representative for collective intelligence in human societies? Good question. I am doing my best to give some kind of answer to it. Quantitative socio-economic variables represent valuable collective outcomes, and thus are informative about alternative orientations in collective action. The process of learning how to nail those valuable outcomes down consumes said orientation in action. Assuming that figuring out the right proportion of demographic anomaly in cities, as measured with DU/DG, is a valuable collective outcome, four collective orientations thereon have been simulated. One goes a bit haywire (negative populations), and yet it shows a possible state of society which attempts to sort of smooth out the social difference between cities and the countryside, with DU/DG being ten times lower than reality. Another one goes fantasque, with huge numbers and a slightly sci-fi-ish shade. The remaining two look like realistic alternatives, one essentially predictable with e1 = xo – h(tj), and another one essentially unpredictable, with e3 = xo – tanh[h(tj)].

I want my method to serve as a predictive tool for sketching the possible scenarios of technological change, in particular as regards the emergence and absorption of radically new technologies. On the other hand, I want my method to be of help when it comes to identifying the possible Black Swans, i.e. the rather unlikely and yet profoundly disturbing states of nature. As I look at those 4 alternative realities my perceptron has just made up (it’s not me, its him! Well, it…), I can see two Black Swans. The one made with the sigmoid activation function shows a possible direction which, for example, African countries could follow, should they experience rapid demographic growth. This particular Black Swan is a hypothetical situation, when population grows like hell. This automatically puts enormous pressure on agriculture. More people need more food. More agriculture requires more space and there is fewer left for cities. Still, more people around need more social roles, and we need to ramp up the production thereof in very densely packed urban populations, where the sheer density of human interaction makes our social brains just race for novelty. This particular Black Swan could be actually a historical reconstruction. It could be representative for the type of social change which we know as civilisational revival: passage from the nomad life to the sedentary one, like a dozen of thousands of years ago, reconstruction of social tissue after the fall of the Western Roman Empire in Europe, that sort of stuff.

Another Black Swan is made with the ReLU activation function and simulates a society, where cities lose their function as factories of new social roles. It is the society in downsizing. It is actually a historical reconstruction, too. This is what must have happened when the Western Roman Empire was collapsing, and before the European civilization bounced back.

Well, well, well, that s**t makes sense… Amazing.

[1] World Bank 1:

[2] World Bank 4:

[3] World Bank 2:

[4] World Bank 5:

États transcendants par rapport à cette réalité

Je continue de réfléchir sur les fondements théoriques de ma méthode de simulation d’intelligence collective dans les sociétés humaines. Je sens le besoin de résumer les points les plus importants, d’une part, ainsi que d’explorer le lien théorique entre la structure logique d’un réseau neuronal et la façon dont l’intelligence collective se joue dans des sociétés en chair et en os.

L’essence de ma méthode de recherche consiste à utiliser les réseaux neuronaux artificiels pour simuler le fonctionnement d’intelligence collective des sociétés humaines. Je me concentre le plus sur le phénomène de changement technologique et dans ce cadre, je me concentre même plus sur le marché de l’énergie. Je veux utiliser ma méthode à deux fins pratiques : simuler l’absorption d’une nouvelle technologie dans l’environnement socio-économique et l’émergence des phénomènes soudains et transformatifs du type Cygne Noir.

J’assume que les variables socio-économiques que je peux utiliser de façon quantitative sont des représentations imparfaites – car simplifiées – des phénomènes sociaux autrement plus complexes. Ces variables sont des phénomènes sociaux en elles-mêmes, car elles représentent un enchevêtrement cognitif entre l’action collective et les résultats obtenus de celle-ci. Nous mesurons collectivement les trucs qui sont importants parce qu’ils représentent des récompenses existentielles pour notre société. Si je vois donc une base de données comme celle de la Banque Mondiale ou bien celle d’EUROSTAT, je vois une multitude des variables quantitatives qui, à leur tour, représentent autant d’orientations d’action collective des sociétés humaines.

Ma méthode consiste à déconstruire partiellement l’enchevêtrement de ces variables, à travers une simulation mathématique où je construis autant de réalités alternatives artificielles qu’il y a de variables à prendre en compte. Ensuite, j’étudie la similarité mathématique entre ces réalités alternatives d’une part et la réalité empirique telle que représentée par les données empiriques. La construction de ces réalités artificielles suit la logique essentielle d’un réseau neuronal artificiel qui optimise une variable de parmi toutes celles étudiées – comme variable de sortie – tout en utilisant les autres variables comme matériel d’entrée à optimiser. Chacune de ces réalités artificielles est donc une représentation mathématique d’une orientation spécifique de la (des) société(s) étudiées : l’orientation sur le type donné de récompense.

Ma méthode assume donc que la société telle quelle est observable de façon empirique est une superposition d’orientations différentes. Plus de variables j’utilise dans ma recherche, plus d’orientations alternatives je peux découvrir ainsi. D’un autre point de vue, plus diverse est le panier des variables, donc plus je mélange les données en provenance des sources différentes, y compris mes propres coefficients ou me propres observations, plus d’orientations différentes je peux déconstruire à partir de la réalité empirique.

Ça, c’est la théorie de base. Pour l’appliquer en pratique, donc pour étudier l’émergence ou bien l’absorption possible des nouvelles technologies dans l’environnement socio-économique, il me faut introduire dans mon observation empirique des variables pertinentes à ces technologies. Pertinence peut être directe aussi bien qu’indirecte. Si j’inclue dans ma soupe primaire des nombres une variable telle que le pourcentage d’électricité en provenance des sources renouvelables, je décris la probabilité qu’une kilowatt heure prise au hasard, comme ça, dans la rue, provienne de ces technologies de génération. Si je prends une variable telle que l’efficience énergétique de l’économie nationale, donc la quantité de produit par unité d’énergie consommée, c’est plus indirect : je mesure l’incidence des technologies relativement plus efficientes en énergie par comparaison à celles relativement moins efficientes.

En pratique, l’observation directe de l’émergence et l’absorption des technologies a des limites qui se sentent très vite. Je peux mesurer, par exemple, le pourcentage de génération éolienne dans le panier d’énergie consommée. En revanche, lorsqu’il s’agit de mesurer la prévalence relative des solutions spécifiques dans les turbines, la transmission d’énergie, l’équilibrage du réseau etc., alors là, il n’y a pas vraiment foule comme données empiriques. Alors, je fais ce que les scientifiques font tout le temps en l’absence des données empiriques pertinentes : je triche. J’introduis dans mon ensemble des données des probabilités théoriques. J’ai donc une base de données bien catholique, avec des trucs comme PIB ou inflation dedans et j’ajoute un pourcentage théorique qui correspond à la probabilité qu’une technologie spécifique soit adoptée par un utilisateur pris au hasard. Enfin, j’hésite entre « adoptée » et « appliquée ». Lorsque j’adopte, je prends responsabilité. Lorsque j’applique, ‘y a moins de poids éthique.

Cette probabilité théorique, je peux la piloter à mon gré. Elle peut être complétement discrète – donc je lui donne des valeurs déterminées à priori – ou bien je peux la faire danser à un rythme plus ou moins aléatoire. Dans ce dernier cas, je simule une situation ou la société comme structure collectivement intelligente n’est jamais sûre de quel trou cette nouvelle technologie va surgir. Je peux simuler des réalités alternatives orientées sur des variables bien respectables, comme sur le nombre de demandes de brevet par 1 million d’habitants, et alors ces probabilités théoriques attachées aux technologies nouvelles sont un facteur de distorsion comme variable d’entrée. Je peux aussi construire des réalités alternatives qui sont bel et bien orientées sur ces variables probabilistes théoriques, l’histoire de voir la similarité mathématique entre elles et la réalité empirique telle que je l’ai devant mes yeux dans ma base des données.

Dans mon expérience jusqu’alors, les réalités alternatives orientées sur les variables « technologiques », empiriques ou théoriques, tombent mathématiquement plus loin de la réalité empirique que celles orientées sur des variables typiquement économiques, comme le nombre d’heures travaillées par personne par an. Ça arrive tout le temps, en fait, avec des configurations de données différentes. C’est comme si le changement technologique – soit l’orientation collective sur des variables « technologiques » – était une orientation instrumentale aux celles axées sur des effets purement sociétaux, comme le marché de travail. 

Mes réalités alternatives, je les construis à travers un processus d’apprentissage numérique, donc avec un réseau neuronal. Voilà donc que vient le moment vraiment délicat dans mon autoréflexion, celui de démontrer le lien entre la structure du réseau neuronal – et de même la structure d’apprentissage numérique – et le phénomène d’adaptation intelligente dans les sociétés humaines réelles. Je prends mes variables d’entrée et je les transforme en un seul nombre qui représente le signal d’apprentissage pour la fonction d’activation neuronale. Cette transformation par agrégation a deux composantes. Le truc général que je prends de la structure typique d’un perceptron consiste à multiplier chaque variable d’entrée par un facteur aléatoire compris entre 0 et 1, donc par le bon vieux RANDOM. Le truc spécifique que j’ai développé par moi-même est d’ajouter un facteur non-aléatoire de distance Euclidienne moyenne entre la variable en question et toutes les autres variables de l’ensemble, dans le pas expérimental précèdent. Évidemment, ce facteur non-aléatoire est absent du premier pas expérimental, puisqu’il n’a pas de pas précèdent. Selon mon intuition, cette distance Euclidienne représente le fait d’apprendre tout en prenant en compte la cohérence interne de la réalité représentée par des nombres. Selon mes observations empiriques, un réseau neuronal équipé de cette fonction de cohérence apprend de façon différente, par rapport au réseau qui s’en fiche. Avec facteur de cohérence, la courbe de l’erreur résiduelle est plus saccadée mais en fin de compte elle converge plus vite vers erreur minimale.

Je fais donc ce signal d’apprentissage « h », à partir de « n » variables d’entrée, comme h = R*E(tj-1)*x1(tj) + R*E(tj-1)*x2(tj) + … + R*E(tj-1)*xn(tj), où R est le facteur purement aléatoire et E est le facteur non-aléatoire de cohérence. Une fois le « h » calculé, je le mets dans ma fonction d’activation neuronale et là, il faut que je réfléchisse. Les fonctions d’activation que j’utilise le plus c’est soit le sigmoïde soit la tangente hyperbolique, avec un penchant pour la seconde. Je commence par déconstruire la tangente hyperbolique. Sa formule générale est tanh = (e2h – 1) / (e2h + 1), où « h » est bien le « h » comme spécifié plus haut, pendant que « e » est la constante d’Euler.              

Je commence par étudier les propriétés mathématiques de la tangente hyperbolique pour comprendre ce qu’elle fait à mes variables d’entrée. Les fonctions hyperboliques sont analogiques aux fonctions trigonométriques de base, seulement elles sont décrites sur une hyperbole et non pas sur un cercle. Une hyperbole est discontinue. Chaque portion d’une hyperbole représente un gradient différent. La tangente hyperbolique est donc une fonction périodique qui superpose plusieurs rythmes d’oscillation. La valeur de tangente hyperbolique n’est donc jamais en corrélation avec la variable d’entrée. La tangente hyperbolique est plus autonome par rapport à ces variables d’entrée que la tangente régulière (circulaire). Cette autonomie est exprimée par l’inclusion de la tangente hyperbolique dans la catégorie des nombres transcendants.   

La tangente hyperbolique transforme donc mes variables d’entrée en quelque chose qui n’a pas de corrélation fonctionnelle avec elles. C’est comme si les variables d’entrée créaient un plan différent de réalité. Pas si bête que ça, en fait. La perception (des variables d’entrée) forme un plan cognitif qui est différent de la réalité elle-même. Lorsque la société s’adapte à un signal d’apprentissage complexe, l’adaptation prend une forme spéciale. Le premier exemple qui me vient à l’esprit est notre adaptation collective au changement climatique. Le climat change et nous transformons ce changement en des symboles complexes : « il faut défendre la Terre », « il faut inventer quelque chose de nouveau », « il faut abandonner ces carburants fossiles ignobles » etc. Ce n’est qu’après s’être pompé culturellement avec ces symboles qu’on fait quoi que ce soit d’utile.

La tangente hyperbolique a une autre propriété intéressante. Dans tanh = (e2h – 1) / (e2h + 1), il y a le « h » qui change, accompagné de la constante : (e2 – 1) / (e2 + 1) = 6,389056099 / 8,389056099 = 0,761594156. J’ai remarqué qu’avec le calcul h = R*E(tj-1)*x1(tj) + R*E(tj-1)*x2(tj) + … + R*E(tj-1)*xn(tj), plus j’ai de variables différentes dans mon ensemble, donc dans ma réalité empirique de base, plus grande est l’amplitude d’oscillation dans « ». Plus complexe est donc ma représentation de réalité, plus d’états différents d’activation neuronale, transcendants par rapport à cette réalité, sont créés avec la tangente hyperbolique.  

Representative for collective intelligence

I am generalizing from the article which I am currently revising, and I am taking a broader view on many specific strands of research I am running, mostly in order to move forward with my hypothesis of collective intelligence in human social structures. I want to recapitulate on my method – once more – in order to extract and understand its meaning. 

I have recently realized a few things about my research. Firstly, I am using the logical structure of an artificial neural network as a simulator more than an optimizer, as digital imagination rather than functional, goal-oriented intelligence, and that seems to be the way of using AI which hardly anyone else in social sciences seems to be doing. The big question which I am (re)asking myself is to what extent are my simulations representative for the collective intelligence of human societies.

I start gently, with variables, hence with my phenomenology. I mostly use the commonly accessible and published variables, such as those published by the World Bank, the International Monetary Fund, STATISTA etc. Sometimes, I make my own coefficients out of those commonly accepted metrics, e.g. the coefficient of resident patent applications per 1 million people, the proportion between the density of population in cities and the general one, or the coefficient of fixed capital assets per 1 patent application.

My take on any variables in social sciences is very strongly phenomenological, or even hermeneutic. I follow the line of logic which you can find, for example, in “Phenomenology of Perception” by Maurice Merleau-Ponty (reprint, revised, Routledge, 2013, ISBN 1135718601, 9781135718602). I assume that any of the metrics we have in social sciences is an entanglement of our collective cognition with the actual s**t going on. As the actual s**t going on encompasses our way of forming our collective cognition, any variable used in social sciences is very much like a person’s attempt to look at themselves from a distance. Yes! This is what we use mirrors for! Variables used in social sciences are mirrors. Still, they are mirrors made largely by trial and error, with a little bit of a shaky hand, and each of them shows actual social reality in slightly disformed a manner.

Empirical research in social sciences consists, very largely, in a group of people trying to guess something about themselves on the basis of repeated looks into a set of imperfect mirrors. Those mirrors are imperfect, and yet they serve some purpose. I pass to my second big phenomenological take on social reality, namely that our entangled observations thereof are far from being haphazard. The furtive looks we catch of the phenomenal soup, out there, are purposeful. We pay attention to things which pay off. We define specific variables in social sciences because we know by experience that paying attention to those aspects of social reality brings concrete rewards, whilst not paying attention thereto can hurt, like bad.

Let’s take inflation. Way back in the day, like 300 years ago, no one really used the term of inflation because the monetary system consisted in a multitude of currencies, mixing private and public deeds of various kinds. Entire provinces in European countries could rely on bills of exchange issued by influential merchants and bankers, just to switch to other type of bills 5 years later. Fluctuations in the rates of exchange in those multiple currencies very largely cancelled each other. Each business of respectable size was like a local equivalent of the today’s Forex exchange. Inflation was a metric which did not even make sense at the time, as any professional of finance would intuitively ask back: ‘Inflation? Like… inflation in which exactly among those 27 currencies I use everyday?’.

Standardized monetary systems, which we call ‘FIAT money’ today, steadied themselves only in the 19th century. Multiple currencies progressively fused into one, homogenized monetary mass, and mass conveys energy. Inflation is loss of monetary energy, like entropy of the monetary mass. People started paying attention to inflation when it started to matter.

We make our own social reality, which is fundamentally unobservable to us, and it makes sense because it is hard to have an objective, external look at a box when we are staying inside the box. Living in that box, we have learnt, over time, how to pay attention to the temporarily important properties of the box. We have learnt how to use maths for fine tuning in that selective perception of ours. We learnt, for example, to replace the basic distinction between people doing business and people not doing business at all with finer shades of how much business are people doing exactly in a unit of time-space.   

Therefore, a set of empirical variables, e.g. from the World Bank, is a collection of imperfect observations, which represent valuable outcomes social outcomes. A set of N socio-economic variables represents N collectively valuable social outcomes, which, in turn, correspond to N collective pursuits – it is a set of collective orientations. Now, my readers have the full right to protest: ‘Man, just chill. You are getting carried away by your own ideas. Quantitative variables about society and economy are numbers, right? They are the metrics of something. Measurement is objective and dispassionate. How can you say that objectively gauged metrics are collective orientations?’. Yes, these are all valid objections, and I made up that little imaginary voice of my readers on the basis of reviews that I had for some of my papers.

Once again, then. We measure the things we care about, and we go to great lengths in creating accurate scales and methods of measurement for the things we very much care about. Collective coordination is costly and hard to achieve. If we devote decades of collective work to nail down the right way of measuring, e.g. the professional activity of people, it probably matters. If it matters, we are collectively after optimizing it. A set of quantitative, socio-economic variables represents a set of collectively pursued orientations.

In the branch of philosophy called ethics, there is a stream of thought labelled ‘contextual ethics’, whose proponents claim that whatever normatively defined values we say we stick to, the real values we stick to are to be deconstructed from our behaviour. Things we are recurrently and systematically after are our contextual ethical values. Yes, the socio-economic variables we can get from your average statistical office are informative about the contextual values of our society.

When I deal with a variable like the % of electricity in the total consumption of energy, I deal with a superimposition of two cognitive perspectives. I observe something that happens in the social reality, and that phenomenon takes the form of a spatially differentiated, complex state of things, which changes over time, i.e. one complex state transitions into another complex state etc. On the other hand, I observe a collective pursuit to optimize that % of electricity in the total consumption of energy.

The process of optimizing a socio-economic metric makes me think once again about the measurement of social phenomena. We observe and measure things which are important to us because they give us some sort of payoff. We can have collective payoffs in three basic ways. We can max out, for one. Case: Gross Domestic Product, access to sanitation. We can keep something as low as possible, for two. Case: murder, tuberculosis. Finally, we can maintain some kind of healthy dynamic balance. Case: inflation, use of smartphones. Now, let’s notice that we don’t really do fine calculations about murder or tuberculosis. Someone is healthy or sick, still alive or already murdered. Transitional states are not really of much of a collective interest. As it comes to outcomes which pay off by the absence of something, we tend to count them digitally, like ‘is there or isn’t there’. On the other hand, those other outcomes, which we max out on or keep in equilibrium, well, that’s another story. We invent and perfect subtle scales of measurement for those phenomena. That makes me think about a seminal paper titled ‘Selection by consequences’, by the founding father of behaviourism, Burrhus Frederic Skinner. Skinner introduced the distinction between positive and negative reinforcements. He claimed that negative reinforcements are generally stronger in shaping human behaviour, whilst being clumsier as well. We just run away from a tiger, we don’t really try to calibrate the right distance and the right speed of evasion. On the other hand, we tend to calibrate quite finely our reactions to positive reinforcements. We dose our food, we measure exactly the buildings we make, we learn by small successes etc.  

If a set of quantitative socio-economic variables is informative about a set of collective orientations (collectively pursued outcomes), one of the ways we can study that set consists in establishing the hierarchy of orientations. Are some of those collective values more important than others? What does it even mean ‘more important’ in this context, and how can it be assessed? We can imagine that each among the many collective orientations is an individual pursuing their idiosyncratic path of payoffs from interactions with the external world. By the way, this metaphor is closer to reality than it could appear at the first sight. Each human is, in fact, a distinct orientation. Each of us is action. This perspective has been very sharply articulated by Martin Heidegger, in his “Being and Time”.    

Hence, each collective orientation can be equated to an individual force, pulling the society in a specific direction. In the presence of many socio-economic variables, I assume the actual social reality is a superimposition of those forces. They can diverge or concur, as they please, I do not make any assumptions about that. Which of those forces pulls the most powerfully?

Here comes my mathematical method, in the form of an artificial neural network. I proceed step by step. What does it mean that we collectively optimize a metric? Mostly by making it coherent with our other orientations. Human social structures are based on coordination, and coordination happens both between social entities (individuals, cities, states, political parties etc.), and between different collective pursuits. Optimizing a metric representative for a collectively valuable outcome means coordinating with other collectively valuable outcomes. In that perspective, a phenomenon represented (imperfectly) with a socio-economic metric is optimized when it remains in some kind of correlation with other phenomena, represented with other metrics. The way I define correlation in that statement is a broad one: correlation is any concurrence of events displaying a repetitive, functional pattern.

Thus, when I study the force of a given variable as a collective orientation in a society, I take this variable as the hypothetical output in the process (of collective orientation, and I simulate that process as the output variable sort of dragging the remaining variables behind it, by the force of functional coherence. With a given set of empirical variables, I make as many mutations thereof as I have variables. Each mutated set represents a process, where one variable as output, and the remaining ones as input. The process consists of as many experiments as there are observational rows in my database. Most socio-economic variables come in rows of the type “country A in year X”.  

Here, I do a little bit of mathematical cavalry with two different models of swarm intelligence: particle swarm and ants’ colony (see: Gupta & Srivastava 2020[1]). The model of particle swarm comes from the observation of birds, which keeps me in a state of awe about human symbolic creativity, and it models the way that flocks of birds stay collectively coherent when they fly around in the search of food. Each socio-economic variable is a collective orientation, and in practical terms it corresponds to a form of social behaviour. Each such form of social behaviour is a bird, which observes and controls its distance from other birds, i.e. from other forms of social behaviour. Societies experiment with different ways of maintaining internal coherence between different orientations. Each distinct collective orientation observes and controls its distance from other collective orientations. From the perspective of an ants’ colony, each form of social behaviour is a pheromonal trace which other forms of social behaviour can follow and reinforce, or not give a s**t about it, to their pleasure and leisure. Societies experiment with different strengths attributed to particular forms of social behaviour, which mimics an ants’ colony experimenting with different pheromonal intensities attached to different paths toward food.

Please, notice that both models – particle swarm and ants’ colony – mention food. Food is the outcome to achieve. Output variables in mutated datasets – which I create out of the empirical one – are the food to acquire. Input variables are the moves and strategies which birds (particles) or ants can perform in order to get food. Experimentation the ants’ way involves weighing each local input (i.e. the input of each variable in each experimental round) with a random weight R, 0 < R < 1. When experimenting the birds’ way, I drop into my model the average Euclidean distance E from the local input to all the other local inputs.   

I want to present it all rolled nicely into an equation, and, as noblesse oblige, I introduce symbols. The local input of an input variable xi in experimental round tj is represented with xi(tj), whilst the local value of the output variable xo is written as xo(tj). The compound experimental input which the society makes, both the ants’ way and the birds’ way, is written as h(tj), and it spells h(tj) = x1(tj)*R* E[xi(tj-1)] + x2(tj)*R* E[x2(tj-1)] + … + xn(tj)*R* E[xn(tj-1)].    

Up to that point, this is not really a neural network. It mixes things up, but it does not really adapt. I mean… maybe there is a little intelligence? After all, when my variables act like a flock of birds, they observe each other’s position in the previous experimental round, through the E[xi(tj-1)] Euclidean thing. However, I still have no connection, at this point, between the compound experimental input h(tj) and the pursued output xo(tj). I need a connection which would work like an observer, something like a cognitive meta-structure.

Here comes the very basic science of artificial neural networks. There is a function called hyperbolic tangent, which spells tanh = (e2x – 1)/(e2x + 1) where x can be whatever you want. This function happens to be one of those used in artificial neural networks, as neural activation, i.e. as a way to mediate between a compound input and an expected output. When I have that compound experimental input h(tj) = x1(tj)*R* E[xi(tj-1)] + x2(tj)*R* E[x2(tj-1)] + … + xn(tj)*R* E[xn(tj-1)], I can put it in the place of x in the hyperbolic tangent, and I bet tanh = (e2h  – 1)/(e2h  + 1). In a neural network, error in optimization can be calculated, generally, as e = xo(tj) – tanh[h(tj)]. That error can be fed forward into the next experimental round, and then we are talking, ‘cause the compound experimental input morphs into:

>>  input h(tj) = x1(tj)*R* E[xi(tj-1)]*e(tj-1) + x2(tj)*R* E[x2(tj-1)] *e(tj-1) + … + xn(tj)*R* E[xn(tj-1)] *e(tj-1)   

… and that means that each compound experimental input takes into account both the coherence of the input in question (E), and the results of previous attempts to optimize.

Here, I am a bit stuck. I need to explain, how exactly the fact of computing the error of optimization e = xo(tj) – tanh[h(tj)] is representative for collective intelligence.

[1] Gupta, A., & Srivastava, S. (2020). Comparative analysis of ant colony and particle swarm optimization algorithms for distance optimization. Procedia Computer Science, 173, 245-253.

Cœur de réflexion

Je me concentre sur un aspect particulier de la révision finale de mon article pour « International Journal of Energy Sector Management » – sous le titre « Climbing the right hill – an evolutionary approach to the European market of electricity » – notamment sur le rapport entre ma méthodologie et celle de MuSIASEM, soit « Multi-scale Integrated Analysis of Societal and Ecosystem Metabolism ».

Je me réfère plus particulièrement à trois articles que je juge représentatifs pour ce créneau de recherche :

>> Al-Tamimi and Al-Ghamdi (2020), ‘Multiscale integrated analysis of societal and ecosystem metabolism of Qatar’ Energy Reports, 6, 521-527, 

>> Andreoni, V. (2020). The energy metabolism of countries: Energy efficiency and use in the period that followed the global financial crisis. Energy Policy, 139, 111304.

>> Velasco-Fernández, R., Pérez-Sánchez, L., Chen, L., & Giampietro, M. (2020), A becoming China and the assisted maturity of the EU: Assessing the factors determining their energy metabolic patterns. Energy Strategy Reviews, 32, 100562.

De parmi ces trois, je choisis subjectivement le travail de prof. Andreoni (2020[1]) comme le plus solide en termes de théorie. L’idée de base de MuSIASEM est d’étudier l’efficience énergétique des sociétés humaines comme un métabolisme, donc comme un système complexe qui se soutient et se développe à travers la transformation d’énergie et de ressources matérielles.  

J’essaie de comprendre et présenter la logique de base de MuSIASEM en explorant les avantages que professeur Andreoni attribue à cette méthode. Je me permets de traduire fidèlement un passage de l’article (2020[2]) : « […] l’approche MuSIASEM présente des avantages par rapport aux autres méthodologies utilisées pour étudier le métabolisme des sociétés, telles que ‘emergy’, empreinte écologique et l’analyse entrée-sortie […]. En fournissant des descriptions intégrées à travers des niveaux d’analyse différents, l’approche MuSIASEM ne réduit pas l’information en un index quantitatif unique et analyse l’énergie utilisée par rapport aux structures socio-économiques concrètes. Qui plus est, l’inclusion de dimensions multiples (telles que le PIB, temps humain et consommation d’énergie) en combinaison avec des échelles différentes d’analyse (telles que le niveau sectoriel et le niveau national) rend possible de fournir l’information pertinente aux processus à l’intérieur du système ainsi que d’analyser la façon dont les variables externes (telles que la crise économique et la pénurie des ressources) peuvent affecter l’allocation et l’utilisation des ressources ».      

Je me dis que si quelqu’un se vante d’avoir des avantages par rapport à quoi que ce soit d’autre, ces avantages reflètent les aspects les plus importants des phénomènes en question, selon le même quelqu’un. Ainsi donc, prof. Andreoni assume que MuSIASEM permet d’étudier quelque chose d’important – l’efficience énergétique des sociétés comme un métabolisme – toute en ayant l’avantage de déconstruction des variables agrégées en des variables composantes ainsi que celui de multi-dimensionnalité d’analyse. 

Les variables étudiées semblent donc être la base de la méthode. Parlons donc des variables. Professeur Andreoni présente dans son article trois variables essentielles :

>> L’activité humaine totale, calculée comme le produit de : [la population] x [24 heures] x [365 jours]

>> Transformation totale d’énergie, calculée comme la somme de : [consommation finale d’énergie] + [Consommation interne d’énergie dans le secteur d’énergie] + [Pertes d’énergie dans sa transformation]

>> Produit Intérieur Brut  

Ces trois variables fondamentales sont étudiées à trois niveaux différents d’agrégation. Le niveau de base est celui d’économie(s) nationale(s), à partir d’où on décompose, tout d’abord, entre les secteurs macroéconomiques de : ménages par opposition à celui d’activité payée (entreprises plus secteur public). Ensuite, ces secteurs macroéconomiques sont tous les deux désagrégés en l’agriculture, l’industrie et les services.

A chaque niveau d’agrégation, les trois variables fondamentales sont mises en relation entre elles pour calculer deux coefficients : intensité énergétique et métabolisme d’énergie. Celui d’intensité énergétique est calculé comme quantité d’énergie utilisée pour produire un euro de Produit Intérieur Brut et c’est donc l’inverse de l’efficience énergétique (cette dernière est calculée comme quantité de PIB produite à partir d’une unité d’énergie). Le coefficient métabolique, en revanche, est calculé comme la quantité d’énergie par heure d’activité humaine.

J’ai quelques remarques critiques par rapport à ces variables, mais avant de développer là-dessus je contraste rapidement avec ma méthode. Les variables de professeur Andreoni sont des transformations des variables utilisées dans des bases de données publiquement accessibles. Professeur Andreoni prend donc une méthode générale d’observation empirique – donc par exemple la méthode de calculer la consommation finale d’énergie – et transforme cette méthode générale de façon à obtenir une vue différente de la même réalité empirique. Cette transformation tend à agréger des variables « communes ». Moi, de mon côté, j’utilise un éventail large des variables communément formalisées et présentées dans des bases de données publiquement accessibles plus un petit zest des coefficients que je calcule moi-même. En fait, dans la recherche sur l’énergie, j’utilise juste deux coefficients originaux, soit le nombre moyen de demandes de brevet nationales par 1 million d’habitants, d’une part, et la quantité moyenne de capital fixe d’entreprise par une demande nationale de brevet. Quant au reste, j’utilise des variables communes. Dans cet article que je suis en train de finir pour « International Journal of Energy Sector Management » j’utilise les quarante et quelques variables de Penn Tables 9.1. (Feenstra et al. 2015[3]) plus des variables de la Banque Mondiale au sujet d’énergie (consommation finale, participation des sources renouvelables, participation d’électricité) plus des données Eurostat sur les prix d’électricité, plus ces deux coefficients relatifs aux demandes nationales de brevets.

La différence entre ma méthode et celle de MuSIASEM est donc visible déjà au niveau phénoménologique. Moi, je prends la phénoménologie généralement acceptée – donc par exemple la phénoménologie de consommation d’énergie ou celle d’activité économique – et ensuite j’étudie le rapport entre les variables correspondantes pour en extraire un tableau plus complexe. Je sais déjà que dans ma méthode, la quantité et la diversité des variables est un facteur clé. Mes résultats deviennent vraiment robustes – donc cohérents à travers des échantillons empiriques différents – lorsque j’utilise une panoplie riche de variables. Chez MuSIASEM, en revanche, ils commencent par construire leur propre phénoménologie au tout début en ensuite ils raisonnent avec.

Il semble y avoir un terrain commun entre ma méthode et celle de MuSIASEM : on semble être d’accord que les variables macroéconomiques telles qu’elles sont accessibles publiquement donnent l’image imparfaite d’une réalité autrement plus complexe. A partir de là, toutefois, il y différence. Moi, j’assume que si je prends beaucoup d’observations imparfaites distinctes – donc beaucoup de variables différentes, chacune un peu à côté de la réalité – je peux reconstruire quelque chose à propos de ladite réalité en transformant ces observations imparfaites avec un réseau neuronal. J’assume donc que je ne sais pas d’avance de quelle manière exacte ces variables sont imparfaites et je m’en fiche par ailleurs. C’est comme si reconstruisais un crime (j’adore les romans policiers) à partir d’un grand nombre des dépositions faites par des témoins qui, au moment et en présence du crime en question étaient soit ivres, soit drogués soit ils regardaient un match de foot sur leur portable. J’assume qu’aussi peu fiables soient tous ces témoins, je peux interposer et recombiner leurs dépositions de façon à cerner le mécréant qui a tué la vieille dame. J’expérimente avec des combinaisons différentes et j’essaie de voir laquelle est la plus cohérente. Chez MuSIASEM, en revanche, ils établissent d’avance une méthode de mettre en concours des dépositions imparfaites des témoins en état d’ébriété et ensuite ils l’appliquent de façon cohérente à travers tous les cas de tels témoignages.

Jusqu’à ce point-là, ma méthode est garnie d’assomptions moins fortes que celle de MuSIASEM. De manière générale je préfère des méthodes avec des assomptions faibles. Lorsque je mets en question des idées reçues, tout simplement en les suspendant et en vérifiant si elles tiennent le coup (de suspension), j’ai la chance de trouver plus de trucs nouveaux et intéressants.  Maintenant, je m’offre le plaisir pervers de passer au peigne fin les assomptions fortes de MuSIASEM, juste pour voir où bien puis-je leur enfoncer une épingle. Je commence par l’activité humaine totale, calculée comme le produit de : [la population] x [24 heures] x [365 jours]. Première remarque : le produit 24 heures fois 365 jours = 8760 heures est une constante. Si je compare deux pays aux populations différentes, leur activités humaines totales respectives seront différentes uniquement à travers leurs démographies différentes. Le produit [24 heures] x [365 jours] est donc une décoration redondante du point de vue mathématique. Toutefois, c’est une redondance astucieuse. Le produit 24 heures fois 365 jours = 8760 c’est le facteur de multiplication communément utilisé pour transformer la capacité énergétique en énergie effectivement accessible. On prend la puissance d’une bombe atomique, en joules, on la recalcule en kilowatts, on la multiplie par 24 heures fois 365 jours et boum : on obtient la quantité d’énergie accessible à la population générale si cette bombe explosait continuellement tout le long de l’année. On ajoute toutefois 24 heures supplémentaires d’explosion pour les années bissextiles.

Bombe atomique ou pas, le produit 24 heures fois 365 jours = 8760 est donc utile lorsqu’on veut faire une connexion élégante entre la démographie et la transformation d’énergie, ce qui semble judicieux dans une méthode de recherche qui se concentre précisément sur l’énergie. La multiplication « population x 8760 heures dans l’année » est-elle donc pertinente comme mesure d’activité humaine ? Hmmouiais… peut-être, à la rigueur… Je veux dire, si nous avons des populations très similaires en termes de style de vie et de technologie, elles peuvent démontrer des niveaux d’activité similaires par heure et donc des niveaux d’activité humaine totales distincts uniquement sur la base de leurs démographies différentes. Néanmoins, il nous faut des populations vraiment très similaires. Si nous prenons une portion essentielle de l’activité humaine – la production agricole par tête d’habitant – et nous la comparons entre la Belgique, l’Argentine et Botswana, nous obtenons des coefficients d’activité tout à fait différents.

Je pense donc que les assomptions qui maintiennent l’identité phénoménologique l’activité humaine totale = [la population] x [24 heures] x [365 jours] sont des assomptions tellement fortes qu’elles en deviennent dysfonctionnelles. J’assume donc que la méthode MuSIASEM utilise en fait la taille de la population comme une variable fondamentale, point à la ligne. Moi je fais de même, par ailleurs. Je trouve la démographie jouer un rôle injustement secondaire dans la recherche économique. Je vois que beaucoup de chercheurs utilisent des variables démographiques comme « calibrage » ou « facteurs d’ajustement ».  Tout ce que je sais sur la théorie générale des systèmes complexes, par exemple le créneau de recherche sur la théorie d’automates cellulaires (Bandini, Mauri & Serra 2001[4] ; Yu et al. 2021[5]) ou bien la théorie d’essaims (Gupta & Srivastava (2020[6]), suggère que la taille des populations ainsi que leur intensité d’interactions sociales sont des attributs fondamentaux de chaque civilisation.                    

Je trouve donc que l’identité phénoménologique l’activité humaine totale = [la population] x [24 heures] x [365 jours] dans la méthode MuSIASEM est donc une sorte de ruse, un peu superflue, pour introduire la démographie au cœur de la réflexion sur l’efficience énergétique. Par conséquent, le coefficient métabolique de MuSIASEM, calculé comme la quantité d’énergie par heure d’activité humaine, est équivalent à la consommation d’énergie par tête d’habitant. Le métabolisme énergétique d’une société humaine est donc défini par la consommation d’énergie par tête d’habitant ( ) ainsi que le coût énergétique de PIB ( ). Les liens hypertexte entre parenthèses renvoient à des bases de données correspondantes de la Banque Mondiale. Lorsque je regarde ces deux coefficients à travers le monde et je fais un truc absolument simpliste – je discrimine les pays et les régions en une liste hiérarchique – deux histoires différentes émergent. Le coefficient de consommation d’énergie par tête d’habitant raconte une histoire de hiérarchie pure et simple de bien-être économique et social. Plus ce coefficient est élevé, plus le pays donné est développé en termes non seulement de revenu par tête d’habitant mais aussi en termes de complexité institutionnelle, droits de l’homme, complexité technologique etc.

Lorsque j’écoute l’histoire dite par le coût énergétique de PIB ( ), c’est compliqué comme une enquête policière. Devinez donc les points communs entre Panama, Sri Lanka, la Suisse, l’Irlande, Malte et la République Dominicaine. Fascinant, non ? Eh bien, ces 6 pays sont en tête de la course planétaire à l’efficience énergétique, puisqu’ils sont tous les six capables de produire 1000 dollars de PIB avec moins de 50 kilogrammes d’équivalent pétrole en énergie consommée. Pour placer leur exploit dans un contexte géographique plus large, les États-Unis et la Serbie sont plus de deux fois plus bas dans cette hiérarchie, tout près l’un de l’autre, à 122 kilogrammes d’équivalent pétrole par 1000 dollars de PIB. Par ailleurs, ça les place tous les deux près de la moyenne planétaire ainsi que celle des pays dans la catégorie « revenu moyen inférieur ».

Si je récapitule mes observations sur la géographie de ces deux coefficients, les sociétés humaines différentes semblent avoir une capacité très idiosyncratique d’optimiser le coût énergétique de PIB à des niveaux différents de la consommation d’énergie par tête d’habitant. C’est comme s’il y avait une façon différente d’optimiser l’efficience énergétique en étant pauvre, par rapport à celle d’optimiser la même efficience lorsqu’on est riche et développé.

Nous, les homo sapiens, on peut faire des trucs vraiment bêtes dans le quotidien mais dans le long terme nous sommes plutôt pratiques, ce qui pourrait notre capacité actuelle de transformer quelque 30% de l’énergie totale à la surface de la planète. Si hiérarchie il y a, cette hiérarchie a probablement un rôle à jouer. Difficile à dire quel rôle exactement mais ça semble important d’avoir cette structure hiérarchique d’efficience énergétique. C’est un autre point où je diverge de la méthode MuSIASEM. Les chercheurs actifs dans le créneau MuSIASEM assument que l’efficience énergétique maximale est un impératif évolutif de notre civilisation et que tous les pays devraient aspirer à l’optimiser. Hiérarchies d’efficiences énergétique sont donc perçues comme un accident historique dysfonctionnel, probablement effet d’oppression des pauvres par les riches. Bien sûr, on peut demander si les habitants de la République Dominicaine sont tellement plus riches que ceux des États-Unis, pour avoir une efficience énergétique presque trois fois supérieure.

[1] Andreoni, V. (2020). The energy metabolism of countries: Energy efficiency and use in the period that followed the global financial crisis. Energy Policy, 139, 111304.

[2] Andreoni, V. (2020). The energy metabolism of countries: Energy efficiency and use in the period that followed the global financial crisis. Energy Policy, 139, 111304.

[3] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at;

[4] Bandini, S., Mauri, G., & Serra, R. (2001). Cellular automata: From a theoretical parallel computational model to its application to complex systems. Parallel Computing, 27(5), 539-553.

[5] Yu, J., Hagen-Zanker, A., Santitissadeekorn, N., & Hughes, S. (2021). Calibration of cellular automata urban growth models from urban genesis onwards-a novel application of Markov chain Monte Carlo approximate Bayesian computation. Computers, environment and urban systems, 90, 101689.

[6] Gupta, A., & Srivastava, S. (2020). Comparative analysis of ant colony and particle swarm optimization algorithms for distance optimization. Procedia Computer Science, 173, 245-253.