Core and periphery

My editorial

And so I am officially starting to prepare a manuscript for my book, which I provisionally give the title ‘Good at Energy’.  I am exploring the same general hypothesis I have already turned and returned many times on this blog, namely that technological change in our human civilisation is functionally oriented on maximising the absorption of energy from the environment. I articulate this general line of thinking into four more specific hypotheses, which are supposed to drive the writing of four distinct sections in my book. One, the spatial structure of the human civilisation adapts and rearranges so as to maximise the absorption of energy. Two, the pace of technological change is functionally connected to the food deficit the given society experiences, and reaches its peak in societies with a food deficit between zero and 90 kilocalories per day per person. Three, technological change follows an evolutionary function of selection and hierarchizing, where social entities specialise, respectively, in the male function of transmission and conception, or in the female function of recombination and reproduction, which creates a hierarchy of male entities according to their capacity of meeting the expectations of the female entities. Four, technological change in the absorption of energy is functionally connected to the development of communication systems, with the supply of money acting as a communication system among others and the velocity of money being inversely proportional to the pace of technological change.

Yesterday, as I formulated those hypotheses in my update in French (see Les implications de ce que je viens d’écrire), I started reviewing the literature regarding the first specific hypothesis, the one about the spatial structure of the human civilisation. Quite naturally, being an economist, I called by Paul Krugman and the so-called ‘new economic geography’ (Krugman 1991[1];  Krugman 1998[2]). The basic logic I could derive from these readings is that of differentiation inside a territory: geographical structures differentiate internally into specialized parts, and this differentiation follows a pattern of core different from periphery. I think I can take on the model proposed by Paul Krugman, and replace the maximisation of utility, in the original version, by the maximisation of energy absorbed. As I think about it, with this precise orientation in my hypothesis, I can take any economic model that implies the maximisation of utility, transform it so as it maximises the absorption of energy, and see what happens.

Now, the tricky part is the ‘I can’. Can I? Let’s see. I take on the equations from the original model by Paul Krugman (Krugman 1991[3]). I start with equation (1). With CM standing, for the consumption of the manufacturing aggregate, and CA corresponding to the consumption of agricultural goods, the former receives always a share µ of the aggregate expenditure, the given society maximizes its aggregate utility ‘U’ so as to satisfy U = CMµ*CA1-µ. Here comes the first big question from my point of view: whilst it is simple to replace aggregate utility by the aggregate absorption of energy – let’s call it ‘AE’ (could also stand for ‘Attractive Expectations’, mind you) – it is more delicate to rephrase the right side of my equation. In economics, utility is a blissful category, as it has no definite unit of measurement. Utility can be cardinal or ordinal, can be expressed in money or in equivalent units of any economic good. Utility is cool and relax, even when it maximizes itself. Now, the absorption of energy is stricter a category: there are always joules under the bottom line. They can gang up into kilojoules or mega joules, or even dress into calories or watts, but at the end of the day, I have to sum my calculations up with a unit of energy. Logically, on the right side of the equation, I have to put aggregates that sum up into joules, watts or related.

We absorb energy in two ways: we eat it in kilocalories and we use it in various units. All that stuff is convertible into watt-hours, fortunately. I assign the symbol ‘F’ to the aggregate absorption of energy through eating (comes from ‘food’, but you have probably guessed this one already), and I designate the aggregate use of energy as ‘W’, or something measured directly in watts. As I am having my first go at transforming the original equation by Paul Krugman, I’m saying AE = Fp*Wq. The next stop is by that ‘p’ and that ‘q’. What are they? They can be anything, but as I look at it, I have to transform this transformation a bit. I mean, if I literally take the absorption of food and the final use of energy, express them both in an aggregate of watts, I get straight to the left side, namely to the aggregate absorption of energy, without any powers. I know, I could make it look like AE = F1*W1, but: a) it looks stupid b) it does not make sense. The final absorption of energy is the sum total of food eaten and energy used in other forms, not their product, whatever power I raise them to. Thus, I should say AE = F + W, but this is an accounting identity, not a functional model. Master Paul, I humbly apologize for having doubted in your insightfulness, when you used that aggregate utility thingy. Now I can see the depth of your wisdom, and I humbly return to the path of enlightenment, and I know it is better to use U(AE), so the utility derived from aggregate absorption of energy, than the plain AE.

Still I have a question: in your initial model, Master Paul, you raised the manufacturing output to the power ‘µ’, and agricultural goods to ‘1 – µ’. I guess it means that first we spend money on manufactures, and only after having done that, we scratch the bottom of our purse and get the last ‘1 – µ’ pennies to buy them pork loins and tomatoes. If you say so, Master… But what should I do? Should I assume that we spend money on food first, and only then we pour fuel into our cars (if we have any), or the opposite way round, namely petrol tank first, stomach next? Master? What? I have to think by myself, as I am a university professor? If you say so, Master… I am giving a try at thinking by myself, and I recollect my earlier research, and I remember that sharp difference between societies with officially recorded food deficit, on the one hand, and the satiate ones, on the other hand. I guess I should assume both options as possible, and say:

Equation (1), Class #1: U(AE) = Fµ*W1-µ        >> these people eat first, and turn their TV on next. Expenditures on energy are residual regarding expenditures on food. Roughly speaking, this class covers all the cases of societies with the food deficit being kind of official.

Equation (1) Class #2: U(AE) = Wµ*F1-µ            >> of course, those people eat, too, and they have to, and probably they eat better and more than Class #1, and yet, as they don’t have any official food deficit displayed on their doorstep, they mostly forget that food can go scarce. They spend most of their revenue on other forms of energy use, and leave a reasonable residual for caviar and Champagne.

According to Paul Krugman, that ‘µ’ parameter is one of the main bearings in his original model. It determines whether regions converge or diverge. Anyway, I am skipping to equation (2) in the original model, which basically details the way we compute the consumption CM of manufactures, and which I can generalize as the way of computing the aggregate endowed raised to power µ in equation (1). Before I go further, an old reminder: I am writing this precise content for my blog, and neither of my blogging environments, namely neither Blogger nor Word Press, is at home with equations. Hence, I do my best to express the original scientific equations as text. So I say {F; W} = [∑(i = 1 -> N; ci(π-1)/π)]π/(π-1) , where ∑(i = 1 -> N) means sum total over the interval from i = 1 to N, ‘ci’is the i-th consumable in the lot, and π > 1 is the elasticity of substitution between those consumables. That ‘π’ parameter is the second anchor of the equilibrium in the model.

As I am quickly wrapping my mind around equation (2), I think that substitution between various foods is an abyssal topic, especially if I want to treat global data, with all the local specificities in alimentary regimes. In class #1, with food coming first, the aggregate F = [∑(i = 1 -> N; ci(π-1)/π)]π/(π-1) would be quite foggy. Conversely, there are sharp distinctions as for the use of energy. I can sharply divide electricity used in houseware from fuel burnt in cars etc. Intuitively, I would go for class #2 when applying this Paul Krugman’s model. I could even invent some kind of intellectual parkour in order to jump over the food deficit. Actually, I don’t even need parkour: common observation comes handy. This summer, in China, I had the occasion to observe people who have s***load of technology to their disposition and still are officially starving, by some 74 kilocalories per day per person, on average. In other words, a paradigm where money is spent on the use of energy first, and only then on the energy consumed via food, is not really confined to the wealthy and satiate societies. After reflection, I go for class #1, and so I state my rephrased model as follows:

Equation (1) U(AE) = Wµ*F1-µ      µ < 1

Equation (2) W = [∑(i = 1 -> N; ci(π-1)/π)]π/(π-1)     π > 1

As I understand the original reasoning by Paul Krugman, the internal, spatial differentiation of a territory into a core and a periphery depends, among others, on those two parameters: µ and π. I guess that the greater are the values of µ and π, the greater the potential for such differentiation. I will slowly drift towards rephrasing that original model so as to show, how does the working of equations (1) and (2) impact the density of population.

[1] Krugman, P., 1991, Increasing Returns and Economic Geography, The Journal of Political Economy, Volume 99, Issue 3 (Jun. 1991), pp. 483 – 499

[2] Krugman, P., 1998, What’s New About The New Economic Geography?, Oxford Review of Economic Policy, vol. 14, no. 2, pp. 7 – 17

[3] Krugman, P., 1991, Increasing Returns and Economic Geography, The Journal of Political Economy, Volume 99, Issue 3 (Jun. 1991), pp. 483 – 499

Les implications de ce que je viens d’écrire

Mon éditorial

Je suis en train de penser à plusieurs trucs à la fois, ce qui arrive parfois à tout le monde. Je continue mon apprentissage de Python 3.6.2 et de documenter ce processus. Je suis arrivé à ce stade d’ignorance heureuse où je prends simplement une commande de Python et je joue avec, très intuitivement, sans en espérer trop, juste pour voir ce que ça donne. J’ai donc arrêté d’essayer d’utiliser Python comme une version moins confortable d’Excel et j’explore sans idées prédéterminées. Je me demande si des changements technologiques à l’échelle des sociétés ne marcheraient mieux si on faisait ça de façon organisée, comme « jours d’apprentissage spontané ». L’autre truc auquel je pense c’est ma recherche en cours, celle qui concerne l’innovation, le changement technologique et la transition vers les énergies renouvelables. Je commence à mettre en place la structure d’un livre sur ce sujet. Le titre de travail c’est quelque chose comme « Bons en énergie », puisque je veux y développer cette idée centrale que nous, c’est-à-dire la civilisation humaine, nous excellons à l’absorption d’énergie de notre environnement et à sa transformation et que la transition vers les énergies renouvelables peut être mieux comprise et peut-être même mieux organisée si on la base sur cette auto-compréhension.

Il y a beaucoup de choses que je voudrais mettre dans ce livre. Tout d’abord, le fait central contemporain serait ce changement qui s’est effectué en 2007 – 2008, lorsque le marché d’énergies renouvelables avait tout à coup commencé à croître beaucoup plus vite qu’avant. Je veux trouver et exposer une explication de ce fait. La revue de littérature sur l’histoire de la technologie m’a fait découvrir l’hypothèse générale de déterminisme technologique, avec toutes ses nuances et contre-arguments et quand j’y pense, elle ferait un joli paysage théorique pour l’étude de la transition énergétique. Attention, ça arrive ! Voilà une hypothèse générale qui vient de se former dans mon esprit. Vite, avant qu’elle refroidisse : « Les changements sociaux et technologiques de la civilisation humaine sont fonctionnellement orientés sur la maximisation d’absorption d’énergie de l’environnement ». Ouais, ce vrai que ça fait un joli fond pour le contenu de ce livre. Sur ce fond, avec des coups légers (et bien incertains encore, soyons francs) de clavier de mon MacBook Air, j’esquisse quelques hypothèses plus spécifiques. Un, la structure spatiale de la civilisation humaine s’adapte et se regroupe en vue de cette absorption maximale d’énergie. Deux, la cadence de changement technologique est fonctionnellement liée au déficit alimentaire éprouvé par la société donnée et atteint son maximum dans les sociétés où ce déficit, tout en étant observable, n’excède pas 90 kilocalories par jour par personne. Trois, le changement technologique suit une fonction évolutive de sélection et hiérarchisation, où des entités sociales se spécialisent, respectivement, en la fonction mâle de conception et la fonction femelle de recombinaison et reproduction, ce qui crée une hiérarchie entre les entités mâles en fonction de leur aptitude à satisfaire les exigences des entités femelles. Quatre, le changement technologique au niveau de l’énergie est fonctionnellement lié au développement des systèmes de communication, avec la masse monétaire jouant le rôle d’un système de communication parmi autres et la vélocité de l’argent étant inversement proportionnelle à la cadence du changement technologique. Eh bien, voilà, ça n’a pas été si dur que ça. Une hypothèse générale et quatre hypothèses spécifiques, chacune correspondant à un chapitre du livre.

L’autre truc auquel je pense c’est le début des cours à la fac. Je suis prof d’université et mon année civile se structure en fonction de l’année académique. J’aime bien ce travail et c’est en fait avec un peu d’impatience que j’attends le premier Octobre chaque année. En ce qui concerne ce blog, l’avènement de l’année académique veut dire que je placerais, outre mes mises à jour genre recherche, des mises à jour éducatives. Comme j’enseigne en anglais et en polonais, je vais utiliser ces deux blogs jumeaux – et – pour placer du matériel éducatif en anglais et à part ça, je démarre avec un blog en polonais pour faire le même en ma langue natale. Je ne sais pas si j’aurai le temps et l’énergie pour jumeler en français le matériel éducatif publié en anglais mais enfin, on va bien voir. Je me dis, quand j’y pense, que ce serait judicieux de combiner d’une certaine façon le matériel éducatif avec l’écriture de mon livre. Après tout, je suppose que ce n’est pas interdit de partager mes intérêts de recherche avec mes étudiants.

Je m’en prends donc à la première hypothèse de mon livre : « la structure spatiale de la civilisation humaine s’adapte et se regroupe en vue de l’absorption maximale d’énergie ». Je pense qu’il est utile que j’explique, une fois de plus et certainement pas la dernière, à l’adresse des pas-tout-à-fait-initiés, à quoi ça sert, une hypothèse. Vous pouvez imaginer la réalité telle que nous la percevons comme du sacré bordel. L’une des premières choses à faire avec la réalité perçue consiste donc à y mettre de l’ordre. Une hypothèse est comme un classeur ou un carton de rangement : j’y mets des choses qui semblent y avoir leur place plutôt que dans un autre classeur (carton). Nous pouvons formuler un nombre indéfiniment grand d’hypothèses à propos de chaque morceau de réalité observable, même si vous venez d’extraire ledit morceau de l’une de vos narines. Dans ce domaine vaste de tout ce que je peux dire à propos de quelque chose, il y a un sous-ensemble d’hypothèses qui sont raisonnablement vérifiables, et il y a tout le reste, intéressant, certes, mais peu utile. La technique scientifique de base consiste donc à prendre une boîte de rangement et d’y mettre certains trucs, tout en laissant tout le reste de la réalité à ranger par d’autres esprits hantés comme le mien. Lorsque je formule cette hypothèse au sujet de la structure spatiale de la civilisation humaine, je collecte des faits et des théories à propos de la structure spatiale de l’habitat humain. Je ne sais pas, en ce moment précis, quand j’écris ces mots, si cette hypothèse est suffisamment robuste pour être admise comme vraie sous des conditions raisonnables. Je n’en sais rien et je veux le découvrir. L’hypothèse m’aide à diriger mes efforts. Elle est donc comme un classeur croisé avec un viseur optique.

C’est ainsi donc que je me dirige vers le Grand Maître de la géographie économique : Paul Krugman. Je fourre dans le passé du Grand Maître. Je vais suffisamment loin en arrière pour découvrir ce que le Grand Maître écrivait, lorsqu’il n’était pas encore tout à fait le Grand Maître : le début des années 1990. A l’époque, Paul Krugman était encore le Luke Skywalker de l’économie : main sûre, esprit alerte, du talent reconnu, mais pas encore de lettres de noblesse. En 1991, il a publié un article intitulé « Increasing Returns and Economic Geography » (Krugman 1991[1]). Dans cet article, Paul Krugman présente un modèle de différentiation interne d’un pays en un centre industrialisé et une périphérie agriculturale. Pour réaliser des économies d’échelle tout en minimisant le coût de transport, les entreprises manufacturières se situent dans la région avec la demande la plus significative, seulement la localisation de la demande elle-même dépend de la localisation de production. L’émergence d’un modèle « centre – périphérie » dépend des coûts de transport, d’économies d’échelle, ainsi que de la part relative de l’industrie manufacturière dans le revenu national.

En 1998, Paul Krugman avait donné une sorte de résumé de sa théorie de géographie économique (consultez : Krugman 1998[2]). Sa conclusion d’alors était que la soi-disant nouvelle géographie économique se démarque par l’utilisation systématique de la fonction d’utilité maximale dans le contexte de l’équilibre général, en dérivant le comportement agrégé de la maximalisation individuelle. L’avantage principal de cette théorie, selon Krugman, est de démontrer comment des accidents historiques peuvent donner une forme géographique à l’activité économique et comment des changements graduels dans les paramètres économiques peuvent produire des changements discontinus dans la structure spatiale. De cette façon, la géographie économique est placée droit dans le créneau central de la recherche économique. A ce point-là, j’ai comme un pressentiment qu’au moins certains d’entre vous vont avoir besoin d’une exégèse de ma part. Eh bien, à la source, c’est tout la faute à Léon Walras , un économiste français qui a inventé ce truc d’équilibre général. En gros, sa théorie, la voilà : lorsqu’on fait du business, même si on s’imagine d’en faire d’une manière absolument géniale, genre « plus ingénieux que moi, tu meurs », en fait, on en fait d’une façon terriblement standardisée à travers la structure sociale. Tout le monde pense qu’ils sont des génies de l’industrie mais ils convergent tous vers un nombre très limité de stratégies qui marchent vraiment. Si tout ce petit monde avait une information parfaite et pouvait transférer les moyens de production librement entre des différents emplois, on pourrait vite atteindre un état de productivité parfaite avec ce qu’on a en termes de capital et travail et ce serait précisément cet état d’équilibre général. Seulement voilà, en l’absence poignante de conditions parfaites, on doit se satisfaire d’un état voisin de l’équilibre général.

A quoi bon, vous demanderez, se donner de la peine pour étudier un état qui n’a aucune chance d’exister dans la vie réelle ? Eh bien, voilà le truc et la grosse découverte : les économistes ont découvert que la société peut changer au rythme des petits pas ou à celui des bonds de sept lieues. Tant que l’état de l’économie peut être interprété comme voisin du même état d’équilibre général, le changement prend place à petits pas. Lorsqu’on fiche vraiment du bordel autour de nous et lorsque le voisinage de l’équilibre général donné (donc avec des paramètres donnés) devient tellement distant qu’on ne peut même plus le voir à l’horizon, cet équilibre, et lorsque bon gré mal gré il faut se construire un nouvel état d’équilibre général pour l’avoisiner, alors c’est du changement social profond, comme un tsunami économique. Bref, tout état d’une société peut être étudié, du point de vue économique, comme voisin d’un équilibre général bien défini par un ensemble de paramètres.

Voilà donc que j’ai une piste Krugmanienne pour développer sur mon hypothèse. Je vais chercher un état d’équilibre général qui est plausiblement corrélé avec l’absorption de l’énergie. Ensuite, je vais l’utiliser comme un échafaudage pour bâtir un modèle de différentiation spatiale en fonction de l’absorption de l’énergie. Vous ne comprenez pas tout à fait ce que je veux dire ? Vous n’êtes pas les seuls : moi non plus je ne comprends pas tout à fait les implications de ce que je viens d’écrire. Pas encore. Ça va venir.

[1] Krugman, P., 1991, Increasing Returns and Economic Geography, The Journal of Political Economy, Volume 99, Issue 3 (Jun. 1991), pp. 483 – 499

[2] Krugman, P., 1998, What’s New About The New Economic Geography?, Oxford Review of Economic Policy, vol. 14, no. 2, pp. 7 – 17

Experimenting with new structures

My editorial

I return to doing my review of literature in order to find accurate distinctions as for historical changes. Besides those articles on the history of technology as such, I found an interesting paper by Bert J.M. de Vries, , Detlef P. van Vuuren, and Monique M. Hoogwijk (de Vries et al. 2007[1]). It is interesting because the authors attempted to assess the potential for producing renewable energies for the first half of the 21st century, and they did it in 2007, so exactly at the moment when, according to my calculations, something really changed in the sector of renewable energies and it started developing significantly faster than before. It is interesting to see how did other researchers see the future at a moment, which is already the past, and quite a significant bit of past. As usually, I start from the end. The kitchen door I can poke my head through, regarding this paper, is Appendix B, presenting in a concise, tabular form, the so-called four scenarios developed by the authors. So I rummage through those scenarios, and one thing instantaneously jumps to my eye: the absence of the solar-thermal technology. Today, the solar-thermal is probably the most powerful technology for producing renewable energy, yet, when this paper was being written, so not later than in 2007, the solar-thermal technology was still in its infancy. It was precisely in 2007 that the World Bank declassified and published first reports about the big Ouarzazate project in Morocco, and only in 2011 it became more or less clear how to finance those projects. As I am engaged in research on renewable energies, I will probably mention that solar-thermal technology more than once, and for now I am content with noticing that solar-thermal changed a lot in the way we perceive the future of renewable energies.

Returning to this paper by Bert J.M. de Vries, , Detlef P. van Vuuren, and Monique M. Hoogwijk, and to their scenarios, I see four basic technologies being taken into account: wind, solar photovoltaic, biomass electric, and liquid biomass. As a matter of fact, we have another technology, besides the solar-thermal, which strikes by its absence at this precise party: the hydro, in its many shades. Right, probably the authors did not have access to the relevant data. I continue studying this table in appendix B, and what strikes me as odd is that each technology is described with a different set of quantitative variables. It is easy to see that the authors had hard times to drive different technologies to common denominators. As I stop clinging to that Appendix B and browse through the whole paper, I can see a lot of maths but very few numbers. It is hard to say, what was exactly the empirical basis for the scenarios presented. On the whole, this paper by de Vries et al. is interesting as for some methodological insights, but a little disappointing on the whole. I can see nothing that looks like real discovery.

And so I am drifting towards other sources, and I come by an interesting author, David Edgerton and his book ‘Shock of the old: Technology and global history since 1900’ (Edgerton 2011[2]). I am fishing the most interesting bits out of this study, and I find some insights worth stopping by and think. First of all, David Edgerton points out that we commonly live in an illusion of constant technological progress, i.e. of a process, which consistently brings improvement in the conditions of living, as technology changes. Edgerton shows, quite convincingly, that technological change is not necessarily to put at equality with technological progress. According to his findings, there were just a few periods of real technological progress since 1900: between 1900 and 1913, followed by another between 1950 and 1973. Save for those short windows in time, the link between technological change and the conditions of living is really ambiguous.

In Section 4 of his book, entitled ‘Maintenance’, David Edgerton brings forth that intuition that I very much share: that the way we deal with both the physical wear and tear of our technology, and with its moral obsolescence, is deeply significant to our overall well-being due to technology. There is that interesting thing I noticed in Chinese cities, this summer: Chinese people do hardly any renovation in buildings. Save for those occasions when a store is being replaced by another and the facade needs some obvious patching, buildings in China seem to live a life similar to that of clothes: when they are used up, they are being demolished and something new is being built in the same location (they do put a lot of effort into maintaining infrastructure, mind you). In Europe, we are almost obsessively attached to maintaining our buildings in good condition, and we spend a lot on renovation. Two cultures, two completely different roles of maintenance in the construction business. At this point, the research presented by David Edgerton gets strong support in earlier work, by the eminent French historian Fernand Braudel (Braudel 1981[3], 1983[4]) : real technological revolutions happened, in many fields of human ingenuity, when the technology in place allowed providing for more than simple maintenance. Both authors (Edgerton and Braudel) point on a turning point in the history of agriculture, probably by the end of the 19th century, when the technology of farming allowed to spend relatively less effort on rebuilding the fertile power of the soil.

Another great insight to find with David Edgerton is the importance of killing in technological change. Warfare, hunting, whaling, combatting pathogens, eradicating parasitic species from our agricultural structures – it all means killing, and it apparently has had a tremendous impact on technological change in the 20th century. This dramatic and deep reference to one of our fundamental functions as organisms (yes, my dear vegans, we all kill someone or something, even without knowing we do) makes me think about this elaborate metaphor of struggling civilisations, to find in Arnold Toynbee’s ‘Study of History’[5]. Development of societies is not an easy game: it is struggle, risk, sometimes stagnation. We, in our civilisation, as it is now, at the beginning of the 21st century, have no grounds to assume we are different than those who struggled before us. Arnold Toynbee coined this metaphor of struggle in an even broader context: how can we distinguish between civilisations? His point was that criteria like race, skin colour or even religious beliefs are misleading in classifying cultures and societies. To him, the real distinction pertained to the state of the struggle, so to say: is there a visible breakthrough in the past of the given social group, a kind of dramatic threshold which made those people take a completely different turn? If the answer is ‘yes’, then we could very well have two different civilisations, before and after that pivotal point in time. If no, we have, in fact, the same cultural paradigm, just dressed differently according to the current fashion.

All the review of literature about the history of technology, and about renewable energies, makes me ask once more that fundamental question: what exactly happened in 2007 – 2008, when the market of renewable energies suddenly moved its lazy ass and started growing much faster than before? Hypothesis #1: it was mostly technological a change, possibly connected to the banalisation of photovoltaic modules, or to the concurrent emergence of the solar-thermal technology. Hypothesis #2, just a shade away from #1 is that we are talking about technological change in the immediate vicinity of renewable sources of energy. Maybe something about electronics, nanotechnology, transport? Here, although the hypothesis is really interesting, I am very much at a loss. I will have to do some book-worming about it. Hypothesis #3: what happened in 2007 – 2008 was mostly social a change. Something shifted in our patterns of being together in society, which made people turn towards renewable energies more than before. That something could pertain to urbanisation, density of population, food deficit, velocity of money and whatnot. I have already done a lot of empirical testing in this respect.

Now, I am shifting my focus slightly, onto my personal experience in innovating, namely in learning the Python. As I have been wrestling with the Python, those last four days, I became aware of a pattern in my behaviour: I start with trying to make the new technology do exactly the same things that the old technology used to do for me, then I progressively become aware that I need to learn new skills in order to get those results (so I have that strange connection: new technology, old expectations regarding the outcomes, new skills to learn), and I also become aware that I need to reshuffle my resources, namely information, so as to squeeze it into new structures. Now, I am advancing one step further and I try to go the other way round: I had a look at what the logical structures of the Python look like and what I am trying to do now is to discover what can possibly the Python do for me. In other words, I am progressively passing from using Python as just a harder-to-tame version of the Excel towards discovering what it can do for me.

I am playing with one of the first things I found in the ‘Tutorial’ textbook, available at, namely with the structure ‘for n in range(x, y):’ and then you specify what do you want the Python to do while n stays in a given range. Here below is a simple try from my part:

>>> for x in range(1, 10):

            structure={‘x’:(x**2, x**0,5)}











# Honestly, I don’t even know why I formed this precise function. It just came like that. I imagined a structure when a cardinal order is established, from 1 to 10, and each point in the order has two coordinates derived from its position: square power and square root. It is nice and it didn’t exactly work as I planned. I got a ten-time repeated [‘x’]. As I put that ‘x’ in single quotes, it has been considered as a word, or a piece of content. Now, I modify slightly my structure: I took off those single quotes. Here is the result: 

>>> for x in range(1, 10):

            structure={x:{x**2, x**0,5}}











#Better a small step forward than no steps at all, as they say. After having removed those single quotes from around the x, I got a cardinal order in response. Still, the function did not yield the coordinates I expected to have out of it. Now, I replace the command ‘list()’ by the command ‘print()’. So far, I did not quite grasp the distinction between those two. I decided to experiment in order to acquire some knowledge, and here comes what I got:

>>> for x in range(1, 10):

            structure={x:{x**2, x**0,5}}


{1: {1, 5}}

{2: {1, 4, 5}}

{3: {9, 5, 1}}

{4: {16, 1, 5}}

{5: {25, 5, 1}}

{6: {1, 36, 5}}

{7: {49, 5, 1}}

{8: {64, 1, 5}}

{9: {81, 5, 1}}

#Now, this is most interesting. As I replaced ‘list()’ with ‘print()’, the function finally yielded the coordinates. There is just one tiny little problem: instead of having just two coordinates, in 8 cases on 9, starting from the cardinal 1, I have three coordinates instead of two. Why? Oh, I see. I put ‘0,5’ instead of ‘0.5’. For the Python, decimal values are accepted as such if the decimal point is literally the point, not the coma.  The expression ‘x**0,5’, which I meant to be x power 0,5, has been read by the Python as x power 0, followed by a 5. OK, I understand. My mistake. I replace the ‘0,5’ by ‘0.5’, by the book, and I launch it again. 

>>> for x in range(1, 10):

            structure={x:{x**2, x**0.5}}


{1: {1}}

{2: {1.4142135623730951, 4}}

{3: {9, 1.7320508075688772}}

{4: {16, 2.0}}

{5: {25, 2.23606797749979}}

{6: {2.449489742783178, 36}}

{7: {49, 2.6457513110645907}}

{8: {64, 2.8284271247461903}}

{9: {81, 3.0}}

#Finally, it worked. Now, I push my experiment further and I introduce a third coordinate, the natural logarithm of the cardinal position.  

>>> import math   #I turn on the module with mathematical functions

>>> for x in range(1, 10):

            structure={x:{x**2, x**0.5, math.log(x)}}


{1: {0.0, 1}}

{2: {0.6931471805599453, 1.4142135623730951, 4}}

{3: {9, 1.0986122886681098, 1.7320508075688772}}

{4: {16, 1.3862943611198906, 2.0}}

{5: {25, 2.23606797749979, 1.6094379124341003}}

{6: {1.791759469228055, 2.449489742783178, 36}}

{7: {49, 2.6457513110645907, 1.9459101490553132}}

{8: {64, 2.8284271247461903, 2.0794415416798357}}

{9: {81, 2.1972245773362196, 3.0}}

Good. It seems to work. What I have just succeeded to do is to learn a typical, very simple structure in Python and this structure does something slightly different than the Excel: it generates a sequence of specific structures out of a general, logical structure I specified. I am wrapping up my learning from my learning: it took me four days to start looking actively for new possibilities offered by the Python. If I extrapolate to the scale of collective behaviour, we have those four patterns of innovating: a) trying to obtain old outcomes with the new technology b) making mistakes, seeing my efficiency plummeting, and learning new skills c) rearranging my resources for the new technology d) experimenting and exploring the new possibilities, which come with the new technology. As I refer this generalized account of my individual experience to the literature I quoted a few paragraphs earlier. How does a breakthrough occur in these specific patterns of behaviour? I can assume there is a critical amount of learning and adaptation, required in the presence of a new technology, which can possibly, referring once more to Arnold Toynbee’s metaphor of struggling civilisations, make a technological transition risky, impossible or null in its balanced outcomes.

[1] de Vries, Bert J.M., van Vuuren, Detlef P., Hoogwijk Monique M., 2007, Renewable energy sources: Their global potential for the first-half of the 21st century at a global level: An integrated approach, Energy Policy, vol. 35 (2007), pp. 2590–2610

[2] Edgerton, D. (2011). Shock of the old: Technology and global history since 1900. Profile books

[3] Braudel, F., 1981, Civilization and Capitalism, Vol. I: The Structures of Everyday Life, rev.ed., English Translation, William Collins Sons & Co London and Harper & Row New York, ISBN 00216303 9

[4] Braudel, F., 1983, Civilisation and Capitalism. Part II: The Wheels of Commerce, trans. Sian Reynolds, Book Club Associates, William Collins Sons & Co,

[5] Toynbee, J. Arnold. Study of history. University press, 1946, pp. 69

Je réorganise mes ressources pour le Python

Mon éditorial

Me voilà qui continue cette expérience étrange et rafraîchissante de faire de la recherche sur le changement technologique en même temps que je fais du changement technologique en moi-même, c’est-à-dire en apprenant le Python, une langue de programmation à la mode dans les endroits fréquentés par des types comme moi. Ces endroits sont des universités, des conférences, des bibliothèques etc. Vous voyez le genre. Durant les deux derniers jours j’ai déjà découvert qu’en appréhendant cette technologie nouvelle (nouvelle pour moi, je veux dire), j’avais commencé, intuitivement, par utiliser le Python pour qu’il fasse exactement la même chose que fait Excel ou mon logiciel d’analyse statistique, Wizard for MacOS. Je m’étais donc appliqué à bâtir une base de données comme je la vois, donc comme une table. En Python, les données sont organisées comme structures logiques et non pas graphiques, donc mes efforts avaient été vains dans une large mesure. Je commettais beaucoup d’erreurs, parfois stupides. J’avais besoin d’un nombre surprenant d’essais pour acquérir une capacité acceptablement intuitive de distinguer entre les structures logiques validées et celles qui ne le sont pas. Ça m’avait aussi pris un temps déconcertement long pour faire la distinction entre des structures logiques avec des mots et des symboles dedans – ces soi-disant « strings » – et les structures qui contiennent des nombres. Pour les non-initiés, une série de noms en Excel, ça se présente comme une colonne ou bien un vers, donc comme :


   …ou bien comme

Mot#1 Mot#2 Mot#3

…tandis qu’en Python ce serait plutôt :

>>> Mots=[‘Mot#1’, ‘Mot#2’, ‘Mot#3’]

… donc chaque mot entre des apostrophes (qui sont des marques de citation de base en anglais), les mots séparés par des virgules et tout ça compris entre des parenthèses carrées. C’est précisement ce qu’on appelle un « string ».

Si je veux organiser des valeurs numériques, la façon que j’ai déjà apprise pour les organiser est une série entre des parenthèses rondes :

>>> Nombres=(23, 34, 45, 56)

Comme vous pouvez le constater, le Python requiert un ordre logique : valeur logique ou numérique en position no. 1, ensuite celle en position no. 2 et ainsi de suite.

Bref, en un premier temps, j’avais mis beaucoup d’effort pour insérer de force cette nouvelle technologie dans une vieille structure de mes habitudes, et ce n’est qu’ensuite que j’ai commencé à apprendre des nouvelles habitudes. Tout ça se reflétait dans une efficacité tout ce qu’il y a de plus lamentable. J’avançais à un pas d’escargot. Oui, je sais, un escargot, ça n’a pas de pattes, donc ça ne peut pas faire de pas, mais « pas d’escargot » ça sonne bien.

Hier soir, tout en m’entraînant à développer une compréhension aussi intuitive que possible de ces structures logiques de Python, j’avais commencé à faire autre chose : engranger des données organisées façon Python. Les tables que je télécharge du site de la Banque Mondiale sont organisées en pays et années d’observation, pays en colonne, années dans un vers en haut. Je sens intuitivement qu’une fois que je crée un string des pays et je le sauve dans un fichier Python à part, il me servira plusieurs fois pour apprendre des nouveaux trucs ou tout simplement pour faire des analyses plus tard, lorsque j’aurai appris comment utiliser se string des pays. Avec deux tests rapides pour la grammaire et avec deux petits réajustements, ça m’a pris 26 minutes de créer le fichier « », qui contient un string nommé « countries », qui, à son tour, contient la même liste des pays et régions, en anglais, que vous pouvez trouver dans les tables Excel de la Banque Mondiale.

Ce que je viens de faire consiste à réorganiser mes ressources de façon à les rendre plus accessibles à la nouvelle technologie que j’apprends. Pour le moment, je l’avais fait manuellement, en copiant la table des pays en Excel dans mon éditeur Word, ensuite en la convertissant en texte, copiant ce texte dans le compilateur Python et organisant ces noms des pays en un string « countries=[‘Pays#1’, ‘Pays#2’, etc.]. Je sais, je sais, je pourrais télécharger directement, du site de la Banque Mondiale, un fichier en format CSV et le déballer avec les commandes Python du module « csv ». Oui, j’aurai pu le faire si je savais exactement comment le faire et ça, c’est encore de l’avenir pour moi. Je faisais donc face à un choix : organiser mes ressources pour la nouvelle technologie en une manière bien grossière et improductive ou bien attendre que j’apprenne une façon plus rapide et élégante d’accomplir la même tâche. J’avais choisi la première option.

Voilà donc que je peux généraliser mes observations au sujet de mon propre comportement dans cette expérience sur moi-même. En présence d’une technologie nouvelle, j’ai développé comme trois modèles de comportement :

Modèle #1 : j’essaie d’utiliser la nouvelle technologie (Python) pour accomplir les mêmes résultats que j’accomplissais avec la technologie précédente (Excel, Wizard). Mon choix consiste surtout à décider combien de temps et d’énergie je vais consacrer à essayer d’appliquer la logique ancienne à la technologie nouvelle.

Modèle #2 : Je me suis rendu compte que les vieilles habitudes ne marchent pas et je commence à en apprendre des nouvelles. Mon choix se fait à deux niveaux. Premièrement, je fais des petites décisions instantanées à propos du prochain pas d’apprentissage à faire. Sur un deuxième niveau, je décide combien de temps et d’énergie consacrer à l’apprentissage des compétences requises par la technologie nouvelle. C’est un choix fait en vue de bénéfices futurs incertains.

Modèle #3 : Je sais que l’une des compétences de base dans l’univers de Python consiste à organiser mes ressources de base – l’information – en des structures spécifiques. Je décide de faire un premier pas dans cette direction et je consacre environ une demi-heure à créer un string des pays et régions, exactement conforme à l’ordre utilisé dans les données de la Banque Mondiale. Je me souviens d’avoir fait deux choix distincts : est-ce que je m’y prends du tout et quel type d’information organiser en premier. J’avais pris ces deux décision en sachant que j’utilise une technique qui est loin d’être optimale dans l’univers de cette nouvelle technologie, ainsi que je savais que je ne sais pas du tout comment je vais utiliser ce string des pays dans l’avenir (je n’y suis pas encore arrivé dans mon apprentissage de Python).

A propos, juste pour que vous ayez du solide après avoir lu cette mise à jour : en-dessous du texte, j’ai copié ce string des pays exactement comme je l’avais écrit manuellement. Comme ça se présente maintenant, ça devrait être directement utilisable en Python. Vous pouvez le copier et mettre dans un programme. Côté syntaxe, c’est correct : je l’avais testé avec la commande « list(countries) » et Python avait rendu une liste à partir du string sans gueuler « erreur ! ». A cette occasion, j’ai appris que le dépositoire des fichiers sur mon site , dans l’environnement Word Press, n’accepte pas des fichiers en Python. Je voulais y télécharger et stocker le fichier « » et le site a rendu erreur. Une petite leçon à propos de la compatibilité des technologies.

Maintenant, j’applique ces nouvelles connaissances, tout ce qu’il y a de plus empirique, pour faire une généralisation théorique. Si nous considérons deux technologies, une ancienne TC0 et une nouvelle TC1, la transition de TC0 à TC1 est liée, entre autres, à trois phénomènes : une substitution fonctionnelle complexe, un coût d’apprentissage CA(TC0 ; TC1) et un coût de réorganisation de ressources CR(TC0 ; TC1). Le premier phénomène, celui de substitution complexe, peut être représenté comme une relation entre deux ensembles. Il y a un ensemble F(TC0) = {f1, f2, …, fi} des fonctions remplies par la technologie TC0, et par analogie, je définis un ensemble F(TC1) = {g1, g2, …, gk} des fonctions remplies par la technologie TC1. Maintenant, avant que je passe plus loin, un petit mon d’explication à propos de la présentation : j’écris ce contenu-ci en sachant que je vais le copier dans mes deux blogs, celui en Word Press à , ainsi que celui dans l’environnement Blogger, à l’addresse . Tous les deux ne sont pas vraiment ami-ami avec l’éditeur d’équation de MS Word, donc j’écris les équations avec les symboles du clavier. Je n’ai pu trouver aucun clavier qui permet de taper directement les opérateurs mathématiques, y compris les opérateurs d’ensembles. J’adopte donc une convention simplifiée où les symboles +, -, * et / correspondent, respectivement, à la somme, différence, produit et quotient des ensembles.

La relation de substitution complexe entre technologies veut dire, qu’avec un niveau donné de compétences de la part d’utilisateurs, les ensembles F(TC0) = {f1, f2, …, fi} et F(TC1) = {g1, g2, …, gk} ont une partie commune, ou F(TC0)*F(TC1), qui correspond aux fonctions remplies par les deux technologies. Je définis le degré de substitution entre les deux technologies comme le quotient complexe : SU(TC0 ; TC1) = [F(TC0)*F(TC1)] / [ F(TC0) + F(TC1)]. Je pose formellement l’hypothèse que le coût d’apprentissage CA(TC0 ; TC1) ainsi que le  un coût de réorganisation de ressources CR(TC0 ; TC1) sont tous les deux inversement proportionnels à la valeur du quotient complexe SU(TC0 ; TC1) ou :

CA(TC0 ; TC1) = a1* SU(TC0 ; TC1)

CR(TC0 ; TC1) = a2* SU(TC0 ; TC1)

a1 > 0 ; a2 > 0

Je me dis, quand je regarde cette structure logique, qu’elle risque d’être un peu lourde avec beaucoup de technologies qui se substituent d’une façon complexe et avec beaucoup d’attributs fonctionnels. Je vois donc une façon alternative de représenter la même proposition, avec l’aide de la distance Euclidienne. Vous savez, ce truc basé sur le théorème de Pythagore : si on a deux points A et B, chacun défini par deux coordonnées x et y, on peut calculer la distance entre ces deux points comme d = ((x(A) – x(B))2 + (y(A) – y(B))2)0,5 . Maintenant, je remplace les points A et B par mes technologies TC0 et TC1, TCce que vous voulez, par ailleurs, et je dote chacune avec deux attributs mesurables x et y. Je peux alors calculer la distance Euclidienne « d » dans une paire donnée de technologies. Comme je suis toujours conscient que je devrais apprendre le Python, voilà, ci-dessous, je présente le fruit de trois jours d’apprentissage : un petit calculateur de distance Euclidienne en Python 3.6.2 :

# je commence par définir les coordonnées des trois technologies TC0, TC1 et TC2

>>> TC0=(12, 45)

>>> TC1=(34, 15)

>>> TC2=(17, 30)

>>> import math      #j’importe le module des fonctions mathématiques, juste pour me faciliter la tâche

# je définis mon calculateur pour la première paire de technologies

>>> for n in range(0, len(TC0)):

            for m in range(0, len(TC1)):

                       print(math.sqrt((math.pow(34-12, 2)+math.pow(15-45, 2))))





# je n’ai pas la moindre idée pourquoi le compilateur a affiché le même résultat quatre fois ; voilà un défi potentiel

#je répète avec l’autre paire de technologies

>>> for n in range(0, len(TC0)):

            for m in range(0, len(TC2)):

                       print(math.sqrt((math.pow(17 – 12, 2) + math.pow(30 – 15, 2))))





#voilà encore une fois le même résultat quatre fois ; amusant

Bon, je commence à ressentir de la fatigue intellectuelle. Temps de terminer pour aujourd’hui. A bientôt.

Comme promis, voilà le string des pays pour Python, conforme à la structure utilisée par la Banque Mondiale :

countries=[‘Aruba’,‘Afghanistan’,‘Angola’, ‘Albania’, ‘Andorra’, ‘Arab World’, ‘United Arab Emirates’, ‘Argentina’, ‘Armenia’, ‘American Samoa’, ‘Antigua and Barbuda’, ‘Australia’, ‘Austria’, ‘Azerbaijan’, ‘Burundi’, ‘Belgium’, ‘Benin’, ‘Burkina Faso’, ‘Bangladesh’, ‘Bulgaria’, ‘Bahrain’, ‘Bahamas The’, ‘Bosnia and Herzegovina’, ‘Belarus’, ‘Belize’, ‘Bermuda’, ‘Bolivia’, ‘Brazil’, ‘Barbados’, ‘Brunei Darussalam’, ‘Bhutan’, ‘Botswana’, ‘Central African Republic’, ‘Canada’, ‘Central Europe and the Baltics’, ‘Switzerland’, ‘Channel Islands’, ‘Chile’, ‘China’, ‘Cote d_Ivoire’, ‘Cameroon’, ‘Congo, Dem. Rep.’, ‘Congo, Rep.’, ‘Colombia’, ‘Comoros’, ‘Cabo Verde’, ‘Costa Rica’, ‘Caribbean small states’, ‘Cuba’,’Curacao’, ‘Cayman Islands’, ‘Cyprus’, ‘Czech Republic’, ‘Germany’, ‘Djibouti’, ‘Dominica’, ‘Denmark’, ‘Dominican Republic’, ‘Algeria’, ‘East Asia & Pacific (excluding high income)’, ‘Early-demographic dividend’, ‘East Asia & Pacific’, ‘Europe & Central Asia (excluding high income)’, ‘Europe & Central Asia’, ‘Ecuador’, ‘Egypt, Arab Rep.’, ‘Euro area’, ‘Eritrea’, ‘Spain’, ‘Estonia’, ‘Ethiopia’, ‘European Union’, ‘Fragile and conflict affected situations’, ‘Finland’, ‘Fiji’, ‘France’, ‘Faroe Islands’, ‘Micronesia, Fed. Sts.’, ‘Gabon’, ‘United Kingdom’, ‘Georgia’, ‘Ghana’, ‘Gibraltar’, ‘Guinea’, ‘Gambia, The’, ‘Guinea-Bissau’, ‘Equatorial Guinea’, ‘Greece’, ‘Grenada’, ‘Greenland’, ‘Guatemala’, ‘Guam’, ‘Guyana’, ‘High income’, ‘Hong Kong SAR, China’, ‘Honduras’, ‘Heavily indebted poor countries (HIPC)’, ‘Croatia’, ‘Haiti’, ‘Hungary’, ‘IBRD only’, ‘IDA & IBRD total’, ‘IDA total’, ‘IDA blend’, ‘Indonesia’, ‘IDA only’, ‘Isle of Man’, ‘India’, ‘Not classified’, ‘Ireland’, ‘Iran, Islamic Rep.’, ‘Iraq’, ‘Iceland’, ‘Israel’, ‘Italy’, ‘Jamaica’, ‘Jordan’, ‘Japan’, ‘Kazakhstan’, ‘Kenya’, ‘Kyrgyz Republic’, ‘Cambodia’, ‘Kiribati’, ‘St. Kitts and Nevis’, ‘Korea, Rep.’, ‘Kuwait’, ‘Latin America & Caribbean (excluding high income)’, ‘Lao PDR’, ‘Lebanon’, ‘Liberia’, ‘Libya’, ‘St. Lucia’, ‘Latin America & Caribbean’, ‘Least developed countries: UN classification’, ‘Low income’, ‘Liechtenstein’, ‘Sri Lanka’, ‘Lower middle income’, ‘Low & middle income’, ‘Lesotho’, ‘Late-demographic dividend’, ‘Lithuania’, ‘Luxembourg’, ‘Latvia’, ‘Macao SAR, China’, ‘St. Martin (French part)’, ‘Morocco’, ‘Monaco’, ‘Moldova’, ‘Madagascar’, ‘Maldives’, ‘Middle East & North Africa’, ‘Mexico’, ‘Marshall Islands’, ‘Middle income’, ‘Macedonia, FYR’, ‘Mali’, ‘Malta’, ‘Myanmar’, ‘Middle East & North Africa (excluding high income)’, ‘Montenegro’, ‘Mongolia’, ‘Northern Mariana Islands’, ‘Mozambique’, ‘Mauritania’, ‘Mauritius’, ‘Malawi’, ‘Malaysia’, ‘North America’, ‘Namibia’, ‘New Caledonia’, ‘Niger’, ‘Nigeria’, ‘Nicaragua’, ‘Netherlands’, ‘Norway’, ‘Nepal’, ‘Nauru’, ‘New Zealand’, ‘OECD members’, ‘Oman’, ‘Other small states’, ‘Pakistan’, ‘Panama’, ‘Peru’, ‘Philippines’, ‘Palau’, ‘Papua New Guinea’, ‘Poland’, ‘Pre-demographic dividend’, ‘Puerto Rico’, ‘Korea, Dem. People’s Rep.’, ‘Portugal’, ‘Paraguay’, ‘West Bank and Gaza’, ‘Pacific island small states’, ‘Post-demographic dividend’, ‘French Polynesia’, ‘Qatar’, ‘Romania’, ‘Russian Federation’, ‘Rwanda’, ‘South Asia’, ‘Saudi Arabia’, ‘Sudan’, ‘Senegal’, ‘Singapore’, ‘Solomon Islands’, ‘Sierra Leone’, ‘El Salvador’, ‘San Marino’, ‘Somalia’, ‘Serbia’, ‘Sub-Saharan Africa (excluding high income)’, ‘South Sudan’, ‘Sub-Saharan Africa’, ‘Small states’, ‘Sao Tome and Principe’, ‘Suriname’, ‘Slovak Republic’, ‘Slovenia’, ‘Sweden’, ‘Swaziland’, ‘Sint Maarten (Dutch part)’, ‘Seychelles’, ‘Syrian Arab Republic’, ‘Turks and Caicos Islands’, ‘Chad’, ‘East Asia & Pacific (IDA & IBRD countries)’, ‘Europe & Central Asia (IDA & IBRD countries)’, ‘Togo’, ‘Thailand’, ‘Tajikistan’, ‘Turkmenistan’, ‘Latin America & the Caribbean (IDA & IBRD countries)’, ‘Timor-Leste’, ‘Middle East & North Africa (IDA & IBRD countries)’, ‘Tonga’, ‘South Asia (IDA & IBRD)’, ‘Sub-Saharan Africa (IDA & IBRD countries)’, ‘Trinidad and Tobago’, ‘Tunisia’, ‘Turkey’, ‘Tuvalu’, ‘Tanzania’, ‘Uganda’, ‘Ukraine’, ‘Upper middle income’, ‘Uruguay’, ‘United States’, ‘Uzbekistan’, ‘St. Vincent and the Grenadines’, ‘Venezuela, RB’, ‘British Virgin Islands’, ‘Virgin Islands (U.S.)’, ‘Vietnam’, ‘Vanuatu’, ‘World’, ‘Samoa’, ‘Kosovo’, ‘Yemen, Rep.’, ‘South Africa’, ‘Zambia’, ‘Zimbabwe’]

Theorizing and learning by doing, whilst wrestling with Python

My editorial

And so I am experimenting with my thinking. I am writing about choices we make regarding new technologies whilst placing myself in a situation of absorbing a new technology: The Python. I am talking about that programming language, reputed for being particularly useful in studying quantitative data. I thought it would be interesting to write about people’s choices whilst making a choice about new technology. Just to be precise: the variety of Python I am enduring my pains of neophyte with is Python 3.6.2, and besides using the materials provided at the standard library of the Python I am using a book by Toby Segaran, entitled ‘Programming Collective Intelligence’, Published by O’Reilly Media, Inc. (ISBN-10: 0-596-52932-5; ISBN-13: 978-0-596-52932-1). I want to discover a few things. Firstly, I want to rediscover the process of discovering something new. It has been a long time since I really had to absorb some brand new set of skills and understandings. I recently became aware of that: I am writing about innovation and technological change, about whole communities switching to renewable energies but with all that, I am not absorbing any true novelty. Secondly, data science becomes kind of adjacent a discipline for social sciences, and I wanted to discover what can I get more out of Python that my statistical software (i.e. Wizard for MacOS) does not provide. So I want to discover new possibilities, and I want to rediscover what is it to discover new possibilities.

I really started this experiment yesterday. As I am recollecting what I have been doing, yesterday and today, a few patterns emerge. As I mentioned it, I started under a twofold impulse: an idea connected to my research and writing, for one, and sort of a vague peer pressure, for two. Being my own guinea pig, I assume I am somehow representative, and so I peg down those two motivations: curiosity awoken by current activity, and peer pressure, also connected to the present activity. As a matter of fact, I started with implementing Python in my current activity, i.e. in research. I tried to use the basic notations for expressing deterministic choice (see ‘Qu’est-ce que ça fait d’être mon propre étudiant, avec Python’). Then, I used Python to meddle with quantitative data, the one in the CSV format. I played with building strings and sets of values out of that format. I am progressively getting acquainted with the distinction between names, defined in single quotes (i.e. ‘x’), and values without quotation marks. Anyway, I took something I already do with the tools I already have, and I am trying to do it with Python. It is awkward, it is slow, it involves a lot of trial and error. I have to solve new problems. I am confronted with something apparently smart (the Python), which returns dull, preformatted answers in the case of failed attempts from my part. Tons of fun, in other words. Here, I have a second pattern, important for understanding innovation: every time we absorb a new technology, we kind of insert it into our current life and we keenly observe what changes under the impulse. That change involves an initial drop in efficiency. What I am trying to do with Python now, I do much faster and more artfully with my Excel and my Wizard combined.

The drop in efficiency I am experiencing is very much connected to the logic I have to use, or, in other words, to the structure of information. In Excel, I have tabularized structures. In Wizard, I almost don’t pay attention to the raw data, previously imported from Excel, and I focus on analysis, which involves picking up, by clicking, from pre-formatted lists. Anyway, both in Excel and in Wizard, I have a two-dimensional structure, where I move mostly graphically, with a mouse or a touchpad. In Python, I have logical structures akin to typical writing. I have to type all those structures by myself, or copy from Excel and format into the written way. I am becoming aware, I mean really aware that what I used to perceive as adjacent columns or rows of data are, in fact, separate logical structures linked by some kind of function. I encounter two types of challenges here. The most elementary one is the shift from reversible to irreversible. In Python, in order to have any logical structure usable in subsequent operations, like a string of names or a set of values, I have to validate it with an ‘Enter’. Still, after I have validated it, I cannot alter it. If I made a mistake, I have to define a new structure, almost identical to the previous one, save for those corrected mistakes, and to replace it under the same name I gave to that previous one. Defining functions that link different logical structures is much harder for me, at least for the moment.

As I am wrestling with the Python, I recall my early experience with software like DBASE or Lotus, back in the early 1990ies. Those pieces of software were something between the Python and the modern software base on graphical interfacing. I am reconstructing the path of learning I have covered and I am forming another pattern regarding innovation. From DBASE or Lotus, the path has been towards simplification and greater a comfort on the user’s side, whilst creating an increasing complexity on the programming side. What I am doing now, as I am learning Python, is to deconstruct that comfort and simplicity and see what I can get if I rethink and relearn the technology of comfort and simplicity. Just to give you an idea of what I am working with right now (the initiated to Python, I implore magnanimity from your part), I give the example of what I have written kind of on the side, whilst writing what I am writing for the blog. Here it is:

# I want to define a set of people, a set of technologies, and to illustrate the fact of preferring some technologies more than others. So I define my set of ‘people’, as a string: 

>>> people=[‘Geogre’, ‘Chris’, ‘Eleonore’, ‘Kathy’, ‘Miron’, ‘Eva’]

# S***, I made a ‘Geogre’ out of ‘George’; I have to define people again

>>> people=[‘George’, ‘Chris’, ‘Eleonore’, ‘Kathy’, ‘Miron’, ‘Eva’]

>>> technologies=[‘photovoltaic on the roof’, ‘own water turbine’, ‘connection to smart grid’, ‘cycling more driving less’]

>>> scores=(1, 2, 3, 4, 5, 6, 7, 8, 9, 10)

# Now, what I want is to connect somehow the scores to the people and to the technologies. I want to figure out some kind of function, which would put those three categories together. Here below you can see a failed attempt:

 >>> for n in people and for m in technologies return(scores [3])

SyntaxError: invalid syntax << # What did I tell you?

#Now, I am less ambitious. I am trying to create a logical structure from just two categories: people and technologies. I just want to put them in pairs, and label that matching ‘experiments with’. Here is what I did pretty intuitively:

>> for n in range(0, len(people)):

                  for m in range(0, len(technologies)):

                                   print(people [n], ‘experiments with’, technologies [n])

# It did not yield ‘SyntaxError’, which is already a plus. After an additional ‘Enter’, I had this:

George experiments with photovoltaic on the roof

George experiments with photovoltaic on the roof

George experiments with photovoltaic on the roof

George experiments with photovoltaic on the roof

Chris experiments with own water turbine

Chris experiments with own water turbine

Chris experiments with own water turbine

Chris experiments with own water turbine

Eleonore experiments with connection to smart grid

Eleonore experiments with connection to smart grid

Eleonore experiments with connection to smart grid

Eleonore experiments with connection to smart grid

Kathy experiments with cycling more driving less

Kathy experiments with cycling more driving less

Kathy experiments with cycling more driving less

Kathy experiments with cycling more driving less

# Oouff, it worked, for a change.

Simple lesson: coming up with structures that work takes experimentation. Experimentation takes time and energy, and still, in the same time, yields learning. Experimenting with new technologies is a trade-off between the time and energy devoted to experimentation, on the one hand, and the learning we have from it, on the other hand. The next step I am trying to achieve, unsuccessfully as for now, is to connect people and technologies to those numerical values from ‘scores’. Here below, you can find a short account of my failures:

>>> list(scores)

[1, 2, 3, 4, 5, 6, 7, 8, 9, 10]

>>> scores=[list(scores)]

>>> scores [3]

Traceback (most recent call last):

  File “<pyshell#12>”, line 1, in <module>

    scores [3]

IndexError: list index out of range

>>> scores[2]

Traceback (most recent call last):

  File “<pyshell#13>”, line 1, in <module>


IndexError: list index out of range

What did I do wrong? Where is the loophole in my thinking? I think I know: what I have been trying to do was to kind of pick up arbitrarily a value from the set of ‘scores’ and connect it somehow to people and technologies. I have been trying to do what I commonly do with Excel: I just sort of tried to match it, as if I were making a table. I was trying to work with the new technology (i.e. the Python) just as I am used to work with the old technology, namely Excel. It does not work. New technology requires new skills and habits. There is that thing about logical structures: the numerical ones are different from the strictly spoken logical ones. Numbers are of different nature than words and letters. If I want to express the preferences of my ‘people’ for particular ‘technologies’, I have to construct a function of preference, i.e. a function which yields a numerical result through a mathematically valid process. At that point, I am becoming aware that I have two alternative logics of constructing such a function: through positioning or through inference.

The first technique consists in ascribing, to my ‘people’ and my ‘technologies’, some kind of coordinates in a virtual space. It is very similar to the Bayesian rectangle: I represent phenomena as a geometrical structure. This structure has a frontier delimiting its expanse, and, possibly, some additional secants, which serve to fine-tune the position of a given point in this space. Positioning looks like the right way to construct a function of preference when position matters. Position is distance of the given point (person, technology etc.) from (to?) some peg points fixed in the given space. In that book by Toby Segaran, I found an interesting reminder about the application of the Pythagorean theorem when it comes to distance in an imaginary space: a2 + b2 = c2. If you have two points, and you ascribe two coordinates to each (actually, this would be a plan, not a space, but who cares?), you can measure the distance between those two points on each coordinate separately, as a difference, then square up those differences, add them up, and take the square root of the so-calculated sum. Summing up, the technique of positioning allows ascribing to people preferences, which result from their relative distance from your peg points or peg axes: conservatism, openness, liberalism etc. The technique of inference assumes that if I have some characteristics X, Y, Z, my preferences are the most likely to be A, B, C and usually those As, Bs, and Cs are the expected values in a statistical distribution. If I am Polish and my friend is French, and France has greater a share of renewable energies in their final consumption of energy than Poland, my Friend is supposed to have stronger a preference for putting photovoltaic panels on his roof, or something in those lines.

I am wrapping up this account of my personal experience with innovation. I use the new technology, in the first place, to reach the same outcomes I commonly achieve with the old technology. I basically squeeze that new technology into the social role I have now. When a lot of people do the same, it means that the new technology, in a first step of collective learning, adapts to the existing social structure. Then, I intuitively use old habits and skills with the new technology, which causes problems, and diminishes my efficiency, and still it is lots of fun, and it makes me learn something new. Once again, as I translate this personal experience into collective patterns of behaviour, the greater the relative distance between the new technology and the old one, the more trial and error, the more learning required, thus the deeper is the trough in efficiency, and the greater is the leap caused by learning for the new technology. Relating it to the old concept of technological determinism by Karl Marx, I can see the weakness of his thinking. We assumed that the greater the economic power of a technology, so the greater possible technical improvements it can bring, the greater power it has to bend the social structure around it. Still, my little experiment brings a new variable: the greater the transformative power of a new technology, the more learning it requires and the less we can predict about how the hell it will change the social structure around it.

Qu’est-ce que ça fait d’être mon propre étudiant, avec Python

Mon éditorial

Je pense à deux choses. Enfin, oui, évidemment, je pense à plus que juste deux choses, mais c’est un tour de phrase qui est censé indiquer une pluralité dans la ligne de mon discours. Je pense des nombres et je pense en termes de structure logique pour un article ou un livre. D’une part, je continue de me demander comment je pourrais formuler des hypothèses, pour ma propre recherche à propos d’énergies renouvelables, suivant la logique mathématique de Thomas Bayes. D’autre part, j’ai l’impression que le temps est venu de traduire la recherche que j’ai effectuée durant les 4 – 5 dernières semaines en une forme plus canonique qu’un blog : un article ou bien l’esquisse d’un livre. En fait, quand j’y pense, l’un se joint à l’autre et en plus, il y a un troisième fil de pensée qui lève sa tête : la traduction de ces régressions linéaires dont j’ai déjà fait autant en des hypothèses Bayésiennes. Ah bon, y’en a un quatrième, aussi ? C’était évident : mon quatrième fil de pensée est celui d’un prof. Quand je fais de la recherche et quand je travaille sur la présentation de cette recherche de façon à la rendre intelligible, je peux en profiter pour donner un cours. Un cours de quoi, vous demanderez ? Eh bien, c’est un cours de ce que je suis en train de faire. Quand je réussis à expliquer la méthode que j’applique à un problème particulier, et quand cette explication est suffisamment simple et claire pour être comprise par mes étudiants, c’est comme si j’avais écrit un chapitre de manuel de sciences sociales.

Là, il y a encore un petit détail : pour être un bon prof, il est utile de se placer dans la situation d’un étudiant, donc de quelqu’un qui essaie d’absorber des connaissances complètement nouvelles et, avec de la chance, de développer des compétences personnelles sur cette base. Comment puis-je être un étudiant et un prof en même temps ? C’est relativement simple. Premièrement, il faut d’être déjà d’un certain âge qui est une classe spécifique dans le cadre plus large de l’âge certain et l’âge certain, pour moi, ça se compte à partir du 9 mai 1968. Deuxièmement, il faut avoir une progéniture douée, qui, dans mon cas, est mon fils qui commence sa troisième année de licence en informatique. Pour moi, être étudiant, ça veut dire apprendre Python. Pour les complètement non-initiés, Python est une langue de programmation, réputée pour être particulièrement utile dans l’analyse des données et dans la programmation d’intelligence artificielle. Ma propre intelligence, elle commence à prendre un coup de vieux, donc il est logique que j’essaie de m’en faire une artificielle. J’ai une dent en composite céramique, je peux aussi bien avoir une prothèse d’intelligence en Python. Pour les initiés, premièrement, j’implore votre compréhension pour mes tourmentes de néophyte, et deuxièmement je spécifie que lesdites tourmentes surviennent en contact avec Python 3.6.1.

Bon, j’essaye d’être logique. L’hypothèse générale que j’avais déjà avancé dans mon dernier article et que j’ai bien l’intention de maintenir est que les changements technologiques possibles à observer dans l’économie mondiale surviennent comme un processus d’adaptation intelligente en vue de maximiser l’absorption d’énergie par l’espèce humaine. L’adaptation intelligente veut dire un processus où des générations consécutives d’organismes sont produites et chaque génération est conçue par une sélection entre des organismes mâles et des organismes femelles. Cette sélection a lieu suivant une fonction de préférence, qui, à son tour, crée des hiérarchies sociales parmi les mâles et les femelles. Quel contexte que je prenne pour cette hypothèse générale, énergies renouvelables ou Ferraris stylisés en vieilles Citroën, ça se résume à une séquence des choix. Mes choix, je peux les appréhender de trois façons différentes : déterministe, probabiliste façon De Moivre – Laplace, ou bien probabiliste façon Bayésienne.

Un choix déterministe est celui où le fait de choisir une option donnée résulte toujours et inévitablement en une conséquence donnée. Le choix est alors la cause et ses conséquences sont l’effet. Si je pythonne ça, façon néophyte, ça donne plus ou moins :

>>> choix_déterministe=[‘option A’, ‘option B’, ‘option C’]

>>> conséquences_déterministes=[‘effet 1’, ‘effet 2’, ‘effet 3’]

>>> if choix_déterministe [0]:

            conséquences_déterministes [0]

            if not choix_déterministe [0]:

                       conséquences_déterministes [1] or conséquences_déterministes [2]

Vous pouvez remarquer que j’ai été bien paresseux, là : j’ai réduit un choix multiple entre trois options A, B, C à une dichotomie aristotélicienne de forme « A ou bien non-A ». Un mot de clarification s’impose à propos de la notation. Dans cette version de Python que j’utilise, le premier argument d’un string (je sais, c’est rigolo, mais si vous avez l’intention de rire chaque fois que je mentionne un string, ce n’est pas bientôt que vous allez arrêter, avec Python) c’est l’argument [0], le second c’est [1] et ainsi de suite.

Si je veux développer mon choix déterministe bien comme il faut, sans esquives aristotéliciennes, ça aurait l’air comme ci-dessous :

>>> choix_déterministe=[‘option A’, ‘option B’, ‘option C’]

>>> conséquences_déterministes=[‘effet 1’, ‘effet 2’, ‘effet 3’]

>>> if choix_déterministe [0]:

            conséquences_déterministes [0]

            if not choix_déterministe [0]:

                       if choix_déterministe [1]:

                                   conséquences_déterministes [1]

                                   if not choix_déterministe [1]:

                                               conséquences_déterministes [2]

Il faut bien que vous sachiez que ces séquences de commandes en Python 3.6.1 que je place ici sont celles que le compilateur a accepté comme valides, c’est-à-dire après les avoir validées avec un « Enter » je n’ai pas eu un de ces messages irritants genre « Invalid syntax ». En revanche, je n’en sais que dalle comment ces séquences vont travailler dans un algorithme sérieux. J’y vois une métaphore intéressante, par ailleurs. Nos choix peuvent être évalués selon la façon dont ils se présentent aux autres – c’est-à-dire les gens se demandent si nos choix sont élégants – ou bien on peut se demander de quelle façon ces choix peuvent s’insérer dans la vie réelle.

Le choix déterministe est bien primitif comme concept scientifique, mais il est bon de se souvenir que c’est précisément comme ça que nous pensons. Dans la grande majorité des cas, nous décidons tout en étant convaincus que notre choix va apporter des conséquences bien déterminées. La probabilité c’est quelque chose dont nous prenons connaissance après fait. Si je retourne donc au vieux concept du déterminisme technologique façon Karl Marx, la façon la plus élémentaire de le représenter en Python serait :

>>> choix_technologique=[‘technologie A’, ‘technologie B’, ‘technologie C’]

>>> conséquences_sociales=[‘structure sociale X1’, ‘structure sociale X2’, ‘structure sociale X3’]

>>> if choix_technologique [0]:

            conséquences_sociales [0]

            if not choix_technologique [0]:

                       if choix_technologique [1]:

                                   conséquences_sociales [1]

                                   if not choix_technologique [1]:

                                               conséquences_sociales [2]


>>> choix_technologique [2]

#produit >>> ‘technologie C’

Encore une fois, ce schéma représente plutôt la façon dont nous pensons que la façon dont les choses marchent.  Si je veux représenter les évènements comme ils se passent, je peux, par exemple, imaginer deux ensembles : un ensemble d’occurrences et un ensemble des probabilités. Ensuite, je les associe avec une règle simple « Si l’évènement A survient, l’évènement B va suivre avec une probabilité de 10%, mais à part ça, on ne sait pas trop ». En Python, ça ferait :

>>> occurences=[‘technologie A amène la structure sociale X1’, ‘structure sociale X1 favorise technologie A’, ‘technologie A amène structure sociale X2’, ‘technologie A amène structure sociale X3’]

>>> probabilités=[‘0.1’, ‘0.2’, ‘0.3’, ‘0.4’, ‘0.5’]

>>> if occurences [1]:

        probabilités [0]

        if not occurences [1]:

                probabilités [1] or probabilités [2] or probabilités [3] or probabilités [4]

C’est bien marrant d’être mon propre étudiant. Je sais déjà que si un étudiant doit comprendre quoi que ce soit de mes classes, il doit avoir ses propres structures logiques pour représenter ce que je lui dis, un peu comme son propre Python. Ensuite, il est important que cette structure logique qui nous sert à comprendre la réalité soit fonctionnelle, c’est-à-dire qu’elle fasse quelque chose. Des associations insuffisamment ancrées ne marcheront pas. Je l’illustre avec Python. J’imagine l’association d’une paire de personnes, associée avec une paire des technologies. Chacune des deux personnes a des préférences, exprimées comme des nombres des points assignés à chaque technologie. En Python, ça se présente comme ceci :

>>> préfèrences={‘Personne A’: {‘technologie 1’: 4, ‘technologie 2’: 3}, ‘Personne B’: {‘technologie 1’: 10, ‘technologie 2’: 12}}

Mon compilateur Python a avalé cette expression sans protester. Côté définition, c’est correct. Maintenant, je fais un petit test : j’écris ‘Personne A’ dans une ligne de compilateur. Il me rend le même, c’est-à-dire l’expression ‘Personne A’. J’écris ‘Personne A’ ‘technologie 1’ et j’obtiens ‘Personne Atechnologie 1’ de la part de mon compilateur. Réaction nihiliste, mais compréhensible. Si je n’établis pas une fonction qui transforme les personnes ou bien les technologies en des scores numériques, l’association d’idées en elle-même n’a pas de valeur.

Toute cette tirade a pour but d’expliquer que l’approche déterministe d’un côté et la probabiliste de l’autre ne s’excluent pas mutuellement. La réalité en tant que telle est une fonction qui transforme un ensemble de phénomènes en un autre ensemble de phénomènes. Nous, les humains, on perçoit comme des fragments de cette fonction et de premier abord, nous faisons des associations du type déterministe. Chaque déterminisme est en fait une espérance, plus ou moins élaborée, à propos de la façon dont marche la réalité. Avec de la chance, on gagne la possibilité d’observer ladite réalité et de tracer des probabilités associées à nos espérances. Lorsque j’essaie de comprendre pourquoi, aux alentours de 2007 – 2008 le taux de croissance du marché mondial d’énergies renouvelables avait tout à coup dépassé le taux de croissance de consommation totale d’énergie, c’est comme si j’écrivais plusieurs expressions alternatives en Python et ensuite, je teste en deux pas. Le premier pas, c’est la logique. Si, après avoir validé mon expression avec un « Enter », mon compilateur Python attend patiemment mon prochain pas, sans s’écrier « Erreur ! », cela veut dire que j’ai réussi le premier test. Le deuxième pas, c’est de mettre cette expression acceptable dans un contexte, comme un algorithme, ou même une simple commande tapée dans le compilateur et regarder si, premièrement, il y a quelle réaction que ce soit et, deuxièmement, si cette réaction semble utile.

The path of thinking, which has brought me to think what I am thinking now

My editorial

I am thinking about the path of research to take from where I am now. A good thing in the view of defining that path would be to know exactly where am I now, mind you. I feel like summarising a chunk of my work, approximately the three last weeks, maybe more. As I finished that article about technological change seen as an intelligent, energy-maximizing adaptation , I kind of went back to my idea of local communities being powered at 100% by renewable energies. I wanted to set kind of scientific foundations for a business plan that a local community could use to go green at 100%. More or less intuitively, I don’t really know why exactly, I connected this quite practical idea to Bayesian statistics, and I went straight for the kill, so to say, by studying the foundational paper of this whole intellectual stream, the one from 1763 (Bayes, Price 1763[1]). I wanted to connect the idea of local communities based entirely on renewable energies to that of a local cryptocurrency (i.e. based on the Blockchain technology), somehow attached to the local market of energy. As I made this connection, I kind of put back to back the original paper by Thomas Bayes with that by Satoshi Nakamoto, the equally mysterious intellectual father of the Bitcoin. Empirically, I did some testing at the level of national data about the final consumption of energy, and about the primary output of electricity, I mean about the share of renewable energy in these. What I have, out of that empirical testing, is quite a lot of linear models, where I multiple-regress the shares, or the amounts, of renewable energies on a range of socio-economic variables. Those multiple regressions brought some seemingly solid stuff. The share of renewable energies in the primary output of electricity is closely correlated with the overall dynamics in the final consumption of energy: the faster the growth of that total market of energy, the greater the likelihood of shifting the production of electricity towards renewables. As dynamics are concerned, the years 2007 – 2008 seem to have marked some kind of threshold: until then, the size of the global market in renewable energies had used to grow at slower a pace than the total market of energy, whilst since then, those paces switched, and the renewables started to grow faster than the whole market. I am still wrapping my mind around that fact. The structure of economic input, understood in terms of the production function, matters as well. Labour-intensive societies seem to be more prone to going green in their energy base than the capital-intensive ones. As I was testing those models, I intuitively used the density of population as control variable. You know, that variable, which is not quite inside the model, but kind of sitting by and supervising. I tested my models in separate quantiles of density in population, and some interesting distinctions came out of it. As I tested the same model in consecutive sextiles of density in population, the model went through a cycle of change, with the most explanatory power, and the most robust correlations occurring in the presence of the highest density in population.

I feel like asking myself why have I been doing what I have been doing. I know, for sure, that the ‘why?’ question is abyssal, and a more practical way of answering it consists in hammering it into a ‘how?’. What has been my process? Step 1: I finish an article, and I come to the conclusion that I can discuss technological change in the human civilisation as a process of absorbing as much energy as we can, and of adapting to maximise that absorption through an evolutionary pattern similar to sexual selection. Step 2: I blow some dust off my earlier idea of local communities based on renewable energies. What was the passage from Step 1 to Step 2? What had been crystallising in my brain at the time? Let’s advance step by step. If I think about local communities, I am thinking about a dispersed structure, kind of a network, made of separate and yet interconnected nodes. I was probably trying to translate those big, global paradigms, which I had identified before, into local phenomena, the kind you can experience whilst walking down the street, starting a new small business, or looking for a new job. My thinking about local communities going 100% green in their energy base could be an expression of an even deeper and less articulate a thinking about how do we, humans, in our social structure, maximize that absorption of energy I wrote about in my last article.

Good, now Step 3: I take on the root theory of Bayesian statistics. What made me take that turn? I remember I started to read that paper by pure curiosity. I like reading the classics, very much because only by reading them I discover how much bulls*** has been said about their ideas. What attracted my attention, I think, in the original theory by Thomas Bayes, was that vision of a semi-ordered universe, limited by previous events, and the attempt to assess the odds of having a predictable number of successes over quite a small number of trials, a number so small that it defies the logic of expected values in big numbers, genre De Moivre – Laplace. I was visibly thinking about people, in local communities, making their choices, taking a limited number of trials at achieving some outcome, and continuing or giving up, according to said outcomes. I think I was trying, at the time, to grasp the process of maximizing the absorption of energy as a sequence of individual and collective choices, achieved through trial and error, with that trial and error chaining into itself, i.e. creating a process marked by hysteresis.

Step 4: putting the model of the Bitcoin, by Satoshi Nakamoto, back to back with the original logic by Thomas Bayes. The logic used by Satoshi Nakamoto, back in the day, was that of a race, inside a network, between a crook trying to abuse the others, and a chained reaction from the part of ‘honest’ nodes. The questions asked were: how quick does a crook has to be in order to overcome the chained reaction of the network? How big and how quick on the uptake does the network has to be in order to fend the crook off? I was visibly thinking about rivalling processes, where rivalry sums up to overtaking and controlling some kind of consecutive nodes in a network. What kind of processes could I have had in mind? Well, the most obvious choice are the processes of absorbing energy: we strive to maximise our absorption of energy, we have the choice between renewable energies and the rest (fossils plus nuclear), and those choices are chained, and they are chained so as to unfold in time at various speeds. I think that when I put Thomas Bayes and Satoshi Nakamoto on the same school bench, the undertow of my thinking was something like: how do the choices we make influence further choices we make, and how does that chain of choices impact the speed the market of renewable energy develops, as compared to the market of other energy sources?

Step 5: empirical tests, those multiple regressions in a big database made of ‘country – year’ observations. Here, at least, I am pretty much at home with my own thinking: I know I habitually represent in my mind those big economic measures, like GDP per capita, or density of population, or the percentage of green energy in my electric socket, as the outcome of complex choices made by simple people, including myself. As I did that regressing, I probably, subconsciously, wanted to understand how some type of economic choices we make impacts other types of choices, more specifically those connected to energy. I found some consistent patterns at this stage of research. Choices about the work we do and about professional activity, and about the wages we pay and receive, are significant to the choices about energy. The very basic choice to live in a given place, so to cluster together with other humans, has one word or two to say, as well. The choices we make about consuming energy, and more specifically the choice of consuming more energy than the year before, are very important for the switch towards the renewables. Now, I noticed that turning point, in 2007 – 2008. Following the same logic, 2007 – 2008 must have been the point in time, where the aggregate outcomes of individual decisions concerning work, wages, settlement and the consumption of energy summed up into a change observable at the global scale. Those outcomes are likely to come out, in fact, from a long chain of choices, where the Bayesian space of available options has been sequentially changing under the impact of past choices, and where the Bitcoin-like race of rivalling technologies took place.

Step 6: my recent review of literature about the history of technology showed me a dominant path of discussion, namely that of technological determinism, and, kind of on the margin of that, the so-called Moore’s law of exponentially growing complexity in one particular technology: electronics. What did I want to understand by reviewing that literature? I think I wanted some ready-made (well, maybe bespoke) patterns, to dress my empirical findings for posh occasions, such as a conference, an article, or a book. I found out, with surprise, that the same logic of ‘choice >> technology >> social change >> choice etc.’ has been followed by many other authors and that it is, actually, the dominant way of thinking about the history of technology. Right, this is the path of thinking, which has brought me to think what I am thinking now. Now, what questions to I want to answer, after this brief recapitulative? First of all, how to determine the Bayesian rectangle of occurrences, regarding the possible future of renewable energies, and what that rectangle is actually likely to be? Answering this question means doing something we, economists, are second to none at doing poorly: forecasting. Splendid. Secondly, how does that Bayesian rectangle of limited choice depend on the place a given population lives in, and how does that geographical disparity impact the general scenario for our civilisation as a whole? Thirdly, what kind of social change is likely to follow along?

[1] Mr. Bayes, and Mr Price. “An essay towards solving a problem in the doctrine of chances. by the late rev. mr. bayes, frs communicated by mr. price, in a letter to john canton, amfrs.” Philosophical Transactions (1683-1775) (1763): 370-418

Souffler la poussière du vieux déterminisme technologique façon Karl Marx

Mon éditorial

Je continue avec la revue de littérature, que j’avais commencée hier, à propos de l’histoire des technologies (consultez « Provisionally saying goodbye from the year 1990 » ). J’ai donc ce créneau de recherche historique où l’histoire des technologies c’est avant tout l’histoire d’interactions entre les technologies et la structure sociale autour d’elles. Jusqu’à maintenant, la thèse la plus intéressante est celle du déterminisme technologique : la société donne forme à des technologies nouvelles et ces technologies, à leur tour, renforcent certaines structures sociales et certaines institutions au dépens d’autres. Voilà donc une base bien évolutionniste, que j’avais déjà exploité avant de prendre connaissance de ces articles. Les quatre auteurs – Mumford en 1964[1], MacKenzie en 1984[2], Mahoney en 1988[3] ainsi que David en  1990[4] – ils parlaient tous grande échelle. Leur cour de raisonnement suivait les civilisations entières. En allant un peu en avant dans le temps j’ai trouvé, en 1994, un article fascinant de Walter G. Vincenti où l’auteur trace l’histoire d’une seule invention : l’atterrisseur rétractable et sa prise de forme sous l’influence de John K. (« Jack ») Northrop, l’un des pionniers de l’aviation (Vincenti 1994[5]). En passant au peigne fin les comptes rendus des tests de laboratoire, conduits sous la supervision de John K. Nortrop, Walter Vincenti découvre que dans le schéma général « variation – sélection », bien connu comme un outil de base dans l’ingénierie, la sélection entre les variantes multiples de roues d’atterrissage avait tendance à suivre un chemin très émotionnel et très marqué par des influences sociétales. Par exemple, lorsque la mode du jour était la vitesse, donc lorsque le plus de commandes pour des avions à construire venait de la part des riches amateurs du risque aéronautique, les variations des roues d’atterrissage favorisant la vitesse au dépens de la sécurité prenaient le dessus, sans aucun égard pour la capacité de chargement, par ailleurs. Lorsque, en revanche, les années 1930 avaient apporté une angoisse croissante à propos d’une guerre possible, et lorsque, par conséquent, l’armée s’intéressait de plus en plus aux inventions de John « Jack » Northrop, il a commencé à favoriser des atterrisseurs orientés sur la solidité et la fiabilité, en sacrifiant le côté aérodynamique.

La conclusion générale de la part de Walter Vincenti est que le développement de la technologie d’atterrisseurs rétractables avançait au pas de danse plutôt qu’au pas de marche. Il y avait des longs épisodes de plusieurs années quand la sélection des certaines solutions au dépens d’autres n’avait d’autre explication que la mode ou les préférences temporaires des clients les plus importants dans le carnet des commandes. Vincenti avance une observation intéressante : sans toute cette valse entre caprices, le développement de cette technologie spécifique, l’atterrisseur rétractable, pourrait bien avoir été plus rapide d’une bonne décennie, seulement sans ces aller-retours entre des préférences sociales différentes, tout le potentiel de cette technologie (par exemple son impact sur les matériaux utilisés) ne serait peut-être pas libéré. L’ingénierie, selon Walter Vincenti, comme elle se passe dans la vie réelle, est loin d’être un processus aussi froidement calculé et objectivement balancé que ça pourrait sembler. Je retrouve une histoire pareille chez Ronald Kline et Trevor Pinch, dans leur article de 1996[6].  Ils esquissent l’histoire de l’automobile aux Etats-Unis pour démontrer que c’eût non seulement la voiture qui eut transformé la société rurale de l’Amérique du Nord, mais que l’inverse fût vrai aussi : c’était la société rurale de l’Amérique profonde qui avait carrément refondu la voiture comme technologie.

Imaginez la situation suivante : vous êtes un inventeur de voitures électriques de luxe, genre Ferrari sans essence, est un beau matin un couple vient dans votre atelier. Lui, il est riche et pourrait bien légalement adopter la fille qu’il présente comme sa fiancée. Quant à elle, elle admire vos bagnoles et pose une question : « Mon chou, est-ce que tu pourrais m’en commander une avec suspension variable ? T’sais, comme ces vieilles Citroën ? Ce serait chouette de sortir, le soir, en ville, dans une voiture stylisée vieille Citroën qui peut se hisser sur ses roues ? Eh ? Dis, mon chou ? » Le chou commence à négocier avec vous et ça prend de plus en plus d’ampleur côté facture. En plus, vous comprenez que le chou en question doit satisfaire cette caprice, sous peine de cesser d’être le chou préféré de cette demoiselle. Ainsi, vous mettez des mois suivants à modifier votre projet initial et lui donner une suspension variable façon vieilles Citroën, pour sauver la vie émotionnelle du chou, aussi bien que pour financer du travail sérieux avec le chèque bien gras de la part du chou. Voilà comment l’histoire de modifie.

Que s’était donc passé, aux alentours de 2007-2008, avec les technologies de génération d’énergie ? Pourquoi le marché d’énergies renouvelables, mesuré en termes de consommation finale desdites énergies, avait-il commencé à croître plus vite la consommation totale d’énergie ? Pourquoi avant 2007 eut était-ce le cas inverse, avec le renouvelables croissant plus lentement que le total du marché de l’énergie ? Quelles réponses peut-on espérer de la théorie de mon chou ? Je peux formuler deux scénarios de base. Hypothèse A : en 2007-2008, ou quelques années en arrière, un bond technologique était survenu. Les technologies de génération d’énergies renouvelables avaient franchi un cap (lequel ?) de perfectionnement purement technique, ce qui a donné un essor au marché. Hypothèse B : ce qui c’était passé en 2007 – 2008 était un bond culturel plutôt que technique. C’était l’attention du public, accompagnée par le capital, qui avait pris un virage net vers les renouvelables. En fait, aucune de ces deux hypothèses ne donne de réponse complète. C’est bien la leçon que je tire de la petite revue de littérature que je suis en train de faire : l’histoire en général est trop complexe pour la réduire à l’histoire des technologies, donc pour pratiquer le déterminisme technologique façon Karl Marx, et d’autre part la technologie est trop autonome, comme création humaine, pour la réduire à un simple résultat d’interactions sociales (consultez, par exemple : MacKenzie, Wajcman 1999[7]).

J’ai trouvé un point de vue intéressant, en termes de déterminisme technologique, chez Paul E.Ceruzzi[8]. Il discute le sujet général de déterminisme technologique à travers la loi de Moore. Cette dernière est quelque chose d’intéressant en elle-même : elle décrit des phénomènes d’importance vitale pour les sciences sociales – le développement de la technologie – mais elle reste royalement dédaignée par plusieurs économistes et sociologues. Alors, voilà la loi de Moore telle que je me permets de la généraliser. Vous prenez une technologie complexe de votre choix que vous voyez se développer rapidement sous vos yeux et pour laquelle la complexité est un facteur de croissance. Ce qui est intéressant est le fait que nous avons, comme civilisation, une seule technologie générale qui se développe de cette façon : l’électronique. Partout ailleurs – en chimie et pharmacie, dans le bâtiment ou même dans la finance – la complexité a tendance à osciller dans une certaine fourchette. On fait plus complexe, plus complexe, on enchaine avec encore plus de complexité et tout à coup on se dit : « M****, on y comprend plus que dalle. On simplifie ! ». En électronique, c’est différent et c’était en 1965 que Gordon Moore l’a observé pour la première fois : le nombre de circuits électroniques par unité d’espace disponible (centimètre carré ou centimètre cube) à l’intérieur de la pièce d’équipement en question (ordinateur, smartphone etc.) double tous les deux ans, ou, en des termes plus élaborés, croît d’une manière exponentielle.

La croissance exponentielle, comme catégorie générale en mathématiques, comporte une propriété intéressante : elle reflète particulièrement bien des phénomènes ou chaque étape consécutive de croissance produit une base pour une croissance plus rapide dans l’avenir. Paul E.Ceruzzi discute le phénomène unique de l’électronique dans l’histoire de l’humanité : voilà la première et jusqu’alors la seule technologie qui produit elle-même les fondements pour accélérer sa propre croissance. Toutes les autres technologies, par exemple le moulin à vent Hollandais du XVIIème siècle, dont le voile est toujours à compter parmi les machines les plus puissantes dans l’histoire de notre civilisation, heurtent inévitablement un mur qui consiste dans la disponibilité de ressources et d’énergie. Pour le moulin à vent traditionnel, la matière première de base c’était le bois, qui en même temps était utilisé partout ailleurs, y compris dans les fonderies où on faisait du métal qui pourrait remplacer le bois : c’était un cercle vicieux. En ce qui concerne l’électronique, c’est différent : lorsque l’industrie électronique se heurte au manque de matières premières ou d’énergie, on produit une réponse en forme de complexité accrue, qui donne la possibilité d’accroître le pouvoir computationnel tout en économisant les matières premières et l’énergie. En plus, ce qui produit cette complexité croissante dans les appareils électroniques sont d’autres appareils électroniques.

Récemment, j’ai vu sur You Tube (électronique, vous voyez ?) une interview super intéressant avec professeur Sean Carroll, un astrophysicien américain. Il a dit quelque chose que je n’ai pas encore eu le temps de vérifier et qui a carrément renversé ma perception de la technologie moderne : apparemment, aucun être humain sur la planète n’est capable d’écrire un algorithme d’identification faciale et, en même temps, il y a déjà des étudiants d’informatique niveau licence qui peuvent écrire des algorithmes qui, à leur tour, écrivent, par apprentissage, l’identification faciale en un rien de temps. Je ne sais pas comment ça marche et il faudra que je donne de la substance à cette thèse par ma propre recherche, mais je trouve cela renversant. L’électronique crée donc un environnement où, probablement pour la première fois dans l’histoire, on ne peut pas faire directement des outils mais on peut faire des outils qui font ces outils. L’électronique pourrait bien être la première technologie qui soufflerait la poussière du vieux déterminisme technologique marxiste et qui pourrait littéralement plier l’espace social autour d’elle.

Question : quelle est la connexion entre la transition vers les énergies renouvelables et le développement de l’électronique ? Comment cette accélération de croissance dans le marché d’énergies renouvelables est-elle liée à la complexité croissante d’équipement électronique ?

[1] Mumford, L., 1964, Authoritarian and Democratic Technics, Technology and Culture, Vol. 5, No. 1 (Winter, 1964), pp. 1-8

Published by: The Johns Hopkins University Press on behalf of the Society for the History of Technology

[2] MacKenzie, D., 1984, Marx and the Machine, Technology and Culture, Vol. 25, No. 3. (Jul., 1984), pp. 473-502.

[3] Mahoney, M.S., 1988, The History of Computing in the History of Technology, Princeton, NJ, Annals of the History of Computing 10(1988), pp. 113-125

[4] David, P. A. (1990). The dynamo and the computer: an historical perspective on the modern productivity paradox. The American Economic Review, 80(2), 355-361.

[5] Vincenti, W.G., 1994, The Retractable Airplane Landing Gear and the Northrop “Anomaly”: Variation-Selection and the Shaping of Technology, Technology and Culture, Vol. 35, No. 1 (Jan., 1994), pp. 1-33

[6] Kline, R., Pinch, T., 1996, Users as Agents of Technological Change : The Social Construction of the Automobile in the Rural United States, Technology and Culture, vol. 37, no. 4 (Oct. 1996), pp. 763 – 795

[7] MacKenzie, D., Wajcman, J., eds. (1999) The social shaping of technology. 2nd ed., Open University Press, Buckingham, UK. ISBN 9780335199136

[8] Ceruzzi, P.E., Moore’s Law and Technological Determinism : Reflections on the History of Technology, Technology and Culture, vol. 46, July 2005, pp. 584 – 593

Provisionally saying goodbye from the year 1990

My editorial

I think that yesterday, in my update in French (see ‘Que s’est-il passé aux alentours de 2007-2008 ?’), I finally nailed down that central fact about renewable energies, the kind of fact to base a scientific publication on: around 2007 – 2008, something changed in the proportions between renewable energies and the overall consumption of energy – the former started growing faster than the latter. Still, I have to bring a small correction to what I wrote yesterday: a similar episode of faster growth in the sector of renewables was to observe in 1991 – 1992 as well. Interestingly, both break-through episodes in the growth of renewables’ market took place concurrently to major socio-economic shake-offs. In 1991-1992, it was the Big Reshuffling in Central and Eastern Europe, the short financial crisis of 1990, and soon after, another financial hiccup in Asia. In 2007-2008, the prime suspect as for the mechanics of change is, of course, the global financial crisis, although this time, a more interesting landscape emerges: it is precisely during 2007 – 2008 that the global supply of money exceeded 100% of the global GDP, on a durable trend, and the urban population in the world exceeded 50% of the total, once again well launched on a long term ascending trend. That second variable looks interesting. If you follow my writing for some time, you have probably noticed I am slightly obsessed with certain social metrics, the kind to use as control variable in a model in order to distinguish between various types of social structures. Those metrics serve me to introduce, kind of via kitchen door, qualitative distinctions into a quantitative model. The percentage of us, humans, living in towns and cities is kind of correlated with the density of population, but just kind of. In my own database, over n = 9 455 ‘country-year’ observations, those two are Pearson-correlated just at r = 0.240, so nothing to write home about. In a simple, linear regression, the density of population explains just 1,4% of the total variance observed in the urbanisation ratio. Nothing to write home about neither. You have countries like Australia or Canada, where most people, and when I say ‘most’, it is like 80%, and yet, their density of population still leaves a lot of empty geography available.

As interesting as this variable of urban population could be, my current focus is slightly different. I am talking about a specific change over time. I am talking history, and history requires a specific point of view. I feel like poking my head over someone else’s shoulder, preferably someone specialized in the history of technology. And so I come by that article, written by Lewis Mumford, about the link between technology and political order (Mumford 1964[1]). Lewis Mumford went as far as claiming that the whole development of human technology, since the first bloody piece of flint had been sharpened, is like a permanent tension between technologies associated with autocratic politics, on the one hand, and those accompanying democratic orders, on the other hand. Whenever a technology requires centralized pooling of resources, or works just fine with centralized control, it naturally flirts with autocracy. Conversely, when a given technology leads to more autonomy in dispersed, local communities, when it mobilizes local resources locally rather than pools them, then we have a ‘democratic’ technology. Interesting a point of view that we have here, especially regarding renewable sources of energy. You can find by yourself, with the International Renewable Energy Agency ( ) that Europe is quite different from other regions of the world with respect to the system of distribution in renewable energies. In Europe, practically any generating facility is connected to the power grid, and there seems to be no off-gird renewable energy whatsoever, whereas on other continents, the off-grid power systems seem to be serious drivers of market development in renewable energies. In Lewis Mumford’s terms, Europe is energetically autocratic, whilst other continents have quite a bit of energy out of democratic structures.

 I jump in time, twenty years ahead, into 1984, and I find that paper by Donald MacKenzie, a humorous reflexion on the mutual links between technology and social orders (MacKenzie 1984[2]). In social sciences, by this corner table, where economists, sociologists, and historians tend to drink together, a concept has emerged since more or less Karl Marx’s ‘Capital’:  it is something called ‘technological determinism’. In means that technologies and social structures mate and reproduce together. A bridge that allows free passage of buses transporting poor people – to cite an original MacKenzie’s example – mates preferably with a social structure open to receive said poor people travelling by buses, and rejects the advances of an elitist social structure, where poor people just stay on the other side of the river. Whilst Donald MacKenzie didn’t come to any firm conclusions about technological determinism, and rather opened than closed the path of reflection, the idea of technologies breeding with social structures stirred that evolutionary cord in my mind. If they mate, they must have mating preferences, which, in turn, creates hierarchies based on how attractive a technology looks to a social structure or vice versa. An interesting path further down this road is sexual differentiation. When it comes to mating, you basically have male and female, with all the respect due to other instances. The male organism is specialized in packaging and sending its own genetic code in a way that does not (always) kill the recipient. Them viruses haven’t figured it out yet. Maybe they need another couple of billions of years. Anyway, the male organism Federal Expresses its genetic code to the female organism, which, in turn, has that special ability to combine its own genetic code with the parcel received from the male, and to develop (literally) on the idea. In the couple ‘social structure and technology’, the former is more likely to have those female properties than the latter. I mean, social structures can mix technologies but technologies cannot really mix social structures. Well, well, well, professor MacKenzie, did I read your mind, recently? This is exactly what I came up with in that article,  currently in review with ‘The Journal of Economic and Social Thought’. I think I have already said it at some point, but it always warms my heart to know that I am not totally insane in my scientific ways.

Right, so if we have a quick camp fire between me, professor Lewis Mumford, and professor Donald MacKenzie, interesting hypotheses can be roasted. That sudden acceleration in the market for renewable energies is likely to be connected to some major, structural, social change. In that change, a new type of female social structure, overflowing with sexual attraction, could be having that embarrassing, yet always enriching experience with many new, male technologies at once, and a new tribe of technological babies could be just colonizing the surroundings. As political systems in the world seem to be going towards simplification and to be withdrawing from business strictly spoken , the transition towards renewable energies could be, in spite of the European love for big, strong power grids, a technological democratisation.

Good, but I am going to be slightly more prudent with those time jumps, now. Dire consequences emerge. So I advance just very gently, four years ahead, to 1988, and I grab that article by Michael S. Mahoney, about the history of computing technology (Mahoney 1988[3]). This is a weird feeling. I am reading an article written in the past, and containing a lot of predictions and speculations about something that was future, back then, in the past, and which, in the same time, is both past and future for me. One sentence has particularly attracted my attention in this paper (page 14): ‘What would it mean for a microcomputer to play the role of the Model T in determining new social, economic, and political patterns?’. The Model T in question refers, of course, to Ford Model T, or the simple and affordable version of something revolutionary. Clearly, the computing technology, mating with those attractive, blond social structures around it, has engendered a whole clan of Models T. I am writing with one, right now, and a few minutes ago I had a conversation with my wife using another one. Still, as applied to renewable energies, that metaphor of Model T is truly informative. The change in dynamics of the market of renewable energies, observable in 2007 – 2008, concurs with the beginning of the end of expensive photovoltaic modules. As I study the annual reports of big companies, like Canadian Solar or First Solar, they all point to 2007-2008 as the moment when the prices of solar modules just took a deep, and prolonged dive.

I make another two, year-long strides in my research, and I land in 1990, and I find that article by Paul A. David (David 1990[4]). This is another piece of literature in that larger stream, which wanders into the ambiguous and foggy realm of carryovers from technological change into improvements of productivity. In 1990 it was already obvious that technological change and growth of productivity are not necessarily going hand in hand. Professor David tries to provide an explanation by equating modern technological changes to the historical ones.  His message is the following: technology and society need time to adapt to each other, and the more complex the technology, and the more branching it can grow into other technologies, the more time the social structure needs to become familiar with. Paul A. David states something that initially looks like a paradox: the more revolutionary a technology seems, due to its novelty, the more time we need to swallow it. In fact, there is no such thing as technological revolutions, because the deeper the change, the longer it takes. Professor David’s argument makes me wonder, where are we, in terms of slow revolutions, with the technologies of renewable energies. Is our social structure just beginning to wrap itself around those solar modules and windmills? Or is it already a mature relationship?

Right, science is fun, but it’s time for me to attend to my other commitments. Provisionally, I am saying goodbye to you from the year 1990.

[1] Mumford, L., 1964, Authoritarian and Democratic Technics, Technology and Culture, Vol. 5, No. 1 (Winter, 1964), pp. 1-8

Published by: The Johns Hopkins University Press on behalf of the Society for the History of Technology

[2] MacKenzie, D., 1984, Marx and the Machine, Technology and Culture, Vol. 25, No. 3. (Jul., 1984), pp. 473-502.

[3] Mahoney, M.S., 1988, The History of Computing in the History of Technology, Princeton, NJ, Annals of the History of Computing 10(1988), pp. 113-125

[4] David, P. A. (1990). The dynamo and the computer: an historical perspective on the modern productivity paradox. The American Economic Review, 80(2), 355-361.

Que s’est-il passé aux alentours de 2007-2008 ?

Mon éditorial

Je cherche un fait central dans toute cette recherche que j’ai faite jusqu’alors sur les énergies renouvelables. Qu’est-ce qu’un fait central ? Pour moi, c’est tout d’abord un fait, donc une pièce de réalité et ensuite, c’est une pièce de réalité possible à décrire en une simple phrase, qui, tout en restant simple, a un petit contenu dramatique, le genre à suspendre ma voix juste après le point final, comme : « X change plus vite que Y et ce n’est pas vraiment ce que nous aimerions entendre ». Nous, les humains, on a des relations ambivalentes avec la réalité. Nous avons cette capacité fantastique de couper notre expérience sensorielle en des tranches très fines et d’étiqueter chacune d’elles d’une façon plus ou moins intelligible. Ce truc étrange s’appelle « langage » et nous rend capables de communiquer avec quelque chose de plus que des grognements. Seulement voilà, vous connaissez sans doute ces blagues de soirée : quelqu’un en raconte une, une autre personne aime bien et répète la même blague dans une autre soirée, seulement avec une petite rallonge, comme une petite tournure d’évènements de plus. Ensuite, ça s’enchaine. Des personnes consécutives attachent leurs propres pièces d’humour au joyau originel et avec le temps ça devient long et indigeste. C’est notre langage version verbiage : les étiquettes originelles, mises sur les pièces d’expérience sensorielle développent d’autres étiquettes, qui à leur tour en engendrent des suivantes et ainsi de suite jusqu’à ce quelqu’un s’écrie : « La malice historique ce cette nation de l’autre côté de la rivière nous force à étouffer dans le berceau les actes futurs d’agression de leur part et voilà pourquoi on commence cette guerre ! » Avec un peu de chance, de telles occasions incitent à enlever quelques étiquettes qui sont visiblement idiotes. Qu’est-ce que ça veut dire exactement « malice historique d’une nation » ? Comment peut-on étouffer des actes futurs, donc qui n’existent pas encore, dans leur berceau ?

Voilà le truc avec notre relation à la réalité. Trop près et ça ne va pas au-delà des grognements et cris. Trop loin – et trop profondément à l’intérieur de notre tête – et ça devient une idiotie avec des conséquences tragiques à l’horizon. Un fait central bien gras et bien présentable c’est quelque chose qui est juste suffisamment découpé de la réalité autour pour être intelligible et en même temps suffisamment près de cette réalité autour pour pouvoir se passer de toute une théorie. Quand j’y pense (« y » dans ce cas veut dire « énergies renouvelables »), il y a deux choses qui me viennent à l’esprit. Premièrement, jusqu’en 2007-2008, la consommation totale d’énergie dans le monde avait tendance à croître plus vite que la consommation totale d’énergies renouvelables. A partir de 2008, cette tendance s’est inversée : la consommation globale d’énergies renouvelables croît plus vite que la consommation totale d’énergie. Deuxièmement, la transition énergétique à l’échelle locale se fait dans des environnements socio-économiques très diversifiés : l’Europe de l’Ouest est très différente de celle de l’Est, est les deux sont comme années-lumière des pays comme Inde ou Pakistan. En général, les pays développés semblent aller très résolument vers l’énergie verte. En ce qui concerne les pays en voie de développement et les marchés émergents, bien qu’ils fassent beaucoup d’efforts pour promouvoir les énergies renouvelables, leur seule croissance démographique et économique pompe la consommation d’énergie tellement vite que cette demande se trouve largement satisfaite par l’énergie des carburants fossiles.

Question : que s’est-il passé aux alentours de 2007-2008 qui a bien pu inverser les proportions entre le gradient de la consommation totale d’énergie et celui de la consommation d’énergies renouvelables. Suspect no. 1 : crise financière des années 2007 – 2009. Le suspect à un casier judiciaire substantiel. Piste à suivre, quoi que j’ai cette petite intuition que ça serait un peu suivre la foule, si vous voyez ce que je veux dire. Suspect no. 2 : les systèmes monétaires et les monnaies virtuelles. Le doyen du gang des virtuelles, un certain Bitcoin, avait fait sa première casse en février 2008, et depuis, ça déménage. En plus, c’est précisément en 2007 – 2008 que la masse monétaire officiellement reconnue dans l’économie mondiale avait officiellement franchi le cap de 100% du PIB mondial, et c’était bien un pas dans le cadre d’une tendance de longue durée, celle de vélocité décroissante de l’argent. En 2007 et 2008, cette vélocité était donc descendue en dessous de V = 0,5, pour la première fois depuis 1960. Suspect(s) no. 3 : les villes, ainsi que la densité de population qu’elles impliquent. En 2008, la population urbaine dans le monde a officiellement franchi les 50% de la population humaine entière. En 2005, la densité de population a franchi le cap de 50 personnes par kilomètre carré. Si vous avez suivi les résultats des tests quantitatifs que je présentais sur ce blog durant les quelques dernières semaines, vous avez pu constater que c’est justement quand la densité de population avoisine les 50 personnes par kilomètre carré que les choses changent et des régularités économiques saillent dans le marché d’énergies renouvelables.

Mes suspects peuvent bien agir en crime organisé. Le pognon, en général, ça sert le plus lorsqu’il y a du monde autour. Seulement voilà, l’argent se comporte de deux façons différentes en présence d’êtres humains : ça se reproduit et ça circule. A mesure que la densité de la population croît, la fréquence d’interactions interpersonnelles croît aussi. Plus d’interactions veut dire plus de transactions et ceci me conduit à penser, à nouveau, en termes d’équilibre quantitatif des systèmes monétaires :

            P         *             T                          =          M                *            V

(Index des prix)      (Volume des transactions)        (masse monétaire)      (vélocité de l’argent)

A mesure que j’ai plus de transactions par kilomètre carré, avec la densité croissante de population, j’ai aussi plus de transactions dans l’unité de temps. Dans un tel cas, deux choses peuvent arriver à l’index des prix : soit il sera resté constant (demande supplémentaire vite balancée par plus d’offre), soit il sera pompé vers le haut, tout comme le volume des transactions. Il est hautement improbable qu’il décroisse. Le côté gauche de mon équation agrandira donc sa valeur et comme c’est une équation, le côté droit devra faire de même. L’observation des données statistiques en ce qui concerne la masse monétaire en circulation suggère que le pognon répond à la présence de plus d’humains par kilomètre carré plutôt par la reproduction que par une circulation accélérée. Là, remarquez, je le comprends, ce pognon. Moi-même, si je faisais face au choix entre me reproduire plus ou circuler plus vite, je pense bien que je choisirais le premier.

J’ai déjà trouvé un lien tout à fait robuste entre le côté droit de l’équation monétaire et la cadence de vieillissement des technologies en place un lien tout à fait robuste entre le côté droit de l’équation monétaire et la cadence de vieillissement des technologies en place  (Wasniewski 2017[1]). Plus il y a du monde autour, plus il y a d’idées par kilomètre carré et dans l’unité de temps, ce qui, à son tour, veut dire plus de changement dans ce qui est établi et donc une dépréciation plus rapide des technologies couramment exploitées. Une dépréciation plus rapide incite les entrepreneurs à donner plus de liquidité à leur bilans – donc maintenir des soldes monétaires plus substantiels par rapport au chiffre d’affaires) – et ça incite aussi les banques à développer plus de produits financiers basés sur le crédit à haute liquidité. Croissance rapide côté densité de population, lorsque l’entrepreneuriat et la finance sont suffisamment alertes pour suivre, crée une masse monétaire qui ne sait pas trop quoi faire et en même temps un surplus d’effort d’innovation. Il est utile de se rendre compte, aussi, qu’une densité de population plus élevée se traduit par une densité plus grande de connexions dans des réseaux énergétiques, ce qui peut conduire à franchir un seuil critique d’efficacité, quoi que là, je spécule. Je pose donc l’hypothèse que la croissance de densité de la population, combinée avec une vélocité décroissante de l’argent, ont toutes les deux franchi des seuils respectifs, en 2007 et 2008, qui ont rendu possible une expansion accélérée du secteur d’énergies renouvelables.

[1] Wasniewski, K., 2017, Financial Equilibrium in the Presence of Technological Change, Journal of Economics Library, Volume 4 June 2017 Issue 2, pp.160 – 171