L’automate cellulaire respectable

J’essaie de développer une jonction entre deux créneaux de ma recherche : l’étude de faisabilité pour mon « Projet Aqueduc » d’une part et ma recherche plus théorique sur le phénomène d’intelligence collective d’autre part. Question : comment prédire et prévoir l’absorption d’une technologie nouvelle dans une structure sociale ? En des termes plus concrets, comment puis-je prévoir l’absorption de « Projet Aqueduc » dans l’environnement socio-économique ? Pour me rendre la vie plus difficile – ce qui est toujours intéressant – je vais essayer de construire le modèle de cette absorption à partir d’une base théorique relativement nouvelle pour moi, notamment la théorie d’automates cellulaires. En termes de littérature, pour le moment, je me réfère à deux articles espacés de 20 ans l’un de l’autre : Bandini, Mauri & Serra (2001[1]) ainsi que Yu et al. (2021[2]).

Pourquoi cette théorie précise ? Pourquoi pas, en fait ? Sérieusement, la théorie d’automates cellulaires essaie d’expliquer des phénomènes très complexes – qui surviennent dans des structures qui ont l’air d’être vraiment intelligentes – à partir d’assomptions très faibles à propos du comportement individuel d’entités simples à l’intérieur de ces structures. En plus, cette théorie est déjà bien traduite en termes d’intelligence artificielle et se marie donc bien avec mon but général de développer une méthode de simuler des changements socio-économiques avec des réseaux neuronaux.

Il y a donc un groupe des gens qui s’organisent d’une façon ou d’une autre autour d’une technologie nouvelle. Les ressources économiques et la structure institutionnelle de ce groupe peuvent varier : ça peut être une société de droit, un projet public-privé, une organisation non-gouvernementale etc. Peu importe : ça commence comme une microstructure sociale. Remarquez : une technologie existe seulement lorsque et dans la mesure qu’une telle structure existe, sinon une structure plus grande et plus complexe. Une technologie existe seulement lorsqu’il y a des gens qui s’occupent d’elle.

Il y a donc ce groupe organisé autour d’une technologie naissante. Tout ce que nous savons sur l’histoire économique et l’histoire des technologies nous dit que si l’idée s’avère porteuse, d’autres groupes plus ou moins similaires vont se former. Je répète : d’autres groupes. Lorsque la technologie des voitures électriques avait finalement bien mordu dans le marché, ceci n’a pas entraîné l’expansion monopolistique de Tesla. Au contraire : d’autres entités ont commencé à bâtir de façon indépendante sur l’expérience de Tesla. Aujourd’hui, chacun des grands constructeurs automobiles vit une aventure plus ou moins poussée avec les bagnoles électriques et il y a toute une vague des startups crées dans le même créneau. En fait, la technologie du véhicule électrique a donné une deuxième jeunesse au modèle de petite entreprise automobile, un truc qui semblait avoir été renvoyé à la poubelle de l’histoire.

L’absorption d’une technologie nouvelle peut donc être représentée comme la prolifération des cellules bâties autour de cette technologie. A quoi bon, pouvez-vous demander. Pourquoi inventer un modèle théorique de plus pour le développement des technologies nouvelles ? Après tout, il y en a déjà pas mal, de tels modèles. Le défi théorique consiste à simuler le changement technologique de façon à cerner des Cygnes Noirs possibles. La différence entre un cygne noir tout simple et un Cygne Noir écrit avec des majuscules est que ce dernier se réfère au livre de Nassim Nicolas Taleb « The Black Swan. The impact of the highly improbable », Penguin, 2010. Oui, je sais, il y a plus que ça. Un Cygne Noir en majuscules peut bien être le Cygne Noir de Tchaïkovski, donc une femme (Odile) autant attirante que dangereuse par son habileté d’introduire du chaos dans la vie d’un homme. Je sais aussi que si j’arrangerai une conversation entre Tchaïkovski et Carl Gustav Jung, les deux messieurs seraient probablement d’accord qu’Odile alias Cygne Noir symbolise le chaos, en opposition à l’ordre fragile dans la vie de Siegfried, donc à Odette. Enfin, j’fais pas du ballet, moi, ici. Je blogue. Ceci implique une tenue différente, ainsi qu’un genre différent de flexibilité. Je suis plus âgé que Siegfried, aussi, comme par une génération.  

De tout en tout, mon Cygne Noir à moi est celui emprunté à Nassim Nicolas Taleb et c’est donc un phénomène qui, tout en étant hors d’ordinaire et surprenant pour les gens concernés, est néanmoins fonctionnellement et logiquement dérivé d’une séquence des phénomènes passés. Un Cygne Noir se forme autour des phénomènes qui pendant un certain temps surviennent aux extrémités de la courbe Gaussienne, donc à la frange de probabilité. Les Cygnes Noirs véhiculent du danger et des opportunités nouvelles, à des doses aussi variées que le sont les Cygnes Noirs eux-mêmes. L’intérêt pratique de cerner des Cygnes Noirs qui peuvent surgir à partir de la situation présente est donc celui de prévenir des risques du type catastrophique d’une part et de capter très tôt des opportunités exceptionnelles d’autre part.

Voilà donc que, mine de rien, je viens d’enrichir la description fonctionnelle de ma méthode de simuler l’intelligence collective des sociétés humaines avec les réseaux neuronaux artificiels. Cette méthode peut servir à identifier à l’avance des développements possibles du type de Cygne Noir : significatifs, subjectivement inattendus et néanmoins fonctionnellement enracinées dans la réalité présente.

Il y a donc cette technologie nouvelle et il y a des cellules socio-économiques qui se forment autour d’elle. Il y a des espèces distinctes des cellules et chaque espèce correspond à une technologie différente. Chaque cellule peut être représentée comme un automate cellulaire A = (Zd, S, n, Sn+1 -> S), dont l’explication commence avec Zd, donc l’espace à d dimensions ou les cellules font ce qu’elles ont à faire. L’automate cellulaire ne sait rien sur cet espace, tout comme une truite n’est pas vraiment forte lorsqu’il s’agit de décrire une rivière. Un automate cellulaire prend S états différents et ces états sont composés des mouvements du type un-pas-à-la-fois, dans n emplacements cellulaires adjacents. L’automate sélectionne ces S états différents dans un catalogue plus large Sn+1 de tous les états possibles et la fonction Sn+1 -> S alias la règle locale de l’automate A décrit de façon générale le quotient de cette sélection, donc la capacité de l’automate cellulaire d’explorer toutes les possibilités de bouger son cul (cellulaire) juste d’un cran à partir de la position actuelle.

Pourquoi distinguer ces quatre variables structurelles dans l’automate cellulaire ? Pourquoi n’assumons-nous pas que le nombre possible des mouvements « n » est une fonction constante des dimensions offertes par l’espace Zd ? Pourquoi ne pas assumer que le nombre réel d’états S est égal au total possible de Sn+1 ? Eh bien parce que la théorie d’automates cellulaires a des ambitions de servir à quelque chose d’utile et elle s’efforce de simuler la réalité. Il y a donc une technologie nouvelle encapsulée dans une cellule sociale A. L’espace social autour d’A est vaste, mais il peut y avoir des portes verrouillées. Des marchés oligopoles, des compétiteurs plus rapides et plus entreprenants, des obstacles légaux et mêmes des obstacles purement sociaux. Si une société à qui vous proposez de coopérer dans votre projet innovant craint d’être exposée à 10 000 tweets enragés de la part des gens qui n’aiment pas votre technologie, cette porte-là est fermée, quoi que la dimension où elle se trouve est théoriquement accessible.

Si je suis un automate cellulaire tout à fait ordinaire et j’ai la possibilité de bouger dans n emplacements sociaux adjacents à celui où je suis maintenant, je commence par choisir juste un mouvement et voir ce qui se passe. Lorsque tout se passe de façon satisfaisante, j’observe mon environnement immédiat nouveau – j’observe donc le « n » nouveau visible à partir de la cellule où je viens de bouger – je fais un autre mouvement dans un emplacement sélectionné dans ce nouveau « n » et ainsi de suite. Dans un environnement immédiat « n » moi, l’automate cellulaire moyen, j’explore plus qu’un emplacement possible de parmi n seulement lorsque je viens d’essuyer un échec dans l’emplacement précédemment choisi et j’avais décidé que la meilleure stratégie est de retourner à la case départ tout en reconsidérant les options possibles.         

La cellule sociale bâtie autour d’une technologie va donc se frayer un chemin à travers l’espace social Zd, en essayant de faire des mouvement réussis, donc en sélectionnant une option de parmi les « n » possibles. Oui, les échecs ça arrive et donc parfois la cellule sociale va expérimenter avec k > 1 mouvements immédiats. Néanmoins, la situation où k = n c’est quand les gens qui travaillent sur une technologie nouvelle ont essayé, en vain, toutes les options possibles sauf une dernière et se jettent la tête en avant dans celle-ci, qui s’avère une réussite. De telles situations arrivent, je le sais. Je crois bien que Canal+ était une aventure de ce type à ces débuts. Néanmoins, lorsqu’un truc marche, dans le lancement d’une technologie nouvelle, on juste continue dans la foulée sans regarder par-dessus l’épaule.

Le nombre réel S d’états que prend un automate cellulaire est donc largement sujet à l’hystérèse. Chaque mouvement réussi est un environnement immédiat de moins à exploiter, donc celui laissé derrière nous.  En même temps, c’est un défi nouveau de faire l’autre mouvement réussi au premier essai sans s’attarder dans des emplacements alternatifs. L’automate cellulaire est donc un voyageur plus qu’un explorateur. Bref, la formulation A = (Zd, S, n, Sn+1 -> S) d’un automate cellulaire exprime donc des opportunités et des contraintes à la fois.

Ma cellule sociale bâtie autour de « Projet Aqueduc » coexiste avec des cellules sociales bâties autour d’autres technologies. Comme tout automate cellulaire respectable, je regarde autour de moi et je vois des mouvements évidents en termes d’investissement. Je peux bouger ma cellule sociale en termes de capital accumulé ainsi que de l’échelle physique des installations. Je suppose que les autres cellules sociales centrées sur d’autres technologies vont faire de même : chercher du capital et des opportunités de croître physiquement. Excellent ! Voilà donc que je vois deux dimensions de Zd : l’échelle financière et l’échelle physique. Je me demande comment faire pour y bouger et je découvre d’autres dimensions, plus comportementales et cognitives celles-là : le retour interne (profit) espéré sur l’investissement ainsi que le retour externe (croissance de valeur d’entreprise), la croissance générale du marché de capital d’investissement etc.

Trouver des dimensions nouvelles, c’est fastoche, par ailleurs. Beaucoup plus facile que c’est montré dans les films de science-fiction. Il suffit de se demander ce qui peut bien gêner nos mouvements, regarder bien autour, avoir quelques conversations et voilà ! Je peux découvrir des dimensions nouvelles même sans accès à un téléporteur inter-dimensionnel à haute énergie. Je me souviens d’avoir vu sur You Tube une série de vidéos dont les créateurs prétendaient savoir à coup sûr que le grand collisionneur de hadrons (oui, celui à Genève) a ouvert un tunnel vers l’enfer. Je passe sur des questions simplissimes du genre : « Comment savez-vous que c’est un tunnel, donc un tube avec une entrée et une sortie ? Comment savez-vous qu’il mène en enfer ? Quelqu’un est-il allé de l’autre côté et demandé les locaux où ça où ils habitent ? ». Le truc vraiment épatant est qu’il y a toujours des gens qui croient dur comme fer que vous avez besoin des centaines de milliers de dollars d’investissement et des années de recherche scientifique pour découvrir un chemin vers l’enfer. Ce chemin, chacun de nous l’a à portée de la main. Suffit d’arrêter de découvrir des dimensions nouvelles dans notre existence.

Bon, je suis donc un automate cellulaire respectable qui développe le « Projet Aqueduc » à partir d’une cellule d’enthousiastes et en présence d’autres automates cellulaires. On bouge, nous, les automates cellulaires, le long de deux dimensions bien claires d’échelle – capital accumulé et taille physique des installations – et on sait que bouger dans ces dimensions-ci exige un effort dans d’autres dimensions moins évidentes qui s’entrelacent autour d’intérêt général pour notre idée de la part des gens extra – cellulaires. Notre Zd est en fait un Zd eh ben alors !. Le fait d’avoir deux dimensions bien visibles et un nombre discutable de dimensions plus floues fait que le nombre « n » des mouvements possibles est tout aussi discutable et on évite d’en explorer toutes les nuances. On saute sur le premier emplacement possible de parmi « n », ce qui nous transporte dans un autre « n », puis encore et encore.

Lorsque tous les automates cellulaires démontrent des règles locales Sn+1 -> S à peu près cohérentes, il est possible d’en faire une description instantanée Zd -> S, connue aussi comme configuration de A ou bien son état global. Le nombre d’états possibles que mon « Projet Aqueduc » peut prendre dans un espace rempli d’automates cellulaires va dépendre du nombre d’états possibles d’autres automates cellulaires. Ces descriptions instantanées Zd -> S sont, comme le nom l’indique, instantanées, donc temporaires et locales. Elles peuvent changer. En particulier, le nombre S d’états possibles de mon « Projet Aqueduc » change en fonction de l’environnement immédiat « n » accessible à partir de la position courante t. Une séquence de positions correspond donc à une séquence des configurations ct = Zd -> S (t) et cette séquence est désignée comme comportement de l’automate cellulaire A ou bien son évolution.        


[1] Bandini, S., Mauri, G., & Serra, R. (2001). Cellular automata: From a theoretical parallel computational model to its application to complex systems. Parallel Computing, 27(5), 539-553. https://doi.org/10.1016/S0167-8191(00)00076-4

[2] Yu, J., Hagen-Zanker, A., Santitissadeekorn, N., & Hughes, S. (2021). Calibration of cellular automata urban growth models from urban genesis onwards-a novel application of Markov chain Monte Carlo approximate Bayesian computation. Computers, environment and urban systems, 90, 101689. https://doi.org/10.1016/j.compenvurbsys.2021.101689

The red-neck-cellular automata

I continue revising my work on collective intelligence, and I am linking it to the theory of complex systems. I return to the excellent book ‘What Is a Complex System?’ by James Landyman and Karoline Wiesner (Yale University Press, 2020, ISBN 978-0-300-25110-4, Kindle Edition). I take and quote their summary list of characteristics that complex systems display, on pages 22 – 23: “ […] which features are necessary and sufficient for which kinds of complexity and complex system. The features are as follows:

1. Numerosity: complex systems involve many interactions among many components.

2. Disorder and diversity: the interactions in a complex system are not coordinated or controlled centrally, and the components may differ.

3. Feedback: the interactions in complex systems are iterated so that there is feedback from previous interactions on a time scale relevant to the system’s emergent dynamics.

4. Non-equilibrium: complex systems are open to the environment and are often driven by something external.

5. Spontaneous order and self-organisation: complex systems exhibit structure and order that arises out of the interactions among their parts.

6. Nonlinearity: complex systems exhibit nonlinear dependence on parameters or external drivers.

7. Robustness: the structure and function of complex systems is stable under relevant perturbations.

8. Nested structure and modularity: there may be multiple scales of structure, clustering and specialisation of function in complex systems.

9. History and memory: complex systems often require a very long history to exist and often store information about history.

10. Adaptive behaviour: complex systems are often able to modify their behaviour depending on the state of the environment and the predictions they make about it”.

As I look at the list, my method of simulating collective intelligence is coherent therewith. Still, there is one point which I think I need to dig a bit more into: that whole thing with simple entities inside the complex system. In most of my simulations, I work on interactions between cognitive categories, i.e. between quantitative variables. Interaction between real social entities is most frequently implied rather than empirically nailed down. Still, there is one piece of research which sticks out a bit in that respect, and which I did last year. It is devoted to cities and their role in the human civilisation. I wrote quite a few blog updates on the topic, and I have one unpublished paper written thereon, titled ‘The Puzzle of Urban Density And Energy Consumption’. In this case, I made simulations of collective intelligence with my method, thus I studied interactions between variables. Yet, in the phenomenological background of emerging complexity in variables, real people interact in cities: there are real social entities interacting in correlation with the connections between variables. I think the collective intelligence of cities the piece of research where I have the surest empirical footing, as compared to others.

There is another thing which I almost inevitably think about. Given the depth and breadth of the complexity theory, such as I start discovering it with and through that ‘What Is a Complex System?’ book, by James Landyman and Karoline Wiesner, I ask myself: what kind of bacon can I bring to that table? Why should anyone bother about my research? What theoretical value added can I supply? A good way of testing it is talking real problems. I have just signalled my research on cities. The most general hypothesis I am exploring is that cities are factories of new social roles in the same way that the countryside is a factory of food. In the presence of demographic growth, we need more food, and we need new social roles for new humans coming around. In the absence of such new social roles, those new humans feel alienated, they identify as revolutionaries fighting for the greater good, they identify the incumbent humans as oppressive patriarchy, and the next thing you know, there is systemic, centralized, government-backed terror. Pardon my French, this is a system of social justice. Did my bit of social justice, in the communist Poland.

Anyway, cities make new social roles by making humans interact much more abundantly than they usually do in a farm. More abundant an interaction means more data to process for each human brain, more s**t to figure out, and the next thing you know, you become a craftsman, a businessperson, an artist, or an assassin. Once again, being an assassin in the countryside would not make much sense. Jumping from one roof to another looks dashing only in an urban environment. Just try it on a farm.

Now, an intellectual challenge. How can humans, who essentially don’t know what to do collectively, can interact so as to create emergent complexity which, in hindsight, looks as if they had known what to do? An interesting approach, which hopefully allows using some kind of neural network, is the paradigm of the maze. Each individual human is so lost in social reality that the latter appears as a maze, which one ignores the layout of. Before I go further, one linguistic thing is to nail down. I feel stupid using impersonal forms such as ‘one’, or ‘an individual’. I like more concreteness. I am going to start with George the Hero. George the Hero lives in a maze, and I stress it: he lives there. Social reality is like a maze to George, and, logically, George does not even want to get out of that maze, ‘cause that would mean being lonely, with no one around to gauge George’s heroism. George the Hero needs to stay in the maze.

The first thing which George the Hero needs to figure out is the dimensionality of the maze. How many axes can George move along in that social complexity? Good question. George needs to experiment in order to discover that. He makes moves in different social directions. He looks around what different kinds of education he can possibly get. He assesses his occupational options, mostly jobs and business ventures. He asks himself how he can structure his relations with family and friends. Is being an asshole compatible with fulfilling emotional bonds with people around?  

Wherever George the Hero currently is in the maze, there are n neighbouring and available cells around him. In each given place of the social maze, George the Hero has n possible ways to move further, into those n accessible cells in the immediate vicinity, and that is associated with k dimensions of movement. What is k, exactly? Here, I can refer to the theory of cellular automata, which attempts to simulate interactions between really simple, cell-like entities (Bandini, Mauri & Serra 2001[1]; Yu et al. 2021[2]). There is something called ‘von Neumann neighbourhood’. It corresponds to the assumption that if George the Hero has n neighbouring social cells which he move into, he can move like ‘left-right-forward-back’. That, in turn, spells k = n/2. If George can move into 4 neighbouring cells, he moves in a 2-dimensional space. Should he be able to move into 6 adjacent cells of the social maze, he has 3 dimensions to move along etc. Trouble starts when George sees an odd number of places to move to, like 5 or 7, on the account of these giving half-dimensions, like 5/2 = 2.5, 7/2 = 3.5 etc. Half a dimension means, in practical terms, that George the Hero faces social constraints. There might be cells around, mind you, which technically are there, but there are walls between George and them, and thus, for all practical purposes, the Hero can afford not to give a f**k.

George the Hero does not like to move back. Hardly anyone does. Thus, when George has successfully moved from cell A to cell B, he will probably not like going back to A, just in order to explore another cell adjacent thereto. People behave heuristically. People build up on their previous gains. Once George the Hero has moved from A to B, B becomes his A for the next move. He will choose one among the cells adjacent to B (now A), move there etc. George is a Hero, not a scientist, and therefore he carves a path through the social maze rather than discovers the maze as such. Each cell in the maze contains some rewards and some threats. George can get food and it means getting into a dangerously complex relation with that sabre-tooth tiger. George can earn money and it means giving up some of his personal freedom. George can bond with other people and find existential meaning and it means giving up even more of what he provisionally perceives as his personal freedom.

The social maze is truly a maze because there are many Georges around. Interestingly, many Georges in English give one Georges in French, and I feel this is the point where I should drop the metaphor of George the Hero. I need to get more precise, and thus I go to a formal concept in the theory of cellular automata, namely that of a d-dimensional cellular automaton, which can be mathematically expressed as A = (Zd, S, N, Sn+1 -> S). In that automaton A, Zd stands for the architecture of the maze, thus a lattice of d – tuples of integer numbers. In plain human, Zd is given by the number of dimensions, possibly constrained, which a human can move along in the social space. Many people carve their paths across the social maze, no one likes going back, and thus the more people are around, and the better they can communicate their respective experiences, the more exhaustive knowledge we have of the surrounding Zd.

There is a finite set S of states in that social space Zd, and that finitude is connected to the formally defined neighbourhood of the automaton A, namely the N. Formally, N is a finite ordered subset of Zd, and, besides the ‘left-right-forward-back’ neighbourhood of von Neumann, there is a more complex one, namely the Moore’s neighbourhood. In the latter, we can move diagonally between cells, like to the left and forward, to the right and forward etc. Keeping in mind that neighbourhood means, in practical terms, the number n of cells which we can move into from the social cell we are currently in, the cellular automaton can be rephrased as as A = (Zd, S, n, Sn+1 -> S). The transition Sn+1 -> S, called the local rule of A, makes more sense now. With me being in a given cell of the social maze, and there being n available cells immediately adjacent to mine, that makes n +1 cells where I can possibly be in, and I can technically visit all those cells in a finite number of Sn+1 combinatorial paths. The transition Sn+1 -> S expresses the way which I carve my finite set S of states out of the generally available Sn+1.       

If I assume that cities are factories of new social roles, the cellular automaton of an urban homo sapiens should be more complex than the red-neck-cellular automaton in a farm folk. It might mean greater an n, thus more cells available for moving from where I am now. It might also mean more efficient a Sn+1 -> S local rule, i.e. a better way to explore all the possible states I can achieve starting from where I am. There is a separate formal concept for that efficiency in the local rule, and it is called configuration of the cellular automaton AKA its instantaneous description AKA its global state, and it refers to the map Zd -> S. Hence, the configuration of my cellular automaton is the way which the overall social space Zd mapes into the set S of states actually available to me.

Right, if I have my cellular automaton with a configuration map Zd -> S, it is sheer fairness that you have yours too, and your cousin Eleonore has another one for herself, as well. There are many of us in the social space Zd. We are many x’s in the Zd. Each x of us has their own configuration map Zd -> S. If we want to get along with each other, our individual cellular automatons need to be mutually coherent enough to have a common, global function of cellular automata, and we know there is such a global function when we can collectively produce a sequence of configurations.

According to my own definition, a social structure is a collectively intelligent structure to the extent that it can experiment with many alternative versions of itself and select the fittest one, whilst staying structurally coherent. Structural coherence, in turn, is the capacity to relax and tighten, in a sequence, behavioural coupling inside the society, so as to allow the emergence and grounding of new behavioural patterns. The theory of cellular automata provides me some insights in that respect. Collective intelligence means the capacity to experiment with ourselves, right? That means experimenting with our global function Zd -> S, i.e. with the capacity to translate the technically available social space Zd into a catalogue S of possible states. If we take a random sample of individuals in a society, and study their cellular automatons A, they will display local rules Sn+1 -> S, and these can be expressed as coefficients (S / Sn+1), 0 ≤ (S / Sn+1) ≤ 1. The latter express the capacity of individual cellular automatons to generate actual states S of being out of the generally available menu of Sn+1.

In a large population, we can observe the statistical distribution of individual (S / Sn+1) coefficients of freedom in making one’s cellular state. The properties of that statistical distribution, e.g. the average (S / Sn+1) across the board, are informative about how intelligent collectively the given society is. The greater the average (S / Sn+1), the more possible states can the given society generate in the incumbent social structure, and the more it can know about the fittest state possible. That looks like a cellular definition of functional freedom.


[1] Bandini, S., Mauri, G., & Serra, R. (2001). Cellular automata: From a theoretical parallel computational model to its application to complex systems. Parallel Computing, 27(5), 539-553. https://doi.org/10.1016/S0167-8191(00)00076-4

[2] Yu, J., Hagen-Zanker, A., Santitissadeekorn, N., & Hughes, S. (2021). Calibration of cellular automata urban growth models from urban genesis onwards-a novel application of Markov chain Monte Carlo approximate Bayesian computation. Computers, environment and urban systems, 90, 101689. https://doi.org/10.1016/j.compenvurbsys.2021.101689

L’impression de respirer

J’avance avec la révision de ma recherche sur le phénomène d’intelligence collective, que je viens de documenter dans « The collective of individual humans being any good at being smart ». Je m’efforce à faire jonction entre mes idées à moi, d’une part, et deux autres créneaux de recherche : la théorie des systèmes complexes et l’approche psychologique à l’intelligence collective. La première, je la travaille sur la base du livre ‘What Is a Complex System?’ écrit par James Landyman et Karoline Wiesner, publié en 2020 chez Yale University Press (ISBN 978-0-300-25110-4, Kindle Edition). Quant à l’approche psychologique, ma lecture de référence est, pour le moment, le livre ‘The Knowledge Illusion. Why we never think alone’ écrit par Steven Sloman et Philip Fernbach, publié en 2017 chez RIVERHEAD BOOKS (originellement chez Penguin Random House LLC, Ebook ISBN: 9780399184345, Kindle Edition).

Je viens de cerner l’idée centrale de mon approche au phénomène d’intelligence collective, et c’est l’utilisation des réseaux neuronaux artificiels – donc de l’Intelligence Artificielle – comme simulateurs des phénomènes sociaux complexes. La touche originale bien à moi que je veux ajouter à ce sujet, vaste par ailleurs, est la façon d’utiliser des réseaux neuronaux très simples, possibles à programmer dans une feuille de calcul Excel. Ma méthode va donc un peu à l’encontre du stéréotype des super-nuages numériques portés par des super-ordinateurs joints eux-mêmes en réseau, tout ça pour prédire la prochaine mode vestimentaire ou la prochaine super-affaire en Bourse.

Lorsque je pense à la structure d’un livre que je pourrais écrire à ce sujet, le squelette conceptuel qui me vient à l’esprit est du scientifique classique. Ça commence avec une « Introduction » générale et peu formelle, genre montrer pourquoi faire tout ce bruit à propos de l’idée en question. Une section de « Matériel empirique et méthode » ensuit, ou je discute le type de données empiriques à travailler avec ainsi que la méthode de leur traitement. Le pas suivant est de présenter « La théorie et revue de littérature du sujet » en un chapitre séparé et enfin des « Exemples d’application », soit des calculs faits sur des données réelles avec la méthode en question.     

Le noyau conceptuel formel de mon approche est – pour le moment – la fonction d’adaptation. Lorsque j’ai un ensemble de variables socio-économiques quantitatives, je peux faire des assomptions plus ou moins fortes à propos de leur signification et pertinence empirique, mais je peux assumer de manière tout à fait solide que chacune de ces variables peut représenter un résultat fonctionnel important, dont l’achèvement nous poursuivons comme société. En présence de « n » variables que peux poser « n » hypothèses du type : ces gens-là poursuivent l’optimisation de la variable « i » comme orientation collective. Une telle hypothèse veut dire que toutes les variables dans l’ensemble X = (x1, x2, …, x­n), observées dans une séquence de « m » occurrences locales (t1, t2,…, tm), forment une chaîne d’états fonctionnels locaux f{x1(t), x2(t), …, x­n(t)}.  La société étudiée compare chaque état fonctionnel local à une valeur espérée de résultat xi(t) et la fonction d’adaptation produit l’erreur locale d’adaptation e(t) = xi(t)f{x1(t), x2(t), …, x­n(t)}.  La variable « xi » fait partie de l’ensemble X = (x1, x2, …, x­n). La chaîne d’états fonctionnels f{x1(t), x2(t), …, x­n(t)} est donc produite aussi bien avec la variable optimisée « xi » elle-même qu’avec les autres variables. La logique de ceci est simple : la plupart de phénomènes sociaux que nous décrivons avec des variables quantitatives, tel le Produit National Brut (mon exemple préféré), démontrent une hystérèse significative. Le PNB d’aujourd’hui sert à produire le PNB de l’après-demain, tout comme le nombre des demandes de brevet d’aujourd’hui contribue à créer le même PNB de l’après-demain.

J’essaie de faire un rapprochement entre la théorie des systèmes complexes et ma méthode à moi. Je me réfère en particulier à ‘What Is a Complex System?’ (Landyman, Wiesner 2020). Le passage que je trouve particulièrement intéressant vu ma propre méthode est celui de la page 16, que je me permets de traduire sur le champ : « Comportement coordonné ne requiert pas de contrôleur suprême […] Il est surprenant que le mouvement collectif d’une volée d’oiseaux, d’un banc de poissons ou d’un essaim d’insectes peut être reproduit par un ensemble de robots programmés à obéir juste quelques règles simples. Chaque individu doit rester près d’une poignée des voisins et ne peut pas heurter d’autres individus. Comme l’individu avance, il contrôle régulièrement sa distance par rapport aux autres pour l’ajuster de façon correspondante. En conséquence, un mouvement de groupe se forme spontanément. Le comportement adaptatif du collectif surgit d’interactions répétées, dont chacune est relativement simple en elle-même […] ».

Le truc intéressant, là, c’est que je fais exactement la même opération logique dans les réseaux neuronaux que je fais et utilise dans ma recherche sur l’intelligence collective. A l’intérieur de chaque occurrence empirique dans mon ensemble de données (donc, de façon pratique, dans chaque vers de ma base de données), je calcule en ensuite je propage un méta-paramètre de distance Euclidienne entre chaque variable et toutes les autres. Le Produit Intérieur Brut en Suède en 2007 vérifie donc sa distance Euclidienne par rapport à l’inflation, au taux d’emploi etc., tout ça en Suède en 2007. Le PIB dans mon réseau neuronal se comporte donc comme un oiseau : ça vole de façon à contrôler sa distance par rapport aux autres phénomènes sociaux.

Chaque vers de la base de données est donc accompagné d’un vecteur-fantôme des distances Euclidiennes, qui est ensuite utilisé par le réseau comme information pertinente à la tentative d’adaptation dans l’occurrence empirique suivante, donc dans le vers suivant de la base des données. Initialement, lorsque je programmais ce truc, je ne savais pas ce que ça va donner. Je ne savais presque rien de cet aspect particulier de la théorie de complexité. Je venais juste de lire quelques articles sur la théorie d’essaim dans la programmation des robots et je voulais voir comment ça marche chez moi (Wood & Thompson 2021[1]; Li et al. 2021[2]).  Je m’adaptais juste de façon (probablement) intelligente au flot de mes propres pensées. Il se fait que la propagation de ces distances Euclidiennes locales entres les variables impacte le réseau et son apprentissage de façon profonde.

Voilà donc un point certain de rapprochement entre ma méthode d’utiliser les réseaux neuronaux artificiels pour simuler l’intelligence collective et la théorie des systèmes complexes. Lorsque je crée, pour un ensemble des variables quantitatives socio-économiques, un ensemble fantôme accompagnant des distances mathématiques locales entre ces variables et je propage ces distances à travers le réseau, les nombres apprennent de façon accélérée.          

Une petite explication est de rigueur, à propos de la notion de distance mathématique. Moi, j’utilise la distance Euclidienne entre les nombres simples. Dans le domaine du Data Science c’est l’équivalent de la pierre taillée. Il y a des mesures beaucoup plus sophistiquées, ou une distance Euclidienne est calculée entre des matrices entières des nombres. Moi, j’aime bien utiliser le type d’intelligence artificielle que je comprends.

Je peux donc résumer un point important de ma méthode, tout en l’enracinant dans la théorie des systèmes complexes. Nous pouvons imaginer les sociétés humaines comme des essaims des phénomènes que nous observons de façon imparfaite à travers des variables quantitatives. L’essaim des phénomènes s’auto-organise à travers les actions d’êtres humains qui contrôlent, de façon imparfaite et néanmoins cohérente, quelle est la distance (cohérence mutuelle) entre les phénomènes distincts. Le fait que chaque culture humaine s’efforce de créer et maintenir une cohérence interne est donc le mécanisme de contrôle qui facilite l’émergence des systèmes complexes.

Mon intuition à moi, lorsque j’introduisais ces mesures-fantômes de distance Euclidienne entre les variables était un peu contraire, en fait. Mon truc, depuis ma thèse de doctorat, c’est l’innovation et le changement technologique. Après avoir lu ces articles sur la théorie d’essaim je me suis dit que l’innovation survient lorsqu’une société se dit (collectivement) « Merde ! Ras le bol avec la monotonie ! Faut secouer tout ça un peu ! Eh, les gars ! Oui, vous ! On veut dire : oui, nous ! On relâche la cohérence interne ! Oui, juste pour quelques années, pas de souci ! Oui, merde, on vous (nous) promet de ne pas inventer Facebook, enfin on espère… ».  

La société que je représente avec un réseau neuronal est donc capable d’innovation parce qu’elle peut relâcher sa cohérence culturelle interne juste ce qu’il faut pour laisser entrer des phénomènes nouveaux. Ce que j’observe mathématiquement dans mes simulations avec des données socio-économiques réelles : lorsque je propage la distance Euclidienne entre les variables à travers le réseau, celui-ci donne l’impression de respirer. Ça se gonfle et ça se dégonfle, en cadence rythmique.  


[1] Wood, M. A., & Thompson, C. (2021). Crime prevention, swarm intelligence and stigmergy: Understanding the mechanisms of social media-facilitated community crime prevention. The British Journal of Criminology, 61(2), 414-433.  https://doi.org/10.1093/bjc/azaa065

[2] Li, M., Porter, A. L., Suominen, A., Burmaoglu, S., & Carley, S. (2021). An exploratory perspective to measure the emergence degree for a specific technology based on the philosophy of swarm intelligence. Technological Forecasting and Social Change, 166, 120621. https://doi.org/10.1016/j.techfore.2021.120621

The collective of individual humans being any good at being smart

I am working on two topics in parallel, which is sort of normal in my case. As I know myself, instead of asking “Isn’t two too much?”, I should rather say “Just two? Run out of ideas, obviously”. I keep working on a proof-of-concept article for the idea which I provisionally labelled “Energy Ponds” AKA “Project Aqueduct”, on the one hand. See my two latest updates, namely ‘I have proven myself wrong’ and ‘Plusieurs bouquins à la fois, comme d’habitude’, as regards the summary of what I have found out and written down so far. As in most research which I do, I have come to the conclusion that however wonderful the concept appears, the most important thing in my work is the method of checking the feasibility of that concept. I guess I should develop on the method more specifically.

On the other hand, I am returning to my research on collective intelligence. I have just been approached by a publisher, with a kind invitation to submit the proposal for a book on that topic. I am passing in review my research, and the available literature. I am wondering what kind of central thread I should structure the entire book around. Two threads turn up in my mind, as a matter of fact. The first one is the assumption that whatever kind of story I am telling, I am actually telling the story of my own existence. I feel I need to go back to the roots of my interest in the phenomenon of collective intelligence, and those roots are in my meddling with artificial neural networks. At some point, I came to the conclusion that artificial neural networks can be good simulators of the way that human societies figure s**t out. I need to dig again into that idea.

My second thread is the theory of complex systems AKA the theory of complexity. The thing seems to be macheting its way through the jungle of social sciences, those last years, and it looks interestingly similar to what I labelled as collective intelligence. I came by the theory of complexity in three books which I am reading now (just three?). The first one is a history book: ‘1177 B.C. The Year Civilisation Collapsed. Revised and Updated’, published by Eric H. Cline with Princeton University Press in 2021[1]. The second book is just a few light years away from the first one. It regards mindfulness. It is ‘Aware. The Science and Practice of Presence. The Groundbreaking Meditation Practice’, published by Daniel J. Siegel with TarcherPerigee in 2018[2]. The third book is already some sort of a classic; it is ‘The Black Swan. The impact of the highly improbable’ by Nassim Nicolas Taleb with Penguin, in 2010.   

I think it is Daniel J. Siegel who gives the best general take on the theory of complexity, and I allow myself to quote: ‘One of the fundamental emergent properties of complex systems in this reality of ours is called self-organization. That’s a term you might think someone in psychology or even business might have created—but it is a mathematical term. The form or shape of the unfolding of a complex system is determined by this emergent property of self-organization. This unfolding can be optimized, or it can be constrained. When it’s not optimizing, it moves toward chaos or toward rigidity. When it is optimizing, it moves toward harmony and is flexible, adaptive, coherent, energized, and stable’. (Siegel, Daniel J.. Aware (p. 9). Penguin Publishing Group. Kindle Edition).  

I am combining my scientific experience with using AI as social simulator with the theory of complex systems. I means I need to UNDERSTAND, like really. I need to understand my own thinking, in the first place, and then I need to combine it with whatever I can understand from other people’s thinking. It started with a simple artificial neural network, which I used to write my article ‘Energy efficiency as manifestation of collective intelligence in human societies’ (Energy, 191, 116500, https://doi.org/10.1016/j.energy.2019.116500 ).  I had a collection of quantitative variables, which I had previously meddled with using classical regression. As regression did not really bring much conclusive results, I had the idea of using an artificial neural network. Of course, today, neural networks are a whole technology and science. The one I used is the equivalent of a spear with a stone tip as compared to a battle drone. Therefore, the really important thing is the fundamental logic of neural networking as compared to regression, in analyzing quantitative data.

When I do regression, I come up with a function, like y = a1*x1 + a2*x2 + …+ b, I trace that function across the cloud of empirical data points I am working with, and I measure the average distance from those points to the line of my function. That average distance is the average (standard) error of estimation with that given function. I repeat the process as many times as necessary to find a function which both makes sense logically and yields the lowest standard error of estimation. The central thing is that I observe all my data at once, as if it was all happening at the same time and as if I was observing it from outside. Here is the thing: I observe it from outside, but when that empirical data was happening, i.e. when the social phenomena expressed in my quantitative variables were taking place, everybody (me included) was inside, not outside.

How to express mathematically the fact of being inside the facts measured? One way is to take those empirical occurrences one by one, sort of Denmark in 2005, and then Denmark in 2006, and then Germany in 2005 etc. Being inside the events changes my perspective on what is the error of estimation, as compared to being outside. When I am outside, error means departure from the divine plan, i.e. from the regression function. When I am inside things that are happening, error happens as discrepancy between what I want and expect, on the one hand, and what I actually get, on the other hand. These are two different errors of estimation, measured as departures from two different functions. The regression function is the most accurate (or as accurate as you can get) mathematical explanation of the empirical data points. The function which we use when simulating the state of being inside the events is different: it is a function of adaptation.      

Intelligent adaptation means that we are after something: food, sex, power, a new Ferrari, social justice, 1000 000 followers on Instagram…whatever. There is something we are after, some kind of outcome we try to optimize. When I have a collection of quantitative variables which describe a society, such as energy efficiency, headcount of population, inflation rates, incidence of Ferraris per 1 million people etc., I can make a weak assumption that any of these can express a desired outcome. Here, a digression is due. In science and philosophy, weak assumptions are assumptions which assume very little, and therefore they are bloody hard to discard. On the other hand, strong assumptions assume a lot, and that makes them pretty good targets for discarding criticism. In other words, in science and philosophy, weak assumptions are strong and strong assumptions are weak. Obvious, isn’t it? Anyway, I make that weak assumption that any phenomenon we observe and measure with a numerical scale can be a collectively desired outcome we pursue.

Another assumption I make, a weak one as well, is sort of hidden in the word ‘expresses’. Here, I relate to a whole line of philosophical and scientific heritage, going back to people like Plato, Kant, William James, Maurice Merleau-Ponty, or, quite recently, Michael Keane (1972[3]), as well as Berghout & Verbitskiy (2021[4]). Very nearly everyone who seriously thought (or keeps thinking, on the account of being still alive) about human cognition of reality agrees that we essentially don’t know s**t. We make cognitive constructs in our minds, so as to make at least a little bit of sense of the essentially chaotic reality outside our skin, and we call it empirical observation. Mind you, stuff inside our skin is not much less chaotic, but this is outside the scope of social sciences. As we focus on quantitative variables commonly used in social sciences, the notion of facts becomes really blurred. Have you ever shaken hands with energy efficiency, with Gross Domestic Product or with the mortality rate? Have you touched it? No? Neither have I. These are highly distilled cognitive structures which we use to denote something about the state of society.

Therefore, I assume that quantitative, socio-economic variables express something about the societies observed, and that something is probably important if we collectively keep record of it. If I have n empirical variables, each of them possibly represents collectively important outcomes. As these are distinct variables, I assume that, with all the imperfections and simplification of the corresponding phenomenology, each distinct variable possibly represents a distinct type of collectively important outcome. When I study a human society through the lens of many quantitative variables, I assume they are informative about a set of collectively important social outcomes in that society.

Whilst a regression function explains how many variables are connected when observed ex post and from outside, an adaptation function explains and expresses the way that a society addresses important collective outcomes in a series of trials and errors. Here come two fundamental differences between studying a society with a regression function, as opposed to using an adaptation function. Firstly, for any collection of variables, there is essentially one regression function of the type:  y = a1*x1 + a2*x2 + …+ an*xn + b. On the other hand, with a collection of n quantitative variables at hand, there is at least as many functions of adaptation as there are variables. We can hypothesize that each individual variable x is the collective outcome to pursue and optimize, whilst the remaining n – 1 variables are instrumental to that purpose. One remark is important to make now: the variable informative about collective outcomes pursued, that specific x, can be and usually is instrumental to itself. We can make a desired Gross Domestic Product based on the Gross Domestic Product we have now. The same applies to inflation, energy efficiency, share of electric cars in the overall transportation system etc. Therefore, the entire set of n variables can be assumed instrumental to the optimization of one variable x from among them.   

Mathematically, it starts with assuming a functional input f(x1, x2, …, xn) which gets pitched against one specific outcome xi. Subtraction comes as the most logical representation of that pitching, and thus we have the mathematical expression ‘xi – f(x1, x2, …, xn)’, which informs about how close the society observed has come to the desired outcome xi. It is technically possible that people just nail it, and xi = f(x1, x2, …, x­n), whence xi – f(x1, x2, …, x­n) = 0. This is a perfect world, which, however, can be dangerously perfect. We know those societies of apparently perfectly happy people, who live in harmony with nature, even if that harmony means hosting most intestinal parasites of the local ecosystem. One day other people come, with big excavators, monetary systems, structured legal norms, and the bubble bursts, and it hurts.

Thus, on the whole, it might be better to hit xi ≠ f(x1, x2, …, x­n), whence xi – f(x1, x2, …, x­n) ≠ 0. It helps learning new stuff. The ‘≠ 0’ part means there is an error in adaptation. The functional input f(x1, x2, …, x­n) hits above or below the desired xi. As we want to learn, that error in adaptation AKA e = xi – f(x1, x2, …, xn) ≠ 0, makes any practical sense when we utilize it in subsequent rounds of collective trial and error. Sequence means order, and a timeline. We have a sequence {t0, t1, t2, …, tm} of m moments in time. Local adaptation turns into ‘xi(t) – ft(x1, x2, …, x­n)’, and error of adaptation becomes the time-specific et = xi(t) – ft(x1, x2, …, x­n) ≠ 0. The clever trick consists in taking e(t0) = xi(t0) – ft0(x1, x2, …, x­n) ≠ 0 and combining it somehow with the next functional input ft1(x1, x2, …, x­n). Mathematically, if we want to combine two values, we can add them up or multiply them. We keep in mind that division is a special case of multiplication, namely x * (1/z). We I add up two values, I assume they are essentially of the same kind and sort of independent from each other. When, on the other hand, I multiply them, they become entwined so that each of them reproduces the other one. Multiplication ‘x * z’ means that x gets reproduced z times and vice versa. When I have the error of adaptation et0 from the last experimental round and I want to combine it with the functional input of adaptation ft1(x1, x2, …, x­n) in the next experimental round, that whole reproduction business looks like a strong assumption, with a lot of weak spots on it. I settle for the weak assumption then, and I assume that ft1(x1, x2, …, x­n) becomes ft0(x1, x2, …, x­n) + e(t0).

The expression ft0(x1, x2, …, x­n) + e(t0) makes any functional sense only when and after we have e(t0) = xi(t0) – ft0(x1, x2, …, x­n) ≠ 0. Consequently, the next error of adaptation, namely e(t1) = xi(t1) – ft1(x1, x2, …, x­n) ≠ 0 can come into being only after its predecessor et0 has occurred. We have a chain of m states in the functional input of the society, i.e. {ft0(x1, x2, …, x­n) => ft1(x1, x2, …, x­n) => … => ftm(x1, x2, …, x­n)}, associated with a chain of m desired outcomes {xi(t0) => xi(t1) => … => xi(tm)}, and with a chain of errors in adaptation {e(t0) => e(t1) => …=> e(tm)}. That triad – chain of functional inputs, chain of desired outcomes, and the chain of errors in adaptation – makes for me the closest I can get now to the mathematical expression of the adaptation function. As errors get fed along the chain of states (as I see it, they are being fed forward, but in the algorithmic version, you can backpropagate them), those errors are some sort of dynamic memory in that society, the memory from learning to adapt.

Here we can see the epistemological difference between studying a society from outside, and explaining its workings with a regression function, on the one hand, and studying those mechanisms from inside, by simulation with an adaptation function, on the other hand. Adaptation function is the closest I can get, in mathematical form, to what I understand by collective intelligence. As I have been working with that general construct, I progressively zoomed in on another concept, namely that of intelligent structure, which I define as a structure which learns by experimenting with many alternative versions of itself whilst staying structurally coherent, i.e. by maintaining basic coupling between particular components.

I feel like comparing my approach to intelligent structures and their collective intelligence with the concept of complex systems, as discussed in the literature I have just referred to. I returned, therefore, to the book entitled ‘1177 B.C. The Year Civilisation Collapsed. Revised and Updated’, by Eric H. Cline, Princeton University Press, 2021. The theory of complex systems is brought forth in that otherwise very interesting piece in order to help formulating an answer to the following question: “Why did the great empires of the Late Bronze Age, such as Egypt, the Hittites, or the Myceneans, collapse all in approximately the same time, around 1200 – 1150 B.C.?”.  The basic assertion which Eric Cline develops on and questions is that the entire patchwork of those empires in the Mediterranean, the Levant and the Middle East was one big complex system, which collapsed on the account of having overkilled it slightly in the complexity department.

I am trying to reconstruct the definition of systemic complexity such as Eric Cline uses it in his flow of logic. I start with the following quote: Complexity science or theory is the study of a complex system or systems, with the goal of explaining the phenomena which emerge from a collection of interacting objects’. If we study a society as a complex system, we need to assume two things. There are many interacting objects in it, for one, and their mutual interaction leads to the emergence of some specific phenomena. Sounds cool. I move on, and a few pages later I find the following statement: ‘In one aspect of complexity theory, behavior of those objects is affected by their memories and “feedback” from what has happened in the past. They are able to adapt their strategies, partly on the basis of their knowledge of previous history’. Nice. We are getting closer. Entities inside a complex system accumulate memory, and they learn on that basis. This is sort of next door to the three sequential chains: states, desired outcomes, and errors in adaptation, which I coined up.

Further, I find an assertion that a complex social system is typically “alive”, which means that it evolves in a complicated, nontrivial way, whilst being open to influences from the environment. All that leads to the complex system to generate phenomena which can be considered as surprising and extreme. Good. This is the moment to move to the next book:  ‘The Black Swan. The impact of the highly improbable’ by Nassim Nicolas Taleb , Penguin, 2010. Here comes a lengthy quote, which I bring here for the sheer pleasure of savouring one more time Nassim Taleb’s delicious style: “[…] say you attribute the success of the nineteenth-century novelist Honoré de Balzac to his superior “realism,” “insights,” “sensitivity,” “treatment of characters,” “ability to keep the reader riveted,” and so on. These may be deemed “superior” qualities that lead to superior performance if, and only if, those who lack what we call talent also lack these qualities. But what if there are dozens of comparable literary masterpieces that happened to perish? And, following my logic, if there are indeed many perished manuscripts with similar attributes, then, I regret to say, your idol Balzac was just the beneficiary of disproportionate luck compared to his peers. Furthermore, you may be committing an injustice to others by favouring him. My point, I will repeat, is not that Balzac is untalented, but that he is less uniquely talented than we think. Just consider the thousands of writers now completely vanished from consciousness: their record does not enter into analyses. We do not see the tons of rejected manuscripts because these writers have never been published. The New Yorker alone rejects close to a hundred manuscripts a day, so imagine the number of geniuses that we will never hear about. In a country like France, where more people write books while, sadly, fewer people read them, respectable literary publishers accept one in ten thousand manuscripts they receive from first-time authors”.

Many people write books, few people read them, and that creates something like a flow of highly risky experiments. That coincides with something like a bottleneck of success, with possibly great positive outcomes (fame, money, posthumous fame, posthumous money for other people etc.), and a low probability of occurrence. A few salient phenomena are produced – the Balzacs – whilst the whole build-up of other writing efforts, by less successful novelists, remains in the backstage of history. That, in turn, somehow rhymes with my intuition that intelligent structures need to produce big outliers, at least from time to time. On the one hand, those outliers can be viewed as big departures from the currently expected outcomes. They are big local errors. Big errors mean a lot of information to learn from. There is an even further-going, conceptual coincidence with the theory and practice of artificial neural networks. A network can be prone to overfitting, which means that it learns too fast, sort of by jumping prematurely to conclusions, before and without having worked through the required work through local errors in adaptation.

Seen from that angle, the function of adaptation I have come up with has a new shade. The sequential chain of errors appears as necessary for the intelligent structure to be any good. Good. Let’s jump to the third book I quoted with respect to the theory of complex systems: ‘Aware. The Science and Practice of Presence. The Ground-breaking Meditation Practice’, by Daniel J. Siegel, TarcherPerigee, 2018. I return to the idea of self-organisation in complex systems, and the choice between three different states: a) the optimal state of flexibility, adaptability, coherence, energy and stability b) non-optimal rigidity and c) non-optimal chaos.

That conceptual thread concurs interestingly with my draft paper: ‘Behavioral absorption of Black Swans: simulation with an artificial neural network’ . I found out that with the chain of functional input states {ft0(x1, x2, …, x­n) => ft1(x1, x2, …, x­n) => … => ftm(x1, x2, …, x­n)} being organized in rigorously the same way, different types of desired outcomes lead to different patterns of learning, very similar to the triad which Daniel Siegel refers to. When my neural network does its best to optimize outcomes such as Gross Domestic Product, it quickly comes to rigidity. It makes some errors in the beginning of the learning process, but then it quickly drives the local error asymptotically to zero and is like ‘We nailed it. There is no need to experiment further’. There are other outcomes, such as the terms of trade (the residual fork between the average price of exports and that of imports), or the average number of hours worked per person per year, which yield a curve of local error in the form of a graceful sinusoid, cyclically oscillating between different magnitudes of error. This is the energetic, dynamic balance. Finally, some macroeconomic outcomes, such as the index of consumer prices, can make the same neural network go nuts, and generate an ever-growing curve of local error, as if the poor thing couldn’t learn anything sensible from looking at the prices of apparel and refrigerators. The (most) puzzling thing in all that differences in pursued outcomes are the source of discrepancy in the patterns of learning, not the way of learning as such. Some outcomes, when pursued, keep the neural network I made in a state of healthy adaptability, whilst other outcomes make it overfit or go haywire.  

When I write about collective intelligence and complex system, it can come as a sensible idea to read (and quote) books which have those concepts explicitly named. Here comes ‘The Knowledge Illusion. Why we never think alone’ by Steven Sloman and Philip Fernbach, RIVERHEAD BOOKS (An imprint of Penguin Random House LLC, Ebook ISBN: 9780399184345, Kindle Edition). In the introduction, titled ‘Ignorance and the Community of Knowledge’, Sloman and Fernbach write: “The human mind is not like a desktop computer, designed to hold reams of information. The mind is a flexible problem solver that evolved to extract only the most useful information to guide decisions in new situations. As a consequence, individuals store very little detailed information about the world in their heads. In that sense, people are like bees and society a beehive: Our intelligence resides not in individual brains but in the collective mind. To function, individuals rely not only on knowledge stored within our skulls but also on knowledge stored elsewhere: in our bodies, in the environment, and especially in other people. When you put it all together, human thought is incredibly impressive. But it is a product of a community, not of any individual alone”. This is a strong statement, which I somehow distance myself from. I think that collective human intelligence can be really workable when individual humans are any good at being smart. Individuals need to have practical freedom of action, based on their capacity to figure s**t out in difficult situations, and the highly fluid ensemble of individual freedoms allows the society to make and experiment with many alternative versions of themselves.

Another book is more of a textbook. It is ‘What Is a Complex System?’ by James Landyman and Karoline Wiesner, published with Yale University Press (ISBN 978-0-300-25110-4, Kindle Edition). In the introduction (p.15), Landyman and Wiesner claim: “One of the most fundamental ideas in complexity science is that the interactions of large numbers of entities may give rise to qualitatively new kinds of behaviour different from that displayed by small numbers of them, as Philip Anderson says in his hugely influential paper, ‘more is different’ (1972). When whole systems spontaneously display behaviour that their parts do not, this is called emergence”. In my world, those ‘entities’ are essentially the chained functional input states {ft0(x1, x2, …, x­n) => ft1(x1, x2, …, x­n) => … => ftm(x1, x2, …, x­n)}. My entities are phenomenological – they are cognitive structures which fault of a better word we call ‘empirical variables’. If the neural networks I make and use for my research are any good at representing complex systems, emergence is the property of data in the first place. Interactions between those entities are expressed through the function of adaptation, mostly through the chain {e(t0) => e(t1) => …=> e(tm)} of local errors, concurrent with the chain of functional input states.

I think I know what the central point and thread of my book on collective intelligence is, should I (finally) write that book for good. Artificial neural networks can be used as simulators of collective social behaviour and social change. Still, they do not need to be super-performant network. My point is that with the right intellectual method, even the simplest neural networks, those possible to program into an Excel spreadsheet, can be reliable cognitive tools for social simulation.


[1] LCCN 2020024530 (print) | LCCN 2020024531 (ebook) | ISBN 9780691208015 (paperback) | ISBN 9780691208022 (ebook) ; Cline, Eric H.. 1177 B.C.: 6 (Turning Points in Ancient History, 1) . Princeton University Press. Kindle Edition.

[2] LCCN 2018016987 (print) | LCCN 2018027672 (ebook) | ISBN 9780143111788 | ISBN 9781101993040 (hardback) ; Siegel, Daniel J.. Aware (p. viii). Penguin Publishing Group. Kindle Edition.

[3] Keane, M. (1972). Strongly mixing measures. Inventiones mathematicae, 16(4), 309-324. DOI https://doi.org/10.1007/BF01425715

[4] Berghout, S., & Verbitskiy, E. (2021). On regularity of functions of Markov chains. Stochastic Processes and their Applications, Volume 134, April 2021, Pages 29-54, https://doi.org/10.1016/j.spa.2020.12.006

Plusieurs bouquins à la fois, comme d’habitude

Je suis en train de finir la première version, encore un peu rudimentaire, de mon article sur la faisabilité du « Projet Aqueduc » : un concept technologique en phase de naissance que j’essaie de développer et de promouvoir. Je pense que j’ai fait tous les calculs de base et j’ai l’intention d’en donner un compte rendu sommaire dans cette mise à jour. Je vais présenter ces résultats dans une structure logique qui est en train de faire sa percée dans le monde de la science : je commence par présenter l’idée de base et je l’associe avec du matériel empirique que je juge pertinent ainsi qu’avec la méthode d’analyse de ce matériel. Seulement après la description méthodologique je fais une revue de la littérature à propos des points saillants de la méthode et de l’idée de base. Ces trois composantes de base – introduction, matériel empirique et méthode d’analyse, revue de la littérature – forment la base de ce qui suit, donc de la présentation des calculs et leurs résultats ainsi que la discussion finale du tout. C’est une forme de composition qui est en train de remplacer une structure plus traditionnelle, qui était bâtie autour d’une transition rigoureuse de la théorie vers la partie empirique.

Je commence donc par reformuler et réaffirmer mon idée de base, donc l’essence même de « Projet Aqueduc ». Le travail de recherche que je viens de faire m’a fait changer les idées à ce propos. Initialement, je voyais le « Project Aqueduc » de la façon que vous pouvez voir décrite dans une mise à jour antérieure : « Ça semble expérimenter toujours ». Maintenant, je commence à apprécier la valeur cognitive et pratique de la méthode que j’ai mise au point pour conduire l’étude de faisabilité elle-même. La méthode en question est une application créative (enfin, j’espère) du rasoir d’Ockham : je divise mon concept entier en technologies composantes spécifiques et j’utilise la revue de littérature pour évaluer le degré d’incertitude attaché à chacune de parmi elles. Je concentre l’étude de faisabilité économique sur ce que peux dire de façon à peu près fiable à propos des technologies relativement le plus certaines et j’assume que ces technologies-là doivent générer un surplus de liquidité financière suffisant pour financer le développement de celles relativement plus incertaines.

Dans le cadre du « Projet Aqueduc », ce qui semble le mieux enraciné en termes de calcul ces coûts et d’investissement c’est la technologie de hydro-génération. Celle-ci est bien documentée et bien connue. Pas vraiment beaucoup d’innovation, par ailleurs. ça semble tourner tout seul. Les technologies de, respectivement, stockage d’énergie ainsi que chargement des voitures électriques viennent juste après en termes de prévisibilité : ça bouge, mais ça bouge de façon plutôt organisée. Il y a des innovations à espérer mais je pense que je suis capable de prédire plus ou moins de quelle direction elles vont venir.

Quoi qu’il en soit, j’ai simulé des installations hypothétiques de « Projet Aqueduc » dans les embouchures de 32 rivières de mon pays, la Pologne. J’ai pris les données officielles sur le débit par seconde, en mètres cubes, et j’ai simulé trois niveaux d’adsorption à partir de ce courant, à travers les béliers hydrauliques du « Projet Aqueduc » : 5%, 10% et 20%. En parallèle, j’ai simulé trois élévations possibles des réservoirs d’égalisation : 10 mètres, 20 mètres et 30 mètres. Avec les 654 millimètres de précipitations annuelles moyennes en Pologne, donc avec un ravitaillement hydrologique des précipitations avoisinant 201,8 milliards mètres cubes, ces 32 installations hypothétiques pourraient faire re-circuler entre 2,5% et 10% de ce total. Ceci fait un impact hydrologique substantiel pendant que l’impact sur le marché d’énergie n’est pas vraiment important. Avec l’adsorption d’eau au maximum, soit 20% du débit des rivières en question, ainsi qu’avec l’élévation des réservoirs d’égalisation fixée à 30 mètres (donc le maximum rationnellement possible vu la littérature du sujet), la puissance électrique totale de ces 32 installations hypothétiques serait de quelques 128,9 mégawatts, contre les 50 gigawatts déjà installés dans le système énergétique de la Pologne.

J’écrivais, dans mes mises à jour précédentes, que le « Projet Aqueduc » combine l’impact hydrologique avec celui sur le marché d’énergies renouvelables. Faut que je corrige. La production d’hydro-énergie est tout juste un moyen d’assurer la faisabilité économique du projet et puisque j’en suis là, encore quelques résultats de calculs. Vu les données d’Eurostat sur les prix d’énergie, le « Projet Aqueduc » semble faisable financièrement plutôt avec les prix moyens enregistrés en Europe qu’avec les prix minimum. Avec les prix moyens, l’exploitation des turbines hydroélectriques ainsi que celle d’installations de stockage d’énergie peut dégager quelques 90% de marge brute qui, à son tour, peut servir à financer les autres technologies du projet (pompage avec les béliers hydrauliques, infrastructure hydrologique etc.) et à créer un surplus net de trésorerie. En revanche, lorsque je simule les prix d’énergie à leur minimum empirique, ça donne un déficit brut de -18% après le coût d’énergie et de son stockage. Du coup, le « Projet Aqueduc » n’est pas vraiment du genre « énergies renouvelables pour tous et bon marché ». Le truc a des chances de marcher sans financement publique seulement lorsqu’il touche un marché de consommateurs prêts à payer plus que le minimum pour leur électricité.

En ce qui concerne la station de chargement de véhicules électriques, comme créneau marketing pour l’hydro-énergie produite, je répète tout simplement les conclusions que j’avais déjà exprimées dans la mise à jour intitulée « I have proven myself wrong » : ça n’a pas l’air de pouvoir marcher. A moins de créer une station de chargement hyper-demandée, avec des centaines de chargements par mois, il n’y aura tout simplement pas de trafic suffisant, au moins pas avec les proportions présentes entre la flotte de véhicules électriques en Europe et le réseau des stations de chargement. En revanche, il y a cette idée alternative de stations mobiles de chargement, développé de façon rigoureuse par Elmeligy et al. (2021[1]), par exemple. C’est un changement profond d’approche. Au lieu de construire une station puissante de chargement rapide, couplée avec un magasin d’énergie performant (et cher), on construit un système de batteries mobiles à puissance un peu moins élevée (200 kW dans la solution citée) et on les déplace à travers des parkings fréquentés dans un véhicule spécialement adapté à cette fin.

Maintenant, je change de sujet, mais alors complètement. Hier, j’ai reçu un courriel de la part d’une maison d’édition américaine, Nova Science Publishers, Inc., avec l’invitation à proposer un manuscrit de livre sur le sujet général d’intelligence collective. Apparemment, ils ont lu mon article dans le journal « Energy », intitulé « Energy efficiency as manifestation of collective intelligence in human societies ». Il est aussi possible que quelqu’un chez Nova suit mon blog et ce que je publie sur le phénomène d’intelligence collective. Écrire un livre est différent d’écrire un article. Ce dernier privilégie la concision et la brévité pendant que le premier exige un flot abondant d’idées tout comme un contexte riche et structuré.

En faisant un peu de lecture, ces dernières semaines, je me suis rendu compte que mon hypothèse générale d’intelligence collective des sociétés humaines – donc l’hypothèse d’apprentissage collectif à travers l’expérimentation avec plusieurs versions alternatives de la même structure sociale de base – se marie bien avec l’hypothèse des systèmes complexes. J’ai trouvé cette intersection intéressante comme je lisais le livre intitulé « 1177 B.C. The Year Civilisation Collapsed. Revised and Updated », publié par Eric H. Cline chez Princeton University Press en 2021[2]. En étudiant les mécanismes possibles de la décomposition des grands empires de l’âge de Bronze, Eric Cline cite la théorie des systèmes complexes. Si un ensemble est composé d’entités qui différent dans leur complexité – donc si nous observons entité dans entité et tout ça dans encore une autre entité – les connections fonctionnelles entre ces entités peuvent en quelque sorte stocker l’information et donc générer l’apprentissage spontané. De façon tout à fait surprenante, j’ai trouvé une référence scientifiquement sérieuse à la théorie des systèmes complexes dans un autre bouquin que je suis en train de lire (oui, j’ai l’habitude de lire plusieurs livres à la fois), donc dans « Aware. The Science and Practice of Presence. The Groundbreaking Meditation Practice », publié par Daniel J. Siegel chez TarcherPerigee en 2018[3].  Daniel J. Siegel developpe sur l’hypothèse que la conscience humaine est un système complexe et comme tel est capable d’auto-organisation. Je me permets de traduire ad hoc un court passage du début de ce livre : « L’une des caractéristiques émergentes fondamentales des systèmes complexes dans cette réalité qui est la nôtre est désignée comme auto-organisation. C’est un concept que vous pourriez croire être crée par quelqu’un en psychologie ou même dans les affaires, mais c’est un terme mathématique. La forme ou les contours du déploiement d’un système complexe sont déterminés par cette propriété émergente d’auto-organisation. Ce déploiement peut être optimisé ou bien il peut être contraint. Lorsqu’il ne s’optimise pas, il passe vers chaos ou vers la rigidité. Lorsqu’il s’optimise, il passe vers l’harmonie, en étant flexible, adaptable, cohérent, énergétique et stable ».

Intéressant : une étude systématique du développement et de la chute d’une civilisation peut trouver la même base théorique que l’étude scientifique de la méditation et cette base et la théorie des systèmes complexes. La façon do cette théorie se présente ressemble beaucoup à mes simulations de changement social et technologique où j’utilise des réseaux neuronaux comme représentation d’intelligence collective. Je suis en train de réfléchir sur la façon la plus générale possible d’exprimer et englober mon hypothèse d’intelligence collective. Je pense que le brouillon intitulé « Behavioral absorption of Black Swans: simulation with an artificial neural network », en combinaison avec la théorie des chaînes imparfaites de Markov (Berghout & Verbitskiy 2021[4]) sont peut-être le meilleur point de départ. J’assume donc que toute réalité sociale est une collection des phénomènes que nous ne percevons que de façon partielle et imparfaite et que nous estimons comme saillants lorsque leur probabilité d’occurrence dépasse un certain niveau critique.

Mathématiquement, la réalité sociale intelligible est donc un ensemble de probabilités. Je ne fais aucune assomption à priori quant à la dépendance mutuelle formelle de ces probabilités, mais je peux assumer que nous percevons tout changement de réalité sociale comme passage d’un ensemble des probabilités à un autre, donc comme une chaîne complexe d’états. Ici et maintenant, nous sommes dans une chaîne complexe A et à partir de là, tout n’est pas possible. Bien sûr, je ne veux pas dire que tout est impossible : j’assume tout simplement que la complexité d’ici et maintenant peut se transformer en d’autres complexités sous certaines conditions et contraintes. L’assomption la plus élémentaire à ce propos est que nous envisageons de bouger notre cul collectif seulement vers des états complexes qui nous rapprochent de ce que nous poursuivons ensemble et ceci quelles que soient les contraintes exogènes à notre choix. Je dirais même qu’en présence de contraintes sévères nous devenons particulièrement attentifs à l’état complexe prochain vers lequel nous transigeons. Une société constamment menacée par la pénurie de nourriture, par exemple, va être très tatillonne et en même temps très ingénieuse dans sa propre croissance démographique, en allant même jusqu’à la régulation culturelle du cycle menstruel des femmes.

Bon, ce sera tout dans cette mise à jour. Je m’en vais réfléchir et lire (plusieurs bouquins à la fois, comme d’habitude).


[1] Elmeligy, M. M., Shaaban, M. F., Azab, A., Azzouz, M. A., & Mokhtar, M. (2021). A Mobile Energy Storage Unit Serving Multiple EV Charging Stations. Energies, 14(10), 2969. https://doi.org/10.3390/en14102969

[2] LCCN 2020024530 (print) | LCCN 2020024531 (ebook) | ISBN 9780691208015 (paperback) | ISBN 9780691208022 (ebook) ; Cline, Eric H.. 1177 B.C.: 6 (Turning Points in Ancient History, 1) . Princeton University Press. Kindle Edition.

[3] LCCN 2018016987 (print) | LCCN 2018027672 (ebook) | ISBN 9780143111788 | ISBN 9781101993040 (hardback) ; Siegel, Daniel J.. Aware (p. viii). Penguin Publishing Group. Kindle Edition.

[4] Berghout, S., & Verbitskiy, E. (2021). On regularity of functions of Markov chains. Stochastic Processes and their Applications, Volume 134, April 2021, Pages 29-54, https://doi.org/10.1016/j.spa.2020.12.006

I have proven myself wrong

I keep working on a proof-of-concept paper for the idea I baptized ‘Energy Ponds’. You can consult two previous updates, namely ‘We keep going until we observe’ and ‘Ça semble expérimenter toujours’ to keep track of the intellectual drift I am taking. This time, I am focusing on the end of the technological pipeline, namely on the battery-powered charging station for electric cars. First, I want to make myself an idea of the market for charging.

I take the case of France. In December 2020, they had a total of 119 737 electric vehicles officially registered (matriculated), which made + 135% as compared to December 2019[1]. That number pertains only to 100% electrical ones, with plug-in hybrids left aside for the moment. When plug-in hybrids enter the game, France had, in December 2020, 470 295 vehicles that need or might need the services of charging stations. According to the same source, there were 28 928 charging stations in France at the time, which makes 13 EVs per charging station. That coefficient is presented for 4 other European countries: Norway (23 EVs per charging station), UK (12), Germany (9), and Netherlands (4).

I look up into other sources. According to Reuters[2], there was 250 000 charging stations in Europe by September 2020, as compared to 34 000 in 2014. That means an average increase by 36 000 a year. I find a different estimation with Statista[3]: 2010 – 3 201; 2011 – 7 018; 2012 – 17 498; 2013 – 28 824; 2014 – 40 910; 2015 – 67 064; 2016 – 98 669; 2017 – 136 059; 2018 – 153 841; 2019 – 211 438; 2020 – 285 796.

On the other hand, the European Alternative Fuels Observatory supplies their own data at https://www.eafo.eu/electric-vehicle-charging-infrastructure, as regards European Union.

Number of EVs per charging station (source: European Alternative Fuels Observatory):

EVs per charging station
201014
20116
20123
20134
20145
20155
20165
20175
20186
20197
20209

The same EAFO site gives their own estimation as regards the number of charging stations in Europe:

Number of charging stations in Europe (source: European Alternative Fuels Observatory):

High-power recharging points (more than 22 kW) in EUNormal charging stations in EUTotal charging stations
201225710 25010 507
201375117 09317 844
20141 47424 91726 391
20153 39644 78648 182
20165 19070 01275 202
20178 72397 287106 010
201811 138107 446118 584
201915 136148 880164 016
202024 987199 250224 237

Two conclusions jump to the eye. Firstly, there is just a very approximate count of charging stations. Numbers differ substantially from source to source. I can just guess that one of the reasons for that discrepancy is the distinction between officially issued permits to build charging points, on the one hand, and the actually active charging points, on the other hand. In Europe, building charging points for electric vehicles has become sort of a virtue, which governments at all levels like signaling. I guess there is some boasting and chest-puffing in the numbers those individual countries report.  

Secondly, high-power stations, charging with direct current, with a power of at least 22 kWh,  gain in importance. In 2012, that category made 2,45% of the total charging network in Europe, and in 2020 that share climbed to 11,14%. This is an important piece of information as regards the proof-of-concept which I am building up for my idea of Energy Ponds. The charging station I placed at the end of the pipeline in the concept of Energy Ponds, and which is supposed to earn a living for all the technologies and installations upstream of it, is supposed to be powered from a power storage facility. That means direct current, and most likely, high power.   

On the whole, the www.eafo.eu site seems somehow more credible that Statista, with all the due respect for the latter, and thus I am reporting some data they present on the fleet of EVs in Europe. Here it comes, in a few consecutive tables below:

Passenger EVs in Europe (source: European Alternative Fuels Observatory):

BEV (pure electric)PHEV (plug-in-hybrid)Total
20084 1554 155
20094 8414 841
20105 7855 785
201113 39516313 558
201225 8913 71229 603
201345 66232 47478 136
201475 47956 745132 224
2015119 618125 770245 388
2016165 137189 153354 290
2017245 347254 473499 820
2018376 398349 616726 014
2019615 878479 7061 095 584
20201 125 485967 7212 093 206

Light Commercial EVs in Europe (source: European Alternative Fuels Observatory):

BEV (pure electric)PHEV (plug-in-hybrid)Total
2008253253
2009254254
2010309309
20117 6697 669
20129 5279 527
201313 66913 669
201410 04910 049
201528 61028 610
201640 926140 927
201752 026152 027
201876 286176 287
201997 36311797 480
2020120 7111 054121 765

Bus EVs in Europe (source: European Alternative Fuels Observatory):

BEV (pure electric)PHEV (plug-in-hybrid)Total
20082727
20091212
2010123123
2011128128
2012286286
2013376376
201438940429
2015420145565
2016686304990
20178884451 333
20181 6084862 094
20193 6365254 161
20205 3115505 861

Truck EVs in Europe (source: European Alternative Fuels Observatory):

BEV (pure electric)PHEV (plug-in-hybrid)Total
200855
200955
201066
201177
201288
20134747
20145858
20157171
201611339152
2017544094
201822240262
201959538633
2020983291 012

Structure of EV fleet in Europe as regards the types of vehicles (source: European Alternative Fuels Observatory):

Passenger EVLight commercial EVBus EVTruck EV
200893,58%5,70%0,61%0,11%
200994,70%4,97%0,23%0,10%
201092,96%4,97%1,98%0,10%
201163,47%35,90%0,60%0,03%
201275,09%24,17%0,73%0,02%
201384,72%14,82%0,41%0,05%
201492,62%7,04%0,30%0,04%
201589,35%10,42%0,21%0,03%
201689,39%10,33%0,25%0,04%
201790,34%9,40%0,24%0,02%
201890,23%9,48%0,26%0,03%
201991,46%8,14%0,35%0,05%
202094,21%5,48%0,26%0,05%

Summing it up a bit. The market of Electric Vehicles in Europe seems being durably dominated by passenger cars. There is some fleet in other categories of vehicles, and there is even some increase, but, for the moment, in all looks more like an experiment. Well, maybe electric buses turn up sort of more systemically.

The proportion between the fleet of electric vehicles and the infrastructure of charging stations still seems to be in the phase of adjustment in the latter to the abundance of the former. Generally, the number of charging stations seems to be growing slower than the fleet of EVs. Thus, for my own concept, I assume that the coefficient of 9 EVs per charging station, on average, will stand still or will slightly increase. For the moment, I take 9. I assume that my charging stations will have like 9 habitual customers, plus a fringe of incidental ones.

From there, I think in the following terms. The number of times the average customer charges their car depends on the distance they cover. Apparently, there is like a 100 km  50 kWh equivalence. I did not find detailed statistics as regards distances covered by electric vehicles as such, however I came by some Eurostat data on distances covered by all passenger vehicles taken together: https://ec.europa.eu/eurostat/statistics-explained/index.php?title=Passenger_mobility_statistics#Distance_covered . There is a lot of discrepancy between the 11 European countries studied for that metric, but the average is 12,49 km per day. My average 9 customers would do, in total, an average of 410,27 of 50 kWh charging purchases per year. I checked the prices of fast charging with direct current: 2,3 PLN per 1 kWh in Poland[4],  €0,22 per 1 kWh in France[5], $0,13 per 1 kWh in US[6], 0,25 pence per 1 kWh in UK[7]. Once converted to US$, it gives $0,59 in Poland, $0,26 in France, $0,35 in UK, and, of course, $0,13 in US. Even at the highest price, namely that in Poland, those 410,27 charging stops give barely more than $12 000 a year.

If I want to have a station able to charge 2 EVs at the same time, fast charging, and counting 350 kW per charging pile (McKinsey 2018[8]), I need 700 kW it total. Investment in batteries is like $600 ÷ $800 per 1 kW (Cole & Frazier 2019[9]; Cole, Frazier, Augustine 2021[10]), thus 700 * ($600 ÷ $800) = $420 000 ÷ $560 000. There is no way that investment pays back with $12 000 a year in revenue, and I haven’t even started talking about paying off on investment in all the remaining infrastructure of Energy Ponds: ram pumps, elevated tanks, semi-artificial wetlands, and hydroelectric turbines.

Now, I revert my thinking. Investment in the range of $420 000 ÷ $560 000, in the charging station and its batteries, gives a middle-of-the-interval value of $490 000. I found a paper by Zhang et al. (2018[11]) who claim that a charging station has chances to pay off, as a business, when it sells some 5 000 000 kWh a year. When I put it back-to-back with the [50 kWh / 100 km] coefficient, it gives 10 000 000 km. Divided by the average annual distance covered by European drivers, thus by 4 558,55 km, it gives 2 193,68 customers per year, or some 6 charging stops per day. That seems hardly feasible with 9 customers. I assume that one customer would charge their electric vehicle no more than twice a week, and 6 chargings a day make 6*7 = 42 chargings, and therefore 21 customers.

I need to stop and think. Essentially, I have proven myself wrong. I had been assuming that putting a charging station for electric vehicles at the end of the internal value chain in the overall infrastructure of Energy Ponds will solve the problem of making money on selling electricity. Turns out it makes even more problems. I need time to wrap my mind around it.


[1] http://www.avere-france.org/Uploads/Documents/161011498173a9d7b7d55aef7bdda9008a7e50cb38-barometre-des-immatriculations-decembre-2020(9).pdf

[2] https://www.reuters.com/article/us-eu-autos-electric-charging-idUSKBN2C023C

[3] https://www.statista.com/statistics/955443/number-of-electric-vehicle-charging-stations-in-europe/

[4] https://elo.city/news/ile-kosztuje-ladowanie-samochodu-elektrycznego

[5] https://particulier.edf.fr/fr/accueil/guide-energie/electricite/cout-recharge-voiture-electrique.html

[6] https://afdc.energy.gov/fuels/electricity_charging_home.html

[7] https://pod-point.com/guides/driver/cost-of-charging-electric-car

[8] McKinsey Center for Future Mobility, How Battery Storage Can Help Charge the Electric-Vehicle Market?, February 2018,

[9] Cole, Wesley, and A. Will Frazier. 2019. Cost Projections for Utility-Scale Battery Storage.

Golden, CO: National Renewable Energy Laboratory. NREL/TP-6A20-73222. https://www.nrel.gov/docs/fy19osti/73222.pdf

[10] Cole, Wesley, A. Will Frazier, and Chad Augustine. 2021. Cost Projections for UtilityScale Battery Storage: 2021 Update. Golden, CO: National Renewable Energy

Laboratory. NREL/TP-6A20-79236. https://www.nrel.gov/docs/fy21osti/79236.pdf.

[11] Zhang, J., Liu, C., Yuan, R., Li, T., Li, K., Li, B., … & Jiang, Z. (2019). Design scheme for fast charging station for electric vehicles with distributed photovoltaic power generation. Global Energy Interconnection, 2(2), 150-159. https://doi.org/10.1016/j.gloei.2019.07.003

Ça semble expérimenter toujours

Je continue avec l’idée que j’avais baptisée « Projet Aqueduc ». Je suis en train de préparer un article sur ce sujet, du type « démonstration de faisabilité ». Je le prépare en anglais et je me suis dit que c’est une bonne idée de reformuler en français ce que j’ai écrit jusqu’à maintenant, l’histoire de changer l’angle intellectuel, me dégourdir un peu et prendre de la distance.

Une démonstration de faisabilité suit une logique similaire à tout autre article scientifique, sauf qu’au lieu d’explorer et vérifier une hypothèse théorique du type « les choses marchent de façon ABCD, sous conditions RTYU », j’explore et vérifie l’hypothèse qu’un concept pratique, comme celui du « Projet Aqueduc », a des fondements scientifiques suffisamment solides pour que ça vaille la peine de travailler dessus et de le tester en vie réelle. Les fondements scientifiques viennent en deux couches, en quelque sorte. La couche de base consiste à passer en revue la littérature du sujet pour voir si quelqu’un a déjà décrit des solutions similaires et là, le truc c’est explorer des différentes perspectives de similarité. Similaire ne veut pas dire identique, n’est-ce pas ? Cette revue de littérature doit apporter une structure logique – un modèle – applicable à la recherche empirique, avec des variables et des paramètres constants. C’est alors que vient la couche supérieure de démonstration de faisabilité, qui consiste à conduire de la recherche empirique proprement dite avec ce modèle.    

Moi, pour le moment, j’en suis à la couche de base. Je passe donc en revue la littérature pertinente aux solutions hydrologiques et hydroélectriques, tout en formant, progressivement, un modèle numérique du « Projet Aqueduc ». Dans cette mise à jour, je commence par une brève récapitulation du concept et j’enchaîne avec ce que j’ai réussi à trouver dans la littérature. Le concept de base du « Projet Aqueduc » consiste donc à placer dans le cours d’une rivière des pompes qui travaillent selon le principe du bélier hydraulique et qui donc utilisent l’énergie cinétique de l’eau pour pomper une partie de cette eau en dehors du lit de la rivière, vers des structures marécageuses qui ont pour fonction de retenir l’eau dans l’écosystème local. Le bélier hydraulique à la capacité de pomper à la verticale aussi bien qu’à l’horizontale et donc avant d’être retenue dans les marécages, l’eau passe par une structure similaire à un aqueduc élevé (d’où le nom du concept en français), avec des réservoirs d’égalisation de flux, et ensuite elle descend vers les marécages à travers des turbines hydroélectriques. Ces dernières produisent de l’énergie qui est ensuite emmagasinée dans une installation de stockage et de là, elle est vendue pour assurer la survie financière à la structure entière. On peut ajouter des installations éoliennes et/ou photovoltaïques pour optimiser la production de l’énergie sur le terrain occupé par la structure entière.  Vous pouvez trouver une description plus élaborée du concept dans ma mise à jour intitulée « Le Catch 22 dans ce jardin d’Eden ». La faisabilité dont je veux faire une démonstration c’est la capacité de cette structure à se financer entièrement sur la base des ventes d’électricité, comme un business régulier, donc de se développer et durer sans subventions publiques. La solution pratique que je prends en compte très sérieusement en termes de créneau de vente d’électricité est une station de chargement des véhicules électriques.   

L’approche de base que j’utilise dans la démonstration de faisabilité – donc mon modèle de base – consiste à représenter le concept en question comme une chaîne des technologies :

>> TCES – stockage d’énergie

>> TCCS – station de chargement des véhicules électriques

>> TCRP – pompage en bélier hydraulique

>> TCEW – réservoirs élevés d’égalisation

>> TCCW – acheminement et siphonage d’eau

>> TCWS – l’équipement artificiel des structures marécageuses

>> TCHE – les turbines hydroélectriques

>> TCSW – installations éoliennes et photovoltaïques     

Mon intuition de départ, que j’ai l’intention de vérifier dans ma recherche à travers la littérature, est que certaines de ces technologies sont plutôt prévisibles et bien calibrées, pendant qu’il y en a d’autres qui sont plus floues et sujettes au changement, donc moins prévisibles. Les technologies prévisibles sont une sorte d’ancrage pour the concept entier et celles plus floues sont l’objet d’expérimentation.

Je commence la revue de littérature par le contexte environnemental, donc avec l’hydrologie. Les variations au niveau de la nappe phréatiques, qui est un terme scientifique pour les eaux souterraines, semblent être le facteur numéro 1 des anomalies au niveau de rétention d’eau dans les réservoirs artificiels (Neves, Nunes, & Monteiro 2020[1]). D’autre part, même sans modélisation hydrologique détaillée, il y a des preuves empiriques substantielles que la taille des réservoirs naturels et artificiels dans les plaines fluviales, ainsi que la densité de placement de ces réservoirs et ma manière de les exploiter ont une influence majeure sur l’accès pratique à l’eau dans les écosystèmes locaux. Il semble que la taille et la densité des espaces boisés intervient comme un facteur d’égalisation dans l’influence environnementale des réservoirs (Chisola, Van der Laan, & Bristow 2020[2]). Par comparaison aux autres types de technologie, l’hydrologie semble être un peu en arrière en termes de rythme d’innovation et il semble aussi que des méthodes de gestion d’innovation appliquées ailleurs avec succès peuvent marcher pour l’hydrologie, par exemple des réseaux d’innovation ou des incubateurs des technologies (Wehn & Montalvo 2018[3]; Mvulirwenande & Wehn 2020[4]). L’hydrologie rurale et agriculturale semble être plus innovatrice que l’hydrologie urbaine, par ailleurs (Wong, Rogers & Brown 2020[5]).

Ce que je trouve assez surprenant est le manque apparent de consensus scientifique à propos de la quantité d’eau dont les sociétés humaines ont besoin. Toute évaluation à ce sujet commence avec « beaucoup et certainement trop » et à partir de là, le beaucoup et le trop deviennent plutôt flous. J’ai trouvé un seul calcul, pour le moment, chez Hogeboom (2020[6]), qui maintient que la personne moyenne dans les pays développés consomme 3800 litres d’eau par jour au total, mais c’est une estimation très holistique qui inclue la consommation indirecte à travers les biens et les services ainsi que le transport. Ce qui est consommé directement via le robinet et la chasse d’eau dans les toilettes, ça reste un mystère pour la science, apparemment, à moins que la science ne considère ce sujet comment trop terre-à-terre pour s’en occuper sérieusement.     

Il y a un créneau de recherche intéressant, que certains de ses représentants appellent « la socio-hydrologie », qui étudie les comportements collectifs vis-à-vis de l’eau et des systèmes hydrologiques et qui est basée sur l’observation empirique que lesdits comportements collectifs s’adaptent, d’une façon profonde et pernicieuse à la fois, aux conditions hydrologiques que la société en question vit avec (Kumar et al. 2020[7]). Il semble que nous nous adaptons collectivement à la consommation accrue de l’eau par une productivité croissante dans l’exploitation de nos ressources hydrologiques et le revenu moyen par tête d’habitant semble être positivement corrélé avec cette productivité (Bagstad et al. 2020[8]). Il paraît donc que l’accumulation et superposition de nombreuses technologies, caractéristique aux pays développés, contribue à utiliser l’eau de façon de plus en plus productive. Dans ce contexte, il y a une recherche intéressante conduite par Mohamed et al. (2020[9]) qui avance la thèse qu’un environnement aride est non seulement un état hydrologique mais aussi une façon de gérer les ressources hydrologiques, sur ma base des données qui sont toujours incomplètes par rapport à une situation qui change rapidement.

Il y a une question qui vient plus ou moins naturellement : dans la foulée de l’adaptation socio-hydrologique quelqu’un a-t-il présenté un concept similaire à ce que moi je présente comme « Projet Aqueduc » ? Eh bien, je n’ai rien trouvé d’identique, néanmoins il y a des idées intéressement proches. Dans l’hydrologie descriptive il y a ce concept de pseudo-réservoir, qui veut dire une structure comme les marécages ou des nappes phréatiques peu profondes qui ne retiennent pas l’eau de façons statique, comme un lac artificiel, mais qui ralentissent la circulation de l’eau dans le bassin fluvial d’une rivière suffisamment pour modifier les conditions hydrologiques dans l’écosystème (Harvey et al. 2009[10]; Phiri et al. 2021[11]). D’autre part, il y a une équipe des chercheurs australiens qui ont inventé une structure qu’ils appellent par l’acronyme STORES et dont le nom complet est « short-term off-river energy storage » (Lu et al. 2021[12]; Stocks et al. 2021[13]). STORES est une structure semi-artificielle d’accumulation par pompage, où on bâtit un réservoir artificiel au sommet d’un monticule naturel placé à une certaine distance de la rivière la plus proche et ce réservoir reçoit l’eau pompée artificiellement de la rivière. Ces chercheurs australiens avancent et donnent des preuves scientifiques pour appuyer la thèse qu’avec un peu d’astuce on peut faire fonctionner ce réservoir naturel en boucle fermée avec la rivière qui l’alimente et donc de créer un système de rétention d’eau. STORES semble être relativement le plus près de mon concept de « Projet Aqueduc » et ce qui est épatant est que moi, j’avais inventé mon idée pour l’environnement des plaines alluviales de l’Europe tandis que STORES avait été mis au point pour l’environnement aride et quasi-désertique d’Australie. Enfin, il y a l’idée des soi-disant « jardins de pluie » qui sont une technologie de rétention d’eau de pluie dans l’environnement urbain, dans des structures horticulturales, souvent placées sur les toits d’immeubles (Bortolini & Zanin 2019[14], par exemple).

Je peux conclure provisoirement que tout ce qui touche à l’hydrologie strictement dite dans le cadre du « Projet Aqueduc » est sujet aux changements plutôt imprévisible. Ce que j’ai pu déduire de la littérature ressemble à un potage bouillant sous couvercle. Il y a du potentiel pour changement technologique, il y a de la pression environnementale et sociale, mais il n’y pas encore de mécanismes institutionnels récurrents pour connecter l’un à l’autre. Les technologies TCEW (réservoirs élevés d’égalisation), TCCW (acheminement et siphonage d’eau), et TCWS (l’équipement artificiel des structures marécageuses) démontrant donc un avenir flou, je passe à la technologie TCRP de pompage en bélier hydraulique. J’ai trouvé deux articles chinois, qui se suivent chronologiquement et qui semblent par ailleurs avoir été écrits par la même équipe de chercheurs : Guo et al. (2018[15]), and Li et al. (2021[16]). Ils montrent la technologie du bélier hydraulique sous un angle intéressant. D’une part, les Chinois semblent avoir donné du vrai élan à l’innovation dans ce domaine spécifique, tout au moins beaucoup plus d’élan que j’ai pu observer en Europe. D’autre part, les estimations de la hauteur effective à laquelle l’eau peut être pompée avec les béliers hydrauliques dernier cri sont respectivement de 50 mètres dans l’article de 2018 et 30 mètres dans celui de 2021. Vu que les deux articles semblent être le fruit du même projet, il y a eu comme une fascination suivie par une correction vers le bas. Quoi qu’il en soit, même l’estimation plus conservative de 30 mètres c’est nettement mieux que les 20 mètres que j’assumais jusqu’à maintenant.

Cette élévation relative possible à atteindre avec la technologie du bélier hydraulique est importante pour la technologie suivante de ma chaîne, donc celle des petites turbines hydroélectriques, la TCHE. L’élévation relative de l’eau et le flux par seconde sont les deux paramètres clés qui déterminent la puissance électrique produite (Cai, Ye & Gholinia 2020[17]) et il se trouve que dans le « Projet Aqueduc », avec l’élévation et le flux largement contrôlés à travers la technologie du bélier hydraulique, les turbines deviennent un peu moins dépendantes sur les conditions naturelles.

J’ai trouvé une revue merveilleusement encyclopédique des paramètres pertinents aux petites turbines hydroélectriques chez Hatata, El-Saadawi, & Saad (2019[18]). La puissance électrique se calcule donc comme : Puissance = densité de l’eau (1000 kg/m3) * constante d’accélération gravitationnelle (9,8 m/s2) * élévation nette (mètres) * Q (flux par seconde m3/s).

L’investissement initial en de telles installations se calcule par unité de puissance, donc sur la base de 1 kilowatt et se divise en 6 catégories : la construction de la prise d’eau, la centrale électrique strictement dite, les turbines, le générateur, l’équipement auxiliaire, le transformateur et enfin le poste extérieur. Je me dis par ailleurs que – vu la structure du « Projet Aqueduc » – l’investissement en la construction de prise d’eau est en quelque sorte équivalent au système des béliers hydrauliques et réservoirs élevés. En tout cas :

>> la construction de la prise d’eau, par 1 kW de puissance  ($) 186,216 * Puissance-0,2368 * Élévation -0,597

>> la centrale électrique strictement dite, par 1 kW de puissance  ($) 1389,16 * Puissance-0,2351 * Élévation-0,0585

>> les turbines, par 1 kW de puissance  ($)

@ la turbine Kaplan: 39398 * Puissance-0,58338 * Élévation-0,113901

@ la turbine Frances: 30462 * Puissance-0,560135 * Élévation-0,127243

@ la turbine à impulsions radiales: 10486,65 * Puissance-0,3644725 * Élévation-0,281735

@ la turbine Pelton: 2 * la turbine à impulsions radiales

>> le générateur, par 1 kW de puissance  ($) 1179,86 * Puissance-0,1855 * Élévation-0,2083

>> l’équipement auxiliaire, par 1 kW de puissance  ($) 612,87 * Puissance-0,1892 * Élévation-0,2118

>> le transformateur et le poste extérieur, par 1 kW de puissance 

($) 281 * Puissance0,1803 * Élévation-0,2075

Une fois la puissance électrique calculée avec le paramètre d’élévation relative assurée par les béliers hydrauliques, je peux calculer l’investissement initial en hydro-génération comme la somme des positions mentionnées ci-dessus. Hatata, El-Saadawi, & Saad (2019 op. cit.) recommandent aussi de multiplier une telle somme par le facteur de 1,13 (c’est donc un facteur du type « on ne sait jamais ») et d’assumer que les frais courants d’exploitation annuelle vont se situer entre 1% et 6% de l’investissement initial.

Syahputra & Soesanti (2021[19]) étudient le cas de la rivière Progo, dotée d’un flux tout à fait modeste de 6,696 mètres cubes par seconde et située dans Kulon Progo Regency (une region spéciale au sein de Yogyakarta, Indonesia). Le système des petites turbines hydroélectriques y fournit l’électricité aux 962 ménages locaux, et crée un surplus de 4 263 951 kWh par an d’énergie à revendre aux consommateurs externes. Dans un autre article, Sterl et al. (2020[20]) étudient le cas de Suriname et avancent une thèse intéressante, notamment que le développement d’installations basées sur les énergies renouvelables crée un phénomène d’appétit d’énergie qui croît à mesure de manger et qu’un tel développement en une source d’énergie – le vent, par exemple – stimule l’investissement en installations basées sur d’autres sources, donc l’hydraulique et le photovoltaïque.  

Ces études relativement récentes corroborent celles d’il y a quelques années, comme celle de Vilanova & Balestieri (2014[21]) ou bien celle de Vieira et al. (2015[22]), avec une conclusion générale que les petites turbines hydroélectriques ont atteint un degré de sophistication technologique suffisante pour dégager une quantité d’énergie économiquement profitable. Par ailleurs, il semble qu’il y a beaucoup à gagner dans ce domaine à travers l’optimisation de la distribution de puissance entre les turbines différentes. De retour aux publications les plus récentes, j’ai trouvé des études de faisabilité tout à fait robustes pour les petites turbines hydroélectriques, qui indiquent que – pourvu qu’on soit prêt à accepter un retour d’environ 10 à 11 ans sur l’investissement initial – le petit hydro peut être exploité profitablement même avec une élévation relative en dessous de 20 mètres (Arthur et al. 2020[23] ; Ali et al. 2021[24]).

C’est ainsi que j’arrive donc à la portion finale dans la chaîne technologique du « Projet Aqueduc », donc au stockage d’énergie (TCES) ainsi que TCCS ou la station de chargement des véhicules électriques. La puissance à installer dans une station de chargement semble se situer entre 700 et 1000 kilowatts (Zhang et al. 2018[25]; McKinsey 2018[26]). En dessous de 700 kilowatt la station peut devenir si difficile à accéder pour le consommateur moyen, due aux files d’attente, qu’elle peut perdre la confiance des clients locaux. En revanche, tout ce qui va au-dessus de 1000 kilowatts est vraiment utile seulement aux heures de pointe dans des environnements urbains denses. Il y a des études de concept pour les stations de chargement où l’unité de stockage d’énergie est alimentée à partir des sources renouvelables (Al Wahedi & Bicer 2020[27]). Zhang et al. (2019[28]) présentent un concept d’entreprise tout fait pour une station de chargement située dans le milieu urbain. Apparemment, le seuil de profitabilité se situe aux environs de 5 100 000 kilowatt heures vendues par an.  

En termes de technologie de stockage strictement dite, les batteries Li-ion semblent être la solution de base pour maintenant, quoi qu’une combinaison avec les piles à combustible ou bien avec l’hydrogène semble prometteuse (Al Wahedi & Bicer 2020 op. cit. ; Sharma, Panvar & Tripati 2020[29]). En général, pour le moment, les batteries Li-Ion montrent le rythme d’innovation relativement le plus soutenu (Tomaszewska et al. 2019[30] ; de Simone & Piegari 2019[31]; Koohi-Fayegh & Rosen 2020[32]). Un article récent par Elmeligy et al. (2021[33]) présente un concept intéressant d’unité mobile de stockage qui pourrait se déplacer entre plusieurs stations de chargement. Quant à l’investissement initial requis pour une station de chargement, ça semble expérimenter toujours mais la marge de manœuvre se rétrécit pour tomber quelque part entre $600 ÷ $800 par 1 kW de puissance (Cole & Frazier 2019[34]; Cole, Frazier, Augustine 2021[35]).


[1] Neves, M. C., Nunes, L. M., & Monteiro, J. P. (2020). Evaluation of GRACE data for water resource management in Iberia: a case study of groundwater storage monitoring in the Algarve region. Journal of Hydrology: Regional Studies, 32, 100734. https://doi.org/10.1016/j.ejrh.2020.100734

[2] Chisola, M. N., Van der Laan, M., & Bristow, K. L. (2020). A landscape hydrology approach to inform sustainable water resource management under a changing environment. A case study for the Kaleya River Catchment, Zambia. Journal of Hydrology: Regional Studies, 32, 100762. https://doi.org/10.1016/j.ejrh.2020.100762

[3] Wehn, U., & Montalvo, C. (2018). Exploring the dynamics of water innovation: Foundations for water innovation studies. Journal of Cleaner Production, 171, S1-S19. https://doi.org/10.1016/j.jclepro.2017.10.118

[4] Mvulirwenande, S., & Wehn, U. (2020). Fostering water innovation in Africa through virtual incubation: Insights from the Dutch VIA Water programme. Environmental Science & Policy, 114, 119-127. https://doi.org/10.1016/j.envsci.2020.07.025

[5] Wong, T. H., Rogers, B. C., & Brown, R. R. (2020). Transforming cities through water-sensitive principles and practices. One Earth, 3(4), 436-447. https://doi.org/10.1016/j.oneear.2020.09.012

[6] Hogeboom, R. J. (2020). The Water Footprint Concept and Water’s Grand Environmental Challenges. One earth, 2(3), 218-222. https://doi.org/10.1016/j.oneear.2020.02.010

[7] Kumar, P., Avtar, R., Dasgupta, R., Johnson, B. A., Mukherjee, A., Ahsan, M. N., … & Mishra, B. K. (2020). Socio-hydrology: A key approach for adaptation to water scarcity and achieving human well-being in large riverine islands. Progress in Disaster Science, 8, 100134. https://doi.org/10.1016/j.pdisas.2020.100134

[8] Bagstad, K. J., Ancona, Z. H., Hass, J., Glynn, P. D., Wentland, S., Vardon, M., & Fay, J. (2020). Integrating physical and economic data into experimental water accounts for the United States: Lessons and opportunities. Ecosystem Services, 45, 101182. https://doi.org/10.1016/j.ecoser.2020.101182

[9] Mohamed, M. M., El-Shorbagy, W., Kizhisseri, M. I., Chowdhury, R., & McDonald, A. (2020). Evaluation of policy scenarios for water resources planning and management in an arid region. Journal of Hydrology: Regional Studies, 32, 100758. https://doi.org/10.1016/j.ejrh.2020.100758

[10] Harvey, J.W., Schaffranek, R.W., Noe, G.B., Larsen, L.G., Nowacki, D.J., O’Connor, B.L., 2009. Hydroecological factors governing surface water flow on a low-gradient floodplain. Water Resour. Res. 45, W03421, https://doi.org/10.1029/2008WR007129.

[11] Phiri, W. K., Vanzo, D., Banda, K., Nyirenda, E., & Nyambe, I. A. (2021). A pseudo-reservoir concept in SWAT model for the simulation of an alluvial floodplain in a complex tropical river system. Journal of Hydrology: Regional Studies, 33, 100770. https://doi.org/10.1016/j.ejrh.2020.100770.

[12] Lu, B., Blakers, A., Stocks, M., & Do, T. N. (2021). Low-cost, low-emission 100% renewable electricity in Southeast Asia supported by pumped hydro storage. Energy, 121387. https://doi.org/10.1016/j.energy.2021.121387

[13] Stocks, M., Stocks, R., Lu, B., Cheng, C., & Blakers, A. (2021). Global atlas of closed-loop pumped hydro energy storage. Joule, 5(1), 270-284. https://doi.org/10.1016/j.joule.2020.11.015

[14] Bortolini, L., & Zanin, G. (2019). Reprint of: Hydrological behaviour of rain gardens and plant suitability: A study in the Veneto plain (north-eastern Italy) conditions. Urban forestry & urban greening, 37, 74-86. https://doi.org/10.1016/j.ufug.2018.07.003

[15] Guo, X., Li, J., Yang, K., Fu, H., Wang, T., Guo, Y., … & Huang, W. (2018). Optimal design and performance analysis of hydraulic ram pump system. Proceedings of the Institution of Mechanical Engineers, Part A: Journal of Puissance and Energy, 232(7), 841-855. https://doi.org/10.1177%2F0957650918756761

[16] Li, J., Yang, K., Guo, X., Huang, W., Wang, T., Guo, Y., & Fu, H. (2021). Structural design and parameter optimization on a waste valve for hydraulic ram pumps. Proceedings of the Institution of Mechanical Engineers, Part A: Journal of Puissance and Energy, 235(4), 747–765. https://doi.org/10.1177/0957650920967489

[17] Cai, X., Ye, F., & Gholinia, F. (2020). Application of artificial neural network and Soil and Water Assessment Tools in evaluating Puissance generation of small hydroPuissance stations. Energy Reports, 6, 2106-2118. https://doi.org/10.1016/j.egyr.2020.08.010.

[18] Hatata, A. Y., El-Saadawi, M. M., & Saad, S. (2019). A feasibility study of small hydro Puissance for selected locations in Egypt. Energy Strategy Reviews, 24, 300-313. https://doi.org/10.1016/j.esr.2019.04.013

[19] Syahputra, R., & Soesanti, I. (2021). Renewable energy systems based on micro-hydro and solar photovoltaic for rural areas: A case study in Yogyakarta, Indonesia. Energy Reports, 7, 472-490. https://doi.org/10.1016/j.egyr.2021.01.015

[20] Sterl, S., Donk, P., Willems, P., & Thiery, W. (2020). Turbines of the Caribbean: Decarbonising Suriname’s electricity mix through hydro-supported integration of wind Puissance. Renewable and Sustainable Energy Reviews, 134, 110352. https://doi.org/10.1016/j.rser.2020.110352

[21] Vilanova, M. R. N., & Balestieri, J. A. P. (2014). HydroPuissance recovery in water supply systems: Models and case study. Energy conversion and management, 84, 414-426. https://doi.org/10.1016/j.enconman.2014.04.057

[22] Vieira, D. A. G., Guedes, L. S. M., Lisboa, A. C., & Saldanha, R. R. (2015). Formulations for hydroelectric energy production with optimality conditions. Energy Conversion and Management, 89, 781-788. https://doi.org/10.1016/j.enconman.2014.10.048

[23] Arthur, E., Anyemedu, F. O. K., Gyamfi, C., Asantewaa-Tannor, P., Adjei, K. A., Anornu, G. K., & Odai, S. N. (2020). Potential for small hydroPuissance development in the Lower Pra River Basin, Ghana. Journal of Hydrology: Regional Studies, 32, 100757. https://doi.org/10.1016/j.ejrh.2020.100757

[24] Ali, M., Wazir, R., Imran, K., Ullah, K., Janjua, A. K., Ulasyar, A., … & Guerrero, J. M. (2021). Techno-economic assessment and sustainability impact of hybrid energy systems in Gilgit-Baltistan, Pakistan. Energy Reports, 7, 2546-2562. https://doi.org/10.1016/j.egyr.2021.04.036

[25] Zhang, Y., He, Y., Wang, X., Wang, Y., Fang, C., Xue, H., & Fang, C. (2018). Modeling of fast charging station equipped with energy storage. Global Energy Interconnection, 1(2), 145-152. DOI:10.14171/j.2096-5117.gei.2018.02.006

[26] McKinsey Center for Future Mobility, How Battery Storage Can Help Charge the Electric-Vehicle Market?, February 2018,

[27] Al Wahedi, A., & Bicer, Y. (2020). Development of an off-grid electrical vehicle charging station hybridized with renewables including battery cooling system and multiple energy storage units. Energy Reports, 6, 2006-2021. https://doi.org/10.1016/j.egyr.2020.07.022

[28] Zhang, J., Liu, C., Yuan, R., Li, T., Li, K., Li, B., … & Jiang, Z. (2019). Design scheme for fast charging station for electric vehicles with distributed photovoltaic power generation. Global Energy Interconnection, 2(2), 150-159. https://doi.org/10.1016/j.gloei.2019.07.003

[29] Sharma, S., Panwar, A. K., & Tripathi, M. M. (2020). Storage technologies for electric vehicles. Journal of traffic and transportation engineering (english edition), 7(3), 340-361. https://doi.org/10.1016/j.jtte.2020.04.004

[30] Tomaszewska, A., Chu, Z., Feng, X., O’Kane, S., Liu, X., Chen, J., … & Wu, B. (2019). Lithium-ion battery fast charging: A review. ETransportation, 1, 100011. https://doi.org/10.1016/j.etran.2019.100011

[31] De Simone, D., & Piegari, L. (2019). Integration of stationary batteries for fast charge EV charging stations. Energies, 12(24), 4638. https://doi.org/10.3390/en12244638

[32] Koohi-Fayegh, S., & Rosen, M. A. (2020). A review of energy storage types, applications and recent developments. Journal of Energy Storage, 27, 101047. https://doi.org/10.1016/j.est.2019.101047

[33] Elmeligy, M. M., Shaaban, M. F., Azab, A., Azzouz, M. A., & Mokhtar, M. (2021). A Mobile Energy Storage Unit Serving Multiple EV Charging Stations. Energies, 14(10), 2969. https://doi.org/10.3390/en14102969

[34] Cole, Wesley, and A. Will Frazier. 2019. Cost Projections for Utility-Scale Battery Storage.

Golden, CO: National Renewable Energy Laboratory. NREL/TP-6A20-73222. https://www.nrel.gov/docs/fy19osti/73222.pdf

[35] Cole, Wesley, A. Will Frazier, and Chad Augustine. 2021. Cost Projections for UtilityScale Battery Storage: 2021 Update. Golden, CO: National Renewable Energy

Laboratory. NREL/TP-6A20-79236. https://www.nrel.gov/docs/fy21osti/79236.pdf.

We keep going until we observe

I keep working on a proof-of-concept paper for my idea of ‘Energy Ponds’. In my last two updates, namely in ‘Seasonal lakes’, and in ‘Le Catch 22 dans ce jardin d’Eden’, I sort of refreshed my ideas and set the canvas for painting. Now, I start sketching. What exact concept do I want to prove, and what kind of evidence can possibly confirm (or discard) that concept? The idea I am working on has a few different layers. The most general vision is that of purposefully storing water in spongy structures akin to swamps or wetlands. These can bear various degree of artificial construction, and can stretch from natural wetlands, through semi-artificial ones, all the way to urban technologies such as rain gardens and sponge cities. The most general proof corresponding to that vision is a review of publicly available research – peer-reviewed papers, preprints, databases etc. – on that general topic.

Against that general landscape, I sketch two more specific concepts: the idea of using ram pumps as a technology of forced water retention, and the possibility of locating those wetland structures in the broadly spoken Northern Europe, thus my home region. Correspondingly, I need to provide two streams of scientific proof: a review of literature on the technology of ram pumping, on the one hand, and on the actual natural conditions, as well as land management policies in Europe, on the other hand.  I need to consider the environmental impact of creating new wetland-like structures in Northern Europe, as well as the socio-economic impact, and legal feasibility of conducting such projects.

Next, I sort of build upwards. I hypothesise a complex technology, where ram-pumped water from the river goes into a sort of light elevated tanks, and from there, using the principle of Roman siphon, cascades down into wetlands, and through a series of small hydro-electric turbines. Turbines generate electricity, which is being stored and then sold outside.

At that point, I have a technology of water retention coupled with a technology of energy generation and storage. I further advance a second hypothesis that such a complex technology will be economically sustainable based on the corresponding sales of electricity. In other words, I want to figure out a configuration of that technology, which will be suitable for communities which either don’t care at all, or simply cannot afford to care about the positive environmental impact of the solution proposed.

Proof of concept for those two hypotheses is going to be complex. First, I need to pass in review the available technologies for energy storage, energy generation, as well as for the construction of elevated tanks and Roman siphons. I need to take into account various technological mixes, including the incorporation of wind turbines and photovoltaic installation into the whole thing, in order to optimize the output of energy. I will try to look for documented examples of small hydro-generation coupled with wind and solar. Then, I have to rack the literature as regards mathematical models for the optimization of such power systems and put them against my own idea of reverse engineering back from the storage technology. I take the technology of energy storage which seems the most suitable for the local market of energy, and for the hypothetical charging from hydro-wind-solar mixed generation. I build a control scenario where that storage facility just buys energy at wholesale prices from the power grid and then resells it. Next, I configure the hydro-wind-solar generation so as to make it economically competitive against the supply of energy from the power grid.

Now, I sketch. I keep in mind the levels of conceptualization outlined above, and I quickly move through published science along that logical path, quickly picking a few articles for each topic. I am going to put those nonchalantly collected pieces of science back-to-back and see how and whether at all it all makes sense together. I start with Bortolini & Zanin (2019[1]), who study the impact of rain gardens on water management in cities of the Veneto region in Italy. Rain gardens are vegetal structures, set up in the urban environment, with the specific purpose to retain rainwater.  Bortolini & Zanin (2019 op. cit.) use a simplified water balance, where the rain garden absorbs and retains a volume ‘I’ of water (‘I’ stands for infiltration), which is the difference between precipitations on the one hand, and the sum total of overflowing runoff from the rain garden plus evapotranspiration of water, on the other hand. Soil and plants in the rain garden have a given top capacity to retain water. Green plants typically hold 80 – 95% of their mass in water, whilst trees hold about 50%. Soil is considered wet when it contains about 25% of water. The rain garden absorbs water from precipitations at a rate determined by hydraulic conductivity, which means the relative ease of a fluid (usually water) to move through pore spaces or fractures, and which depends on the intrinsic permeability of the material, the degree of saturation, and on the density and viscosity of the fluid.

As I look at it, I can see that the actual capacity of water retention in a rain garden can hardly be determined a priori, unless we have really a lot of empirical data from the given location. For a new location of a new rain garden, it is safe to assume that we need an experimental phase when we empirically assess the retentive capacity of the rain garden with different configurations of soil and vegetation used. That leads me to generalizing that any porous structure we use for retaining rainwater, would it be something like wetlands, or something like a rain garden in urban environment, has a natural constraint of hydraulic conductivity, and that constraint determines the percentage of precipitations, and the metric volume thereof, which the given structure can retain.

Bortolini & Zanin (2019 op. cit.) bring forth empirical results which suggest that properly designed rain gardens located on rooftops in a city can absorb from 87% to 93% of the total input of water they receive. Cool. I move on and towards the issue of water management in Europe, with a working paper by Fribourg-Blanc, B. (2018[2]), and the most important takeaway from that paper is that we have something called European Platform for Natural Water Retention Measures AKA http://nwrm.eu , and that thing have both good properties and bad properties. The good thing about http://nwrm.eu is that it contains loads of data and publications about projects in Natural Water Retention in Europe. The bad thing is that http://nwrm.eu is not a secure website. Another paper, by Tóth et al. (2017[3]) tells me that another analytical tool exists, namely the European Soil Hydraulic Database (EU‐ SoilHydroGrids ver1.0).

So far, so good. I already know there is data and science for evaluating, with acceptable precision, the optimal structure and the capacity for water retention in porous structures such as rain gardens or wetlands, in the European context. I move to the technology of ram pumps. I grab two papers: Guo et al. (2018[4]), and Li et al. (2021[5]). They show me two important things. Firstly, China seems to be burning the rubber in the field of ram pumping technology. Secondly, the greatest uncertainty as for that technology seems to be the actual height those ram pumps can elevate water at, or, when coupled with hydropower, the hydraulic head which ram pumps can create. Guo et al. (2018 op. cit.) claim that 50 meters of elevation is the maximum which is both feasible and efficient. Li et al. (2021 op. cit.) are sort of vertically more conservative and claim that the whole thing should be kept below 30 meters of elevation. Both are better than 20 meters, which is what I thought was the best one can expect. Greater elevation of water means greater hydraulic head, and more hydropower to be generated. It pays off to review literature.

Lots of uncertainty as for the actual capacity and efficiency of ram pumping means quick technological change in that domain. This is economically interesting. It means that investing in projects which involve ram pumping means investment in quickly changing a technology. That means both high hopes for an even better technology in immediate future, and high needs for cash in the balance sheet of the entities involved.

I move to the end-of-the-pipeline technology in my concept, namely to energy storage. I study a paper by Koohi-Fayegh & Rosen (2020[6]), which suggests two things. Firstly, for a standalone installation in renewable energy, whatever combination of small hydropower, photovoltaic and small wind turbines we think of, lithium-ion batteries are always a good idea for power storage, Secondly, when we work with hydrogeneration, thus when we have any hydraulic head to make electricity with, pumped storage comes sort of natural. That leads me to an idea which looks even crazier than what I have imagined so far: what if we create an elevated garden with strong capacity for water retention. Ram pumps take water from the river and pump it up onto elevated platforms with rain gardens on it. Those platforms can be optimized as for their absorption of sunlight and thus as regards their interaction with whatever is underneath them.  

I move to small hydro, and I find two papers, namely Couto & Olden (2018[7]), and Lange et al. (2018[8]), which are both interestingly critical as regards small hydropower installations. Lange et al. (2018 op. cit.) claim that the overall environmental impact of small hydro should be closely monitored. Couto & Olden (2018 op. cit.) go further and claim there is a ‘craze’ about small hydro, and that craze has already lead to overinvestment in the corresponding installations, which can be damaging both environmentally and economically (overinvestment means financial collapse of many projects). Those critical views in mind, I turn to another paper, by Zhou et al. (2019[9]), who approach the issue as a case for optimization, within a broader framework called ‘Water-Food-Energy’ Nexus, WFE for closer friends. This paper, just as a few others it cites (Ming et al. 2018[10]; Uen et al. 2018[11]), advocates for using artificial intelligence in order to optimize for WFE.

Zhou et al. (2019 op.cit.) set three hydrological scenarios for empirical research and simulation. The baseline scenario corresponds to an average hydrological year, with average water levels and average precipitations. Next to it are: a dry year and a wet year. The authors assume that the cost of installation in small hydropower is $600 per kW on average.  They simulate the use of two technologies for hydro-electric turbines: Pelton and Vortex. Pelton turbines are optimized paddled wheels, essentially, whilst the Vortex technology consists in creating, precisely, a vortex of water, and that vortex moves a rotor placed in the middle of it.

Zhou et al. (2019 op.cit.) create a multi-objective function to optimize, with the following desired outcomes:

>> Objective 1: maximize the reliability of water supply by minimizing the probability of real water shortage occurring.

>> Objective 2: maximize water storage given the capacity of the reservoir. Note: reservoir is understood hydrologically, as any structure, natural or artificial, able to retain water.

>> Objective 3: maximize the average annual output of small hydro-electric turbines

Those objectives are being achieved under the corresponding sets of constraints. For water supply those constraints all turn around water balance, whilst for energy output it is more about the engineering properties of the technologies taken into account. The three objectives are hierarchized. First, Zhou et al. (2019 op.cit.) perform an optimization regarding Objectives 1 and 2, thus in order to find the optimal hydrological characteristics to meet, and then, on the basis of these, they optimize the technology to put in place, as regards power output.

The general tool for optimization used by Zhou et al. (2019 op.cit.) is a genetic algorithm called NSGA-II, AKA Non-dominated Sorting Genetic Algorithm. Apparently, NSGA-II has a long and successful history of good track in engineering, including water management and energy (see e.g. Chang et al. 2016[12]; Jain & Sachdeva 2017[13];  Assaf & Shabani 2018[14]). I want to stop for a while here and have a good look at this specific algorithm. The logic of NSGA-II starts with creating an initial population of cases/situations/configurations etc. Each case is a combination of observations as regards the objectives to meet, and the actual values observed in constraining variables, e.g. precipitations for water balance or hydraulic head for the output of hydropower. In the conventional lingo of this algorithm, those cases are called chromosomes. Yes, I know, a hydro-electric turbine placed in the context of water management hardly looks like a chromosome, but it is a genetic algorithm, and it just sounds fancy to use that biologically marked vocabulary.

As for me, I like staying close to real life, and therefore I call those cases solutions rather than chromosomes. Anyway, the underlying math is the same. Once I have that initial population of real-life solutions, I calculate two parameters for each of them: their rank as regards the objectives to maximize, and their so-called ‘crowded distance’. Ranking is done with the procedure of fast non-dominated sorting. It is a comparison in pairs, where the solution A dominates another solution B, if and only if there is no objective of A worse than that objective of B and there is at least one objective of A better than that objective of B. The solution which scores the most wins in such peer-to-peer comparisons is at the top of the ranking, the one with the second score of wins is the second etc. Crowding distance is essentially the same as what I call coefficient of coherence in my own research: Euclidean distance (or other mathematical distance) is calculated for each pair of solutions. As a result, each solution is associated with k Euclidean distances to the k remaining solutions, which can be reduced to an average distance, i.e. the crowded distance.

In the next step, an off-spring population is produced from that original population of solutions. It is created by taking relatively the fittest solutions from the initial population, recombining their characteristics in a 50/50 proportion, and adding them some capacity for endogenous mutation. Two out of these three genetic functions are de facto controlled. We choose relatively the fittest by establishing some kind of threshold for fitness, as regards the objectives pursued. It can be a required minimum, a quantile (e.g. the third quartile), or an average. In the first case, we arbitrarily impose a scale of fitness on our population, whilst in the latter two the hierarchy of fitness is generated endogenously from the population of solutions observed. Fitness can have shades and grades, by weighing the score in non-dominated sorting, thus the number of wins over other solutions, on the one hand, and the crowded distance on the other hand. In other words, we can go for solutions which have a lot of similar ones in the population (i.e. which have a low average crowded distance), or, conversely, we can privilege lone wolves, with a high average Euclidean distance from anything else on the plate.  

The capacity for endogenous mutation means that we can allow variance in all or in just the selected variables which make each solution. The number of degrees of freedom we allow in each variable dictates the number of mutations that can be created. Once again, discreet power is given to the analyst: we can choose the genetic traits which can mutate and we can determine their freedom to mutate. In an engineering problem, technological and environmental constraints should normally put a cap on the capacity for mutation. Still, we can think about an algorithm which definitely kicks the lid off the barrel of reality, and which generates mutations in the wildest registers of variables considered. It is a way to simulate a process when the presence of strong outliers has a strong impact on the whole population.

The same discreet cap on the freedom to evolve is to be found when we repeat the process. The offspring generation of solutions goes essentially through the same process as the initial one, to produce further offspring: ranking by non-dominated sorting and crowded distance, selection of the fittest, recombination, and endogenous mutation. At the starting point of this process, we can be two alternative versions of the Mother Nature. We can be a mean Mother Nature, and we shave off from the offspring population all those baby-solutions which do not meet the initial constraints, e.g. zero supply of water in this specific case. On the other hand, we can be even meaner a Mother Nature and allow those strange, dysfunctional mutants to keep going and see what happens to the whole species after a few rounds of genetic reproduction.

With each generation, we compute an average crowded distance between all the solutions created, i.e. we check how diverse is the species in this generation. As long as diversity grows or remains constant, we assume that the divergence between the solutions generated grows or stays the same. Similarly, we can compute an even more general crowded distance between each pair of generations, and therefore to assess how far has the current generation gone from the parent one. We keep going until we observe that the intra-generational crowded distance and the inter-generational one start narrowing down asymptotically to zero. In other words, we consider resuming evolution when solutions in the game become highly similar to each other and when genetic change stops bringing significant functional change.

Cool. When I want to optimize my concept of Energy Ponds, I need to add the objective of constrained return on investment, based on the sales of electricity. In comparison to Zhou et al. (2019 op.cit.), I need to add a third level of selection. I start with selecting environmentally the solutions which make sense in terms of water management. In the next step, I produce a range of solutions which assure the greatest output of power, in a possible mix with solar and wind. Then I take those and filter them through the NSGA-II procedure as regards their capacity to sustain themselves financially. Mind you, I can shake it off a bit by fusing together those levels of selection. I can simulate extreme cases, when, for example, good economic sustainability becomes an environmental problem. Still, it would be rather theoretical. In Europe, non-compliance with environmental requirements makes a project a non-starter per se: you just can get the necessary permits if your hydropower project messes with hydrological constraints legally imposed on the given location.     

Cool. It all starts making sense. There is apparently a lot of stir in the technology of making semi-artificial structures for retaining water, such as rain gardens and wetlands. That means a lot of experimentation, and that experimentation can be guided and optimized by testing the fitness of alternative solutions for meeting objectives of water management, power output and economic sustainability. I have some starting data, to produce the initial generation of solutions, and then try to optimize them with an algorithm such as NSGA-II.


[1] Bortolini, L., & Zanin, G. (2019). Reprint of: Hydrological behaviour of rain gardens and plant suitability: A study in the Veneto plain (north-eastern Italy) conditions. Urban forestry & urban greening, 37, 74-86. https://doi.org/10.1016/j.ufug.2018.07.003

[2] Fribourg-Blanc, B. (2018, April). Natural Water Retention Measures (NWRM), a tool to manage hydrological issues in Europe?. In EGU General Assembly Conference Abstracts (p. 19043). https://ui.adsabs.harvard.edu/abs/2018EGUGA..2019043F/abstract

[3] Tóth, B., Weynants, M., Pásztor, L., & Hengl, T. (2017). 3D soil hydraulic database of Europe at 250 m resolution. Hydrological Processes, 31(14), 2662-2666. https://onlinelibrary.wiley.com/doi/pdf/10.1002/hyp.11203

[4] Guo, X., Li, J., Yang, K., Fu, H., Wang, T., Guo, Y., … & Huang, W. (2018). Optimal design and performance analysis of hydraulic ram pump system. Proceedings of the Institution of Mechanical Engineers, Part A: Journal of Power and Energy, 232(7), 841-855. https://doi.org/10.1177%2F0957650918756761

[5] Li, J., Yang, K., Guo, X., Huang, W., Wang, T., Guo, Y., & Fu, H. (2021). Structural design and parameter optimization on a waste valve for hydraulic ram pumps. Proceedings of the Institution of Mechanical Engineers, Part A: Journal of Power and Energy, 235(4), 747–765. https://doi.org/10.1177/0957650920967489

[6] Koohi-Fayegh, S., & Rosen, M. A. (2020). A review of energy storage types, applications and recent developments. Journal of Energy Storage, 27, 101047. https://doi.org/10.1016/j.est.2019.101047

[7] Couto, T. B., & Olden, J. D. (2018). Global proliferation of small hydropower plants–science and policy. Frontiers in Ecology and the Environment, 16(2), 91-100. https://doi.org/10.1002/fee.1746

[8] Lange, K., Meier, P., Trautwein, C., Schmid, M., Robinson, C. T., Weber, C., & Brodersen, J. (2018). Basin‐scale effects of small hydropower on biodiversity dynamics. Frontiers in Ecology and the Environment, 16(7), 397-404.  https://doi.org/10.1002/fee.1823

[9] Zhou, Y., Chang, L. C., Uen, T. S., Guo, S., Xu, C. Y., & Chang, F. J. (2019). Prospect for small-hydropower installation settled upon optimal water allocation: An action to stimulate synergies of water-food-energy nexus. Applied Energy, 238, 668-682. https://doi.org/10.1016/j.apenergy.2019.01.069

[10] Ming, B., Liu, P., Cheng, L., Zhou, Y., & Wang, X. (2018). Optimal daily generation scheduling of large hydro–photovoltaic hybrid power plants. Energy Conversion and Management, 171, 528-540. https://doi.org/10.1016/j.enconman.2018.06.001

[11] Uen, T. S., Chang, F. J., Zhou, Y., & Tsai, W. P. (2018). Exploring synergistic benefits of Water-Food-Energy Nexus through multi-objective reservoir optimization schemes. Science of the Total Environment, 633, 341-351. https://doi.org/10.1016/j.scitotenv.2018.03.172

[12] Chang, F. J., Wang, Y. C., & Tsai, W. P. (2016). Modelling intelligent water resources allocation for multi-users. Water resources management, 30(4), 1395-1413. https://doi.org/10.1007/s11269-016-1229-6

[13] Jain, V., & Sachdeva, G. (2017). Energy, exergy, economic (3E) analyses and multi-objective optimization of vapor absorption heat transformer using NSGA-II technique. Energy Conversion and Management, 148, 1096-1113. https://doi.org/10.1016/j.enconman.2017.06.055

[14] Assaf, J., & Shabani, B. (2018). Multi-objective sizing optimisation of a solar-thermal system integrated with a solar-hydrogen combined heat and power system, using genetic algorithm. Energy Conversion and Management, 164, 518-532. https://doi.org/10.1016/j.enconman.2018.03.026

Seasonal lakes

Once again, been a while since I last blogged. What do you want, I am having a busy summer. Putting order in my own chaos, and, over the top of that, putting order in other people’s chaos, this is all quite demanding in terms of time and energy. What? Without trying to put order in chaos, that chaos might take less time and energy? Well, yes, but order look tidier than chaos.

I am returning to the technological concept which I labelled ‘Energy Ponds’ (or ‘projet Aqueduc’ in French >> see: Le Catch 22 dans ce jardin d’Eden). You can find a description of that concept onder the hyperlinked titles provided. I am focusing on refining my repertoire of skills in scientific validation of technological concepts. I am passing in review some recent literature, and I am trying to find good narrative practices in that domain.

The general background of ‘Energy Ponds’ consists in natural phenomena observable in Europe as the climate change progresses, namely: a) long-term shift in the structure of precipitations, from snow to rain b) increasing occurrence of floods and droughts c) spontaneous reemergence of wetlands. All these phenomena have one common denominator: increasingly volatile flow per second in rivers. The essential idea of Energy Ponds is to ‘financialize’ that volatile flow, so to say, i.e. to capture its local surpluses, store them for later, and use the very mechanism of storage itself as a source of economic value.

When water flows downstream, in a river, its retention can be approached as the opportunity for the same water to loop many times over the same specific portion of the collecting basin (of the river). Once such a loop is created, we can extend the average time that a liter of water spends in the whereabouts. Ram pumps, connected to storage structures akin to swamps, can give such an opportunity. A ram pump uses the kinetic energy of flowing water in order to pump some of that flow up and away from its mainstream. Ram pumps allow forcing a process, which we now as otherwise natural. Rivers, especially in geological plains, where they flow relatively slowly, tend to build, with time, multiple ramifications. Those branchings can be directly observable at the surface, as meanders, floodplains or seasonal lakes, but much of them is underground, as pockets of groundwater. In this respect, it is useful to keep in mind that mechanically, rivers are the drainpipes of rainwater from their respective basins. Another basic hydrological fact, useful to remember in the context of the Energy Ponds concept, is that strictly speaking retention of rainwater – i.e. a complete halt in its circulation through the collecting basin of the river – is rarely possible, and just as rarely it is a sensible idea to implement. Retention means rather a slowdown to the flow of rainwater through the collecting basin into the river.

One of the ways that water can be slowed down consists in making it loop many times over the same section of the river. Let’s imagine a simple looping sequence: water from the river is being ram-pumped up and away into retentive structures akin to swamps, i.e. moderately deep spongy structures underground, with high capacity for retention, covered with a superficial layer of shallow-rooted vegetation. With time, as the swamp fills with water, the surplus is evacuated back into the river, by a system of canals. Water stored in the swamp will be ultimately evacuated, too, minus evaporation, it will just happen much more slowly, by the intermediary of groundwaters. In order to illustrate the concept mathematically, let’ s suppose that we have water in the river flowing at the pace of, e.g. 45 m3 per second. We make it loop once via ram pumps and retentive swamps, and, if as a result of that looping, the speed of the flow is sliced by 3. On the long run we slow down the way that the river works as the local drainpipe: we slow it from 43 m3 per second down to [43/3 = 14,33…] m3 per second.  As water from the river flows slower overall, it can yield more environmental services: each cubic meter of water has more time to ‘work’ in the ecosystem.  

When I think of it, any human social structure, such as settlements, industries, infrastructures etc., needs to stay in balance with natural environment. That balance is to be understood broadly, as the capacity to stay, for a satisfactorily long time, within a ‘safety zone’, where the ecosystem simply doesn’t kill us. That view has little to do with the moral concepts of environment-friendliness or sustainability. As a matter of fact, most known human social structures sooner or later fall out of balance with the ecosystem, and this is how civilizations collapse. Thus, here comes the first important assumption: any human social structure is, at some level, an environmental project. The incumbent social structures, possible to consider as relatively stable, are environmental projects which have simply hold in place long enough to grow social institutions, and those institutions allow further seeking of environmental balance.

I am starting my review of literature with an article by Phiri et al. (2021[1]), where the authors present a model for assessing the way that alluvial floodplains behave. I chose this one because my concept of Energy Ponds is supposed to work precisely in alluvial floodplains, i.e. in places where we have: a) a big river b) a lot of volatility in the amount of water in that river, and, as a consequence, we have (c) an alternation of floods and droughts. Normal stuff where I come from, i.e. in Northern Europe. Phiri et al. use the general model, acronymically called SWAT, which comes from ‘Soil and Water Assessment Tool’ (see also: Arnold et al. 1998[2]; Neitsch et al. 2005[3]), and with that general tool, they study the concept of pseudo-reservoirs in alluvial plains. In short, a pseudo-reservoir is a hydrological structure which works like a reservoir but does not necessarily look like one. In that sense, wetlands in floodplains can work as reservoirs of water, even if from the hydrological point of view they are rather extensions of the main river channel (Harvey et al. 2009[4]).

Analytically, the SWAT model defines the way a reservoir works with the following equation: V = Vstored + Vflowin − Vflowout + Vpcp − Vevap − Vseep . People can rightly argue that it is a good thing to know what symbols mean in an equation, and therefore V stands for the volume of water in reservoir at the end of the day, Vstored corresponds to the amount of water stored at the beginning of the day, Vflowin means the quantity of water entering reservoir during the day, Vflowout is the metric outflow of water during the day, Vpcp is volume of precipitation falling on the water body during the day, Vevap is volume of water removed from the water body by evaporation during the day, Vseep is volume of water lost from the water body by seepage.

This is a good thing to know, as well, once we have a nice equation, what the hell are we supposed to do with it in real life. Well, the SWAT model has even its fan page (http://www.swatusers.com ), and, as Phiri et al. phrase it out, it seems that the best practical use is to control the so-called ‘target release’, i.e. the quantity of water released at a given point in space and time, designated as Vtarg. The target release is mostly used as a control metric for preventing or alleviating floods, and with that purpose in mind, two decision rules are formulated. During the non-flood season, no reservation for flood is needed, and target storage is set at emergency spillway volume. In other words, in the absence of imminent flood, we can keep the reservoir full. On the other hand, when the flood season is on, flood control reservation is a function of soil water content. This is set to maximum and 50 % of maximum for wet and dry grounds, respectively. In the context of the V = Vstored + Vflowin − Vflowout + Vpcp − Vevap − Vseep equation, Vtarg is a specific value (or interval of values) in the Vflowout component.

As I am wrapping my mind around those conditions, I am thinking about the opposite application, i.e. about preventing and alleviating droughts. Drought is recognizable by exceptionally low values in the amount of water stored at the end of the given period, thus in the basic V, in the presence of low precipitation, thus low Vpcp, and high evaporation, which corresponds to high Vevap. More generally, both floods and droughts occur when – or rather after – in a given Vflowin − Vflowout balance, precipitation and evaporation take one turn or another.

I feel like moving those exogenous meteorological factors on one side of the equation, which goes like  – Vpcp + Vevap =  – V + Vstored + Vflowin − Vflowout − Vseep and doesn’t make much sense, as there are not really many cases of negative precipitation. I need to switch signs, and then it is more presentable, as Vpcp – VevapV – Vstored – Vflowin + Vflowout + Vseep . Weeell, almost makes sense. I guess that Vflowin is sort of exogenous, too. The inflow of water into the basin of the river comes from a melting glacier, from another river, from an upstream section of the same river etc. I reframe: Vpcp – Vevap + Vflowin V – Vstored + Vflowout + Vseep  . Now, it makes sense. Precipitations plus the inflow of water through the main channel of the river, minus evaporation, all that stuff creates a residual quantity of water. That residual quantity seeps into the groundwaters (Vseep), flows out (Vflowout), and stays in the reservoir-like structure at the end of the day (V – Vstored).

I am having a look at how Phiri et al. (2021 op. cit.) phrase out their model of pseudo-reservoir. The output value they peg the whole thing on is Vpsrc, or the quantity of water retained in the pseudo-reservoir at the end of the day. The Vpsrc is modelled for two alternative situations: no flood (V ≤ Vtarg), or flood (V > Vtarg). I interpret drought as particularly uncomfortable a case of the absence of flood.

Whatever. If V ≤ Vtarg , then Vpsrc = Vstored + Vflowin − Vbaseflowout + Vpcp − Vevap − Vseep  , where, besides the already known variables, Vbaseflowoutstands for volume of water leaving PSRC during the day as base flow. When, on the other hand, we have flood, Vpsrc = Vstored + Vflowin − Vbaseflowout − Voverflowout + Vpcp − Vevap − Vseep .

Phiri et al. (2021 op. cit.) argue that once we incorporate the phenomenon of pseudo-reservoirs in the evaluation of possible water discharge from alluvial floodplains, the above-presented equations perform better than the standard SWAT model, or V = Vstored + Vflowin − Vflowout + Vpcp − Vevap − Vseep

My principal takeaway from the research by Phiri et al. (2021 op. cit.) is that wetlands matter significantly for the hydrological balance of areas with characteristics of floodplains. My concept of ‘Energy Ponds’ assumes, among other things, storing water in swamp-like structures, including urban and semi-urban ones, such as rain gardens (Sharma & Malaviya 2021[5] ; Li, Liu & Li 2020[6] ; Venvik & Boogaard 2020[7],) or sponge cities (Ma, Jiang & Swallow 2020[8] ; Sun, Cheshmehzangi & Wang 2020[9]).  

Now, I have a few papers which allow me to have sort of a bird’s eye view of the SWAT model as regards the actual predictability of flow and retention in fluvial basins. It turns out that identifying optimal sites for hydropower installations is a very complex task, prone to a lot of error, and only the introduction of digital data such as GIS allows acceptable precision. The problem is to estimate accurately both the flow and the head of the waterway in question at an exact location (Liu et al., 2017[10]; Gollou and Ghadimi 2017[11]; Aghajani & Ghadimi 2018[12]; Yu & Ghadimi 2019[13]; Cai, Ye & Gholinia 2020[14]). My concept of ‘Energy Ponds’ includes hydrogeneration, but makes one of those variables constant, by introducing something like Roman siphons, with a constant head, apparently possible to peg at 20 metres. The hydro-power generation seems to be pseudo-concave function (i.e. it hits quite a broad, concave peak of performance) if the hydraulic head (height differential) is constant, and the associated productivity function is strongly increasing. Analytically, it can be expressed as a polynomial, i.e. as a combination of independent factors with various powers (various impact) assigned to them (Cordova et al. 2014[15]; Vieira et al. 2015[16]). In other words, by introducing, in my technological concept, that constant head (height) makes the whole thing more prone to optimization.

Now, I take on a paper which shows how to present a proof of concept properly: Pradhan, A., Marence, M., & Franca, M. J. (2021). The adoption of Seawater Pump Storage Hydropower Systems increases the share of renewable energy production in Small Island Developing States. Renewable Energy, https://doi.org/10.1016/j.renene.2021.05.151 . This paper is quite close to my concept of ‘Energy Ponds’, as it includes the technology of pumped storage, which I think about morphing and changing into something slightly different. Such as presented by Pradhan, Marence & Franca (2021, op. cit.), the proof of concept is structured in two parts: the general concept is presented, and then a specific location is studied  – the island of Curaçao, in this case – as representative for a whole category. The substance of proof is articulated around the following points:

>> the basic diagnosis as for the needs of the local community in terms of energy sources, with the basic question whether Seawater Pumped Storage Hydropower System is locally suitable as technology. In this specific case, the main criterium was the possible reduction of dependency on fossils. Assumptions as for the electric power required have been made, specifically for the local community.  

>> a GIS tool has been tested for choosing the optimal location. GIS stands for Geographic Information System (https://en.wikipedia.org/wiki/Geographic_information_system ). In this specific thread the proof of concept consisted in checking whether the available GIS data, and the software available for processing it are sufficient for selecting an optimal location in Curaçao.

At the bottom line, the proof of concept sums up to checking, whether the available GIS technology allows calibrating a site for installing the required electrical power in a Seawater Pumped Storage Hydropower System.

That paper by Pradhan, Marence & Franca (2021, op. cit.) presents a few other interesting traits for me. Firstly, the author’s prove that combining hydropower with windmills and solar modules is a viable solution, and this is exactly what I thought, only I wasn’t sure. Secondly, the authors consider a very practical issue: corrosion, and the materials recommended in order to bypass that problem. Their choice is fiberglass. Secondly, they introduce an important parameter, namely the L/H aka ‘Length to Head’ ratio. This is the proportion between the length of water conductors and the hydraulic head (i.e. the relative denivelation) in the actual installation. Pradhan, Marence & Franca recommend distinguishing two types of installations: those with L/H < 15, on the one hand, and those with 15 ≤ L/H ≤ 25. However accurate is that assessment of theirs, it is a paremeter to consider. In my concept of ‘Energy Ponds’, I assume an artificially created hydraulic head of 20 metres, and thus the conductors leading from elevated tanks to the collecting wetland-type structure should be classified in two types, namely [(L/H < 15) (L < 15*20) (L < 300 metres)], on the one hand, and [(15 ≤ L/H ≤ 25) (300 metres ≤ L ≤ 500 metres)], on the other hand.  

Still, there is bad news for me. According to a report by Botterud, Levin & Koritarov (2014[17]), which Pradhan, Marence & Franca quote as an authoritative source, hydraulic head for pumped storage should be at least 100 metres in order to make the whole thing profitable. My working assumption with ‘Energy Ponds’ is 20 metres, and, obviously, I have to work through it.

I think I have the outline of a structure for writing a decent proof-of-concept article for my ‘Energy Ponds’ concept. I think I should start with something I have already done once, two years ago, namely with compiling data as regards places in Europe, located in fluvial plains, with relatively the large volatility in water level and flow. These places will need water retention.

Out of that list, I select locations eligible for creating wetland-type structures for retaining water, either in the form of swamps, or as porous architectural structures. Once that second list prepared, I assess the local need for electrical power. From there, I reverse engineer. With a given power of X megawatts, I reverse to the storage capacity needed for delivering that power efficiently and cost-effectively. I nail down the storage capacity as such, and I pass in review the available technologies of power storage.

Next, I choose the best storage technology for that specific place, and I estimate the investment outlays necessary for installing it. I calculate the hydropower required in hydroelectric turbines, as well as in adjacent windmills and photovoltaic. I check whether the local river can supply the amount of water that fits the bill. I pass in review literature as regards optimal combinations of those three sources of energy. I calculate the investment outlays needed to install all that stuff, and I add the investment required in ram pumping, elevated tanks, and water conductors.  

Then, I do a first approximation of cash flow: cash from sales of electricity, in that local installation, minus the possible maintenance costs. After I calculate that gross margin of cash,  I compare it to the investment capital I had calculated before, and I try to estimate provisionally the time of return on investment. Once this done, I add maintenance costs to my sauce. I think that the best way of estimating these is to assume a given lifecycle of complete depreciation in the technology installed, and to count maintenance costs as the corresponding annual amortization.         


[1] Phiri, W. K., Vanzo, D., Banda, K., Nyirenda, E., & Nyambe, I. A. (2021). A pseudo-reservoir concept in SWAT model for the simulation of an alluvial floodplain in a complex tropical river system. Journal of Hydrology: Regional Studies, 33, 100770. https://doi.org/10.1016/j.ejrh.2020.100770.

[2] Arnold, J.G., Srinivasan, R., Muttiah, R.S., Williams, J.R., 1998. Large area hydrological modelling and assessment: Part I. Model development. J. Am. Water Resour. Assoc. 34, 73–89.

[3] Neitsch, S.L., Arnold, J.G., Kiniry, J.R., Williams, J.R., 2005. “Soil and Water Assessment Tool Theoretical Documentation.” Version 2005. Blackland Research Center, Texas.

[4] Harvey, J.W., Schaffranek, R.W., Noe, G.B., Larsen, L.G., Nowacki, D.J., O’Connor, B.L., 2009. Hydroecological factors governing surface water flow on a low-gradient floodplain. Water Resour. Res. 45, W03421, https://doi.org/10.1029/2008WR007129.

[5] Sharma, R., & Malaviya, P. (2021). Management of stormwater pollution using green infrastructure: The role of rain gardens. Wiley Interdisciplinary Reviews: Water, 8(2), e1507. https://doi.org/10.1002/wat2.1507

[6] Li, J., Liu, F., & Li, Y. (2020). Simulation and design optimization of rain gardens via DRAINMOD and response surface methodology. Journal of Hydrology, 585, 124788. https://doi.org/10.1016/j.jhydrol.2020.124788

[7] Venvik, G., & Boogaard, F. C. (2020). Infiltration capacity of rain gardens using full-scale test method: effect of infiltration system on groundwater levels in Bergen, Norway. Land, 9(12), 520. https://doi.org/10.3390/land9120520

[8] Ma, Y., Jiang, Y., & Swallow, S. (2020). China’s sponge city development for urban water resilience and sustainability: A policy discussion. Science of the Total Environment, 729, 139078. https://doi.org/10.1016/j.scitotenv.2020.139078

[9] Sun, J., Cheshmehzangi, A., & Wang, S. (2020). Green infrastructure practice and a sustainability key performance indicators framework for neighbourhood-level construction of sponge city programme. Journal of Environmental Protection, 11(2), 82-109. https://doi.org/10.4236/jep.2020.112007

[10] Liu, Yan, Wang, Wei, Ghadimi, Noradin, 2017. Electricity load forecasting by an improved forecast engine for building level consumers. Energy 139, 18–30. https://doi.org/10.1016/j.energy.2017.07.150

[11] Gollou, Abbas Rahimi, Ghadimi, Noradin, 2017. A new feature selection and hybrid forecast engine for day-ahead price forecasting of electricity markets. J. Intell. Fuzzy Systems 32 (6), 4031–4045.

[12] Aghajani, Gholamreza, Ghadimi, Noradin, 2018. Multi-objective energy manage- ment in a micro-grid. Energy Rep. 4, 218–225.

[13] Yu, Dongmin, Ghadimi, Noradin, 2019. Reliability constraint stochastic UC by considering the correlation of random variables with Copula theory. IET Renew. Power Gener. 13 (14), 2587–2593.

[14] Cai, X., Ye, F., & Gholinia, F. (2020). Application of artificial neural network and Soil and Water Assessment Tools in evaluating power generation of small hydropower stations. Energy Reports, 6, 2106-2118. https://doi.org/10.1016/j.egyr.2020.08.010.

[15] Cordova M, Finardi E, Ribas F, de Matos V, Scuzziato M. Performance evaluation and energy production optimization in the real-time operation of hydropower plants. Electr Pow Syst Res 2014;116:201–7.   http://dx.doi.org/ 10.1016/j.epsr.2014.06.012  

[16] Vieira, D. A. G., Guedes, L. S. M., Lisboa, A. C., & Saldanha, R. R. (2015). Formulations for hydroelectric energy production with optimality conditions. Energy Conversion and Management, 89, 781-788.

[17] Botterud, A., Levin, T., & Koritarov, V. (2014). Pumped storage hydropower: benefits for grid reliability and integration of variable renewable energy (No. ANL/DIS-14/10). Argonne National Lab.(ANL), Argonne, IL (United States). https://publications.anl.gov/anlpubs/2014/12/106380.pdf

Le Catch 22 dans ce jardin d’Eden

Ça fait un sacré bout de temps depuis ma dernière mise à jour en français sur ce blog, « Discover Social Sciences ». Je n’avais pas écrit en français depuis printemps 2020. Pourquoi je recommence maintenant ? Probablement parce que j’ai besoin d’arranger les idées dans ma tête. Il se passe beaucoup de choses, cette année, et j’avais découvert, déjà en 2017, qu’écrire en français m’aide à mettre de l’ordre dans le flot de mes pensées.

Je me concentre sur un sujet que j’avais déjà développé dans le passé et que je vais présenter à une conférence, ce vendredi. Il s’agit du concept que j’avais nommé « Étangs énergétiques » auparavant et que je présente maintenant comme « Projet aqueduc ». Je commence avec une description générale du concept et ensuite je vais passer en revue un peu de littérature récente sur le sujet.

Oui, bon, le sujet. Le voilà. Il s’agit d’un concept technologique qui combine la rétention contrôlée de l’eau dans les écosystèmes placés le long des fleuves et des rivières avec de la génération d’électricité avec les turbines hydrauliques, le tout sur la base des structures marécageuses. Du point de vue purement hydrologique, une rivière est une gouttière qui collecte l’eau de pluie qui tombe sur la surface de son bassin. Le lit de la rivière est une vallée inclinée qui connecte les points le moins élevés du terrain en question et de de fait l’eau de pluie converge des tous les points du bassin fluvial vers l’embouchure de la rivière.

La civilisation humaine sédentaire est largement basée sur le fait que les bassins fluviaux ont la capacité de retenir l’eau de pluie pour un certain temps avant qu’elle s’évapore ou coule dans la rivière. Ça se retient à la surface – en forme des lacs, étangs ou marécages – et ça se retient sous terre, en forme des couches et des poches aquifères diverses. La rétention souterraine dans les poches aquifères rocheuses est naturellement permanente. L’eau retenue dans une couche aquifère reste là jusqu’au moment où nous la puisons. En revanche, la rétention superficielle ainsi que celle dans les couches aquifères souterraines est essentiellement temporaire. L’eau y est ralentie dans sa circulation, aussi bien dans son mouvement physique vers les points les plus bas du bassin local (la rivière du coin) que dans son évaporation vers l’atmosphère. L’existence même des fleuves et des rivières est aussi une manifestation de circulation ralentie. Le lit de la rivière n’arrive pas à évacuer en temps réel toute l’eau qui s’y agglomère et c’est ainsi que les rivières ont de la profondeur : cette profondeur est la mesure de rétention temporaire de l’eau de pluie.

Ces mécanismes fondamentaux fonctionnent différemment en fonction des conditions géologiques. Maintenant, je me concentre sur les conditions que je connais dans mon environnement à moi, donc sur les écosystèmes des plaines et des vallées de l’Europe du Nord, soit grosso modo au nord des Alpes. Ces écosystèmes sont pour la plupart des moraines post-glaciales de fond, donc c’est de la terre littéralement labourée, sculptée et dénivelée par les glaciers. Il n’y a pas vraiment beaucoup de poches aquifères profondes dans la roche de base, en revanche nous avons beaucoup de couches aquifères relativement proches de la surface. Par conséquent, il n’y a pas beaucoup d’accumulation durable de l’eau, à la différence de l’Europe du Sud et de l’Afrique du Nord, où les poches aquifères rocheuses peuvent retenir des quantités importantes d’eau pendant des décennies, voir des siècles. La circulation de l’eau dans ces écosystèmes des plaines est relativement lente – beaucoup plus lente que dans la montagne – ce qui favorise la présence des rivières larges et pas vraiment très profondes ainsi que la formation des marécages.

Dans ces plaines post-glaciales de l’Europe du Nord, l’eau coule lentement, s’accumule peu et s’évapore vite. La forme idéale des précipitations dans ces conditions géologiques c’est de la neige abondante en hiver – qui fond lentement, goutte par goute, au printemps – ainsi que des pluies lentes en longues. La moraine post-glaciale absorbe bien de l’eau qui arrive lentement, mais n’est pas vraiment faite pour absorber des pluies torrentielles. Avec le changement climatique, les précipitations ont changé. Il y a beaucoup moins de neige en hiver en beaucoup plus des pluies violentes. Si nous voulons avoir du contrôle de notre système hydrologique, il nous faut des technologies de rétention d’eau pour compenser des variations temporaires.

Bon, ça c’est le contexte de mon idée et voilà l’idée elle-même. Elle consiste à créer des structures marécageuses semi-artificielles dans la proximité des rivières et les remplir avec de l’eau pompée desdites rivières. La technologie de pompage est celle du bélier hydraulique : une pompe qui utilise l’énergie cinétique de l’eau courante. Le principe général est un truc ancien. D’après ce que j’ai lu à ce sujet, le principe de base, sous la forme de la roue à aubes , fût déjà en usage dans la Rome ancienne, était très utilisé dans les villes Européennes jusqu’à la fin du 18ème siècle. La technologie du bélier hydraulique – une pompe qui utilise ladite énergie cinétique de l’eau dans un mécanisme similaire au muscle cardiaque – fût victime des aléas de l’histoire. Inventée en 1792 par Joseph de Montgolfier (oui, l’un des fameux frères-ballon), cette technologie n’avait jamais eu l’occasion de montrer tous ses avantages. en 1792 (le même qui, quelques années plus tôt, fit voler, avec son frère Étienne, le premier ballon à air chaud). Au 19ème siècle, avec la création des systèmes hydrauliques modernes avec l’eau courante dans les robinets, les technologies de pompage devaient offrir assez de puissance pour assurer une pression suffisante au niveau des robinets et c’est ainsi que les pompes électriques avaient pris la relève. Néanmoins, lorsqu’il s’agit de pomper lentement de l’eau courante des rivières vers les marécages artificiels, le bélier hydraulique est suffisant.

« Suffisant pour faire quoi exactement ? », peut-on demander. Voilà donc le reste de mon idée. Un ou plusieurs béliers hydrauliques sont plongés dans une rivière. Ils pompent l’eau de la rivière vers des structures marécageuses semi-artificielles. Ces marécages servent à retenir l’eau de pluie (qui coule déjà dans le cours de la rivière). L’eau de la rivière que je pompe vers les marécages c’est l’eau de pluie qui avait gravité, en amont, vers le lit de la rivière. Une fois dans les marécages, cette eau va de toute façon finir par graviter vers le lit de la rivière à quelque distance en amont. Pompage et rétention dans les marécages servent à ralentir la circulation de l’eau dans l’écosystème local. Circulation ralentie veut dire que plus d’eau va s’accumuler dans cet écosystème, comme une réserve flottante. Il y aura plus d’eau dans les couches aquifères souterraines, donc plus d’eau dans les puits locaux et – à la longue – plus d’eau dans la rivière elle-même, puisque l’eau dans la rivière c’est l’eau qui y avait coulé depuis et à travers les réservoirs locaux.

Jusqu’à ce point-là, l’idée se présente donc de façon suivante : rivière => bélier hydraulique => marécages => rivière. Je passe plus loin. Le pompage consiste à utiliser l’énergie cinétique de l’eau courante. L’énergie, ça se conserve par transformation. L’énergie cinétique de l’eau courante se transforme en énergie cinétique de la pompe, qui à son tour se transforme en énergie cinétique du flux vers les marécages.

La surface des marécages est placée au-dessus du lit de la rivière, à moins qu’ils ne soient un polder, auquel cas il n’y a pas besoin de pompage. Une fois l’eau est déversée dans les marécages, ceux-là absorbent donc, dans leur masse, l’énergie cinétique du flux qui se transforme en énergie potentielle de dénivellation. Et si nous amplifions ce phénomène ? Si nous utilisions l’énergie cinétique captée par le bélier hydraulique de façon à minimiser la dispersion dans la masse des marécages et de créer un maximum d’énergie potentielle ? L’énergie potentielle et proportionnelle à l’élévation relative. Plus haut je pompe l’eau de la rivière, plus d’énergie potentielle je récupère à partir de l’énergie cinétique du flux pompé. La solution la plus évidente serait une installation de pompage-turbinage, donc le réservoir de rétention devrait être placé sérieusement plus haut que la rivière. Quoi qu’apparemment la plus évidente et porteuse des principes de base intéressants, cette solution a ses défauts en ce qui concerne sa flexibilité et son coût.

Le principe de base à retenir c’est l’idée d’utiliser l’énergie potentielle de l’eau pompée à une certaine élévation comme un de facto réservoir d’énergie électrique. Il suffit de placer des turbines hydro-électriques en aval de l’eau stockée en élévation. En revanche, les installations de pompage-turbinage sont très coûteuses et très exigeantes en termes d’espace. Le réservoir supérieur dans les installations de pompage-turbinage est censé être soit un lac semi-artificiel soit un réservoir complètement artificiel en de tour, certainement pas un marécage. Il est donc temps que j’explique pourquoi je suis tant attaché à cette forme hydrologique précise. Les marécages sont relativement peu chers à créer et à maintenir, tout en étant relativement faciles à placer près de et de combiner avec les habitations humaines. Par « relativement » je veux dire en comparaison au pompage-turbinage.

Le marécage est un endroit symboliquement négatif dans notre culture. Le mal est tapi dans les marécages. Les marécages sont malsains. Ma théorie tout à fait privée à ce sujet est que dans le passé les colonies humaines, fréquemment celles qui ont finalement donné naissance à des villes, étaient localisées près des marécages. Probablement c’était parce que le niveau d’eau souterraine dans des tels endroits est favorablement haut. Il est facile d’y creuser des puits, d’épandre des fossés d’irrigation, petit gibier y abonde. Seulement voilà, lorsque les homo sapiens abondent, ils se différencient inévitablement en hominides rustiques d’une part et les citadins d’autre part. Ce partage est un mécanisme de base de la civilisation humaine. La campagne produit de la nourriture, la ville produit des nouveaux rôles sociaux, à travers interaction intense dans un espace densément peuplé. L’un des aspects fondamentaux de la ville est qu’elle sert de laboratoire expérimental permanent pour nos technologies, à travers la construction et la reconstruction d’immeubles. Oui, l’architecture, en compagnie du textile, du bâtiment naval et de la guerre, ont toujours été les activités humaines par excellence orientées sur l’innovation technologique.

La ville veut donc dire le bâtiment et le bâtiment a besoin de terre vraiment ferme. Les marécages deviennent ennemis. Il faut les assécher et les séparer durablement de la circulation hydrologique naturelle qui les eût formés pendant des millénaires. Les humains et les marécages ce fût donc un mariage naturel au début, suivie par une crise conjugale due à la nécessité d’apprendre comment faire de la technologie nouvelle et maintenant la technologie vraiment nouvelle rend possible une médiation conjugale dans ce couple. Il y a tout un courant de recherche et innovation architecturale, concentré autour des concepts tels que « les jardins de pluie » (Sharma & Malaviya 2021[1] ; Li, Liu & Li 2020[2] ; Venvik & Boogaard 2020[3]) ou « les villes éponges » (Ma, Jiang & Swallow2020[4] ; Sun, Cheshmehzangi & Wang 2020[5]). Nous sommes en train de développer des technologies qui rendent la cohabitation entre villes et marécages non seulement possible mais bénéfique pour l’environnement et pour les citadins en même temps.

Question : comment utiliser le principe de base de pompage-turbinage, donc le stockage d’énergie potentielle de l’eau placée en élévation, sans construire des structures de pompage-turbinage et en présence des structures marécageuses à la limite de la ville et de la campagne ? Réponse : à travers la construction des tours relativement petites et légères, avec des petits réservoirs d’égalisation au sommet de chaque tour. Un bélier hydraulique bien construit rend possible d’élever l’eau par 20 mètres environ. On peut imaginer donc un réseau des béliers hydrauliques installés dans le cours d’une rivière et connectés à des petites tours de 20 mètres chacune, où chaque tour est équipée d’un tuyau de descente vers les marécages et le tuyau est équipé des petites turbines hydro-électriques.

L’idée complète se présente donc comme suit : rivière => bélier hydraulique => l’eau monte => tours légères de 20 mètres avec des petits réservoirs d’égalisation au sommet => l’eau descend => petites turbines hydro-électriques => marécages => l’eau s’accumule => circulation hydrologique naturelle à travers le sol => rivière.

Bon, où est le Catch 22 dans ce jardin d’Eden ? Dans l’aspect économique. Les béliers hydrauliques de bonne qualité, tels qu’ils sont produits aujourd’hui, sont chers. Il y a très peu de fournisseurs solides de cette technologie. La plupart des béliers hydrauliques en utilisation sont des machins artisanaux à faible puissance et petit débit. L’infrastructure des tours de siphonage avec les turbines hydro-électriques de bonne qualité, ça coûte aussi. Si on veut être sérieux côté électricité, faut équiper tout ce bazar avec des magasins d’énergie. Toute l’infrastructure aurait besoin des frais de maintenance que je ne sais même pas comment calculer. Selon mes calculs, la vente d’électricité produite dans ce circuit hydrologique pourrait assurer un retour sur l’investissement pas plus court que 8 – 9 ans et encore, c’est calculé avec des prix d’électricité vraiment élevés.

Faut que j’y pense (plus).    


[1] Sharma, R., & Malaviya, P. (2021). Management of stormwater pollution using green infrastructure: The role of rain gardens. Wiley Interdisciplinary Reviews: Water, 8(2), e1507. https://doi.org/10.1002/wat2.1507

[2] Li, J., Liu, F., & Li, Y. (2020). Simulation and design optimization of rain gardens via DRAINMOD and response surface methodology. Journal of Hydrology, 585, 124788. https://doi.org/10.1016/j.jhydrol.2020.124788

[3] Venvik, G., & Boogaard, F. C. (2020). Infiltration capacity of rain gardens using full-scale test method: effect of infiltration system on groundwater levels in Bergen, Norway. Land, 9(12), 520. https://doi.org/10.3390/land9120520

[4] Ma, Y., Jiang, Y., & Swallow, S. (2020). China’s sponge city development for urban water resilience and sustainability: A policy discussion. Science of the Total Environment, 729, 139078. https://doi.org/10.1016/j.scitotenv.2020.139078

[5] Sun, J., Cheshmehzangi, A., & Wang, S. (2020). Green infrastructure practice and a sustainability key performance indicators framework for neighbourhood-level construction of sponge city programme. Journal of Environmental Protection, 11(2), 82-109. https://doi.org/10.4236/jep.2020.112007