Le biais décisionnel

Mon éditorial sur You Tube

Je suis en train, comme presque toujours, de travailler sur plusieurs trucs à la fois. En gros, je fais de la théorie bien respectable, accompagnée par quelque chose de pratique. La théorie que j’essaie de mettre en la forme d’une monographie scientifique tourne autour du phénomène général de l’intelligence collective et des changements technologiques en même temps, avec un focus spécial sur l’intelligence artificielle. Je résume les deux dernières années de recherche et ça donne l’esquisse d’un livre que je pourrais rédiger à partir de mes notes de recherche publiées sur « Discover Social Sciences ». J’ai deux hypothèses de base. La première assume que l’intelligence collective des sociétés humaines se manifeste à travers le fonctionnement des institutions spécifiquement dédiées à expérimenter avec des nouvelles solutions technologiques. Je pense que l’intelligence artificielle en particulier et les technologies digitales en général représentent une accélération dans la création et le fonctionnement de telles institutions. En d’autres monts, je pose la thèse que les changements technologiques et institutionnels de la civilisation humaine convergent vers une capacité plus grande de ladite société d’expérimenter avec elle-même. En 2017, j’avais fait un peu de recherche sur l’énergie en utilisant la méthode évolutionniste. Maintenant j’ai l’impression que l’approche évolutionniste est comme une introduction à l’application d’intelligence artificielle dans les sciences sociales. Là-dedans il y a un truc qui fout un peu de désordre dans la théorie établie des sciences sociales. Cette dernière assume que les institutions de nos sociétés – donc des lois, des coutumes, des systèmes politiques etc. – représentent surtout et avant tout un acquis du passé, comme une sédimentation des stratégies de comportement qui avant la création de ces institutions étaient beaucoup plus floues et changeantes. Le droit constitutionnel représenterait donc une formalisation des stratégies politiques utilisées dans le passé, le droit civil ferait de même en ce qui concerne les contrats entre privés etc. Ça, c’est l’édifice de la théorie dominante et moi, je veux y ajouter quelques briques de plus. Je suis convaincu que certaines institutions – surtout les marchés financiers au sens large et certaines institutions politiques dans les systèmes démocratiques – sont en fait des méta-institutions, quelque chose comme des organismes femelles qui ont la capacité de recombiner l’ADN institutionnel de provenance diverse et donner ainsi naissance à des institutions nouvelles.

Ma deuxième hypothèse est celle que j’avais déjà discuté quelque peu dans un article publié en 2017 : les changements technologiques de la civilisation humaine ont pour fonction biologique essentielle de maximiser l’absorption d’énergie de l’environnement. Pourquoi est-ce important ? C’est une grande fascination intellectuelle que j’ai progressivement développée, très largement sous l’influence de Fernand Braudel et son œuvre remarquable intitulée « Civilisation et Capitalisme ». Comme je lisais et relisais plusieurs fois ce livre, je m’étais rendu compte que toute forme de civilisation humaine est essentiellement composée des technologies d’utilisation d’énergie accessible dans l’environnement – tout comme des technologies d’acquisition de nourriture – et que nos structures sociales manifestent la façon dont ces technologies marchent. En plus, le vent et l’eau – qu’aujourd’hui nous appelons « énergies renouvelables » et considérons comme une innovation – avaient formé la base de ce que nous connaissons aujourd’hui comme civilisation européenne.

J’ai donc deux hypothèses qui donnent une convergence intéressante : comme civilisation, développons-nous des institutions qui nous servent à expérimenter avec des solutions nouvelles pour maximiser notre absorption collective d’énergie ? Et voilà, boum, il y a ce troisième truc, le projet que je conceptualise, pour le moment, sous le nom d’Étangs Énergétiques. Vous pouvez consulter « La marge opérationnelle de $1 539,60 par an par 1 kilowatt » à propos de mes derniers progrès sur le sujet. Je travaille sur ce concept de deux points de vue différents : pratique et scientifique. D’une part, je m’applique à mettre au point un projet de développement d’énergies renouvelables à travers le Navigateur des Projets, accessible à travers la page de « International Renewable Energy Agency ». Les énergies renouvelables en question c’est bien sur l’électricité produite par les turbines hydroélectriques installées dans l’infrastructure d’Étangs Énergétiques. Le Navigateur des Projets est fortement orienté sur la faisabilité économique, financière et politique de l’idée en question : pour qu’un projet soit exécutable, il faut une argumentation solide et claire à l’attention d’acteurs sociaux impliqués. Cette argumentation doit aller de pair avec une idée claire de l’appropriation du projet : un groupe social bien cerné, avec des décideurs bien définis, doit être capable d’approprier aussi bien les ressources nécessaires au projet que les résultats obtenus. Le principe de base est que des projets non appropriés, avec contrôle flou sur les ressources et les résultats, sont les premiers à échouer.

Pour le moment, j’ai deux arguments principaux en faveur de mon idée. Premièrement, même ce qui se passe cet été – des vagues de chaleur, sécheresse agricole, inondations locales – nous montre que le changement climatique nous force à repenser et rebâtir nos infrastructures hydrologiques. Nous ferions bien d’apprendre des trucs nouveaux en ce qui concerne la rétention de l’eau de pluie et son utilisation ultérieure. Le danger le plus grave – côté hydrologie – est une perturbation de plus en plus profonde du marché agricole en Europe. Deuxièmement, la quantité d’eau de pluie qui tombe sur l’Europe, si utilisée de façon adéquate, c’est-à-dire si on la fait passer à travers de turbines hydroélectriques, représente une quantité énorme d’énergie. Nous avons donc un danger sérieux d’une part et des gains possibles d’autre part.

Bon, donc ça, c’est un bref résumé des sujets que je travaille dessus en ce moment. Maintenant, je veux utiliser mon journal de recherche, tel que je le présente sur mon blog, pour passer en revue ce que j’ai lu et appris sur les deux trucs, donc le gros bouquin théorique et le projet pratique. Une fois de plus je me sers de mon blog comme outil de mise en ordre. Je commence avec la théorie de changement technologique, l’intelligence collective et l’intelligence artificielle. J’ai fait un petit saut du côté des sciences humaines : psychologie, neurophysiologie etc. J’ai pu constater que – probablement sous l’impulsion des développements récents de l’intelligence artificielle – une nouvelle discipline syncrétique est née : la théorie générale de l’intelligence et de la connaissance. Le soi-disant modèle de Bignetti en est un bon exemple (consultez, par exemple, Bignetti 2014[1]; Bignetti et al. 2017[2]; Bignetti 2018[3]). Ce modèle met un peu de désordre créatif dans la distinction entre l’action et la connaissance. Cette dernière est définie comme une expression consciente de l’expérience, pendant que le terme « action » est étendu sur tout ce qui est, précisément, l’expérience d’une entité intelligente. Le modèle de Bignetti est un véhicule théorique très général qui sert à expliquer le paradoxe de l’action apparemment inconsciente. Nous, les individus, aussi bien que nous, les collectivités, nous accomplissons tout un tas d’action que nous ne sommes pas capables d’expliquer rationnellement. Enrico Bignetti, professeur émérite de biochimique et de biologie moléculaire de l’université de Parme, pose la thèse que l’expérience consciente de soi ainsi que celle de volonté individuelle et de libre arbitre sont des illusions que notre cerveau crée dans les premiers mois de notre enfance pour faire l’action plus efficiente. Ces illusions servent à mettre de l’ordre dans la masse d’informations que notre cerveau reçoit et traite.

Moi, de mon côté, je pars d’une assomption simple, apparentée à la ligne de raisonnement de professeur Bignetti : une société humaine est une collectivité des systèmes nerveux individuels, une collectivité des cerveaux, pour ainsi dire. Il est donc logique que la façon dont la société fonctionne est en partie déterminée par le fonctionnement de ces cerveaux individuels. Il y a cette observation classique, à la limite de la science et du simple bon sens, qu’une partie substantielle de notre système nerveux sert presque exclusivement à faire fonctionner les relations sociales et ça marche dans la direction opposée aussi : les relations sociales sont ce qui fait marcher la même partie substantielle de notre système nerveux. C’est une intuition que Charles Darwin avait déjà exprimée dans son livre « The Expression of The Emotions In Man And Animals »[4] et que Émile Durkheim avait traité sous un angle sociologique dans « Les règles de la méthode sociologique ». Il y a donc une connexion fonctionnelle entre ce que font nos neurones et ce que fait un ministère. Question : si les neurones d’un cerveau individuel sont capables d’intelligence individuelle, quel genre d’intelligence pouvons-nous espérer de la part des neurones assemblés dans la multitude des cerveaux individuels d’une société humaine ?

J’ai trouvé une ligne de raisonnement intéressante chez Hassabis et al. (2017[5]).Intelligence artificielle permet de créer un nombre indéfiniment grand de solutions possibles, mais l’utilisation de la neurophysiologie peut être utile dans la sélection des solutions qui ont soit la valeur de similitude par rapport au système nerveux humain soit celle de nouveauté complète par rapport à la structure neurale humaine. Dans ce contexte, il est intéressant de se poser la question ontologique : comment est-ce que l’intelligence artificielle existe ? Lorsqu’un réseau neuronal marche, donc lorsque son algorithme prouve son utilité fonctionnelle, la structure logique de ce réseau neuronal existe-t-elle de la même façon que les idées existent ?

Je suis allé un peu plus loin dans l’étude d’algorithmes d’intelligence artificielle en tant que telle. Je me suis concentré sur trois types d’algorithmes qui sont en quelque sorte les piliers d’apprentissage profond : le mélange Gaussien, la forêt aléatoire et les algorithmes d’accélération d’apprentissage, donc Adam et DQN. Je vais brièvement discuter leur logique de base. Le mélange Gaussien d’abord. Tout comme les deux autres, j’ai copié celui-là de GitHub. Plus exactement, j’ai pris comme exemple le mélange Gaussien formalisé comme https://github.com/rushter/MLAlgorithms/blob/master/examples/gaussian_mixture.py .

Notre culture, à commencer par notre langage, est basée sur la catégorisation. Nous avons besoin de nommer les choses et pour les nommer, nous avons besoin d’établir le lien logique entre des ensembles des phénomènes observables et des catégories pour les grouper. C’est ainsi que des arbres deviennent « les arbres » et des chaises deviennent « les chaises ». Nous avons même une partie distincte de notre cerveau responsable de cette fonction de nominalisation : le soi-disant sentier synaptique ventral (Mishkin et al. 1983[6] ; Grossberg 2017[7]) qui est le seul à faire ça et ne fait que ça. Si nous voulons penser quoi que ce soit de complexe, genre « quoi faire ? », c’est toujours « quoi faire avec le truc tel et tel ? » ou « quoi faire à propos de X ? ». Notre cerveau sépare la partie « faire » de la partie « truc tel et tel, X pour les amis ». Cette dernière est toujours traitée par le sentier synaptique ventral et tout ce qui reste – donc la partie « faire à propos… » – c’est le boulot d’autres parties du cerveau.  

Le mélange Gaussien produit des catégories de façon probabiliste à partir des données empiriques données au réseau neuronal doté dudit mélange. La méthode générale est basée sur le concept de similarité entre phénomènes, seulement il est approché sous un angle rigoureusement mathématique. Intuitivement, lorsque nous parlons de similarité entre plusieurs phénomènes, nous pouvons penser à les comparer deux par deux. Seulement, ce n’est pas nécessairement la meilleure idée point de vue efficacité et en plus, il est possible que cette approche intuitive ne représente pas la façon dont notre propre cerveau marche.  Nous pouvons représenter les décisions collectives d’une société humaine comme un ensemble des choix simples, comparable au choix qu’un chimpanzé fait entre deux boîtes, en fonction de la présence espérée d’un fruit dans l’une d’elles. La théorie des jeux va dans cette direction. Néanmoins l’application de l’intelligence artificielle apporte ici une contribution originale. Dans l’article par Garnelo et Shanahan (2019[8]) nous pouvons voir les résultats des tests d’intelligence effectués par un réseau neuronal dans deux structures logiques alternatives : relationnelle, donc similaire au choix du chimpanzé d’une part et auto-attentive d’autre part. La structure auto-attentive marche comme un individu introspectif : le réseau neuronal observe ses propres décisions et prend cette observation en compte lorsqu’il expérimente avec des nouvelles décisions. Le réseau neuronal résout donc le test d’intelligence selon deux logiques différentes : comme une séquence des choix simples ou bien comme un processus complexe de raisonnement. Apparemment, selon Garnelo et Shanahan (2019) la méthode complexe marche mieux et le réseau neuronal score plus de points au test.

Essayons de formaliser une méthode de catégorisation des phénomènes qui utilise cette notion d’auto-attention. Je retourne vers les maths. J’ai donc un ensemble des données empiriques brutes qui servent comme matériel d’apprentissage à un réseau neuronal. Je veux grouper ces données en des catégories aussi fonctionnelles que possible vu l’objectif que je me pose. Bon, faudrait donc le poser vraiment, cet objectif. Comme je l’avais écrit plusieurs fois sur ce blog, l’objectif d’un réseau neuronal consiste à minimiser l’écart entre une valeur qu’il calcule lui-même à travers la fonction d’activation neurale et une valeur arbitraire fixée par l’utilisateur. Si je veux programmer un robot intelligent pour disposer des paquets dans un entrepôt et je veux que ledit robot apprenne à utiliser l’espace de stockage de façon la plus efficiente possible, je lui fais minimiser l’écart entre le volume total des paquets stockés et le volume géométrique de l’entrepôt.

Je formalise donc l’objectif à atteindre comme un vecteur composé d’une ou plusieurs valeurs numériques. J’assume que pour atteindre cet objectif, mon réseau neuronal doit grouper les données de départ en des catégories. Je me tiens à l’exemple du robot d’entreposage et j’assume qu’il doit grouper 10 000 paquets à entreposer dans des catégories qui correspondent à des piles de stockage. Une pile de stockage est un ensemble des paquets superposés l’un sur l’autre, accessible au charriot robotisé de chaque côté. Je veux que le réseau neuronal trouve une telle disposition des paquets en des piles de stockage qui satisfasse l’objectif de gestion optimale d’espace de stockage. Chacun des 10 000 paquets aura donc finalement un vecteur de coordonnées qui va décrire son attribution à une pile de stockage donnée. Seulement voilà, les piles de stockage elles-mêmes ne sont pas encore définies et positionnées. Apparemment, on fait face à un problème en boucle : chaque paquet doit trouver sa place dans une pile de stockage donnée mais les piles de stockage doivent être définies en termes des paquets précis qu’ils vont contenir. En plus, ‘y a ces questions stupides qui viennent à l’esprit. Toutes les piles de stockage doivent-elles être de la même taille et même masse ou bien vaudrait-il mieux les différencier à cet égard ?

Nous pouvons généraliser le problème de stockage. Tenons une population de 500 000 personnes dans une ville de taille moyenne et simulons la transition de leur base énergétique vers un réseau dispersé des nœuds locaux composés de petites turbines éoliennes et hydrauliques accompagnées par des stations des panneaux photovoltaïques. Je sais qu’à la longue, les nœuds locaux d’approvisionnement en énergie vont s’adapter aux populations locales et vice versa. Je veux prévoir les « vice versa » possibles et je veux trouver le plus efficient de parmi eux. Je sais que cela veut dire simuler des sentiers différents d’adaptation mutuelle. La distribution des installations énergétiques à travers la structure spatiale de la ville est un problème similaire à la disposition spatiale d’un nombre fini des paquets dans l’espace fini d’un entrepôt. Côté maths, le problème peut être exprimé comme une relation entre deux ensembles des valeurs numériques : un ensemble des vecteurs décrivant les sources locales d’énergies renouvelables et un autre ensemble des vecteurs qui décrivent les groupements locaux d’habitants de la ville.

Je retourne à la dualité signalée chez Garnelo et Shanahan (2019). Je peux approcher le problème de groupement spatial de deux façons différentes. La plus simpliste est la comparaison en paires. Pour chaque paquet je compare son entreposage dans des endroits alternatifs à l’intérieur de l’entrepôt, ce qui me conduit à comparer l’efficience des groupements alternatifs des paquets en des piles de stockage etc. Ça fait un tas des comparaisons et le problème c’est que si je trouve quelque chose qui marche définitivement mal, il faut que je recule dans de plusieurs pas dans la chaîne des comparaisons et que je recommence. Le mélange Gaussien permet de raccourcir le chemin et de le simplifier.

Avant de discuter la méthode de mélange Gaussien plus en détail, je vais rappeler brièvement l’approche Gaussienne en général. Nous vivons dans une réalité où les trucs qui semblent intuitivement vraisemblables surviennent plus fréquemment que du quasi-fantastique. Si je joue au LOTTO, toucher deux nombres corrects dans trois tirages en trois mois est plus vraisemblable et plus probable que toucher la grosse cagnotte de 6 nombres dans chaque tirage sur la même période. C’est une réalité binomiale et elle se comporte de façon conforme au   théorème de de Moivre – Laplace donc comme une vigne : les phénomènes de cette réalité convergent pour forment des grappes distinctes. Au centre de chaque grappe nous retrouvons les phénomènes relativement les plus fréquents et vraisemblables pendant que les occurrences plus extrêmes sont à trouver dans les couches externes et superficielles de chaque grappe. La neurophysiologie, en particulier la théorie de résonance adaptative nous suggère que notre cerveau expérimente avec plusieurs partitions possibles, en des grappes distinctes, de la réalité observée (Grossberg 2017, par exemple). À la suite de cette expérimentation, notre cerveau choisit la partition dont la structure prouve d’être la plus fonctionnelle eu égard aux objectifs fixés. Mathématiquement, cela veut dire que le réseau neuronal dôté de mélange Gaussien génère une série des valeurs qui sont considérées provisoirement comme les valeurs moyennes espérées d’autant des distributions normales locales, donc d’autant de grappes des phénomènes, donc autant des géographies possibles des turbines éoliennes dans une ville, donc d’autant des piles de stockage dans cet entrepôt d’il y a quelques paragraphes. Est-ce la disposition spatiale ainsi obtenue à l’intérieur de l’entrepôt celle qui donne la meilleure utilisation de l’espace ? Allons voir : répétons l’expérience avec plusieurs séries possibles des moyennes locales, donc avec plusieurs partitions possibles de la réalité en des distributions normales locales.

La catégorisation des phénomènes de réalité est un pas sur le sentier d’adaptation intelligente, un peu comme je l’avais décrit, il y a deux ans, dans « Deux lions de montagne, un bison mort et moi ». Les algorithmes d’intelligence artificielle rendent possible l’observation non seulement de la façon dont une structure intelligente groupe les phénomènes observées en catégories, mais aussi de la manière d’expérimenter avec plusieurs sentiers alternatifs de décision. La forêt aléatoire est le type d’algorithme qui utilise le même principe – générer plusieurs ensembles des valeurs aléatoires et les utiliser comme autant des visions alternatives de réalité afin de choisir la plus efficiente des toutes – pour simuler des différents sentiers décisionnels. Comme exemple pratique d’algorithme j’ai pris celui accessible à https://github.com/rushter/MLAlgorithms/blob/master/examples/random_forest.py. Je suis un officier de sécurité dans un grand aéroport. Je vois défiler devant moi des milliers des passagers. Je viens de recevoir un tuyau qu’une personne parmi ces milliers est un terroriste. J’ai besoin de penser vite comment la pêcher dans toute cette foule et très probablement, j’aurai la possibilité de tester mes intuitions juste une fois. Si j’échoue, le gars va soit attaquer soit s’évanouir dans le paysage.

Ici, la différence entre l’intelligence humaine et les réseaux neuronaux est très visible. Ces derniers peuvent simuler une décision à haute incertitude – comme celle comment trouver un terroriste – comme compétition entre plusieurs sentiers décisionnels possibles. Mathématiquement, une décision complexe est un arbre décisionnel : si A, alors B et ensuite F s’impose plutôt que G etc. Lorsque j’ai un ensemble des phénomènes décrits comme données numériques digestes pour un réseau neuronal, je peux créer un nombre indéfini d’arbres décisionnels pour connecter ces phénomènes dans des implications logiques. Je peux tester chaque arbre point de vue exactitude, vitesse de décision etc. C’est comme ça que marche l’algorithme de forêt aléatoire. Question : comment savoir quel arbre décisionnel marche le mieux ? Je sais par expérience que même un réseau neuronal relativement simple peut achever une exactitude poussée dans l’estimation de la variable de résultat tout en se balançant dans des valeurs tout à fait faramineuses en ce qui concerne les variables d’entrée. Une fois de plus, on semble être dans une boucle, puisque l’évaluation de la valeur pratique d’un arbre décisionnel est un arbre décisionnel en soi. La forêt aléatoire résout ce problème en incluant un ensemble de données de contrôle, où l’optimisation avait déjà été faite et nous savons ce qu’un arbre décisionnel vraiment efficace peut faire avec. Les arbres décisionnels aléatoires sont priés de traiter ces données de contrôle et nous observons lequel de parmi ces arbres tombe le plus près du résultat déjà pré-calculé.

Je me demande quelle peut bien être l’utilité de ces algorithmes que je viens d’esquisser, donc le mélange Gaussien et la forêt aléatoire, dans l’étude de l’intelligence collective des sociétés humaines. Intuitivement, je perçois ces algorithmes comme très objectifs et rationnels en comparaison aux décisions collectives humaines. Dans la vie réelle, nous venons très vite au point quand nous voulons tellement passer aux actes – sous l’impulsion d’une urgence subjectivement perçue – que nous limitions l’éventail d’options possibles dans nos décisions. Lorsque les décisions collectives deviennent des décisions politiques et alors il devient très délicat de suggérer qu’un arbre décisionnel donné n’est pas vraiment le sommet de la logique. Les décisions collectives réelles semblent nettement plus biaisées que celles prises avec l’utilisation du mélange Gaussien ou de la forêt aléatoire. Ces algorithmes peuvent donc servir à évaluer le biais décisionnel.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ? Vous pouvez me contacter à travers la boîte électronique de ce blog : goodscience@discoversocialsciences.com .


[1] Bignetti, E. (2014). The functional role of free-will illusion in cognition:“The Bignetti Model”. Cognitive Systems Research, 31, 45-60.

[2] Bignetti, E., Martuzzi, F., & Tartabini, A. (2017). A Psychophysical Approach to Test:“The Bignetti Model”. Psychol Cogn Sci Open J, 3(1), 24-35.

[3] Bignetti, E. (2018). New Insights into “The Bignetti Model” from Classic and Quantum Mechanics Perspectives. Perspective, 4(1), 24.

[4] Darwin, C., & Prodger, P. (1998). The expression of the emotions in man and animals. Oxford University Press, USA.

[5] Hassabis, D., Kumaran, D., Summerfield, C., & Botvinick, M. (2017). Neuroscience-inspired artificial intelligence. Neuron, 95(2), 245-258.

[6] Mishkin, M., Ungerleider, L. G., & Macko, K. A. (1983). Object vision and spatial vision: two cortical pathways. Trends in neurosciences, 6, 414-417.

[7] Grossberg, S. (2017). Towards solving the hard problem of consciousness: The varieties of brain resonances and the conscious experiences that they support. Neural Networks, 87, 38-95.

[8] Garnelo, M., & Shanahan, M. (2019). Reconciling deep learning with symbolic artificial intelligence: representing objects and relations. Current Opinion in Behavioral Sciences, 29, 17-23.

Woda, która spada szybko

Prowadzę mój dziennik badawczy w trzech językach: angielskim, francuskim i polskim. Snobizm? Jasne, pewnie tak. Jest jednak jeszcze coś. Zauważyłem, że kiedy przeskakuję z jednego języka na inny, to jakbym przetwarzał informacje w nieco inny sposób. Niby to samo, ale pod odrobinę odmiennym kątem. Angielski to międzynarodowy język naukowy. Francuski pomaga mi uzyskać dodatkową perspektywę na to, co piszę po angielsku. Polski jest moim językiem ojczystym. Chociażbym nie wiem jak dobrze władał innymi językami, mój mózg jest „zakodowany” po polsku jeżeli chodzi o podstawowe rozróżnienia semantyczne. Pisać po polsku, na blogu Discover Social Sciences, to dla mnie jak przejechać się rowerem po bulwarach wiślanych w moim rodzinnym Krakowie i ułożyć sobie w głowie kotłujące się w niej myśli.

Staram się ubrać w konkretne działania pomysł, który przyszedł mi do głowy ostatnio. Na razie opisywałem go po angielsku (np. w „The mind-blowing hydro”) oraz po francusku (np. „La marge opérationnelle de $1 539,60 par an par 1 kilowatt” ) i teraz pora na wersję polską. Na początek nazwa. Po angielsku nazwałem ten pomysł « Energy Ponds », ale po polsku nazwa „Stawy Energetyczne” brzmi głupio, nasuwając na myśl jeden z tych cudownych żeli na bolesność w łokciu czy w kolanie. Zacznę od opisu pomysłu, a potem spróbuję wymyślić polską nazwę. Chodzi o wodę. Cywilizacja europejska jest w dużej mierze oparta na tym, że w północnej Europie wykształciliśmy, mniej więcej na przełomie X i XI wieku n.e., wyjątkowo wydajny system produkcji żywności. Opierał się on i wydaje się opierać dalej na tym, że większość opadów atmosferycznych w ciągu roku otrzymywaliśmy w postaci śniegu w zimie, no a śnieg to wiadomo: zimą leży i topi się wiosną. Jak leży, to ugniata rzeczy pod spodem, a jak ugniata, to się termodynamika kłania: wysokie ciśnienie to prawie jak wysoka temperatura. No i te rzeczy pod śniegiem gniją sobie powoli, jak gniją to się jeszcze cieplej robi i się próchnica glebowa tworzy. Wiosną śnieg topi się wolno, woda z roztopów wsiąka powoli i głęboko w podłoże i się zasoby wodne akumulują. 

Teraz to się zmieniło. Coraz mniej wody spada w postaci śniegu, za to coraz więcej w postaci gwałtownych deszczów, no i coraz więcej paruje pod wpływem rosnącej temperatury. W efekcie mamy powodzie i susze, a ja mam okazję do małego przeglądziku literatury. Zdrobnienie „przeglądzik” nie istnieje w poprawnej polszczyźnie, ale myślę sobie: co tam, mogę mieć swój własny neologizm. Trafiłem na dwa ciekawe artykuły, jeżeli chodzi o ryzyko związane z powodziami w Europie: Alfieri et al. 2015[1] oraz Paprotny et al. (2018[2]). Ciekawe, dlatego że pokazują sposób działania inteligencji zbiorowej w naszym społeczeństwie. Ryzyko związane z powodziami, mierzone klasyczną metodą aktuarialną „rozmiar strat razy prawdopodobieństwo wystąpienia takiej właśnie sytuacji” zmienia się w różny sposób. Częstość powodzi, a więc prawdopodobieństwo wystąpienia związanych z nimi szkód systematycznie rośnie, jednak od jakichś 20 lat rozmiary lokalnych szkód systematycznie spadają. My, Europejczycy, zaczynamy się przystosowywać do tego konkretnego aspektu zmian klimatycznych. Widać jednak, że przystosowujemy się głównie w miastach. Im więcej infrastruktury miejskiej w jednym miejscu, tym mniejsze straty ludzkie i materialne wywołane powodziami. Duże miasta się bronią przed powodziami ze skutecznością, która gwałtownie spada na terenach wiejskich i w małych miastach. Najwięcej ofiar śmiertelnych zbierają powodzie właśnie na terenach wiejskich.    

Jeżeli chodzi o susze i związane z nimi zagrożenia, sytuacja jest inna. Cztery artykuły na temat temat – Naumann et al. (2015[3]), Vogt et al. (2018[4]), Stagge et al. (2017[5]) oraz Lu et al. (2019[6]) – wskazują, że u nas w Europie dopiero zaczynamy się uczyć ryzyka związanego z suszą. Warto tu zwrócić uwagę na jedną istotną różnicę pomiędzy powodzią a suszą. No wiem, czaję: w pierwszym przypadku jest za dużo wody, w drugim za mało. Chodzi mi o coś innego. Za dużo wody zdarza się gwałtownie i widowiskowo, przynosząc straty wyraźne jak siniak po uderzeniu. Powódź to coś, co przy odrobinie złej woli można obserwować z bezpiecznego miejsca jako interesujący news. Z kolei susza dzieje się powoli i przynosi straty, które widzimy dopiero kiedy nabrzmieją do naprawdę dużych rozmiarów. My, Europejczycy, dopiero zaczynamy rozumieć, kiedy niekorzystny bilans wodny jest prawdziwym powodem do niepokoju. Są już jednak w miarę twarde dane naukowe na temat tych zagrożeń. Wiadomo, że Francja, Hiszpania, Włochy, a także – co zaskakujące – Wielka Brytania są najbardziej zagrożone suszą. U nas w Polsce to tak średnio.

No i tu właśnie dochodzimy to tego, czym dokładnie jest zagrożenie suszą. W najbliższej i najbardziej praktycznej perspektywie grozi nam rozchwianie rynku żywności. Jeżeli ktoś miałby ochotę zerknąć na ceny produktów rolnych w kontraktach terminowych, zobaczy coś na kształt niepokoju na rynku. Ceny są coraz bardziej rozchwiane. Mówimy o kontraktach terminowych, a więc o cenach, jakich nabywcy produktów rolnych oczekują w przyszłości. Im bardziej zmienne i rozbieżne te oczekiwania, tym bardziej rozchwiane ceny. No i czego my możemy oczekiwać, tak obiektywnie? Ciekawie na ten temat piszą Webber et al. (2018[7]). Zmiany klimatyczne wywierają dwojaki wpływ na plony. Zaburzenia hydrologiczne działają na minus, jednak jest jeszcze czynnik tzw. haju węglowego. Zwiększona zawartość węgla w atmosferze pobudza metabolizm roślin. Nie wiemy jednak, do jakiego momentu to pobudzenie będzie działać korzystnie, a po przekroczeniu jakiego progu stanie się czynnikiem niesprzyjającym. Jak to praktycznie działa? Pszenica ozima, na przykład, bez efektu pobudzenia węglowego, może przynosić w 2050 roku o 9% niższe plony niż dziś, podczas gdy z uwzględnieniem haju węglowego można oczekiwać wzrostu plonów o 4%. Nie ma jednak sprawiedliwości na tym świecie i kukurydza wydaje się być skazana na spadek plonów o 20% w 2050 roku, napędzana węglem czy nie.

W tym samym artykule wraca jednak kwestia niepewności odnośnie tego, czym w Europie jest susza, tak praktycznie. Deficyt wody to jedno, a jego funkcjonalny wpływ na rolnictwo to drugie. Znów się tu kłania, w ciekawy sposób, zjawisko naszej zbiorowej inteligencji. Problemy z jednoznacznym prognozowaniem wpływu zmian klimatycznych na rolnictwo wynikają z kwestii metodologicznych. Jeżeli chcemy mieć model, który pozwoli jednoznacznie przewidzieć tą kwestię, lokalne błędy predykcji (wartości resztkowe) dla poszczególnych zmiennych powinny być wzajemnie nieskorelowane, tj. wzajemnie niezależne. W tym przypadku są skorelowane. Wydaje się, że nasze rolnictwo przystosowuje się do zmian klimatycznych tak szybko, że niechcący wpada w tą korelację. Zgodnie z tym, co piszą  Toreti et al. (2019[8]), taka naprawdę ostra jazda klimatyczna w europejskim rolnictwie zaczęła się w roku 2015. Widać też zmiany strukturalne: ubytek w plonach pszenicy jest kompensowany większą produkcją innych zbóż, lecz jednocześnie towarzyszy mu mniejsza produkcja buraków i ziemniaków (Eurostat[9], Schills et al. 2018[10]).

To jest zarys zagrożeń i pora na rozwiązania. Jak mamy coraz mniej wody, która wsiąka wolno, to musimy się nauczyć łapać i zatrzymywać wodę, która spada szybko. Trafiłem na interesujący pomysł w Chinach, wdrażany w 30 aglomeracjach: miasto – gąbka. Jest to szczególny typ infrastruktury miejskiej, nastawiony na wchłanianie i retencję dużych ilości wody deszczowej (Jiang et al. 2018[11]). Ciekawe rozwiązania: nawet specjalny, porowaty beton, zdolny przechowywać deszczówkę. W jednej z 30 chińskich aglomeracji objętych tym programem inwestycyjnym jest Xiamen (Shao et al. 2018[12]) i tam właśnie znalazłem bezpośrednią inspirację dla mojego pomysłu: zatrzymaną deszczówkę można pompować do zbiorników szczytowych, z których spływając ta sama deszczówka napędza turbiny hydroelektryczne.

W Europie ważniejsze wydaje się inwestowanie w gąbczastą wieś raczej niż w gąbczaste miasta. W europejskich realiach miasta są dalekie od megalopolitycznego rozpasania miast chińskich i zmiany klimatyczne zagrażają w pierwszej kolejności wsi oraz jej roli bazy żywnościowej dla miast. Jest taka technologia, którą kiedyś – jeszcze w XVIII wieku – w Europie stosowaliśmy powszechnie i która poszła w zapomnienie wraz z rozpowszechnieniem się urządzeń napędzanych silnikami: pompa wodna napędzana energią wody. Koło wodne zanurzone w nurcie rzeki napędza pompę, która pompuje wodę wzwyż i dalej od rzeki. Znalazłem firmę, które dostarcza taką technologię w nowoczesnej wersji: Aqysta. Jest także znana i opatentowana technologia tzw. tarana hydraulicznego (ang. Ram pump). Taka właśnie pompa może tłoczyć wodę z rzeki do zbiorników szczytowych, skąd dalej spływałaby – przechodząc przez turbiny hydroelektryczne – do sieci stawów i kanałów zatrzymujących wodę. Chodzi mi właśnie o to, żeby zamiast gromadzić wodę w dużym zbiorniku retencyjnym, raczej ją rozprowadzać po stosunkowo dużym obszarze podmokłych łąk i niewielkich rozlewisk. Woda wypompowana z rzeki do zbiorników szczytowych ląduje więc w końcu w strukturach irygacyjnych, które powstrzymują ją przed spływaniem dalej korytem rzeki.

Wracam do kwestii polskiej nazwy dla tego pomysłu. Na razie nazwę to „Energo-Retencja”. Tak czy inaczej, to tylko etykietka ułatwiająca dyskusję na temat tego pomysłu. Poniżej staram się pokazać graficznie, o co mi chodzi.

Kiedy idzie duża woda po silnych deszczach, poziom rzeki się podnosi i przepływ na sekundę w nurcie rzeki się zwiększa. Pompa wodna dostaje więcej energii kinetycznej, ma większą moc i szybciej pompuje wodę do zbiornika szczytowego. Więcej wody przepływa przez zbiornik, więcej spływa z niego w dół przez turbiny hydroelektryczne i te z kolei wytwarzają większą moc. Więcej wody ląduje w stawach i kanałach retencyjnych, które swoją drogą zatrzymują bezpośrednio wodę spadającą z nieba. Poziom wód gruntowych się podnosi, coraz dalej i dalej od koryta rzeki.

Kiedy przychodzi susza meteorologiczna, czyli kiedy mnóstwo za bardzo nie pada, zasilenie nurtu rzeki deszczem maleje do zera. Wtedy rzeka zaczyna działać jak dren i odciąga wodę gruntową z przylegających do niej terenów. Poziom rzeki stopniowo opada i zmniejsza się przepływ. Pompy zanurzone w jej nurcie mają mniej energii i mniej wody pompują do zbiorników szczytowych. Mniej wody przepływa przez turbiny i mniej wody ląduje w strukturach retencyjnych. Susza meteorologiczna osłabia działanie całego systemu Energo-Retencji, jednak im więcej wody było zmagazynowane wcześniej w gruncie, tym mniejszy spadek poziomu rzeki i jej przepływu. No tak: rzeka działa jak dren, a więc im więcej wody ma do wydrenowania z okolicznych gruntów, tym wolniej opada przy braku deszczu.

Zakładam, że system ten można zoptymalizować dla konkretnego miejsca i jego uwarunkowań: podczas wysokiej wody gromadzimy wystarczająco dużo wód gruntowych, żeby susza meteorologiczna w minimalnym stopniu zaburzała przepływ rzeki w tym miejscu, a więc żeby lokalny poziom wód gruntowych oraz lokalnie wytwarzana energia hydroelektryczna były jak najbardziej przewidywalne. To jest moje założenie jako laika w dziedzinie hydrologii. Potrzebowałbym wsparcia kogoś, kto naprawdę się na tym zna. Jedno jest jednak widoczne: z energetycznego punktu widzenia system powinien być wyposażony w akumulatory gromadzące energię elektryczną. Wysoka woda daje rezerwy, które zużywamy przy niższej wodzie.   

Myślę o tym, jak mogłaby wyglądać budowa takiej infrastruktury na terenach wiejskich, a szczególnie myślę nad jej finansowaniem i zarządzaniem nią. Pierwsze skojarzenie mam takie, że jeżeli całość ma wytwarzać energię elektryczną, to właśnie wartość rynkowa tej energii może być podstawą do zwrotu z inwestycji. Myślę tak: woda, która spada z nieba w milimetrach na rok spada w gruncie rzeczy w litrach na metr kwadratowy. W Polsce spada 600 milimetrów opadów atmosferycznych rocznie, czyli 600 litrów na metr kwadratowy, czyli 187 600 bilionów litrów w sumie na wszystkie metry kwadratowe. Przy obecnej gospodarce wodnej zatrzymujemy 28,57% z tych opadów, czyli 53 600 bilionów litrów. Nawiasem mówiąc, zdolność retencji wody jest bardzo zróżnicowana w Europie. My jesteśmy gdzieś w tyle stawki. Może być gorzej, np. retencja niecałych 11% opadów na Węgrzech, ale może też być dużo lepiej: 42,75% w Niemczech czy 44,79% w Estonii. Przy obecnym rozwoju hydrologii, zdolność retencji wody zależy głównie od budowy geologicznej: mistrzami retencji są kraje śródziemnomorskie leżące na grubym, skalistym podłożu z mnóstwem kieszeni wodonośnych w środku. Włochy zatrzymują 72,80% opadów, Grecja 67,41%, Chorwacja 59,86% (FAO AQUASTAT[1]).

Załóżmy więc, że nowa infrastruktura do zatrzymywania wody opadowej pozwoliłaby nam w Polsce przejść od obecnej retencji do 28,57% do 42%, czyli prawie jak w Niemczech. To by oznaczało, że zatrzymywalibyśmy o 25 192 bilionów litrów więcej w skali roku. Jaką wartość przedstawia sobą ta woda na rynku energii elektrycznej? Tu liczy się w pierwszym rzędzie przepływ w litrach na sekundę. W ciągu roku mamy tak typowo 8760 godzin (w latach przestępnych 8784 godziny) razy 60 sekund w godzinie, czyli 525 600 sekund. Zwiększona retencja dałaby nam zatem 25 192 bilionów litrów dzielone przez 525 600 sekund = 47,93 miliardów litrów na sekundę. Po to, żeby ten przepływ mógł wytwarzać energię elektryczną, to musi płynąć. Logiczne. Woda płynie z góry na dół, z przyspieszeniem ziemskim równym g = 9,81 m/s2. Ważne jest, jak bardzo z góry na dół, czyli jaka jest różnica poziomów w metrach. W moim pomyśle widzę zbiorniki szczytowe o konstrukcji tzw. wież wodnych wysokich na 10 metrów (tzn. dno zbiornika jest na wysokości 10 metrów). Turbiny wodne mają średnią wydajność energetyczną 75%.  Biorę więc 47,93 miliardów litrów i mnożę przez 10 metrów i potem jeszcze przez 9,81 m/s2 no i jeszcze przez 75%. Wychodzi moc elektryczna w watach, a konkretnie to 3 526,45 gigawatów mocy. Dużo. Szczególnie, że obecna łączna moc wszystkich elektrowni w Polsce wynosi 43,6 gigawata, z tego elektrownie wodne to 2,3 gigawata.

No fajnie. Wygląda jak science-fiction. Gdybyśmy zdołali stworzyć infrastrukturę pozwalającą zwiększyć naszą retencję wody opadowej do poziomu Niemiec – 42% – i gdybyśmy całą tą dodatkową wodę puścili przez turbiny elektryczne z 10 – metrowych zbiorników szczytowych, to mielibyśmy osiemdziesiąt razy więcej energii elektrycznej niż mamy obecnie ze wszystkich źródeł razem wziętych. Może trochę skromniej policzę, o ile więcej deszczówki powinniśmy zatrzymać i wykorzystać w turbinach hydroelektrycznych, żeby pokryć całe zapotrzebowanie naszego kraju na energię. Zgodnie z danymi Banku Światowego, statystyczny Polak zużywa rocznie energię równą 2 490,2 kg równoważnika ropy naftowej, czyli 2 490,2 * 11,63 =  28 961,03 kilowatogodzin. Czyli gdybym chciał mieć wszystko na prąd ( w sensie wszystko to, co już mam na prąd plus to, co mam na gaz i na benzynę), to potrzebowałbym 28 961,03 kilowatogodzin rocznie dzielone przez 8760 godzin w roku = 3,31 kilowata mocy elektrycznej. Ty też i on też. Oni też. Jest nas onych w sumie 38 430 000, czyli potrzebowalibyśmy 127,05 gigawata mocy. Liczę teraz wspak. Mnożę te gigawaty przez miliard – żeby były waty – oraz przez 525 600 sekund w roku, a następnie dzielę przez 98,1 (10 metrów razy 9,81 metra na sekundę kwadratową) oraz przez 75% wydajności. Wychodzi 907,6 miliona metrów sześciennych wody. To jest 0,48% rocznych opadów atmosferycznych w Polsce. Może inaczej: gdybyśmy zbudowali infrastrukturę, która umożliwi zatrzymanie 29,06% opadów zamiast dzisiejszych 28,57% i gdybyśmy tą dodatkową zatrzymaną wodę przepuścili przez 10-metrowe zbiorniki szczytowe, a następnie spuścili ją przez turbiny elektryczne, to zaspokoilibyśmy pełne zapotrzebowanie kraju na energię. Każdą energię, także tą spożywaną w produktach i usługach, które kupuję.

Lubię ugniatać moje pomysły. Cudze zresztą też. Patrzę na to samo z różnych punktów widzenia. Wyczytałem, że typowy zbiornik szczytowy „na nóżkach”, czyli taki budowany w szczerym polu, ma ok. 5000 m3 pojemności. Owe 907 600 000 m3 wody potrzebnych do zaspokojenia naszych potrzeb energetycznych to 181 520 takich zbiorników. Gdybyśmy je zrobili wysokie na 20 metrów zamiast na 10, to wtedy potrzebowalibyśmy tylko 454 000 000 m3 wody i nieco ponad 90 000 takich zbiorników. Innymi słowy, im wyższe wieże zbiorników szczytowych w „Energo-Retencji”, tym więcej prądu można zrobić z tej samej ilości wody.

Teraz ugniatam od innej strony. Biorę moje rachunki za prąd, dla dwóch lokalizacji: domu jednorodzinnego oraz mieszkania w bloku. W obu ta sama grupa taryfowa G11, z tymże w domu jednorodzinnym mam moc przyłączeniową 14 kilowatów i prąd trójfazowy, a w bloku 4 kilowaty i jedną fazę. Płacąc za prąd, płacę za dwie rzeczy: za gotowość dostawcy (Tauron) do podania mocy, czyli za dystrybucję oraz za faktycznie zużytą energię. Mimo, że oba liczniki mam w tej samej grupie taryfowej, cena za 1 kilowatogodzinę zużytej energii jest nieco różna: 0,24450 zł netto za 1 kWh przy jednej fazie w mieszkaniu i 0,24110 zł przy trzech fazach w domu. Jeżeli chodzi o gotowość Taurona do sprzedawania mi prądu, to deklinuje się ona na wiele sposobów: opłata dystrybucyjna zmienna, opłata dystrybucyjna stała itd. Żeby było śmieszniej, opłata dystrybucyjna zmienna jest stała i wynosi 0,19020 zł za 1 kWh, a opłata dystrybucyjna stała jest zmienna i buja się między 8,34 zł a 22 zł za okres rozliczeniowy. Ja te wszystkie zmiennostałe składniki mojej faktury sumuję razem do kupy i wychodzi mi, że w domu jednorodzinnym, przy 14 kilowatach mocy na liczniku, za utrzymanie 1 kilowata płacę 30,20 zł za okres rozliczeniowy, podczas gdy w mieszkaniu wychodzi to 25,62 za kilowat.

No i jak pougniatałem moje rachunki za prąd razem z moim pomysłem „Energo-Retencja”, wyszła mi masa, z której następnie formuję kontrakty inteligentne na platformie crowdfundingowej. Wyobraźmy sobie, że zamiast płacić dostawcy prądu za gotowość dostarczania mi mocy z odległej elektrowni, płacę za kolejne jednostki udziałowe (akcje?) w lokalnej infrastrukturze typu „Energo-Retencja”. Duża firma – Tauron, PGE, Energa czy jeszcze ktoś inny – inwestuje w stworzenie i rozruch takiej infrastruktury w mojej okolicy. Inwestycja ma postać wyodrębnionej, lokalnej spółki. Następnie początkowy inwestor oferuje mnie i innym w okolicy kupno złożonych kontraktów, w których płacimy z wyprzedzeniem za energię elektryczną na przyszłość – czyli np. płacę z góry za prąd na kolejny rok – a jednocześnie płacimy za kolejne jednostki udziałowe w lokalnej spółce. W ten sposób lokalna społeczność stopniowo przejmuje kontrolę kapitałową nad lokalną spółką będącą operatorem infrastruktury typu „Energo-Retencja”. Kontrakty mają być inteligentne, a więc możliwe do elastycznego budowania z drobnych części składowych i sprzedawane za pośrednictwem platformy crowdfundingowej. Jeżeli jestem zainteresowany, to mogę zrobić koszyk zamówień na przyszły prąd i koszyk udziałów w spółce, która go wytwarza.

No dobra, to teraz rzut oka na to, jak by ta spółka wyglądała, tak konkretnie, na początek od strony technologicznej oraz infrastrukturalnej. Wracam do mojego rachunku za prąd w domu jednorodzinnym: gospodarstwo domowe złożone z trzech osób, 14 kilowatów mocy w trzech fazach. W trzymiesięcznym okresie rozliczeniowym zużyliśmy 1838 kWh energii elektrycznej, więc za rok wychodziłoby 4*1838 = 3676 kWh. Przy 14 kilowatach mocy, jadąc po bandzie i na maksa mamy do dyspozycji 14 kW * 8760 godzin = 122 640 kWh w ciągu roku. Nasze faktyczne zużycie odpowiada więc w przybliżeniu 3% energii teoretycznie dostępnej z tego przyłącza, w którym, gdybyśmy zużywali energię elektryczną w sposób doskonale równomierny, potrzebowalibyśmy tylko 0,42 kW mocy. Gdybyśmy, to tak, ale odkurzacz chodzi tylko czasem, pralka i odkurzacz razem jeszcze bardziej czasem, a piekarnik elektryczny jednocześnie z nimi to już w ogóle rzadko. Moc przyłączeniowa musi być jednak wystarczająca na te rzadkie momenty, kiedy wszystko na raz chodzi. Kuchenkę mamy gazową, ale gdybyśmy mieli płytę elektryczną, to trzeba na nią liczyć co najmniej 7,5 kilowata. Piec mamy też gazowy, ale gdybyśmy go zastąpili bojlerem elektrycznym, trzeba dołożyć co najmniej 3 ÷ 4 kW.

Nasze systemy energetyczne funkcjonują właśnie w ten sposób: wykorzystujemy ich dostępną moc tylko w części, lecz potrzebujemy bufora na niektóre okazje. Kilka akapitów wcześniej pisałem, że w Polsce zużycie energii na głowę mieszkańca to 28 961,03 kilowatogodzin rocznie i obejmuje to wszystkie postacie energii: tą zużywaną w domu, tą potrzebną do różnych form transportu i wreszcie tą, którą pośrednio zużywam kupując nową koszulę albo słone paluszki. Gdzie energia w koszuli? Ano w procesie jej wytwarzania i dystrybucji. W słonych paluszkach takoż. W moim gospodarstwie domowym, złożonym z trzech osób, teoretycznie możemy na nasze własne domowe potrzeby zużyć 122 640 kWh energii elektrycznej, a więc 122 640 kWh / (3*28 961,03 kWh) = 1,41 razy więcej energii niż ogółem zużywają trzy statystyczne osoby. Zużywamy z tego jednak tylko 3%.  

Kiedy więc myślę o lokalnej spółce działającej według koncepcji „Energo-Retencji” i zastanawiam się nad jej rolą dla lokalnej społeczności – poza poprawą lokalnej gospodarki wodnej – przychodzą mi na myśl dwa możliwe układy kontraktowe. Pierwszy jest klasyczny i odpowiada dzisiejszym realiom. Turbiny i akumulatory „Energo-Retencji” podłączone są do sieci dystrybucyjnej, sprzedają energię do tejże sieci i jej operator odsprzedaje tą energię do użytkowników końcowych. Energia wytwarzana w „Energo – Retencji” jest jedną z wielu dystrybuowanych w sieci. Zalety: stabilność zasilania dla mojego piekarnika elektrycznego oraz możliwość przenoszenia energii na duże odległości poprzez sieć dystrybucyjną. Nasze lokalne turbiny hydroelektryczne mogą mieć w ten sposób wartość ekonomiczną dla konsumentów energii oddalonych nawet o setki kilometrów. Wady: konieczność dołożenia do ceny energii nadwyżki opłacającej dystrybucję.

Drugi możliwy układ to energia elektryczna z „Energo – Retencji” w roli głównego źródła prądu dla lokalnej społeczności. To właśnie z „Energo – Retencji” pochodziłaby całość (albo prawie) tych 14 czy iluś tam kilowatów na każdym indywidualnym przyłączu. Ponieważ małe turbiny hydroelektryczne, przewidziane w moim pomyśle, wytwarzają prąd o stosunkowo niskim napięciu, lokalna sieć jego dystrybucji byłaby niewielka i raczej niskonapięciowa. Zalety: koszty dystrybucji bliskie zeru (de facto brak miejsca dla firmy dystrybucyjnej) oraz swego rodzaju technologiczna więź lokalnej społeczności z lokalną spółką typu „Energo-Retencja”. Wady: ekspozycja na ryzyko związane z możliwą awarią takiego lokalnego systemu.   


[1] http://www.fao.org/aquastat/en/ ostatni dostęp 1 sierpnia 2019


[1] Alfieri, L., Feyen, L., Dottori, F., & Bianchi, A. (2015). Ensemble flood risk assessment in Europe under high end climate scenarios. Global Environmental Change, 35, 199-212.

[2] Paprotny, D., Sebastian, A., Morales-Nápoles, O., & Jonkman, S. N. (2018). Trends in flood losses in Europe over the past 150 years. Nature communications, 9(1), 1985.

[3] Gustavo Naumann et al. , 2015, Assessment of drought damages and their uncertainties in Europe, Environmental Research Letters, vol. 10, 124013, DOI https://doi.org/10.1088/1748-9326/10/12/124013

[4] Vogt, J.V., Naumann, G., Masante, D., Spinoni, J., Cammalleri, C., Erian, W., Pischke, F., Pulwarty, R., Barbosa, P., Drought Risk Assessment. A conceptual Framework. EUR 29464 EN, Publications Office of the European Union, Luxembourg, 2018. ISBN 978-92-79-97469-4, doi:10.2760/057223, JRC113937

[5] Stagge, J. H., Kingston, D. G., Tallaksen, L. M., & Hannah, D. M. (2017). Observed drought indices show increasing divergence across Europe. Scientific reports, 7(1), 14045.

[6] Lu, J., Carbone, G. J., & Grego, J. M. (2019). Uncertainty and hotspots in 21st century projections of agricultural drought from CMIP5 models. Scientific reports, 9(1), 4922.

[7] Webber, H., Ewert, F., Olesen, J. E., Müller, C., Fronzek, S., Ruane, A. C., … & Ferrise, R. (2018). Diverging importance of drought stress for maize and winter wheat in Europe. Nature communications, 9(1), 4249.

[8] Toreti, A., Cronie, O., & Zampieri, M. (2019). Concurrent climate extremes in the key wheat producing regions of the world. Scientific reports, 9(1), 5493.

[9] https://ec.europa.eu/eurostat/statistics-explained/index.php/Agricultural_production_-_crops ostatni dostęp 14 lipca 2019

[10] Schils, R., Olesen, J. E., Kersebaum, K. C., Rijk, B., Oberforster, M., Kalyada, V., … & Manolov, I. (2018). Cereal yield gaps across Europe. European journal of agronomy, 101, 109-120.

[11] Jiang, Y., Zevenbergen, C., & Ma, Y. (2018). Urban pluvial flooding and stormwater management: A contemporary review of China’s challenges and “sponge cities” strategy. Environmental science & policy, 80, 132-143.

[12] Shao, W., Liu, J., Yang, Z., Yang, Z., Yu, Y., & Li, W. (2018). Carbon Reduction Effects of Sponge City Construction: A Case Study of the City of Xiamen. Energy Procedia, 152, 1145-1151.