Woda, która spada szybko

Prowadzę mój dziennik badawczy w trzech językach: angielskim, francuskim i polskim. Snobizm? Jasne, pewnie tak. Jest jednak jeszcze coś. Zauważyłem, że kiedy przeskakuję z jednego języka na inny, to jakbym przetwarzał informacje w nieco inny sposób. Niby to samo, ale pod odrobinę odmiennym kątem. Angielski to międzynarodowy język naukowy. Francuski pomaga mi uzyskać dodatkową perspektywę na to, co piszę po angielsku. Polski jest moim językiem ojczystym. Chociażbym nie wiem jak dobrze władał innymi językami, mój mózg jest „zakodowany” po polsku jeżeli chodzi o podstawowe rozróżnienia semantyczne. Pisać po polsku, na blogu Discover Social Sciences, to dla mnie jak przejechać się rowerem po bulwarach wiślanych w moim rodzinnym Krakowie i ułożyć sobie w głowie kotłujące się w niej myśli.

Staram się ubrać w konkretne działania pomysł, który przyszedł mi do głowy ostatnio. Na razie opisywałem go po angielsku (np. w „The mind-blowing hydro”) oraz po francusku (np. „La marge opérationnelle de $1 539,60 par an par 1 kilowatt” ) i teraz pora na wersję polską. Na początek nazwa. Po angielsku nazwałem ten pomysł « Energy Ponds », ale po polsku nazwa „Stawy Energetyczne” brzmi głupio, nasuwając na myśl jeden z tych cudownych żeli na bolesność w łokciu czy w kolanie. Zacznę od opisu pomysłu, a potem spróbuję wymyślić polską nazwę. Chodzi o wodę. Cywilizacja europejska jest w dużej mierze oparta na tym, że w północnej Europie wykształciliśmy, mniej więcej na przełomie X i XI wieku n.e., wyjątkowo wydajny system produkcji żywności. Opierał się on i wydaje się opierać dalej na tym, że większość opadów atmosferycznych w ciągu roku otrzymywaliśmy w postaci śniegu w zimie, no a śnieg to wiadomo: zimą leży i topi się wiosną. Jak leży, to ugniata rzeczy pod spodem, a jak ugniata, to się termodynamika kłania: wysokie ciśnienie to prawie jak wysoka temperatura. No i te rzeczy pod śniegiem gniją sobie powoli, jak gniją to się jeszcze cieplej robi i się próchnica glebowa tworzy. Wiosną śnieg topi się wolno, woda z roztopów wsiąka powoli i głęboko w podłoże i się zasoby wodne akumulują. 

Teraz to się zmieniło. Coraz mniej wody spada w postaci śniegu, za to coraz więcej w postaci gwałtownych deszczów, no i coraz więcej paruje pod wpływem rosnącej temperatury. W efekcie mamy powodzie i susze, a ja mam okazję do małego przeglądziku literatury. Zdrobnienie „przeglądzik” nie istnieje w poprawnej polszczyźnie, ale myślę sobie: co tam, mogę mieć swój własny neologizm. Trafiłem na dwa ciekawe artykuły, jeżeli chodzi o ryzyko związane z powodziami w Europie: Alfieri et al. 2015[1] oraz Paprotny et al. (2018[2]). Ciekawe, dlatego że pokazują sposób działania inteligencji zbiorowej w naszym społeczeństwie. Ryzyko związane z powodziami, mierzone klasyczną metodą aktuarialną „rozmiar strat razy prawdopodobieństwo wystąpienia takiej właśnie sytuacji” zmienia się w różny sposób. Częstość powodzi, a więc prawdopodobieństwo wystąpienia związanych z nimi szkód systematycznie rośnie, jednak od jakichś 20 lat rozmiary lokalnych szkód systematycznie spadają. My, Europejczycy, zaczynamy się przystosowywać do tego konkretnego aspektu zmian klimatycznych. Widać jednak, że przystosowujemy się głównie w miastach. Im więcej infrastruktury miejskiej w jednym miejscu, tym mniejsze straty ludzkie i materialne wywołane powodziami. Duże miasta się bronią przed powodziami ze skutecznością, która gwałtownie spada na terenach wiejskich i w małych miastach. Najwięcej ofiar śmiertelnych zbierają powodzie właśnie na terenach wiejskich.    

Jeżeli chodzi o susze i związane z nimi zagrożenia, sytuacja jest inna. Cztery artykuły na temat temat – Naumann et al. (2015[3]), Vogt et al. (2018[4]), Stagge et al. (2017[5]) oraz Lu et al. (2019[6]) – wskazują, że u nas w Europie dopiero zaczynamy się uczyć ryzyka związanego z suszą. Warto tu zwrócić uwagę na jedną istotną różnicę pomiędzy powodzią a suszą. No wiem, czaję: w pierwszym przypadku jest za dużo wody, w drugim za mało. Chodzi mi o coś innego. Za dużo wody zdarza się gwałtownie i widowiskowo, przynosząc straty wyraźne jak siniak po uderzeniu. Powódź to coś, co przy odrobinie złej woli można obserwować z bezpiecznego miejsca jako interesujący news. Z kolei susza dzieje się powoli i przynosi straty, które widzimy dopiero kiedy nabrzmieją do naprawdę dużych rozmiarów. My, Europejczycy, dopiero zaczynamy rozumieć, kiedy niekorzystny bilans wodny jest prawdziwym powodem do niepokoju. Są już jednak w miarę twarde dane naukowe na temat tych zagrożeń. Wiadomo, że Francja, Hiszpania, Włochy, a także – co zaskakujące – Wielka Brytania są najbardziej zagrożone suszą. U nas w Polsce to tak średnio.

No i tu właśnie dochodzimy to tego, czym dokładnie jest zagrożenie suszą. W najbliższej i najbardziej praktycznej perspektywie grozi nam rozchwianie rynku żywności. Jeżeli ktoś miałby ochotę zerknąć na ceny produktów rolnych w kontraktach terminowych, zobaczy coś na kształt niepokoju na rynku. Ceny są coraz bardziej rozchwiane. Mówimy o kontraktach terminowych, a więc o cenach, jakich nabywcy produktów rolnych oczekują w przyszłości. Im bardziej zmienne i rozbieżne te oczekiwania, tym bardziej rozchwiane ceny. No i czego my możemy oczekiwać, tak obiektywnie? Ciekawie na ten temat piszą Webber et al. (2018[7]). Zmiany klimatyczne wywierają dwojaki wpływ na plony. Zaburzenia hydrologiczne działają na minus, jednak jest jeszcze czynnik tzw. haju węglowego. Zwiększona zawartość węgla w atmosferze pobudza metabolizm roślin. Nie wiemy jednak, do jakiego momentu to pobudzenie będzie działać korzystnie, a po przekroczeniu jakiego progu stanie się czynnikiem niesprzyjającym. Jak to praktycznie działa? Pszenica ozima, na przykład, bez efektu pobudzenia węglowego, może przynosić w 2050 roku o 9% niższe plony niż dziś, podczas gdy z uwzględnieniem haju węglowego można oczekiwać wzrostu plonów o 4%. Nie ma jednak sprawiedliwości na tym świecie i kukurydza wydaje się być skazana na spadek plonów o 20% w 2050 roku, napędzana węglem czy nie.

W tym samym artykule wraca jednak kwestia niepewności odnośnie tego, czym w Europie jest susza, tak praktycznie. Deficyt wody to jedno, a jego funkcjonalny wpływ na rolnictwo to drugie. Znów się tu kłania, w ciekawy sposób, zjawisko naszej zbiorowej inteligencji. Problemy z jednoznacznym prognozowaniem wpływu zmian klimatycznych na rolnictwo wynikają z kwestii metodologicznych. Jeżeli chcemy mieć model, który pozwoli jednoznacznie przewidzieć tą kwestię, lokalne błędy predykcji (wartości resztkowe) dla poszczególnych zmiennych powinny być wzajemnie nieskorelowane, tj. wzajemnie niezależne. W tym przypadku są skorelowane. Wydaje się, że nasze rolnictwo przystosowuje się do zmian klimatycznych tak szybko, że niechcący wpada w tą korelację. Zgodnie z tym, co piszą  Toreti et al. (2019[8]), taka naprawdę ostra jazda klimatyczna w europejskim rolnictwie zaczęła się w roku 2015. Widać też zmiany strukturalne: ubytek w plonach pszenicy jest kompensowany większą produkcją innych zbóż, lecz jednocześnie towarzyszy mu mniejsza produkcja buraków i ziemniaków (Eurostat[9], Schills et al. 2018[10]).

To jest zarys zagrożeń i pora na rozwiązania. Jak mamy coraz mniej wody, która wsiąka wolno, to musimy się nauczyć łapać i zatrzymywać wodę, która spada szybko. Trafiłem na interesujący pomysł w Chinach, wdrażany w 30 aglomeracjach: miasto – gąbka. Jest to szczególny typ infrastruktury miejskiej, nastawiony na wchłanianie i retencję dużych ilości wody deszczowej (Jiang et al. 2018[11]). Ciekawe rozwiązania: nawet specjalny, porowaty beton, zdolny przechowywać deszczówkę. W jednej z 30 chińskich aglomeracji objętych tym programem inwestycyjnym jest Xiamen (Shao et al. 2018[12]) i tam właśnie znalazłem bezpośrednią inspirację dla mojego pomysłu: zatrzymaną deszczówkę można pompować do zbiorników szczytowych, z których spływając ta sama deszczówka napędza turbiny hydroelektryczne.

W Europie ważniejsze wydaje się inwestowanie w gąbczastą wieś raczej niż w gąbczaste miasta. W europejskich realiach miasta są dalekie od megalopolitycznego rozpasania miast chińskich i zmiany klimatyczne zagrażają w pierwszej kolejności wsi oraz jej roli bazy żywnościowej dla miast. Jest taka technologia, którą kiedyś – jeszcze w XVIII wieku – w Europie stosowaliśmy powszechnie i która poszła w zapomnienie wraz z rozpowszechnieniem się urządzeń napędzanych silnikami: pompa wodna napędzana energią wody. Koło wodne zanurzone w nurcie rzeki napędza pompę, która pompuje wodę wzwyż i dalej od rzeki. Znalazłem firmę, które dostarcza taką technologię w nowoczesnej wersji: Aqysta. Jest także znana i opatentowana technologia tzw. tarana hydraulicznego (ang. Ram pump). Taka właśnie pompa może tłoczyć wodę z rzeki do zbiorników szczytowych, skąd dalej spływałaby – przechodząc przez turbiny hydroelektryczne – do sieci stawów i kanałów zatrzymujących wodę. Chodzi mi właśnie o to, żeby zamiast gromadzić wodę w dużym zbiorniku retencyjnym, raczej ją rozprowadzać po stosunkowo dużym obszarze podmokłych łąk i niewielkich rozlewisk. Woda wypompowana z rzeki do zbiorników szczytowych ląduje więc w końcu w strukturach irygacyjnych, które powstrzymują ją przed spływaniem dalej korytem rzeki.

Wracam do kwestii polskiej nazwy dla tego pomysłu. Na razie nazwę to „Energo-Retencja”. Tak czy inaczej, to tylko etykietka ułatwiająca dyskusję na temat tego pomysłu. Poniżej staram się pokazać graficznie, o co mi chodzi.

Kiedy idzie duża woda po silnych deszczach, poziom rzeki się podnosi i przepływ na sekundę w nurcie rzeki się zwiększa. Pompa wodna dostaje więcej energii kinetycznej, ma większą moc i szybciej pompuje wodę do zbiornika szczytowego. Więcej wody przepływa przez zbiornik, więcej spływa z niego w dół przez turbiny hydroelektryczne i te z kolei wytwarzają większą moc. Więcej wody ląduje w stawach i kanałach retencyjnych, które swoją drogą zatrzymują bezpośrednio wodę spadającą z nieba. Poziom wód gruntowych się podnosi, coraz dalej i dalej od koryta rzeki.

Kiedy przychodzi susza meteorologiczna, czyli kiedy mnóstwo za bardzo nie pada, zasilenie nurtu rzeki deszczem maleje do zera. Wtedy rzeka zaczyna działać jak dren i odciąga wodę gruntową z przylegających do niej terenów. Poziom rzeki stopniowo opada i zmniejsza się przepływ. Pompy zanurzone w jej nurcie mają mniej energii i mniej wody pompują do zbiorników szczytowych. Mniej wody przepływa przez turbiny i mniej wody ląduje w strukturach retencyjnych. Susza meteorologiczna osłabia działanie całego systemu Energo-Retencji, jednak im więcej wody było zmagazynowane wcześniej w gruncie, tym mniejszy spadek poziomu rzeki i jej przepływu. No tak: rzeka działa jak dren, a więc im więcej wody ma do wydrenowania z okolicznych gruntów, tym wolniej opada przy braku deszczu.

Zakładam, że system ten można zoptymalizować dla konkretnego miejsca i jego uwarunkowań: podczas wysokiej wody gromadzimy wystarczająco dużo wód gruntowych, żeby susza meteorologiczna w minimalnym stopniu zaburzała przepływ rzeki w tym miejscu, a więc żeby lokalny poziom wód gruntowych oraz lokalnie wytwarzana energia hydroelektryczna były jak najbardziej przewidywalne. To jest moje założenie jako laika w dziedzinie hydrologii. Potrzebowałbym wsparcia kogoś, kto naprawdę się na tym zna. Jedno jest jednak widoczne: z energetycznego punktu widzenia system powinien być wyposażony w akumulatory gromadzące energię elektryczną. Wysoka woda daje rezerwy, które zużywamy przy niższej wodzie.   

Myślę o tym, jak mogłaby wyglądać budowa takiej infrastruktury na terenach wiejskich, a szczególnie myślę nad jej finansowaniem i zarządzaniem nią. Pierwsze skojarzenie mam takie, że jeżeli całość ma wytwarzać energię elektryczną, to właśnie wartość rynkowa tej energii może być podstawą do zwrotu z inwestycji. Myślę tak: woda, która spada z nieba w milimetrach na rok spada w gruncie rzeczy w litrach na metr kwadratowy. W Polsce spada 600 milimetrów opadów atmosferycznych rocznie, czyli 600 litrów na metr kwadratowy, czyli 187 600 bilionów litrów w sumie na wszystkie metry kwadratowe. Przy obecnej gospodarce wodnej zatrzymujemy 28,57% z tych opadów, czyli 53 600 bilionów litrów. Nawiasem mówiąc, zdolność retencji wody jest bardzo zróżnicowana w Europie. My jesteśmy gdzieś w tyle stawki. Może być gorzej, np. retencja niecałych 11% opadów na Węgrzech, ale może też być dużo lepiej: 42,75% w Niemczech czy 44,79% w Estonii. Przy obecnym rozwoju hydrologii, zdolność retencji wody zależy głównie od budowy geologicznej: mistrzami retencji są kraje śródziemnomorskie leżące na grubym, skalistym podłożu z mnóstwem kieszeni wodonośnych w środku. Włochy zatrzymują 72,80% opadów, Grecja 67,41%, Chorwacja 59,86% (FAO AQUASTAT[1]).

Załóżmy więc, że nowa infrastruktura do zatrzymywania wody opadowej pozwoliłaby nam w Polsce przejść od obecnej retencji do 28,57% do 42%, czyli prawie jak w Niemczech. To by oznaczało, że zatrzymywalibyśmy o 25 192 bilionów litrów więcej w skali roku. Jaką wartość przedstawia sobą ta woda na rynku energii elektrycznej? Tu liczy się w pierwszym rzędzie przepływ w litrach na sekundę. W ciągu roku mamy tak typowo 8760 godzin (w latach przestępnych 8784 godziny) razy 60 sekund w godzinie, czyli 525 600 sekund. Zwiększona retencja dałaby nam zatem 25 192 bilionów litrów dzielone przez 525 600 sekund = 47,93 miliardów litrów na sekundę. Po to, żeby ten przepływ mógł wytwarzać energię elektryczną, to musi płynąć. Logiczne. Woda płynie z góry na dół, z przyspieszeniem ziemskim równym g = 9,81 m/s2. Ważne jest, jak bardzo z góry na dół, czyli jaka jest różnica poziomów w metrach. W moim pomyśle widzę zbiorniki szczytowe o konstrukcji tzw. wież wodnych wysokich na 10 metrów (tzn. dno zbiornika jest na wysokości 10 metrów). Turbiny wodne mają średnią wydajność energetyczną 75%.  Biorę więc 47,93 miliardów litrów i mnożę przez 10 metrów i potem jeszcze przez 9,81 m/s2 no i jeszcze przez 75%. Wychodzi moc elektryczna w watach, a konkretnie to 3 526,45 gigawatów mocy. Dużo. Szczególnie, że obecna łączna moc wszystkich elektrowni w Polsce wynosi 43,6 gigawata, z tego elektrownie wodne to 2,3 gigawata.

No fajnie. Wygląda jak science-fiction. Gdybyśmy zdołali stworzyć infrastrukturę pozwalającą zwiększyć naszą retencję wody opadowej do poziomu Niemiec – 42% – i gdybyśmy całą tą dodatkową wodę puścili przez turbiny elektryczne z 10 – metrowych zbiorników szczytowych, to mielibyśmy osiemdziesiąt razy więcej energii elektrycznej niż mamy obecnie ze wszystkich źródeł razem wziętych. Może trochę skromniej policzę, o ile więcej deszczówki powinniśmy zatrzymać i wykorzystać w turbinach hydroelektrycznych, żeby pokryć całe zapotrzebowanie naszego kraju na energię. Zgodnie z danymi Banku Światowego, statystyczny Polak zużywa rocznie energię równą 2 490,2 kg równoważnika ropy naftowej, czyli 2 490,2 * 11,63 =  28 961,03 kilowatogodzin. Czyli gdybym chciał mieć wszystko na prąd ( w sensie wszystko to, co już mam na prąd plus to, co mam na gaz i na benzynę), to potrzebowałbym 28 961,03 kilowatogodzin rocznie dzielone przez 8760 godzin w roku = 3,31 kilowata mocy elektrycznej. Ty też i on też. Oni też. Jest nas onych w sumie 38 430 000, czyli potrzebowalibyśmy 127,05 gigawata mocy. Liczę teraz wspak. Mnożę te gigawaty przez miliard – żeby były waty – oraz przez 525 600 sekund w roku, a następnie dzielę przez 98,1 (10 metrów razy 9,81 metra na sekundę kwadratową) oraz przez 75% wydajności. Wychodzi 907,6 miliona metrów sześciennych wody. To jest 0,48% rocznych opadów atmosferycznych w Polsce. Może inaczej: gdybyśmy zbudowali infrastrukturę, która umożliwi zatrzymanie 29,06% opadów zamiast dzisiejszych 28,57% i gdybyśmy tą dodatkową zatrzymaną wodę przepuścili przez 10-metrowe zbiorniki szczytowe, a następnie spuścili ją przez turbiny elektryczne, to zaspokoilibyśmy pełne zapotrzebowanie kraju na energię. Każdą energię, także tą spożywaną w produktach i usługach, które kupuję.

Lubię ugniatać moje pomysły. Cudze zresztą też. Patrzę na to samo z różnych punktów widzenia. Wyczytałem, że typowy zbiornik szczytowy „na nóżkach”, czyli taki budowany w szczerym polu, ma ok. 5000 m3 pojemności. Owe 907 600 000 m3 wody potrzebnych do zaspokojenia naszych potrzeb energetycznych to 181 520 takich zbiorników. Gdybyśmy je zrobili wysokie na 20 metrów zamiast na 10, to wtedy potrzebowalibyśmy tylko 454 000 000 m3 wody i nieco ponad 90 000 takich zbiorników. Innymi słowy, im wyższe wieże zbiorników szczytowych w „Energo-Retencji”, tym więcej prądu można zrobić z tej samej ilości wody.

Teraz ugniatam od innej strony. Biorę moje rachunki za prąd, dla dwóch lokalizacji: domu jednorodzinnego oraz mieszkania w bloku. W obu ta sama grupa taryfowa G11, z tymże w domu jednorodzinnym mam moc przyłączeniową 14 kilowatów i prąd trójfazowy, a w bloku 4 kilowaty i jedną fazę. Płacąc za prąd, płacę za dwie rzeczy: za gotowość dostawcy (Tauron) do podania mocy, czyli za dystrybucję oraz za faktycznie zużytą energię. Mimo, że oba liczniki mam w tej samej grupie taryfowej, cena za 1 kilowatogodzinę zużytej energii jest nieco różna: 0,24450 zł netto za 1 kWh przy jednej fazie w mieszkaniu i 0,24110 zł przy trzech fazach w domu. Jeżeli chodzi o gotowość Taurona do sprzedawania mi prądu, to deklinuje się ona na wiele sposobów: opłata dystrybucyjna zmienna, opłata dystrybucyjna stała itd. Żeby było śmieszniej, opłata dystrybucyjna zmienna jest stała i wynosi 0,19020 zł za 1 kWh, a opłata dystrybucyjna stała jest zmienna i buja się między 8,34 zł a 22 zł za okres rozliczeniowy. Ja te wszystkie zmiennostałe składniki mojej faktury sumuję razem do kupy i wychodzi mi, że w domu jednorodzinnym, przy 14 kilowatach mocy na liczniku, za utrzymanie 1 kilowata płacę 30,20 zł za okres rozliczeniowy, podczas gdy w mieszkaniu wychodzi to 25,62 za kilowat.

No i jak pougniatałem moje rachunki za prąd razem z moim pomysłem „Energo-Retencja”, wyszła mi masa, z której następnie formuję kontrakty inteligentne na platformie crowdfundingowej. Wyobraźmy sobie, że zamiast płacić dostawcy prądu za gotowość dostarczania mi mocy z odległej elektrowni, płacę za kolejne jednostki udziałowe (akcje?) w lokalnej infrastrukturze typu „Energo-Retencja”. Duża firma – Tauron, PGE, Energa czy jeszcze ktoś inny – inwestuje w stworzenie i rozruch takiej infrastruktury w mojej okolicy. Inwestycja ma postać wyodrębnionej, lokalnej spółki. Następnie początkowy inwestor oferuje mnie i innym w okolicy kupno złożonych kontraktów, w których płacimy z wyprzedzeniem za energię elektryczną na przyszłość – czyli np. płacę z góry za prąd na kolejny rok – a jednocześnie płacimy za kolejne jednostki udziałowe w lokalnej spółce. W ten sposób lokalna społeczność stopniowo przejmuje kontrolę kapitałową nad lokalną spółką będącą operatorem infrastruktury typu „Energo-Retencja”. Kontrakty mają być inteligentne, a więc możliwe do elastycznego budowania z drobnych części składowych i sprzedawane za pośrednictwem platformy crowdfundingowej. Jeżeli jestem zainteresowany, to mogę zrobić koszyk zamówień na przyszły prąd i koszyk udziałów w spółce, która go wytwarza.

No dobra, to teraz rzut oka na to, jak by ta spółka wyglądała, tak konkretnie, na początek od strony technologicznej oraz infrastrukturalnej. Wracam do mojego rachunku za prąd w domu jednorodzinnym: gospodarstwo domowe złożone z trzech osób, 14 kilowatów mocy w trzech fazach. W trzymiesięcznym okresie rozliczeniowym zużyliśmy 1838 kWh energii elektrycznej, więc za rok wychodziłoby 4*1838 = 3676 kWh. Przy 14 kilowatach mocy, jadąc po bandzie i na maksa mamy do dyspozycji 14 kW * 8760 godzin = 122 640 kWh w ciągu roku. Nasze faktyczne zużycie odpowiada więc w przybliżeniu 3% energii teoretycznie dostępnej z tego przyłącza, w którym, gdybyśmy zużywali energię elektryczną w sposób doskonale równomierny, potrzebowalibyśmy tylko 0,42 kW mocy. Gdybyśmy, to tak, ale odkurzacz chodzi tylko czasem, pralka i odkurzacz razem jeszcze bardziej czasem, a piekarnik elektryczny jednocześnie z nimi to już w ogóle rzadko. Moc przyłączeniowa musi być jednak wystarczająca na te rzadkie momenty, kiedy wszystko na raz chodzi. Kuchenkę mamy gazową, ale gdybyśmy mieli płytę elektryczną, to trzeba na nią liczyć co najmniej 7,5 kilowata. Piec mamy też gazowy, ale gdybyśmy go zastąpili bojlerem elektrycznym, trzeba dołożyć co najmniej 3 ÷ 4 kW.

Nasze systemy energetyczne funkcjonują właśnie w ten sposób: wykorzystujemy ich dostępną moc tylko w części, lecz potrzebujemy bufora na niektóre okazje. Kilka akapitów wcześniej pisałem, że w Polsce zużycie energii na głowę mieszkańca to 28 961,03 kilowatogodzin rocznie i obejmuje to wszystkie postacie energii: tą zużywaną w domu, tą potrzebną do różnych form transportu i wreszcie tą, którą pośrednio zużywam kupując nową koszulę albo słone paluszki. Gdzie energia w koszuli? Ano w procesie jej wytwarzania i dystrybucji. W słonych paluszkach takoż. W moim gospodarstwie domowym, złożonym z trzech osób, teoretycznie możemy na nasze własne domowe potrzeby zużyć 122 640 kWh energii elektrycznej, a więc 122 640 kWh / (3*28 961,03 kWh) = 1,41 razy więcej energii niż ogółem zużywają trzy statystyczne osoby. Zużywamy z tego jednak tylko 3%.  

Kiedy więc myślę o lokalnej spółce działającej według koncepcji „Energo-Retencji” i zastanawiam się nad jej rolą dla lokalnej społeczności – poza poprawą lokalnej gospodarki wodnej – przychodzą mi na myśl dwa możliwe układy kontraktowe. Pierwszy jest klasyczny i odpowiada dzisiejszym realiom. Turbiny i akumulatory „Energo-Retencji” podłączone są do sieci dystrybucyjnej, sprzedają energię do tejże sieci i jej operator odsprzedaje tą energię do użytkowników końcowych. Energia wytwarzana w „Energo – Retencji” jest jedną z wielu dystrybuowanych w sieci. Zalety: stabilność zasilania dla mojego piekarnika elektrycznego oraz możliwość przenoszenia energii na duże odległości poprzez sieć dystrybucyjną. Nasze lokalne turbiny hydroelektryczne mogą mieć w ten sposób wartość ekonomiczną dla konsumentów energii oddalonych nawet o setki kilometrów. Wady: konieczność dołożenia do ceny energii nadwyżki opłacającej dystrybucję.

Drugi możliwy układ to energia elektryczna z „Energo – Retencji” w roli głównego źródła prądu dla lokalnej społeczności. To właśnie z „Energo – Retencji” pochodziłaby całość (albo prawie) tych 14 czy iluś tam kilowatów na każdym indywidualnym przyłączu. Ponieważ małe turbiny hydroelektryczne, przewidziane w moim pomyśle, wytwarzają prąd o stosunkowo niskim napięciu, lokalna sieć jego dystrybucji byłaby niewielka i raczej niskonapięciowa. Zalety: koszty dystrybucji bliskie zeru (de facto brak miejsca dla firmy dystrybucyjnej) oraz swego rodzaju technologiczna więź lokalnej społeczności z lokalną spółką typu „Energo-Retencja”. Wady: ekspozycja na ryzyko związane z możliwą awarią takiego lokalnego systemu.   


[1] http://www.fao.org/aquastat/en/ ostatni dostęp 1 sierpnia 2019


[1] Alfieri, L., Feyen, L., Dottori, F., & Bianchi, A. (2015). Ensemble flood risk assessment in Europe under high end climate scenarios. Global Environmental Change, 35, 199-212.

[2] Paprotny, D., Sebastian, A., Morales-Nápoles, O., & Jonkman, S. N. (2018). Trends in flood losses in Europe over the past 150 years. Nature communications, 9(1), 1985.

[3] Gustavo Naumann et al. , 2015, Assessment of drought damages and their uncertainties in Europe, Environmental Research Letters, vol. 10, 124013, DOI https://doi.org/10.1088/1748-9326/10/12/124013

[4] Vogt, J.V., Naumann, G., Masante, D., Spinoni, J., Cammalleri, C., Erian, W., Pischke, F., Pulwarty, R., Barbosa, P., Drought Risk Assessment. A conceptual Framework. EUR 29464 EN, Publications Office of the European Union, Luxembourg, 2018. ISBN 978-92-79-97469-4, doi:10.2760/057223, JRC113937

[5] Stagge, J. H., Kingston, D. G., Tallaksen, L. M., & Hannah, D. M. (2017). Observed drought indices show increasing divergence across Europe. Scientific reports, 7(1), 14045.

[6] Lu, J., Carbone, G. J., & Grego, J. M. (2019). Uncertainty and hotspots in 21st century projections of agricultural drought from CMIP5 models. Scientific reports, 9(1), 4922.

[7] Webber, H., Ewert, F., Olesen, J. E., Müller, C., Fronzek, S., Ruane, A. C., … & Ferrise, R. (2018). Diverging importance of drought stress for maize and winter wheat in Europe. Nature communications, 9(1), 4249.

[8] Toreti, A., Cronie, O., & Zampieri, M. (2019). Concurrent climate extremes in the key wheat producing regions of the world. Scientific reports, 9(1), 5493.

[9] https://ec.europa.eu/eurostat/statistics-explained/index.php/Agricultural_production_-_crops ostatni dostęp 14 lipca 2019

[10] Schils, R., Olesen, J. E., Kersebaum, K. C., Rijk, B., Oberforster, M., Kalyada, V., … & Manolov, I. (2018). Cereal yield gaps across Europe. European journal of agronomy, 101, 109-120.

[11] Jiang, Y., Zevenbergen, C., & Ma, Y. (2018). Urban pluvial flooding and stormwater management: A contemporary review of China’s challenges and “sponge cities” strategy. Environmental science & policy, 80, 132-143.

[12] Shao, W., Liu, J., Yang, Z., Yang, Z., Yu, Y., & Li, W. (2018). Carbon Reduction Effects of Sponge City Construction: A Case Study of the City of Xiamen. Energy Procedia, 152, 1145-1151.

Dwie kule w Kalifornii i wielebny Thomas Bayes

Wstępniak video na You Tube

Kontynuuję moją wycieczkę pokazową po krainie na granicy matematyki i codzienności. Tym razem chcę omówić nieco obszerniej podstawy czegoś, czym wykładowcy straszą (czasami) studentów na zajęciach z podstaw statystyki. „Myślicie, że te podstawy są trudne ? To poczekajcie, aż zaczniecie się uczyć statystyki Bayesowskiej: to dopiero jest trudne”. Chcę przybliżyć moim czytelnikom podstawy właśnie tego straszaka, czyli statystyki Bayesowskiej.

Aha, no tak. We wcześniejszych wpisach zapowiadałem, że będę omawiał sposób, w jaki podstawowe twierdzenia nauk społecznych można zastosować w praktyce. Przyjrzeliśmy się już dwóm takim twierdzeniom. Pierwsze, całkiem banalnie mówi: jesteśmy zbiorowością (patrz „Gra w tożsamość”). Drugie postuluje, że prawie wszystko co robimy, robimy w sposób powtarzalny, według powtarzalnych wzorców, a każdy taki wzorzec można rozpisać jako sekwencję (patrz „Czasami coś odrasta”). Pora na trzecie: powtarzalne wzorce zachowań tworzymy poprzez uczenie się na kolejnych eksperymentach.

Wszystko zaczęło się w roku 1763 roku, chociaż może nieco wcześniej. W dniu 23 grudnia 1763 pan John Canton, redaktor czasopisma „Philosophical Transactions”, wydawanego nakładem Królewskiego Towarzystwa Naukowego, otrzymał list od pana Richarda Price’a (nie mylić ze współcześnie żyjącym pisarzem o dokładnie tym samym imieniu i nazwisku), buntowniczego kaznodziei związanego z architektami amerykańskiej niepodległości, podobno głównie Benjaminem Franklinem. List był wysłany 10 listopada 1763 roku i rekomendował panu Johnowi Cantonowi, jako materiał na artykuł, esej napisany (podobno) przez nieżyjącego już wówczas przyjaciela Richarda Price’a, wielebnego Thomasa Bayesa. Price twierdził, że wypełniając ostatnią wolę nieżyjącego Bayesa, porządkował jego osobiste dokumenty i znalazł wśród nich właśnie ten. Redaktor John Canton musiał być pod sporym wrażeniem nadesłanego tekstu, ponieważ ukazał się on jeszcze w tym samym, 1763 roku, którego zostało wtedy tylko 7 dni, pod tytułem: „An Essay towards Solving a Problem in the Doctrine of Chances[1].

Oto jak Richard Price przedstawiał w swym liście do Johna Cantona główną myśl Thomasa Bayesa: „[…] Jego zamiarem było znaleźć metodę, poprzez którą moglibyśmy wydać osąd na temat prawdopodobieństwa że jakieś zdarzenie będzie miało miejsce, w danych okolicznościach, w oparciu o supozycję że nie wiemy nic poza tym, że w takich samych okolicznościach wydarzyło się to już pewną liczbę razy i nie powiodło się w jakiejś innej liczbie razy. […] Dodaje on, że nie jest trudno to wyliczyć, pod warunkiem posiadania jakiejś reguły dla oszacowania szans, że prawdopodobieństwo zdarzenia doskonale nam nieznanego mieści się między jakimikolwiek znanymi stopniami prawdopodobieństwa, jeszcze przed wykonaniem jakichkolwiek eksperymentów […]”.

Richard Price przedstawił redaktorowi Johnowi Cantonowi myśl swojego przyjaciela z prawie doskonałą wiernością. Prawie, gdyż Thomas Bayes wprowadzał jednak element eksperymentu w swoim modelu matematycznym. W celu wyjaśnienia logiki tego eksperymentu i jego związku z całą przedstawianą tu teorią, poniżej przedstawiam moją własną reprodukcję tzw. prostokąta Bayesa. Narysowałem go tak wiernie w stosunku do oryginału z 1763 roku, jak tylko mogłem. Na razie oznaczenia prostokąta niewiele Wam powiedzą, ale wyjaśniam je dalej pod rysunkiem. W moich wyjaśnieniach staram się streścić i odtworzyć oryginalny wywód Thomasa Bayesa też tak wiernie, jak to możliwe.

Prostokąt Bayesa

Wyobraźmy sobie, że wszystko co może się wydarzyć przedstawiamy jako płaszczyznę, a dokładnie jako skończony prostokąt ABCD wyznaczony na dwuwymiarowej płaszczyźnie; podobne geometryczne podejście jak w przypadku rozkładu normalnego ( patrz „Czasami coś odrasta” ). Wyobraźmy sobie, że mamy dwie kule: W i O. Stajemy twarzą do naszego prostokąta tak, że bok AB jest przed nami, jak rozciągnięta poprzecznie linka. W sumie tyłem też można stanąć, ale wtedy trzeba rzucać przez ramię; matematycznie nie ma to większego znaczenia. Najpierw rzucamy kulą W. Nie musimy jej nadawać żadnego konkretnego celu: po prostu staramy się, żeby potoczyła się po prostokącie ABCD. Trajektorię, jaką pokonała nasza kula W, oznaczamy jako odcinek oS.

Teraz rzucamy kulą O, ale przed rzutem zastanawiamy się, gdzie może trafić w nasz prostokąt ABCD. Pierwsza możliwa odpowiedź brzmi: gdziekolwiek. Druga, alternatywna odpowiedź brzmi jednak: albo w prostokąt oBCS, albo w przyległy do niego prostokąt AoSD. Rozumiecie ? Pierwszy rzut – kulą W – podzielił nam całą przestrzeń możliwych zdarzeń na dwie części. Pytanie o to, co się stanie następnie można uprościć: albo walnie w jedną część przestrzeni, albo w drugą. Sukces albo porażka.

Geometria ma swoje prawa: prawa proporcji. Kiedy już rzuciliśmy kulą W i podzieliliśmy w ten sposób nasz prostokąt ABCD na dwa mniejsze – oBCS oraz AoSD – prawdopodobieństwo że kolejny rzut kulą O trafi w któryś z nich jest zależny od ich powierzchni. Im większy jest prostokąt oBCS w stosunku do macierzystego ABCD, tym większa szansa że kula O trafi właśnie w niego. Ponieważ to są prostokąty, naszą proporcję prawdopodobieństwa można nawet jeszcze bardziej uprościć: prawdopodobieństwo trafienia w prostokąt oBCS jest takie, jak proporcja długości odcinka oB do długości odcinka AB. Genialnie proste.

W ten sposób działa nasz umysł. Wchodzimy na nieznany teren, na przykład do nowego biznesu albo zaczynamy nową pracę. Najpierw określamy granice, w których cokolwiek może się wydarzyć, czyli prostokąt ABCD. Następnie zaczynamy eksperymentować: rzucamy kulą W. Próbujemy nawiązać pierwsze kontakty, przeprowadzić pierwsze własne pomysły itd. Każda kolejna taka próba jest jak rozpoczynany wciąż na nowo eksperyment Bayesa. Rzut kulą W dzieli nam przestrzeń wszystkiego, co się może zdarzyć na dwie kategorie: sukces albo porażkę.

W ten sposób jednostki i zbiorowości uczą się nowych wzorców zachowań. Coś robimy. Spośród wszystkiego co się może zdarzyć, to co robimy trafia albo w prostokąt oBCS (sukces, dostajemy efekty, których oczekiwaliśmy po naszym działaniu) albo w AoSD (porażka, czyli kicha, czyli nam nie wyszło). Sekwencja sukcesów utwierdza nas w przekonaniu, że nasze działanie ma sens i z każdym sukcesem utrwalamy odpowiedni wzorzec zachowań. Sekwencja porażek skłania do refleksji, że w naszym doskonałym planie być może powinniśmy wnieść drobne korekty i następnie próbujemy znowu. Jeżeli w całkowitym zbiorze n prób będziemy mieli większość sukcesów, utrwalimy nasze wzorce zachowań. W teorii uczenia się jest to określane jako wykształcanie świadomej kompetencji. Jeżeli natomiast w sekwencji n prób mamy większość porażek, wtedy będziemy mnożyć wciąż nowe warianty zachowań i sprawdzać, który przynosi efekty. Takie zjawisko jest z kolei określane jako budowanie świadomej niekompetencji, czyli budowanie wiedzy na temat tego, kiedy nam nie wychodzi.

Sformalizujmy nieco to rozumowanie. Jeżeli na 10 prób mamy 70% prawdopodobieństwo ośmiu sukcesów i 2 porażek, całe nasze zachowanie będzie szło w kierunku utrwalania obecnie rozgrywanych strategii i kształtowania świadomej kompetencji. Jeżeli natomiast będziemy mieli 70% szans na 8 porażek i 2 sukcesy, nasze działania będą szły w kierunku budowania świadomej niekompetencji i szukania nowych rozwiązań. Prawdopodobieństwo, które starał się wyliczyć wielebny Thomas Bayes – prawdopodobieństwo p sukcesów na n prób – to obiektywny stan rzeczywistości, który nadaje kierunek naszym procesom uczenia się.

Wracam do kwestii proporcji. Przypuśćmy, że nasz pierwszy rzut kulą W wyjdzie prawie dokładnie pośrodku prostokąta ABCD. Wtedy proporcja pomiędzy odcinkiem oB i całym bokiem AB będzie bliska 50%. Prawdopodobieństwo sukcesu w kolejnym rzucie, tym kulą O, jest również bliskie 50%. Prawdopodobieństwo, że sekwencja kolejnych rzutów kulą O będzie sekwencją sukcesów, która utrwali nasz wzorzec zachowań, jest prawie równe prawdopodobieństwu, że będzie to sekwencja porażek i skłoni nas do poszukiwania wciąż nowych rozwiązań.

Nooo, nareszcie ! Pierwsza praktyczna wskazówka od wielebnego Bayesa ! Jeżeli nasz system wartości jest wyostrzony, tzn. bardzo jasno określa czego chcemy i co określamy jako sukces – czyli nasz prostokąt oBCS jest wyraźnie większy albo wyraźnie mniejszy od AoSD – wtedy potrafimy świadomie zbudować wyraźne rozróżnienie między doświadczalnym uczeniem się skierowanym na utrwalanie naszych wzorców zachowań, a uczeniem się ukierunkowanym na szukanie czegoś nowego. Jeżeli natomiast nasz system wartości jest taki cośkolwiek nijaki i nie wiemy dokładnie, na czym nam zależy, wtedy trudno jest nam określić czy lepiej utrwalać to, co już robimy czy też może szukać nowych rozwiązań. Czyli, tak po ludzku, jak wiemy czego chcemy to uczymy się szybciej, a jak nie wiemy, to wolniej.

Druga praktyczna wskazówka, taka na wielkie okazje: nasz system wartości jest określony przez nasze doświadczenie. Zawsze gdzieś tam u zarania i w kolebce zdarzeń był ten rzut kulą W, który podzielił prostokąt naszej rzeczywistości na dwie kategorie. Czasami warto się zastanowić, szczególnie kiedy czujemy że coś jest naprawdę nie tak, czy przypadkiem nie byłoby warto zainicjować nowej sekwencji i rzucić tą kulą W po raz kolejny.

No dobra, no to jakie jest w końcu to prawdopodobieństwo p sukcesów na n prób ? Thomas Bayes podszedł do tego w sposób, który dzisiaj znamy jako rozkład dwumianowy. Nie byłbym belfrem z krwi i kości, gdybym teraz nie zrobił na ten temat szczegółowego wykładu. Mamy prawdopodobieństwo sukcesu a, że nasza kula O walnie w jeden prostokąt wykreślony przez uprzedni rzut kulą W) oraz prawdopodobieństwo porażki b, czyli że kula O trafi niezupełnie w ten właśnie prostokąt. Mamy n prób, gdzie oczekujemy p sukcesów oraz q = n – p porażek. Z tych zmiennych robimy dwumian Newtona: (a + b)p + q.

Jeżeli ulegniemy pokusie dodawania w nawiasie, czyli jeżeli dodamy a + b, wtedy wyjdzie nam 1 – czyli 100% – i to samo wyjdzie nam po podniesieniu do jakiejkolwiek potęgi. Jeżeli jednak zachowamy się zgodnie z logiką dwumianu Newtona, to otrzymamy wielomian, gdzie jednym ze składników będzie: {n!/[p!(n-p)!]}*ap*bq. Ten właśnie składnik wielomianu jest prawdopodobieństwem otrzymania p sukcesów w n próbach. W składniku tym mamy dwa odrębne czynniki. Z jednej strony mamy czynnik ap*bq , czyli ściśle pojęte prawdopodobieństwo że zdarzy się p sukcesów i q porażek. Drugi czynnik to raczej współczynnik – tzw. współczynnik wielomianu – czyli {n!/[p!(n-p)!]}, który odzwierciedla liczbę możliwych sposobów, na które możemy mieć p sukcesów i q porażek na n prób.

Ten drugi czynnik, czyli {n!/[p!(n-p)!]}, ma ciekawą własność. Wyobraźmy sobie, że mamy 100 prób, czyli n = 100 oraz że chcemy sprawdzić prawdopodobieństwo osiągnięcia 33 sukcesów i 67 porażek. Wyrażenie {n!/[p!(n-p)!]} daje nam wtedy wynik 294 692 427 022 540 894 366 527 900 sposobów wystąpienia takiej kombinacji. Strasznie dużo. Co ciekawe, tyle samo, co liczba możliwych kombinacji 67 sukcesów i 33 porażek. Teraz chcę 58 sukcesów na 100 prób. Wyrażenie {n!/[p!(n-p)!]} jest wtedy równe 28 258 808 871 162 574 166 368 460 400. Jeszcze bardziej strasznie dużo, dokładnie dwa rzędy wielkości więcej co poprzednie strasznie dużo. Jeżeli mogę zadowolić się tylko 3 sukcesami, mogę je otrzymać w 100 próbach na {n!/[p!(n-p)!]} = 161 700 sposobów, tyle samo zresztą co 97 sukcesów na 100 prób. Ciągle dużo ale już nie tak strasznie dużo.

Rozwijam teraz dalej myśl, że teoria Thomasa Bayesa odzwierciedla nasze procesy uczenia się poprzez eksperymentowanie. Powyższy pokaz obliczeniowy wskazuje na ciekawą własność tego procesu. Proces eksperymentowania i uczenia się, gdzie liczba sukcesów jest zbliżona do liczby porażek, czyli gdzie utrwalanie wzorców zachowań (rozwijanie świadomej kompetencji) jest mniej więcej zrównoważone z szukaniem nowych rozwiązań (rozwijaniem świadomej niekompetencji) może się wydarzyć na więcej możliwych sposobów niż procesy skrajne, gdzie mamy albo prawie wyłącznie porażki (prawie wyłącznie uczymy się, co nam nie wychodzi) albo prawie same sukcesy i pracowicie utwierdzamy się w doskonałości naszych metod działania.

To wydarzyło się pod koniec 1763 roku. Inna ciekawa rzecz wydarzyła się całkiem niedawno. W dniu 10 sierpnia 2018 roku gubernator stanu Kalifornia podpisał i przekazał Sekretarzowi Stanu akt prawa stanowego, nakreślający plan dla przejścia gospodarki całego stanu Kalifornia w 100% na energie odnawialne[1]. Temat energii odnawialnych jest drogi mojemu sercu, prowadzę na ten temat badania i staram się tworzyć koncepcje biznesów dla rozwoju energii odnawialnych. Teraz staram się wykorzystać ten konkretny przypadek dla zilustrowania zasad racjonalnego eksperymentowania zgodnie z filozofią matematyczną Thomasa Bayesa. Tak jest, wezmę artykuł napisany w osiemnastym wieku i zastosuję jego założenia teoretyczne do interpretacji działań podejmowanych przez stan Kalifornia dla przejścia na energie odnawialne, w dwudziestym pierwszym wieku.

We wstępie owej kalifornijskiej ustawy możemy się dowiedzieć, iż przed jej uchwaleniem niejaka PUC, czyli Public Utilities Commission, czyli po naszemu Komisja ds. Infrastruktury Publicznej, miała prawo egzekwować od wszystkich detalicznych dostawców energii elektrycznej aby w ich koszyku dostaw energie odnawialne miały następujący udział: 25% w dniu 31 grudnia 2016, 33% w dniu 31 grudnia 2020, 40% dnia 31 grudnia 2024, 45% trzydziestego pierwszego grudnia 2027 oraz 50% w dniu 31 grudnia 2030. Tenże sam wstęp oznajmia, że stan (Kalifornia) wziął i się zastanowił i stwierdził, że jak się da tyle, to pewnie da się i więcej, no i zrewidowano podanej powyżej progi. Teraz postanawia się, że trzydziestego pierwszego grudnia 2024 roku elektryczność ze źródeł odnawialnych ma stanowić 44% sprzedaży detalicznej i ma to podskoczyć do 52% w dniu 31 grudnia 2027, aby osiągnąć 60% w dniu 31 grudnia 2030 roku.

Jestem ekonomistą, więc lubię wykresy. Poniżej, możecie zobaczyć tą zmianę polityki energetycznej właśnie w postaci wykresu.

Ustawowe cele stanu Kalifornia w zakresie udziału energii odnawialnych w detalicznej sprzedaży elektryczności

Pytanie nr 1: w jaki sposób cały stan – w zasadzie cały kraj, bo Kalifornia jest ludnościowo większa od Polski – może takie progi jak wymienione powyżej ustalić w sposób racjonalny i realistyczny ? Pytanie nr 2: skąd cały taki kraj wie, że można te progi podnieść ?

Przypuśćmy, że każdy z Was, moi czytelnicy, chce takie wyliczenia przeprowadzić. Skąd wiadomo, jaki procent energii odnawialnych można wyznaczyć jako cel na przyszłość dla społeczności liczącej sobie ponad 30 milionów ludzi ? Wiadomo, czego nie mamy:  nie mamy żadnej reprezentatywnej próbki wielodziesięciomilionowych populacji wraz z ich proporcjami elektryczności dostarczanej ze źródeł odnawialnych. Na tym poziomie analizy nie mamy więc podstaw do rozumowania w kategoriach typowego rozkładu statystycznego ( patrz „Czasami coś odrasta” ). Jak więc podejść do sprawy racjonalnie i wyznaczyć cele, które mają szanse być zrealizowane ?

Politycznie najprościej jest wyznaczyć takie cele, o których wiemy na pewno że zostaną zrealizowane. Jako prawodawca mamy więc przed sobą twarde prognozy, że w roku 2024 odsetek energii odnawialnych wyniesie 46 – 48% i do ustawy wpisujemy 44% itd. Jeżeli jednak myślimy nieco bardziej ambitnie i chcemy stworzyć rzeczywistą strategię przejścia, trzeba zapuścić się w krainę ryzyka i przybić jakiś zakład z losem.

No dobra, ale miało być też o Kalifornii i o jej przejściu na energie odnawialne. W zasadzie wszędzie na świecie przejście to ma szczególną postać, odmienną od tego co działo się jakieś 100 – 150 lat temu, kiedy z kolei przestawialiśmy się na energię z paliw kopalnych. Wtedy, w przeszłości, węgiel, gaz czy ropa naftowa zastępowały młyny wodne czy wiatrowe, tudzież domowe piece, w postaci wielkich skoków. Otwierała się nowa duża elektrownia i za jednym zamachem „przestawiała” na paliwa kopalne całe duże społeczności. Z energiami odnawialnymi jest przeciwnie. Z wyjątkiem niektórych miejsc na świecie (np. kompleksu słoneczno-cieplnego Ouarzazate w Maroku), energie odnawialne pojawiają się w postaci stosunkowo niewielkich, lokalnych instalacji. Przejście na energie odnawialne to stopniowe przechodzenie lokalnych społeczności na „paczki” energii pochodzącej z wody, wiatru czy słońca.

Mamy tu do czynienia z procesem zbiorowego uczenia się. Najpierw zbiorowość rzuca kulą W, jak u Bayesa i jest to zresztą rzut wielokrotny. Zaczyna się od niewielkiej liczby lokalnych instalacji opartych na energiach odnawialnych. Przedsięwzięcia te są eksperymentem, który daje wiedzę na temat tego, co można uznać za sukces ekonomiczny i technologiczny, a co jest porażką. Każde kolejne przedsięwzięcie, spośród tych pionierskich, dostarcza nowych informacji. Przychodzi moment, kiedy „sukces” i „porażka” są na tyle ściśle zdefiniowane, że można pokusić się o określenie ich prawdopodobieństwa.

Według danych udostępnianych przez U.S. Energy Information Administration, przeciętny mieszkaniec Kalifornii zużywa rocznie 199 milionów Btu (British Thermal Units) energii, czyli ok. 58 321 kilowatogodzin. Ludność Kalifornii, zgodnie z danymi World Population Review, to obecnie  39 776 830 osób. Jeżeli strukturę rynku energii w Kalifornii wyrażamy w procentach, to dzielimy ten rynek na „paczki”, z których każda równa jest 1% tegoż rynku, czyli jest to 1% * 39 776 830 osób * 58 321 kilowatogodzin =  23 198 301 877,32 kilowatogodzin = 23 198,3 gigawatogodzin. Jeżeli ustawa zakłada, że

Wskaźniki procentowe zawarte w cytowanej tu ustawie Parlamentu Stanu Kalifornia można zinterpretować jako miary prawdopodobieństwa. Jest to prawdopodobieństwo, że losowo wybrana „paczka” energii równa 23 gigawatogodziny z groszami wyląduje w prostokącie „energie odnawialne” a nie w prostokącie „energia z paliw kopalnych”. Innymi słowy, zbiorowość stanu Kalifornia rzuca już drugą kulą, czyli kulą O. W ustawie jest wpisane założenie, że prawdopodobieństwo to będzie rosło w czasie. Założenie to jest nawet wzmocnione przez fakt, że najnowszy tekst tych przepisów zakłada wyższe prawdopodobieństwo niż poprzednia wersja. Zgodnie z filozofią matematyczną Bayesa jest tylko jeden sposób, aby to prawdopodobieństwo wzrosło: prostokąt odpowiadający kategorii „sukces w eksploatacji energii odnawialnych” musi być coraz większy w relacji do całkowitych rozmiarów prostokąta ABCD, czyli całego uniwersum zdarzeń. Innymi słowy, definicja sukcesu musi być coraz bardziej pojemna.

Jest jeszcze drugi poziom logiczny w tym rozumowaniu. Pamiętacie wyliczenia współczynnika wielomianu sprzed kilku akapitów ?No wiecie, tego {n!/[p!(n-p)!]}. Pokazałem wtedy wyliczenia dla 100 prób, a więc tak jakby pokazywał je dla 100 paczek energii, z których każda ma te tam 23 gigawatogodziny z lekkim hakiem, w sensie że w Kalifornii, bo u nas w Polsce to taka paczka miałaby jakieś 11 gigawatogodzin. Oni zużywają więcej energii na transport i na klimatyzację. W każdym razie, logika rachunku dwumianowego, opartego na rozumowaniu Thomasa Bayesa sugeruje, że istnieje 100 891 344 545 564 193 334 812 497 256 sposobów uzyskiwania ze źródeł odnawialnych 50 paczek energii na 100 możliwych. To był kiedyś wyznaczony cel dla Kalifornii na rok 2030. Jest to jednocześnie największa możliwa liczba kombinacji sukcesów i porażek w 100 próbach. Innymi słowy, jest to proces uczenia się o największym potencjale przynoszenia informacji z kolejnych eksperymentów. Teraz, od 10 września, ten cel został zrewidowany do 60%, a więc do 60 paczek energii na 100 możliwych. Jest 13 746 234 145 802 811 501 267 369 720 sposobów uzyskania 60 sukcesów na 100 prób. To jest ponad siedem razy mniej niż w przypadku 50 sukcesów. Nowe ustawodawstwo stanu Kalifornia przesunęło moment maksymalnie efektywnego, zbiorowego uczenia się wstecz w czasie, z roku 2030 na moment gdzieś między rokiem 2024 a 2027. Ciekawe.

[1] Senate Bill No. 100, CHAPTER 312, An act to amend Sections 399.11, 399.15, and 399.30 of, and to add Section 454.53 to, the Public Utilities Code, relating to energy. [Approved by Governor September 10, 2018. Filed with Secretary of State September 10, 2018.]

 

[1] „An Essay towards Solving a Problem in the Doctrine of Chances”. By the Late Rev. Mr.Bayes, F. R. S. Communicated by Mr. Price, in a Letter to John Canton, A. M. F. R. S. ; Author(s): Mr. Bayes and Mr. Price; Source: Philosophical Transactions (1683-1775), Vol. 53 (1763), pp. 370-418. Published by: Royal Society; Stable URL: http://www.jstor.org/stable/105741