We, the average national economy. Research and case study in finance.

 

My editorial on You Tube

 

I am returning to a long-followed path of research, that on financial solutions for promoting renewable energies, and I am making it into educational content for my course of « Fundamentals of Finance ». I am developing on artificial intelligence as well. I think that artificial intelligence is just made for finance. Financial markets, and the contractual patterns they use, are akin endocrine systems. They generate signals, more or less complex, and those signals essentially say: ‘you lazy f**ks, you need to move and do something, and what that something is supposed to be you can read from between the lines of those financial instruments in circulation’. Anyway, what I am thinking about is to use artificial intelligence for simulating the social change that a financial scheme, i.e. a set of financial instruments, can possibly induce in the ways we produce and use energy. This update is at the frontier of scientific research, business planning, and education strictly spoken. I know that some students can find it hard to follow, but I just want to show real science at work, 100% pure beef.

 

I took a database which I have already used in my research on the so-called energy efficiency, i.e. on the amount of Gross Domestic Product we can derive on the basis of 1 kilogram of oil equivalent. It is a complex indicator of how efficient a given social system is as regards using energy for making things turn on the economic side. We take the total consumption of energy in a given country, and we convert it into standardized units equivalent to the amount of energy we can have out of one kilogram of natural oil. This standardized consumption of energy becomes the denominator of a coefficient, where the nominator consists in the Gross Domestic Product. Thus, it goes like “GDP / Energy consumed”. The greater the value of that coefficient, i.e. the more dollars we derive from one unit of energy, the greater is the energy efficiency of our economic system.

 

Since 2012, the global economy has been going through an unprecedentedly long period of expansion in real output[1]. Whilst the obvious question is “When will it crash?”, it is interesting to investigate the correlates of this phenomenon in the sector of energy. In other terms, are we, as a civilisation more energy-efficient as we get (temporarily) much more predictable in terms of economic growth? The very roots of this question are to find in the fundamental mechanics of our civilisation. We, humans, are generally good at transforming energy. There is a body of historical and paleontological evidence that accurate adjustment of energy balance was one of the key factors in the evolutionary success of humans, both at the level of individual organisms and whole communities (Leonard, Robertson 1997[2]; Robson, Wood 2008[3]; Russon 2010[4])

When we talk about energy efficiency of the human civilisation, it is useful to investigate the way we consume energy. In this article, the question is being tackled by observing the pace of growth in energy efficiency, defined as GDP per unit of energy use (https://data.worldbank.org/indicator/EG.GDP.PUSE.KO.PP.KD?view=chart ). The amount of value added we can generate out of a given set of production factors, when using one unit of energy, is an interesting metric. It shows energy efficiency as such, and, in the same time, the relative complexity of the technological basket we use. As stressed, for example, by Moreau and Vuille (2018[5]), when studying energy intensity, we need to keep in mind the threefold distinction between: a) direct consumption of energy b) transport c) energy embodied in goods and services.

One of the really deep questions one can ask about the energy intensity of our culture is to what extent it is being shaped by short-term economic fluctuations. Ziaei (2018[6]) proved empirically that observable changes in energy intensity of the U.S. economy are substantial, in response to changes in monetary policy. There is a correlation between the way that financial markets work and the consumption of energy. If the relative increase in energy consumption is greater than the pace of economic growth, GDP created with one unit of energy decreases, and vice versa. There is also a mechanism of reaction of the energy sector to public policies. In other words, some public policies have significant impact on the energy efficiency of the whole economy. Different sectors of the economy respond with different intensity, as for their consumption of energy, to public policies and to changes in financial markets. We can assume that a distinct sector of the economy corresponds to a distinct basket of technologies, and a distinct institutional outset.

Faisal et al. (2017[7]) found a long-run correlation between the consumption of energy and real output of the economy, studying the case of Belgium. Moreover, the same authors found significant causality from real output to energy consumption, and that causality seems to be uni-directional, without any significant, reciprocal loop.

Energy efficiency of national economies, as measured with the coefficient of GDP per unit of energy (e.g. per kg of oil equivalent), should take into account that any given market is a mix of goods – products and services – which generate aggregate output. Any combination “GDP <> energy use” is a combination of product markets, as well as technologies (Heun et al. 2018[8]).

There is quite a fruitful path of research, which assumes that aggregate use of energy in an economy can be approached in a biological way, as a metabolic process. The MuSIASEM methodological framework seems to be promising in this respect (e.g. Andreoni 2017[9]). This leads to a further question: can changes in the aggregate use of energy be considered as adaptive changes in an organism, or in generations of organisms? In another development regarding the MuSIASEM framework, Velasco-Fernández et al (2018[10]) remind that real output per unit of energy consumption can increase, on a given basis of energy supply, through factors other than technological change towards greater efficiency in energy use. This leads to investigating the very nature of technological change at the aggregate level. Is aggregate technological change made only of engineering improvements at the microeconomic level, or maybe the financial reshuffling of the economic system counts, too, as adaptive technological change?

The MuSIASEM methodology stresses the fact that international trade, and its accompanying financial institutions, allow some countries to externalise industrial production, thus, apparently, to decarbonise their economies. Still, the industrial output they need takes place, just somewhere else.

From the methodological point of view, the MuSIASEM approach explores the compound nature of energy efficiency measured as GDP per unit of energy consumption. Energy intensity can be understood at least at two distinct levels: aggregate and sectoral. At the aggregate level, all the methodological caveats make the « GDP per kg of oil equivalent » just a comparative metric, devoid of much technological meaning. At the sectoral level, we get closer to technology strictly spoken.

There is empirical evidence that at the sectoral level, the consumption of energy per unit of aggregate output tends to: a) converge across different entities (regions, entrepreneurs etc.) b) tends to decrease (see for example: Yu et al. 2012[11]).

There is also empirical evidence that general aging of the population is associated with a lower energy intensity, and urbanization has an opposite effect, i.e. it is positively correlated with energy intensity (Liu et al. 2017[12])

It is important to understand, how and to what extent public policies can influence the energy efficiency at the macroeconomic scale. These policies can either address directly the issue of thermodynamic efficiency of the economy, or just aim at offshoring the most energy – intensive activities. Hardt et al. (2018[13]) study, in this respect, the case of United Kingdom, where each percentage of growth in real output has been accompanied, those last years, by a 0,57% reduction in energy consumption per capita.

There is grounds for claiming that increasing energy efficiency of national economies matters more for combatting climate change that the strictly spoken transition towards renewable energies (Weng, Zhang 2017[14]). Still, other research suggest that the transition towards renewable energies has an indirectly positive impact upon the overall energy efficiency: economies that make a relatively quick transition towards renewables seem to associate that shift with better efficiency in using energy for creating real output (Akalpler, Shingil 2017[15]).

It is to keep in mind that the energy efficiency of national economies has two layers, namely the efficiency of producing energy in itself, as distinct from the usage we make of the so-obtained net energy. This is the concept of Energy Return on Energy Invested (EROI), (see: Odum 1971[16]; Hall 1972[17]). Changes in energy efficiency can occur on both levels, and in this respect, the transition towards renewable sources of energy seems to bring more energy efficiency in that first layer, i.e. in the extraction of energy strictly spoken, as compared with fossil fuels. The problematically slow growth in energy efficiency could be coming precisely from the de-facto decreasing efficiency of transformation in fossil fuels (Sole et al. 2018[18]).

 

Technology and social structures are mutually entangled (Mumford 1964[19], McKenzie 1984[20], Kline and Pinch 1996[21]; David 1990[22], Vincenti 1994[23]; Mahoney 1988[24]; Ceruzzi 2005[25]). An excellent, recent piece of research by Taalbi (2017[26]) attempts a systematic, quantitative investigation of that entanglement.

The data published by the World Bank regarding energy use per capita in kg of oil equivalent (OEPC) (https://data.worldbank.org/indicator/EG.USE.PCAP.KG.OE ) allows an interesting insight, when combined with structural information provided by the International Energy Agency (https://www.iea.org). As one ranks countries regarding their energy use per capita, the resulting hierarchy is, in the same time, a hierarchy in the broadly spoken socio-economic development. Countries displaying less than 200 kg of oil equivalent per capita are, in the same time, barely structured as economies, with little or no industry and transport infrastructure, with quasi-inexistent institutional orders, and with very limited access to electricity at the level of households and small businesses.  In the class comprised between 200 kg OEPC and approximately 600 ÷ 650 kg OEPC, one can observe countries displaying progressively more and more development in their markets and infrastructures, whilst remaining quite imbalanced in their institutional sphere. Past the mark of 650 OEPC, stable institutions are observable. Interestingly, the officially recognised threshold of « middle income », as macroeconomic attribute of whole nations, seems corresponding to a threshold in energy use around 1 500 kg OEPC. The neighbourhood of those 1 500 kg OEPC looks like the transition zone between developing economies, and the emerging ones. This is the transition towards really stable markets, accompanied by well-structured industrial networks, as well as truly stable public sectors. Finally, as income per capita starts qualifying a country into the class of « developed economies », that country is most likely to pass another mark of energy consumption, that of 3000 kg OEPC. This stylized observation of how energy consumption is linked to social structures is partly corroborated by other research, e.g. that regarding social equality in the access to energy (see for example: Luan, Chen 2018[27])

The nexus of energy use per capita, on the one hand, and institutions on the other hand, has even found a general designation in recent literature: “energy justice”. A cursory review of that literature demonstrates the depth of emotional entanglement between energy and social structures: it seems to be more about the connection between energy and self-awareness of societies than about anything else (see for example: Fuller, McCauley 2016[28]; Broto et al. 2018[29]). The difficulty in getting rid of emotionally grounded stereotypes in this path of research might have its roots in the fact that we can hardly understand what energy really is, and attempts at this understanding send us to the very foundations of our understanding as for what reality is (Coelho 2009[30]; McKagan et al. 2012[31]; Frontali 2014[32]). Recent research, conducted from the point of view of management science reveal just as recent an emergence of new, virtually unprecedented, institutional patterns in the sourcing and the use of energy. A good example of that institutional change is to find in the new role of cities as active players in the design and implementation of technologies and infrastructures critical for energy efficiency (see for example: Geels et al. 2016[33]; Heiskanen et al. 2018[34]; Matschoss, Heiskanen 2018[35]).

 

Changes observable in the global economy, with respect to energy efficiency measured as GDP per unit of energy consumed, are interestingly accompanied by those in the supply of money, urbanization, as well as the shift towards renewable energies. Years 2008 – 2010, which marked, with a deep global recession, the passage towards currently experienced, record-long and record-calm period of economic growth, displayed a few other interesting transitions. In 2008, the supply of broad money in the global economy exceeded, for the first documented time, 100% of the global GDP, and that coefficient of monetization (i.e. the opposite of the velocity of money) has been growing ever since (World Bank 2018[36]). Similarly, the coefficient of urbanization, i.e. the share of urban population in the global total, exceeded 50% in 2008, and has kept growing since (World Bank 2018[37]). Even more intriguingly, the global financial crisis of 2007 – 2009 took place exactly when the global share of renewable energies in the total consumption of energy was hitting a trough, below 17%, and as the global recovery started in 2010, that coefficient started swelling as well, and has been displaying good growth since then[38]. Besides, empirical data indicates that since 2008, the share of aggregate amortization (of fixed assets) in the global GDP has been consistently growing, after having passed the cap of 15% (Feenstra et al. 2015[39]). Some sort of para-organic pattern emerges out of those observations, where energy efficiency of the global economy is being achieved through more intense a pace of technological change, in the presence of money acting as a hormone, catabolizing real output and fixed assets, whilst anabolizing new generations of technologies.

 

Thus, I have that database, which you can download precisely by clicking this link. One remark: this is an Excel file, and when you click on the link, it downloads without further notice. There is no opening on the screen. In this set, we have 12 variables: i) GDP per unit of energy use (constant 2011 PPP $ per kg of oil equivalent) ii) Fixed assets per 1 resident patent application iii) Share of aggregate depreciation in the GDP – speed of technological obsolescence iv) Resident patent applications per 1 mln people v) Supply of broad money as % of GDP vi)

Energy use per capita (kg of oil equivalent) vii) Depth of the food deficit (kilocalories per person per day) viii) Renewable energy consumption (% of total final energy consumption) ix) Urban population as % of total population x) GDP (demand side) xi) GDP per capita, and finally xii) Population. My general, intuitive idea is to place energy efficiency in a broad socio-economic context, and to see what role in that context is being played by financial liquidity. In simpler words, I want to discover how can the energy efficiency of our civilization be modified by a possible change in financial liquidity.

 

My database is a mix-up of 59 countries and years of observation ranging from 1960 to 2014, 1228 records in total. Each record is the state of things, regarding the above-named variables, in a given year. In quantitative research we call it a data panel. You have bits of information inside and you try to make sense out of it. I like pictures. Thus, I made some. These are the two graphs below. One of them shows the energy efficiency of national economies, the other one focuses on the consumption of energy per capita, and both variables are being shown as a function of supply of broad money as % of GDP. I consider the latter to be a crude measure of financial liquidity in the given place and time. The more money is being supplied per unit of Gross Domestic Product, the more financial liquidity people have as for doing something with them units of GDP. As you can see, the thing goes really all over the place. You can really say: ‘that is a cloud of points’. As it is usually the case with clouds, you can see any pattern in it, except anything mathematically regular. I can see a dung beetle in the first one, and a goose flapping its wings in the second. Many possible connections exist between the basic financial liquidity of the economic system, on the one hand, and the way we use energy, on the other hand.

 

I am testing my database for general coherence. In the table below, I am showing the arithmetical average of each variable. As you hopefully know, since Abraham de Moivre we tend to assume that arithmetical average of a large sample of something is the expected value of that something. Thus, the table below shows what we can reasonably expect from the database. We can see a bit of incoherence. Mean energy efficiency is $8,72 per kg of oil equivalent in energy. Good. Now, I check. I take the energy consumption per capita and I multiply in by the number of capitae, thus I go 3 007,28 * 89 965 651 =  270 551 748,43 tons of oil equivalent. This is the amount of energy consumed in one year by the average expected national society of homo sapiens in my database. Now, I divide the average expected GDP in the sample, i.e. $1 120 874,23 mln, by that expected total consumption of energy, and I hit just $1 120 874,23 mln / 270 551 748,43 tons = $4,14 per kilogram.

 

It is a bit low, given that a few sentences ago the same variable was supposed to be$8,72 per kg. This is just a minor discrepancy as compared to the GDP per capita, which is the central measure of wealth in a population. The average calculated straight from the database is $22 285,63. Cool. This is quite a lot, you know. Now, I check. I take the aggregate average GDP per country, i.e.  $1 120 874,23 mln, and I divide it by the average headcount of population, i.e. I go $1 120 874 230 000 / 89 965 651 =  $12 458,91. What? $12 458,91 ? But it was supposed to be is $22 285,63! Who took those 10 thousand dollars away from me? I mean, $12 458,91 is quite respectable, it is just a bit below my home country, Poland, presently, but still… Ten thousand dollars of difference? How is it possible?

 

It is so embarrassing when numbers are not what we expect them to be. As a matter of fact, they usually aren’t. It is just our good will that makes them look so well fitting to each other. Still, this is what numbers do, when they are well accounted for: they embarrass. As they do so, they force us to think, and to dig meaning out from underneath the numbers. This is what quantitative analysis in social sciences is supposed to do: give us the meaning that we expect when we measure things about our own civilisation.

 

Table 1 – Average values from the pooled database of N = 1228 country-year observations

Variable Average expected value from empirical data, N = 1228 records
GDP per unit of energy use (constant 2011 PPP $ per kg of oil equivalent) 8,72
Fixed assets per 1 resident patent application (constant 2011 PPP $) 3 534,80
Share of aggregate depreciation in the GDP – speed of technological obsolescence 14%
Resident patent applications per 1 mln people – speed of invention 158,90
Supply of broad money % of GDP – observed financial liquidity 74,60%
Energy use (kg of oil equivalent per capita) 3 007,28 kg
Depth of the food deficit (kilocalories per person per day) 26,40
Renewable energy consumption (% of total final energy consumption) 16,05%
Urban population as % of total population 69,70%
GDP (demand side; millions of constant 2011 PPP $) 1 120 874,23
GDP per capita (constant 2011 PPP $) $22 285,63
Population 89 965 651

 

Let’s get back to the point, i.e. to finance. As I explain over and over again to my students, when we say ‘finance’, we almost immediately need to say: ‘balance sheet’. We need to think in terms of a capital account. Those expected average values from the table can help us to reconstruct at least the active side of that representative, expected, average economy in my database. There are three variables which sort of overlap: a) fixed assets per 1 resident patent application b) resident patent applications per 1 mln people and c) population. I divide the nominal headcount of population by 1 000 000, and thus I get population denominated in millions. I multiply the so-denominated population by the coefficient of resident patent applications per 1 mln people, which gives me, for each country and each year of observation, the absolute number of patent applications in the set. In my next step, I take the coefficient of fixed assets per 1 patent application, and I multiply it by the freshly-calculated-still-warm absolute number of patent applications.

 

Now, just to make it arithmetically transparent, when I do (« Fixed assets » / « Patent applications ») * « Patent applications », I take a fraction and I multiply it by its own denominator. It is de-factorisation. I stay with just the nominator of that initial fraction, thus with the absolute amount of fixed assets. For my representative, average, expected country in the database, I get Fixed Assets = $50 532 175,96 mln.

 

I do slightly the same with money. I take “Supply of money as % of the GDP”, and I multiply it by the incriminated GDP, which makes Money Supplied = 74,60% * $1 120 874,23 mln =  $836 213,98 mln. We have a fragment in the broader balance sheet of our average expected economy: Fixed Assets $50 532 175,96 mln and Monetary Balances $836 213,98 mln. Interesting. How does it unfold over time? Let’s zeee… A bit of rummaging, and I get the contents of Table 2, below. There are two interesting things about that table.

 

 

Table 2 – Changes over time in the capital account of the average national economy

Year Average fixed assets per national economy, $ mln constant 2011 PPP GDP per unit of energy use (constant 2011 PPP $ per kg of oil equivalent), in the average national economy Supply of broad money in average national economy, $ mln constant 2011 PPP Money to fixed assets
1990 2 036 831,928 8,08 61,526 0,0030%
1991 1 955 283,198 8,198 58,654 0,0030%
1992 2 338 609,511 8,001 61,407 0,0026%
1993 2 267 728,024 7,857 60,162 0,0027%
1994 2 399 075,082 7,992 60,945 0,0025%
1995 2 277 869,991 7,556 60,079 0,0026%
1996 2 409 816,67 7,784 64,268 0,0027%
1997 2 466 046,108 7,707 71,853 0,0029%
1998 2 539 482,259 7,76 77,44 0,0030%
1999 2 634 454,042 8,085 82,987 0,0032%
2000 2 623 451,217 8,422 84,558 0,0032%
2001 2 658 255,842 8,266 88,335 0,0033%
2002 2 734 170,979 8,416 92,739 0,0034%
2003 2 885 480,779 8,473 97,477 0,0034%
2004 3 088 417,325 8,638 100,914 0,0033%
2005 3 346 005,071 8,877 106,836 0,0032%
2006 3 781 802,623 9,106 119,617 0,0032%
2007 4 144 895,314 9,506 130,494 0,0031%
2008 4 372 927,883 9,57 140,04 0,0032%
2009 5 166 422,174 9,656 171,191 0,0033%
2010 5 073 697,622 9,62 164,804 0,0032%
2011 5 702 948,813 9,983 178,381 0,0031%
2012 6 039 017,049 10,112 195,487 0,0032%
2013 6 568 280,779 10,368 205,159 0,0031%
2014 5 559 781,782 10,755 161,435 0,0029%

 

This is becoming really interesting. Both components in the capital account of the representative, averaged economy had been growing until 2013, then it fell. Energy efficiency has been growing quite consistently, as well. The ratio of money to assets, thus a crude measure of financial liquidity in this capital account, remains sort of steady, with a slight oscillation. You can see it in the graph below. I represented all the variables as fixed-base indexes: the value recorded for the year 2000 is 1,00, and any other value is indexed over that one. We do that thing all the time, in social sciences, when we want to study apparently incompatible magnitudes. A little test of Pearson correlation, and… Yesss! Energy efficiency is Pearson correlated with the amount of fixed assets at r = 0,953096394, and with the amount of money supplied at r = 0,947606073. All that in the presence of more or less steady a liquidity.

 

Provisional conclusion: the more capital we accumulate, we, the average national economy, the more energy efficient we are, and we sort of dynamically adjust to keep the liquidity of that capital, at least the strictly monetary liquidity, at a constant level.

 

I am consistently delivering good, almost new science to my readers, and love doing it, and I am working on crowdfunding this activity of mine. As we talk business plans, I remind you that you can download, from the library of my blog, the business plan I prepared for my semi-scientific project Befund  (and you can access the French version as well). You can also get a free e-copy of my book ‘Capitalism and Political Power’ You can support my research by donating directly, any amount you consider appropriate, to my PayPal account. You can also consider going to my Patreon page and become my patron. If you decide so, I will be grateful for suggesting me two things that Patreon suggests me to suggest you. Firstly, what kind of reward would you expect in exchange of supporting me? Secondly, what kind of phases would you like to see in the development of my research, and of the corresponding educational tools?

 

[1] https://data.worldbank.org/indicator/NY.GDP.MKTP.KD.ZG

[2] Leonard, W.R., and Robertson, M.L. (1997). Comparative primate energetics and hominoid evolution. Am. J. Phys. Anthropol. 102, 265–281.

[3] Robson, S.L., and Wood, B. (2008). Hominin life history: reconstruction and evolution. J. Anat. 212, 394–425

[4] Russon, A. E. (2010). Life history: the energy-efficient orangutan. Current Biology, 20(22), pp. 981- 983.

[5] Moreau, V., & Vuille, F. (2018). Decoupling energy use and economic growth: Counter evidence from structural effects and embodied energy in trade. Applied Energy, 215, 54-62.

[6] Ziaei, S. M. (2018). US interest rate spread and energy consumption by sector (Evidence of pre and post implementation of the Fed’s LSAPs policy). Energy Reports, 4, 288-302.

[7] Faisal, F., Tursoy, T., & Ercantan, O. (2017). The relationship between energy consumption and economic growth: Evidence from non-Granger causality test. Procedia Computer Science, 120, 671-675

[8] Heun, M. K., Owen, A., & Brockway, P. E. (2018). A physical supply-use table framework for energy analysis on the energy conversion chain. Applied Energy, 226, 1134-1162

[9] Andreoni, V. (2017). Energy Metabolism of 28 World Countries: A Multi-scale Integrated Analysis. Ecological Economics, 142, 56-69

[10] Velasco-Fernández, R., Giampietro, M., & Bukkens, S. G. (2018). Analyzing the energy performance of manufacturing across levels using the end-use matrix. Energy, 161, 559-572

[11] Yu, S., Wei, Y. M., Fan, J., Zhang, X., & Wang, K. (2012). Exploring the regional characteristics of inter-provincial CO2 emissions in China: An improved fuzzy clustering analysis based on particle swarm optimization. Applied energy, 92, 552-562

[12] Liu, F., Yu, M., & Gong, P. (2017). Aging, Urbanization, and Energy Intensity based on Cross-national Panel Data. Procedia computer science, 122, 214-220

[13] Hardt, L., Owen, A., Brockway, P., Heun, M. K., Barrett, J., Taylor, P. G., & Foxon, T. J. (2018). Untangling the drivers of energy reduction in the UK productive sectors: Efficiency or offshoring?. Applied Energy, 223, 124-133.

[14] Weng, Y., & Zhang, X. (2017). The role of energy efficiency improvement and energy substitution in achieving China’s carbon intensity target. Energy Procedia, 142, 2786-2790.

[15] Akalpler, E., & Shingil, M. E. (2017). Statistical reasoning the link between energy demand, CO2 emissions and growth: Evidence from China. Procedia Computer Science, 120, 182-188.

[16] Odum, H.T. (1971) Environment, Power, and Society, Wiley, New York, NY, 1971.

[17] Hall, C.A.S., (1972) Migration and metabolism in a temperate stream ecosystem, Ecology, vol. 53 (1972), pp. 585 – 604.

[18] Solé, J., García-Olivares, A., Turiel, A., & Ballabrera-Poy, J. (2018). Renewable transitions and the net energy from oil liquids: A scenarios study. Renewable Energy, 116, 258-271.

[19] Mumford, L., 1964, Authoritarian and Democratic Technics, Technology and Culture, Vol. 5, No. 1 (Winter, 1964), pp. 1-8

[20] MacKenzie, D., 1984, Marx and the Machine, Technology and Culture, Vol. 25, No. 3. (Jul., 1984), pp. 473-502.

[21] Kline, R., Pinch, T., 1996, Users as Agents of Technological Change : The Social Construction of the Automobile in the Rural United States, Technology and Culture, vol. 37, no. 4 (Oct. 1996), pp. 763 – 795

[22] David, P. A. (1990). The dynamo and the computer: an historical perspective on the modern productivity paradox. The American Economic Review, 80(2), 355-361.

[23] Vincenti, W.G., 1994, The Retractable Airplane Landing Gear and the Northrop “Anomaly”: Variation-Selection and the Shaping of Technology, Technology and Culture, Vol. 35, No. 1 (Jan., 1994), pp. 1-33

[24] Mahoney, M.S., 1988, The History of Computing in the History of Technology, Princeton, NJ, Annals of the History of Computing 10(1988), pp. 113-125

[25] Ceruzzi, P.E., 2005, Moore’s Law and Technological Determinism : Reflections on the History of Technology, Technology and Culture, vol. 46, July 2005, pp. 584 – 593

[26] Taalbi, J. (2017). What drives innovation? Evidence from economic history. Research Policy, 46(8), 1437-1453.

[27] Duan, C., & Chen, B. (2018). Analysis of global energy consumption inequality by using Lorenz curve. Energy Procedia, 152, 750-755.

[28] Fuller S, McCauley D. Framing energy justice: perspectives from activism and advocacy. Energy Res Social Sci 2016;11:1–8.

[29] Broto, V. C., Baptista, I., Kirshner, J., Smith, S., & Alves, S. N. (2018). Energy justice and sustainability transitions in Mozambique. Applied Energy, 228, 645-655.

[30] Coelho, R. L. (2009). On the concept of energy: History and philosophy for science teaching. Procedia-Social and Behavioral Sciences, 1(1), 2648-2652.

[31] McKagan, S. B., Scherr, R. E., Close, E. W., & Close, H. G. (2012, February). Criteria for creating and categorizing forms of energy. In AIP Conference Proceedings (Vol. 1413, No. 1, pp. 279-282). AIP.

[32] Frontali, C. (2014). History of physical terms:‘Energy’. Physics Education, 49(5), 564.

[33] Geels, F., Kern, F., Fuchs, G., Hinderer, N., Kungl, G., Mylan, J., Neukirch, M., Wassermann, S., 2016. The enactment of socio-technical transition pathways: a reformulated typology and a comparative multi-level analysis of the German and UK low-carbon electricity transitions (1990–2014). Res. Policy 45, 896–913.

[34] Heiskanen, E., Apajalahti, E. L., Matschoss, K., & Lovio, R. (2018). Incumbent energy companies navigating the energy transitions: Strategic action or bricolage?. Environmental Innovation and Societal Transitions.

[35] Matschoss, K., & Heiskanen, E. (2018). Innovation intermediary challenging the energy incumbent: enactment of local socio-technical transition pathways by destabilization of regime rules. Technology Analysis & Strategic Management, 30(12), 1455-1469

[36] https://data.worldbank.org/indicator/FM.LBL.BMNY.GD.ZS last accessed November 25th, 2018

[37] https://data.worldbank.org/indicator/SP.URB.TOTL.IN.ZS last accessed November 25th, 2018

[38] https://data.worldbank.org/indicator/EG.FEC.RNEW.ZS last accessed November 25th, 2018

[39] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at www.ggdc.net/pwt

Locally smart. Case study in finance.

 

My editorial on You Tube

 

Here I go, at the frontier between research and education. This is how I earn my living, basically, combining research and education. I am presenting and idea I am currently working on, in a team, regarding a financial scheme for local governments. I am going to develop it here as a piece of educational material for my course « Fundamentals of Finance ». I am combining educational explanation with specific techniques of scientific research.

 

Here is the deal: creating a financial scheme, combining pooled funds, crowdfunding, securities, and cryptocurriences, for facilitating smart urban development through the creation of local start-up businesses. A lot of ideas in one concept, but this is science, for one, and thus anything is possible, and this is education, for two, hence we need to go through as many basic concepts as possible. It goes more or less as follows: a local government creates two financial instruments, a local investment fund, and a local crowdfunding platform. Both serve to facilitate the creation and growth of local start-ups, which, in turn, facilitate smart urban development.

 

We need a universe in order to do anything sensible. Good. Let’s make a universe, out of local governments, local start-up businesses, and local projects in smart urban development. Projects are groups of people with a purpose and a commitment to achieve it together. Yes, wars are projects, just as musical concerts and public fundraising campaigns for saving the grey wolf. Projects in smart urban development are groups of people with a purpose and a commitment to do something interesting about implementing new technologies into the urban infrastructures and this improving the quality, and the sustainability of urban life.

 

A project is like a demon. It needs a physical body, a vessel to carry out the mission at hand. Projects need a physical doorstep to put a clear sign over it. It is called ‘headquarters’, it has an official address, and we usually need it if we want to do something collective and social. This is where letters from the bank should be addressed to. I have the idea to embody local projects of smart urban development in physical bodies of local start-up businesses. This, in turn, implies turning those projects into profitable ventures. What is the point? A business has assets and it has equity. Assets can back equity, and liabilities. Both equity and liabilities can be represented with financial instruments, namely tradable securities. With that, we can do finance.

 

Why securities? The capital I need, and which I don’t have, is the capital somebody is supposed to entrust with me. Thus, by acquiring capital to finance my project, I give other people claims on the assets I am operating with. Those people will be much more willing to entrust me with their capital if those claims are tradable, i.e. when they can back off out of the business really quickly. That’s the idea of financial instruments: making those claims flow and float around, a bit like water.

 

Question: couldn’t we just make securities for projects, without embodying them in businesses? Problematic. Any financial instrument needs some assets to back it up, on the active side of the balance sheet. Projects, as long as they have no such back up in assets, are not really in a position to issue any securities. Another question: can we embody those projects in institutional forms other than businesses, e.g. foundations, trusts, cooperatives, associations? Yes, we can. Each institutional form has its pluses and its minuses. Business structures have one peculiar trait, however: they have at their disposal probably the broadest range of clearly defined financial instruments, as compared to other institutional forms.

 

Still, we can think out of the box. We can take some financial instruments peculiar to business, and try to transplant them onto another institutional body, like that of an association. Let’s just try and see what happens. I am a project in smart urban development. I go to a notary, and I write the following note: “Whoever hands this note on December 31st of any calendar year from now until 2030, will be entitled to receive 20% of net profits after tax from the business identified as LHKLSHFKSDHF”. Signature, date of signature, stamp by the notary. Looks like a security? Mmmwweeelll, maybe. Let’s try and put it in circulation. Who wants my note? What? What do I want in exchange? Let’s zeeee… The modest sum of $2 000 000? You good with that offer?

 

Some of you will say: you, project, you stop right there and you explain a few things. First of all, what if you really have those profits, and 20% of them really make it worth to hand you $2 000 000 now? How exactly can anyone claim those 20%? How will they know the exact sum they are entitled to? Right, say I (project), we need to write some kind of contract with those rules inside. It can be called corporate bylaw, and we need to write it all down. For example, what if somebody has this note on December 31st, 2025, and then they sell it to someone else on January 2nd, 2026, and the profits for 2025 will be really accounted for like in February 2026 at best, and then, who is entitled to have those 20% of profits: the person who had the note on December 31st, 2025, or the one presenting it in 2026, when all is said and done about profits? Sort of tricky, isn’t it? The note says: ‘Whoever hands this note on December 31st… etc.’, only the act of handing is now separated from the actual disclosure of profits. We keep that in mind: the whole point of making a claim into a security is to make it apt for circulation. If the circulation in itself becomes too troublesome, the security loses a lot of its appeal.

 

See? This note contains a conditional claim. Someone needs to hand the note at the right moment and in the right place, there need to be any profit to share etc. That’s the thing about conditional claims: you need to know exactly how to apprehend those conditions, which the claim is enforceable upon.

 

As I think about the exact contents of that contract, it looks like me and anyone holds that note are partners in business. We are supposed to share profits. Profits come from the exploitation of some assets, and they become real only after all the current liabilities have been paid. Hence, we actually share equity in those assets. The note is an equity-based security, a bit primitive, yes, certainly, still an equity-based security.

 

Another question from the audience: “Project, with all the due respect, I don’t really want to be partners in business with you. Do you have an alternative solution to propose?”. Maybe I have… What do you say about a slightly different note, like “Whoever hands this note on December 31st of any calendar year from now until 2030, will be entitled to receive $500 000 from the bank POIUYTR not later than until January 15th of the next calendar year”. Looks good? You remember what is that type of note? This is a draft, or routed note, a debt-based security. It embodies an unconditional claim, routed on that bank with an interesting name, a bit hard to spell aloud. No conditions attached, thus less paperwork with a contract. Worth how much? Maybe $2 000 000, again?

 

No conditions, yet a suggestion. If, on the one hand, I grant you a claim on 20% of my net profit after tax, and, on the other hand, I am ready to give an unconditional claim on $500 000, you could search some mathematical connection between the 20% and the $500 000. Oh, yes, and there are those $2 000 000. You are connecting the dots. Same window in time, i.e. from 2019 through 2030, which makes 11 occasions to hand the note and claim the money. I multiply occasions by unconditional claims, and I go 11*$500 000 = $5 500 000. An unconditional claim on $5 000 000 spread over 11 annual periods is being sold for $2 000 000. Looks like a ton of good business to do, still let’s do the maths properly. You could invest your $2 000 000 in some comfy sovereign bonds, for example the federal German ones. Rock solid, those ones, and they can yield like 2% a year. I simulate: $2 000 000*(1+0,02)11 =  $2 486 748,62. You pay me $2 000 000, you forego the opportunity to earn $486 748,62, and, in exchange, you receive an unconditional claim on $5 500 000. Looks good, at least at the first sight. Gives you a positive discount rate of ($5 500 000 – $2 486 748,62)/ $2 486 748,62 = 121,2% on the whole 11 years of the deal, thus 121,2%/11 = 11% a year. Not bad.

 

When you have done the maths from the preceding paragraph, you can assume that I expect, in that project of smart urban development, a future stream of net profit after tax, over the 11 fiscal periods to come, somewhere around those $5 500 000. Somewhere around could be somewhere above or somewhere below.  Now, we enter the world of behavioural finance. I have laid my cards on the table, with those two notes. Now, you try to figure out my future behaviour, as well as the behaviour to expect in third parties. When you hold a claim, on whatever and whomever you want, this claim has two financial characteristics: enforceability and risk on the one hand, and liquidity on the other hand. You ask yourself, what exactly can the current holder of the note enforce in terms of payback from my part, and what kind of business you can do by selling those notes to someone else.

 

In a sense, we are playing a game. You face a choice between different moves. Move #1: buy the equity-based paper and hold. Move #2: buy the equity-based one and sell it to third parties. Move #3: buy the debt-based routed note and hold. Move #4: buy the routed note and sell it shortly after. You can go just for one of those moves, or make a basket thereof, if you have enough money to invest more than one lump injection of $2 000 000 into my project of smart urban development.

 

You make your move, and you might wonder what kind of move will I make, and what will other people do. Down that avenue of thinking, madness lies. Finance means, very largely, domesticated madness, and thus, when you are a financial player, instead of wondering what other people will do, you look for reliable benchmarks in the existing markets. This is an important principle of finance: quantities and prices are informative about the human behaviour to expect. When you face the choice between moves #1 ÷ #4, you will look, in the first place, for and upon the existing markets. If I grant you 20% of my profits in exchange of $2 000 000, which, in fact, seem corresponding to at least $500 000 of future annual cash flow. If 20% of something is $500 000, the whole something makes $500 000/ 20% = $2 500 000. How much equity does it correspond to? Here it comes to benchmarking. Aswath Damodaran, from NYU Stern Undergraduate College, publishes average ROE (return on equity) in different industries. Let’s suppose that my project of smart urban development is focused on Environmental & Waste Services. It is urban, it claims being smart, hence it could be about waste management. That makes 17,95% of average ROE, i.e. net profit/equity = 17,95%. Logically, equity = net profit/17,95%, thus I go $2 500 000/17,95% = $13 927 576,60 and this is the equity you can reasonably expect I expect to accumulate in that project of smart urban development.

 

Among the numerous datasets published by Aswath Damodaran, there is one containing the so-called ROIC, or return on invested capital, thus on the total equity and debt invested in the business. In the same industry, i.e. Environmental & Waste Services, it is 13,58%. It spells analogously to ROE, thus it is net profit divided by the total capital invested, and, logically, total capital invested = net profit / ROIC = $2 500 000 / 13,58% = $18 409 425,63. Equity alone makes $13 927 576,60, equity plus debt makes $18 409 425,63, therefore debt = $18 409 425,63 – $13 927 576,60 =  $4 481 849,02.

 

With those rates of return on, respectively, equity and capital invested, those 11% of annual discount, benchmarked against German sovereign bonds, look acceptable. If I take a look at the financial instruments listed in the AIM market of London Stock Exchange, and I dig a bit, I can find corporate bonds, i.e. debt-based securities issued by incorporated business structures. Here come, for example, the bonds issued by 3i Group, an investment fund. They are identified with ISIN (International Securities Identification Number) XS0104440986, they were issued in 1999, and their maturity date is December 3rd, 2032. They are endowed with an interest rate of 5,75% a year, payable in two semi-annual instalments every year. Once again, the 11% discount offered on those imaginary routed notes of my project look interesting in comparison.

 

Before I go further, I am once again going to play at anticipating your questions. What is the connection between the interest rate and the discount rate, in this case? I am explaining numerically. Imagine you buy corporate bonds, like those 3i Group bonds, with an interest rate 5,75% a year. You spend $2 000 000 on them. You hold them for 5 years, and then you sell them to third persons. Just for the sake of simplifying, I suppose you sell them for the same face value you bought them, i.e. for $2 000 000. What happened arithmetically, from your point of view, can be represented as follows: – $2 000 000 + 5*5,75%*$2 000 000 + $2 000 000 = $575 000. Now, imagine that instead of those bonds, you bought, for an amount of $2 000 000,  debt-based routed notes of my project, phrased as follows: “Whoever hands this note on December 31st of any calendar year from now until Year +5, will be entitled to receive $515 000 from the bank POIUYTR not later than until January 15th of the next calendar year”. With such a draft (remember: another name for a routed note), you will total – $2 000 000 + 5*$515 000 = $575 000.

 

Same result at the end of the day, just phrased differently. With those routed notes of mine, I earn a a discount of $575 000, and with the 3i bonds, you earn an interest of $575 000. You understand? Whatever you do with financial instruments, it sums up to a cash flow. You spend your capital on buying those instruments in the first place, and you write that initial expenditure with a ‘-’ sign in your cash flow. Then you receive some ‘+’ cash flows, under various forms, and variously described. At the end of the day, you sum up the initial outflow (minus) of cash with the subsequent inflows (pluses).

 

Now, I look back, I mean back to the beginning of this update on my blog, and I realize how far have I ventured myself from the initial strand of ideas. I was about to discuss a financial scheme, combining pooled funds, crowdfunding, securities, and cryptocurriences, for facilitating smart urban development through the creation of local start-up businesses. Good. I go back to it. My fundamental concept is that of public-private partnership, just peppered with a bit of finance. Local governments do services connected to waste and environmental care. The basic way they finance it is through budgetary spending, and sometimes they create or take interest in local companies specialized in doing it. My idea is to go one step further, and make local governments create and run investment funds specialized in taking interest in such businesses.

 

One of the basic ideas when running an investment fund is to make a portfolio of participations in various businesses, with various temporal horizons attached. We combine the long term with the short one. In some companies we invest for like 10 years, and in some others just for 2 years, and then we sell those shares, bonds, or whatever. When I was working on the business plan for the BeFund project, I had a look at the shape those investment portfolios take. You can sort of follow back that research of mine in « Sort of a classical move » from March 15th, 2018. I had quite a bit of an exploration into the concept of smart cities. See « My individual square of land, 9 meters on 9 », from January 11, 2018, or « Smart cities, or rummaging in the waste heap of culture » from January 31, 2018, as for this topic. What comes out of my research is that the combination of digital technologies with the objectively growing importance of urban structures in our civilisation brings new investment opportunities. Thus, I have this idea of local governments, like city councils, becoming active investors in local businesses, and that local investment would combine the big, steady ventures – like local waste management companies – with a lot of small startup companies.

 

This basic structure in the portfolio of a local investment fund reflects my intuitive take on the way a city works. There is the fundamental, big, heavy stuff that just needs to work – waste management, again, but also water supply, energy supply etc. – and there is the highly experimental part, where the city attempts to implement radically new solutions on the grounds of radically new technologies. The usual policy that I can observe in local governments, now, is to create big local companies for the former category, and to let private businesses take over entirely the second one. Now, imagine that when you pay taxes to the local government, part of your tax money goes into an investment fund, which takes participations in local startups, active in the domain on those experimental solutions and new technologies. Your tax money goes into a portfolio of investments.

 

Imagine even more. There is local crowdfunding platform, similar to Kickstarter or StartEngine, where you can put your money directly into those local ventures, without passing by the local investment fund as a middleman. On that crowdfunding platform, the same local investment fund can compete for funding with other ventures. A cryptocurrency, internal to that crowdfunding platform, could be used to make clearer financial rules in the investment game.

 

When I filed that idea for review, in the form of an article, with a Polish scientific journal, I received back an interestingly critical review. There were two main lines of criticism. Firstly, where is the advantage of my proposed solution over the presently applied institutional schemes? How could my solution improve smart urban development, as compared to what local governments currently do? Secondly, doesn’t it go too far from the mission of local governments? Doesn’t my scheme push public goods too far into private hands and doesn’t it make local governments too capitalistic?

 

I need to address those questions, both for revising my article, and for giving a nice closure to this particular, educational story in the fundamentals of finance. Functionality first, thus: what is the point? What can be possibly improved with that financial scheme I propose? Finance has two essential functions: it meets the need for liquidity, and, through the mechanism of financial markets. Liquidity is the capacity to enter in transactions. For any given situation there is a total set T of transactions that an entity, finding themselves in this situation, could be willing to enter into. Usually, we can’t enter it all, I mean we, entities. Individuals, businesses, governments: we are limited in our capacity to enter transactions. For the given total set T of transactions, there is just a subset Ti that i-th entity can participate in. The fraction « Ti/T » is a measure of liquidity this entity has.

 

Question: if, instead of doing something administratively, or granting a simple subsidy to a private agent, local governments act as investment funds in local projects, how does it change their liquidity, and the liquidity of local communities they are the governments of? I went to the website of the Polish Central Statistical Office, there I took slightly North-East and landed in their Local Data Bank. I asked around for data regarding the financial stance of big cities in Poland, and I found out some about: Wroclaw, Lodz, Krakow, Gdansk, Kielce, and Poznan. I focused on the investment outlays of local governments, the number of new business entities registered every year, per 10 000 residents, and on population. Here below, you can find three summary tables regarding these metrics. You will see by yourself, but in a bird’s eye view, we have more or less stationary populations, and local governments spending a shrinking part of their total budgets on fixed local assets. Local governments back off from financing those assets. In the same time, there is growing stir in business. There are more and more new business entities registered every year, in relation to population. Those local governments look as if they were out of ideas as for how to work with that local business. Can my idea change the situation? I develop on this one further below those two tables.

 

 

The share of investment outlays in the total expenditures of the city council, in major Polish cities
  City
Year Wroclaw Lodz Krakow Gdansk Kielce Poznan Warsaw
2008 31,8% 21,0% 19,7% 22,6% 15,3% 27,9% 19,8%
2009 34,6% 23,5% 20,4% 20,6% 18,6% 28,4% 17,8%
2010 24,2% 15,2% 16,7% 24,5% 21,2% 29,6% 21,4%
2011 20,3% 12,5% 14,5% 33,9% 26,9% 30,1% 17,1%
2012 21,5% 15,3% 12,6% 38,2% 21,9% 20,8% 16,8%
2013 15,0% 19,3% 11,0% 28,4% 18,5% 18,1% 15,0%
2014 15,6% 24,4% 16,4% 27,0% 18,6% 11,8% 17,5%
2015 18,4% 26,8% 13,7% 21,3% 23,8% 24,1% 10,2%
2016 13,3% 14,3% 11,5% 15,2% 10,7% 17,5% 9,0%
2017 11,7% 10,2% 11,5% 12,2% 14,1% 12,3% 12,0%
               
Delta 2017 – 2008 -20,1% -10,8% -8,2% -10,4% -1,2% -15,6% -7,8%

 

 

Population of major cities
  City
Year Wroclaw Lodz Krakow Gdansk Kielce Poznan Warsaw
2008 632 162 747 152 754 624 455 581 205 094 557 264 1 709 781
2009 632 146 742 387 755 000 456 591 204 835 554 221 1 714 446
2010 630 691 730 633 757 740 460 509 202 450 555 614 1 700 112
2011 631 235 725 055 759 137 460 517 201 815 553 564 1 708 491
2012 631 188 718 960 758 334 460 427 200 938 550 742 1 715 517
2013 632 067 711 332 758 992 461 531 199 870 548 028 1 724 404
2014 634 487 706 004 761 873 461 489 198 857 545 680 1 735 442
2015 635 759 700 982 761 069 462 249 198 046 542 348 1 744 351
2016 637 683 696 503 765 320 463 754 197 704 540 372 1 753 977
2017 638 586 690 422 767 348 464 254 196 804 538 633 1 764 615
               
Delta 2017 – 2008 6 424 (56 730) 12 724 8 673 (8 290) (18 631) 54 834

 

Number of newly registered business entities per 10 000 residents, in major Polish cities
  City
Year Wroclaw Lodz Krakow Gdansk Kielce Poznan Warsaw
2008 190 160 200 190 140 210 200
2009 195 167 205 196 149 216 207
2010 219 193 241 213 182 238 274
2011 221 169 204 195 168 244 249
2012 228 187 230 201 168 255 274
2013 237 187 224 211 175 262 307
2014 236 189 216 217 157 267 303
2015 252 183 248 236 185 283 348
2016 265 186 251 238 176 270 364
2017 272 189 257 255 175 267 345
               
Delta 2017 – 2008 82,00 29,00 57,00 65,00 35,00 57,00 145,00

 

Let’s take two cases from the table: my hometown Krakow, and my capital Warsaw. In the former case, the negative gap in the investment outlays of the local government is – 44 mlns of zlotys – some €10 mln – and in the latter case it is minus 248,46 millions of zlotys, thus about €56,5 mln. If we want to really get after new technologies in cities, we need to top up those gaps, possibly with a surplus. How can my idea help to save the day?

 

When I try to spend €10 mln euro more on the urban fixed assets, I need to have all those €10 mln. I need to own them directly, in my balance sheet, before spending them. On the other hand, when I want to create an investment fund, which would take part in local startups, and by their intermediary would make those €10 mln worth of assets to happen in real life, I need much less. I start with the balance sheet directly attached to those assets: €10 mln in fixed assets = equity of the startup(s) + liabilities of the startup(s). Now, equity of the startup(s) = shares of our investment fund + shares of other partners. At the end of the day, the local government could finance assets of €10 mln with 1 or 2 millions of euro of own equity, maybe even less.

 

From there on, it went sort of out of hand. I have that mental fixation on things connected to artificial intelligence and neural networks. You can find the latest account in English in the update entitled « What are the practical outcomes of those hypotheses being true or false? ». If you speak French, there is a bit more, and more recent, in « Surpopulation sauvage ou compétition aux États-Unis ». Anyway, I did it. I made a neural network in order to simulate the behaviour of my financial concept. Below, I am presenting a graphical idea of that network. It combines a strictly spoken multilayer perceptron with components of deep learning: observation of the fitness function, and the feeding back of it, as well as selection and preference regarding different neural outputs of the network. I am using that neural network as a simulator of collective intelligence.

 

So, as I am assuming that we are collectively intelligent in our local communities, I make the following logical structure. Step 1: I take four input variables, as listed below. They are taken from real statistics about those 7 big Polish cities, named above – Wroclaw, Lodz, Krakow, Gdansk, Kielce, Poznan, Warsaw – over the period from 2008 through 2017.

 

Input variable 1: Investment outlays of the local government [mln]

Input variable 2: Overall expenses of the local government [mln]

Input variable 3: Population [headcount]

Input variable 4: Number of new business entities registered annually [coefficient]

 

In step 2, I attach to those real input variables an Output variable – Hypothetical variable: capital engaged in the local governments investment fund, initially calculated as if 5% of new business entities were financed with €100 000 each. I calculate the average value of that variable across the whole sample of 7 cities, and it makes €87 mln as expected value. This is the amount of money the average city among those seven could put in that local investment fund to support local startups and their projects of smart urban development.

 

In step 3, I run my neural network through the empirical data, and then I make it do additional 5000 experimental rounds, just to make it look for a match between the input variables – which can change as they want – and the output variable, which I have almost pegged at €87 mln. I say ‘almost’, as in practice the network will generate a bit of wobbling around those €87 mln. I want to see what possible configurations of the input variables can arise, through different patterns of collective learning, around that virtually pegged value of the output variable.

 

I hypothesise 5 different ways of learning, or 5 different selections in that Neuron 4 you can see in the picture above. Learning pattern #1 consists in systematically preferring the neural output of the sigmoid neural function. It is a type of function, which systematically calms down any shocks and sudden swings in input phenomena. It is like a collective pretention that whatever kind of s**t is really going on, everything is just fine. Learning pattern #2 prefers the output of the hyperbolic tangent function. This one tends to be honest, and when there is a shock, it yields a shock, without any f**kery about it. It is like a market with clear rules of competition. Learning pattern #3 takes the least error of the two functions. It is a most classical approach in neural networks. The closer I get to the expected value, the better I am learning, that sort of things. Learning pattern #4 makes an average of those two functions. The greatest value among those being averaged has the greatest impact on the resulting average. Thus, the average of two functions is like hierarchy of importance, expressed in one number. Finally, learning pattern #5 takes that average, just as #3, but it adds the component of growing resistance to new information. At each experimental round, it divides the value of the error fed back into the network by the consecutive number of the round. Error generated in round 2 gets divided by 2, and that generated in round 4000 is being divided by 4000 etc. This is like a person who, as they process new information, develops a growing sentiment of being fully schooled on the topic, and is more and more resistant to new input.

 

In the table below, I present the results of those simulations. Learning patterns #2 and #4 develop structures somehow more modest than the actual reality, expressed as empirical averages in the first numerical line of the table. These are urban communities, where that investment fund I am thinking about slightly grows in importance, in relation to the whole municipal budget. Learning patterns #1 and #3 develop crazy magnitudes in those input variables. Populations grow 9 or 10 times bigger than the present ones, the probability of having new businesses in each 10 000 people grows 6 or 7 times, and municipal budgets swell by 14 ÷ 15 times. The urban investment fund becomes close to insignificant. Learning pattern #5 goes sort of in the middle between those extremes.

 

 

  Input variable 1 Input variable 2 Input variable 3 Input variable 4 Output variable
Initial averages of empirical values  €177 mln  €996 mln                     721 083                               223  €87 mln
Type of selection in neural output Sample results of simulation with the neural network
Sigmoid preferred €2 440 mln €14 377 mln 7 093 526,21 1 328,83 €87 mln
Hyperbolic Tangent preferred €145 mln €908 mln 501 150,03 237,78 €87 mln
Least error preferred €2 213 mln €13 128 mln 6 573 058,50 1 490,28 €87 mln
Average of the two errors €122 mln €770 mln 432 702,57 223,66 €87 mln
Average of the two errors, with growing resistance to learning €845 mln €5 043 mln 2 555 800,36 661,61 €87 mln

 

What is the moral of the fairy tale? As I see it now, it means that for any given initial situation as for that financial scheme I have in mind for cities and their local governments, future development can go two opposite ways. The city can get sort of slightly smaller and smarter, with more or less the same occurrence of new businesses emerging every year. It happens when the local community learns, as a collective intelligence, with little shielding from external shocks. This is like a market-oriented city. In terms of quantitative dynamics, it makes me think about cities like Vienna (Austria), Lyon (France), or my home city, Krakow (Poland). On the other hand, the city can shield itself somehow against socio-economic shocks, for example with heavy subsidies, and then it gets out of control. It grows big like hell, and business starts just to pop around.

 

At the first sight, it seems counterintuitive. We associate market-based, open-to-shocks solutions with uncontrolled growth, and interventionist, counter-cyclical policies with sort of a tame status quo. Still, cities are strange beasts. They are like crocodiles. When you make them compete for food and territory, they grow just to a certain size, ‘cause when they grow bigger than that, they die. Yet, when you allow a crocodile to live in a place without much competition, and plenty of food around, it grows to enormous proportions.

 

My temporary conclusion is that my idea of a local investment fund to boost smart change in cities is workable, i.e. has the chances to thrive as a financial mechanism, when the whole city is open to market-based solutions and receives little shielding from economic shocks.

 

I am consistently delivering good, almost new science to my readers, and love doing it, and I am working on crowdfunding this activity of mine. As we talk business plans, I remind you that you can download, from the library of my blog, the business plan I prepared for my semi-scientific project Befund  (and you can access the French version as well). You can also get a free e-copy of my book ‘Capitalism and Political Power’ You can support my research by donating directly, any amount you consider appropriate, to my PayPal account. You can also consider going to my Patreon page and become my patron. If you decide so, I will be grateful for suggesting me two things that Patreon suggests me to suggest you. Firstly, what kind of reward would you expect in exchange of supporting me? Secondly, what kind of phases would you like to see in the development of my research, and of the corresponding educational tools?

Surpopulation sauvage ou compétition aux États-Unis

 

Mon éditorial sur You Tube

 

Me revoilà à vous casser les pieds avec les réseaux neuronaux et leur application dans les sciences sociales. Je reste essentiellement dans l’univers de l’efficience énergétique. J’enchaîne donc sur « Tenez-vous bien, chers Autrichiens ». Cette fois, je m’y prends à la plus grande économie du monde, celle des États-Unis, et leur efficience énergétique. Les Américains aiment la compétition et c’est bien que j’inclue dans le réseau neuronal : la compétition entre neurones.

Comme d’habitude, c’est un peu de chaos, dans mon cheminement intellectuel. Hier, j’ai eu cette idée : suivant la structure logique de mon perceptron, j’obtiens des schémas de comportement différents de sa part. Et si je mettais ces comportements en compétition de quelque sorte ? Et si je construisais un perceptron qui organise cette compétition ?

Je veux donc mettre mes neurones en compétition entre eux. Je veux dire, pas mes neurones à moi, strictement parlé, juste les neurones de mon perceptron. J’avais commencé à mapper cette idée dans un fichier Excel, un peu à tâtons. Tout d’abord, les acteurs. Qui est en compétition contre qui ? Jusqu’alors, j’ai identifié deux grandes distinctions fonctionnelles parmi les comportements possibles de mon perceptron. Premièrement, c’est la distinction entre deux fonctions d’activation de base : la fonction sigmoïde d’une part et la tangente hyperbolique d’autre part. Deuxièmement, j’ai observé une différence prononcée lorsque j’introduis dans mon perceptron l’auto observation (rétropropagation) de la cohésion, comprise comme la distance Euclidienne entre les variables. Je construis donc quatre neurones d’activation, comme des combinaisons de ces possibilités :

 

Le neurone de sortie no.1 : le sigmoïde de base

Le neurone de sortie no.2 : la tangente hyperbolique de base

Le neurone de sortie no.3 : sigmoïde avec observation de la cohésion

Le neurone de sortie no.4 : la tangente hyperbolique avec observation de la cohésion

 

Les neurones de sortie 1 et 2 sont connectés au sentier synaptique suivant : absorption des variables d’entrée dans la première couche (neurone d’observation), suivie par l’attribution des coefficients aléatoires de pondération à chaque variable et la sommation des variables d’entrée ainsi pondérées (neurone de pondération) dans la couche cachée. Le neurone de pondération crache la moyenne pondérée des variables d’entrée, et on la met comme argument dans la fonction d’activation neurale (neurone de traitement) et celle-ci crache un résultat. Le neurone d’observation compare ce résultat à la valeur espérée de la variable de résultat, une mesure d’erreur locale est prise et le perceptron ajoute cette erreur aux valeurs des variables d’entrée dans la ronde suivante d’expérimentation.

 

Les neurones de sortie 3 et 4 impliquent un sentier synaptique un peu plus complexe. Tout d’abord, dans la couche d’entrée du perceptron, j’ajoute un neurone parallèle à celui qui génère les coefficients aléatoires. Ce deuxième neurone s’active après la première ronde d’expérimentation. Lorsque celle-ci à pris lieu, ce neurone calcule les distances Euclidiennes entre les variables, il rend une distance moyenne pour chaque variable séparément, ainsi que la distance moyenne entre toutes les variables. En fait, c’est un job pour tout une séquence synaptique à part, mais pour simplifier je décris ça comme un neurone. Je vois sa place dans la couche d’entrée puisque sa fonction essentielle est celle d’observation. Observation complexe, certes, observation quand même. J’appelle ce neurone « neurone de cohésion perçue » et j’assume qu’il a besoin d’un partenaire dans la couche cachée, donc d’un neurone qui combine la perception de cohésion avec le signal nerveux qui vient de la perception des variables d’entrée en tant que telles. Je baptise ce deuxième neurone caché « neurone de pondération par cohésion ».

 

Bon, j’en étais à la compétition. Compétition veut dire sélection. Lorsque j’entre en compétition contre entité A, cela implique l’existence d’au moins une entité B qui va choisir entre moi et A.

Le choix peut être digital ou analogue. Le choix digital c’est 0 ou 1, avec rien au milieu. B va choisir moi ou bien A et le vainqueur prend toute la cagnotte. Le choix analogue laisse B faire un panier des participations respectives de moi et de A. B peut prendre comme 60% de moi et 40% de A, par exemple. Comme je veux introduire dans mon perceptron la composante de compétition, j’ajoute une couche neuronale supplémentaire, avec un seul neurone pour commencer, le neurone de sélection. Ce neurone reçoit les signaux de la part des 4 neurones de sortie et fait son choix.

 

Important : c’est un jeu lourd en conséquences. La sélection faite dans une ronde d’expérimentation détermine la valeur d’erreur qui est propagée dans la ronde suivante dans tous les quatre neurones de sortie. Le résultat de compétition à un moment donné détermine les conditions de compétition aux moments ultérieurs.

 

Le signal nerveux envoyé par les neurones de sortie c’est l’erreur locale d’estimation. Le neurone de sélection fait son choix entre quatre erreurs. Plus loin, je discute les résultats des différentes stratégies de ce choix. Pour le moment, je veux montrer le contexte empirique de ces stratégies.  Ci-dessous, j’introduis deux graphes qui montrent l’erreur générée par les quatre neurones de sortie au tout début du processus d’apprentissage, respectivement dans les 20 premières rondes d’expérimentation et dans les 100 premières rondes. Vous pouvez voir que la ligne noire sur les deux graphes, qui représente l’erreur crachée par le neurone de sortie no. 4, donc par la tangente hyperbolique avec observation de la cohésion, est de loin la plus grande et la plus variable. Celle générée par le sigmoïde avec observation de la cohésion est substantiellement moindre, mais elle reste bien au-dessus des erreurs qui viennent des neurones de sortie no. 1 et 2, donc ceux qui s’en foutent de la cohésion interne du perceptron.

Je me demande qu’est-ce que l’apprentissage, au juste ? Les deux graphes montrent trois façons d’apprendre radicalement différentes l’une de l’autre. Laquelle est la meilleure ? Quelle est la fonction éducative de ces erreurs ? Lorsque je fais des essais où je me goure juste un tout petit peu, donc lorsque j’opère comme les neurones de sortie 1 et 2, je suis exact et précis, mais je m’aventure très près de mon point d’origine. J’accumule peu d’expérience nouvelle, en fait. En revanche, si mes erreurs se balancent dans les valeurs comme celles montrées par la ligne noire, donc par la tangente hyperbolique avec observation de la cohésion, j’ai peu de précision mais j’accumule beaucoup plus de mémoire expérimentale.

 

Quatre stratégies de sélection se dessinent, équivalentes à trois types de compétition entre les neurones de sortie. Sélection façon 1 : le neurone de sélection choisit le neurone de sortie qui génère la moindre erreur des quatre. D’habitude, c’est le neurone qui produit la tangente hyperbolique sans observation de la cohésion. C’est une compétition où le plus précis et le plus prévisible gagne à chaque fois. Sélection façon 2 : c’est le neurone qui génère l’erreur la plus grande qui a l’honneur de propager son erreur dans les générations suivantes du perceptron. Normalement c’est le neurone de sortie no.4 : la tangente hyperbolique avec observation de la cohésion. Sélection no. 3 : Le neurone de sélection tire la moyenne arithmétique des quatre erreurs fournies par les quatre neurones de sortie. Logiquement, le neurone de sortie qui génère l’erreur la plus grande va dominer. Cette sélection est donc une représentation mathématique de hiérarchie entre les neurones de sortie.

 

Finalement, la compétition conditionnelle à une condition prédéfinie. Je prends le mode de sélection no. 2, donc je choisis l’erreur la plus grande des quatre et je la compare à un critère. Disons me j’espère que le perceptron génère une erreur plus grande que la croissance moyenne annuelle standardisée de l’efficience énergétique du pays en question. Dans le cas des États-Unis cette valeur-jauge est de 0,014113509. Si un neurone quelconque de sortie (soyons honnêtes, ce sera la tangente hyperbolique qui observe sa propre cohésion) génère une erreur supérieure à 0,014113509, cette erreur est propagée dans la prochaine ronde d’expérimentation. Sinon, l’erreur à propager est 0. C’est donc une condition où je dis à mon perceptron : soit tu apprends vite et bien, soit tu n’apprends pas du tout.

 

Bon, passons aux actes. Voilà, ci-dessous, la liste de mes variables.

 

Code de la variable Description de la variable
Q/E PIB par kg d’équivalent pétrole d’énergie consommé (prix constants, 2011 PPP $) – VARIABLE DE RÉSULTAT

 

CK/PA Capital immobilisé moyen par une demande nationale de brevet (millions de 2011 PPP $, prix constants)

 

A/Q Amortissement agrégé d’actifs fixes comme % du PIB

 

PA/N Demandes nationales de brevet par 1 million d’habitants

 

M/Q Offre agrégée d’argent comme % du PIB

 

E/N Consommation finale d’énergie en kilogrammes d’équivalent pétrole par tête d’habitant

 

RE/E Consommation d’énergie renouvelable comme % de la consommation totale d’énergie

 

U/N Population urbaine comme % de la population totale

 

Q Produit Intérieur Brut (millions de 2011 PPP $, prix constants)

 

Q/N PIB par tête d’habitant (2011 PPP $, prix constants)

 

N Population

 

 

Je prends ces variables et je les mets dans mon perceptron enrichi avec ce neurone de sélection. Je simule quatre cas alternatifs de sélection, comme discutés plus haut. Voilà, dans le prochain tableau ci-dessous, les résultats de travail de mon perceptron après 5000 rondes d’apprentissage. Remarquez, pour la stratégie de sélection avec condition prédéfinie, les 5000 rondes tournent en à peine 72 rondes, puisque toutes les autres rendent erreur 0.

 

Valeur 1990 Valeur 2014 Sélection de la moindre erreur Sélection de l’erreur la plus grande Moyenne des erreurs – hiérarchie Compétition conditionnelle au seuil prédéfini
Q/E $                   4,83 $                         7,46 $                         9,39 $                       38,18 $                       34,51 $                       34,16
CK/PA 291,84 185,38 263,29 1 428,92 1 280,59 1 266,39
A/Q 14,5% 15,0% 19,0% 79,1% 71,4% 70,7%
PA/N 358,49 892,46 1 126,42 4 626,32 4 180,92 4 138,29
M/Q 71,0% 90,1% 113,6% 464,7% 420,0% 415,8%
E/N 7 671,77 6 917,43 8 994,27 40 063,47 36 109,61 35 731,13
RE/E 4,2% 8,9% 11,2% 45,6% 41,3% 40,8%
U/N 75,3% 81,4% 102,4% 416,5% 376,6% 372,7%
Q 9 203 227,00 16 704 698,00 21 010 718,45 85 428 045,72 77 230 318,76 76 445 587,64
Q/N $ 36 398,29 $ 52 292,28 $  65 771,82 $ 267 423,42 $ 241 761,31 $ 239 304,79
N 252 847 810 319 448 634 401 793 873 1 633 664 524 1 476 897 088 1 461 890 454

 

Oui, juste la sélection no. 1 semble être raisonnable. Les autres stratégies de compétition rendent des valeurs absurdement élevées. Quoi que là, il faut se souvenir du truc essentiel à propos d’un réseau neuronal artificiel : c’est une structure logique, pas organique. Structure logique veut dire un ensemble de proportions. Je transforme donc ces valeurs absolues rendues par mon perceptron en des proportions par rapport à la valeur de la variable de résultat. La variable de résultat Q/E est donc égale à 1 et les valeurs des variables d’entrée {CK/PA ; A/Q ; PA/N ; M/Q ; E/N ; RE/E ; U/N ; Q ; Q/N ; N} sont exprimées comme des multiples de 1. Je montre les résultats d’une telle dénomination dans le tableau suivant, ci-dessous. Comment les lire ? Eh bien, si vous lisez A/Q = 0,02024, cela veut dire que l’amortissement agrégé d’actifs fixes pris comme pourcentage du PIB est égal à la fraction 0,02024 du coefficient Q/E etc. Chaque colonne de ce tableau de valeurs indexées représente une structure définie par des proportions par rapport à Q/E. Vous pouvez remarquer que pris sous cet angle, ces résultats de simulation du réseau neuronal ne sont plus aussi absurdes. Comme ensembles de proportions, ce sont des structures tout à fait répétitives. La différence c’est la valeur-ancre, donc efficience énergétique. Intuitivement, j’y vois des scénarios différents d’efficience énergétique des États-Unis en cas ou la société américaine doit s’adapter à des niveaux différents de surpopulation et cette surpopulation est soit gentille (sélection de la moindre erreur) soit sauvage (toutes les autres sélections).

 

 

  Valeurs indexées sur la variable de résulat
Valeur 1990 Valeur 2014 Sélection de la moindre erreur Sélection de l’erreur la plus grande Moyenne des erreurs – hiérarchie Compétition conditionnelle au seuil prédéfini
Q/E 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000
CK/PA 60,41009 24,83314 28,13989 37,41720 37,12584 37,08887
A/Q 0,03005 0,02007 0,02024 0,02071 0,02070 0,02070
PA/N 74,20624 119,55525 119,98332 121,18428 121,14657 121,14178
M/Q 0,14703 0,12070 0,12097 0,12173 0,12171 0,12171
E/N 1 588,03883 926,66575 958,89830 1 049,32878 1 046,48878 1 046,12839
RE/E 0,00864 0,01194 0,01194 0,01196 0,01196 0,01196
U/N 0,15587 0,10911 0,10911 0,10911 0,10911 0,10911
Q 1 905 046,16228 2 237 779,02450 2 237 779,02450 2 237 779,02450 2 237 779,02450 2 237 779,02450
Q/N 7 534,35896 7 005,12942 7 005,12942 7 005,12942 7 005,12942 7 005,12942
N 52 338 897,00657 42 793 677,11833 42 793 677,11833 42 793 677,11833 42 793 677,11833 42 793 677,11833

 

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Nie przejmuj się, mój perceptronku

 

Mój wstępniak na You Tube

 

A takie tam różne. Robię trochę badań nad zjawiskiem inteligencji zbiorowej i ponieważ trudno mi tak z biegu znaleźć dobre przykłady inteligencji zbiorowej w prawdziwym życiu, to zrobiłem sobie taki mały perceptron – czyli sieć neuronalną – który ma zastępować prawdziwe życie. Tak trochę w kontekście tej inteligencji zbiorowej, dalej przegryzam się przez Rozporządzenia Ministra Nauki i Szkolnictwa Wyższego z dnia 22 lutego 2019 roku w sprawie ewaluacji jakości działalności naukowej. Ogólnie się dzieje.

Interesuję się inteligencją zbiorową, ponieważ mam wrażenie, że nawet najdziwniejsze relacje międzyludzkie, takie na pozór naprawdę pogięte, mają jakiś swój funkcjonalny sens. Robimy coś na pierwszy rzut oka idiotycznego. Kiedy jednak pierwszy rzut oka ustępuje miejsca drugiemu, wtedy ten drugi widzi trochę inny kontekst i widzi sens w tym pozornym idiotyzmie. Weźmy takie przejście dla pieszych. Gdyby przyglądał się temu człowiek z dżungli, stwierdziłby: „Idiotyzm. Chodzą zawsze tak samo, po ścieżkach oznakowanych tak, że tylko niewidomy tapir by nie zauważył. Są przewidywalni jak fiks. Nic nie upolują. Zdechną z głodu. Przykre”. A jednak my nie zdychamy z głodu i te przejścia dla pieszych jakoś działają, tyle że w innym kontekście niż dżungla.

Kiedy używam sztucznej inteligencji, odkrywam mnóstwo ciekawych rzeczy na temat działania naszej inteligencji. Znacie zapewne tą zasadę, że nagrody działają na nas mocniej niż kary. Wzmocnienie pozytywne działa mocniej niż wzmocnienie negatywne. No i ja tu właśnie prowadzę badania na temat efektywności energetycznej gospodarek, w sensie na temat ilości PeKaBe (Produktu Krajowego Brutto) w przeliczeniu na 1 kilogram przeliczeniowy ropy naftowej w sensie finalnej konsumpcji energii, no i zrobiłem taki prosty perceptron wielowarstwowy (zaraz tam „wielo-„… trzy warstwy wszystkiego), no i ten perceptron kombinuje jak łączyć tą efektywność energetyczną z PeKaBe na głowę, z odsetkiem energii odnawialnych w całości konsumpcji finalnej i z różnymi innymi zjawiskami. W zasadzie, perceptron wielowarstwowy uczy się na podstawie porażek i związanych z tym kar. Perceptron się multiplikuje i próbuje, jaka mu wyjdzie efektywność energetyczna z tej jego chwilowej postaci. Jak się multiplikuje, to się nieuchronnie myli, ale umie się do błędu przyznać, a nawet mierzy ten błąd i następnie go wpuszcza do wartości swoich zmiennych wejściowych. Perceptron uczy się czegokolwiek tylko wtedy, kiedy się pomyli i w pewnym sensie karze sam siebie za pomyłkę.

Postanowiłem spróbować co będzie, kiedy dam mojemu perceptronowi wzmocnienie pozytywne. Dzielę błędy na korzystne i niekorzystne. Te pierwsze to efektywność energetyczna wyższa od oczekiwanej, te drugie to wręcz przeciwnie. Kiedy perceptron popełnia błąd korzystny, wtedy pozwalam mu wykorzystać go w całości w kolejnych rundach eksperymentalnych. Kiedy jednak popełnia błąd niekorzystny, to ja ten błąd zmniejszam i dopiero taki zmniejszony jest propagowany dalej. Wzmacniam wydźwięk sukcesów, zmniejszam wagę porażek.

No i co? No i w sumie to kicha. Mój standardowy eksperyment z perceptronem to 5000 prób, no i zawsze coś z tego wychodzi. Kiedy jednak wprowadzam do algorytmu mechanizm wzmacniania sukcesów i osłabiania porażek – czyli kiedy wprowadzam arbitralne rozróżnienie na sukcesy i porażki – to perceptron już po 30 ÷ 40 rundach eksperymentalnych stwierdza, że zjadł wszystkie rozumy. Przestaje generować błąd, fiksuje wszystkie zmienne i wszystko byłoby fajnie, gdyby ich nie fiksował na poziomach absurdalnie niskich. Wyszło mu, na ten przykład, że Austriacy mogliby mieć taką samą efektywność energetyczną, jak mają teraz, przy liczbie ludności o ¾ niższej od obecnej i generalnie ze wszystkim co się da o ¾ poniżej poziomów dzisiejszych. Jak mu dałem wzmocnienie pozytywne, to doradził Austriakom powrót do prymitywu. Dobrze, że mu nie wrzuciłem danych na temat Polski. Dopiero by wstyd był, a tak to co najwyżej może być incydent dyplomatyczny.

Jeszcze parę słów wyjaśnienia, dlaczego i jak stosuję perceptron wielowarstwowy, aby przedstawić działanie inteligencji zbiorowej. Opieram się na tzw. teorii roju (patrz np. Stradner et al 2013[1]), zgodnie z którą inteligencja zbiorowa przejawia się jako koordynacja. W ten sposób ograniczamy nieco nasze ambicje względem naszej własnej zbiorowej inteligencji. Fajnie byłoby myśleć, że jako zbiorowość dążymy do jakiegoś sensownego zbiorowego celu i robimy to rozsądnie. Zauważmy jednak, że ocena wartości naszego celu oraz ocena racjonalności drogi, którą przyjęliśmy wymagają odniesienia etycznego i prakseologicznego. Układ odniesienia musimy oczywiście stworzyć sami. Nikt inny tego za nas nie zrobi. Jeżeli sami tworzymy układ odniesienia dla oceny naszych celów i ścieżki do ich osiągnięcia, to tak trochę mało ambitnie. Sami sobie kadzimy, do jakich to fajnych celów dążymy albo też sami siebie wbijamy w kompleksy, że niby te nasze cele za mało ambitne.

W teorii roju zakłada się że wystarczy, jak jesteśmy skoordynowani. Możemy być skoordynowani na trzech poziomach: statycznym, dynamicznym skorelowanym i dynamicznym losowym. Koordynacja statyczna to tak, jak w synapsach albo w McDonaldzie. Jak podmiot A zrobi X, to podmiot B zawsze zrobi Y. Zawsze tak samo. Koordynacja dynamiczna skorelowana jest wtedy, jak podmiot B może zachować się różnie wobec działania podmiotu B, ale to różnie ma swój powtarzalny wzorzec. B czasami zrobi Y1, a czasami Y2, ale Y3 to już raczej nie, a to czy Y1 czy Y2 zależy od subtelnych różnic w zachowaniu X ze strony podmiotu A. Kiedy jednak podmiot A nawet nie wie, który inny podmiot zareaguje na jego zachowanie A, wtedy musi to zachowanie jakoś zasygnalizować szerszej zbiorowości. Może zareaguje B, a może C? Kto wie? Tak działa roznoszenie zarodników roślin i grzybów, czy też rozprzestrzenianie feromonów.  To jest koordynacja dynamiczna losowa.

Rój jest inteligentny, kiedy potrafi przystosować się do nowych okoliczności poprzez zmianę stopnia koordynacji. Eksperymentujemy z nowymi wariantami naszych nawyków i strategii. Na chwilę przechodzimy od koordynacji statycznej do dynamicznej skorelowanej. Ta ostatnia może się na chwilę przekształcić w koordynację dynamiczną losową. Wszystko po to, żeby wpuścić trochę świeżego powietrza i nauczyć się nowych wzorców zachowań. Nowe wzorce zachowań będą prawdopodobnie faworyzować nieco inny typ partnerów seksualnych, a tym samym nieco inną pulę genów. W ten inteligencja przekłada się na trwałą mutację genetyczną całego gatunku.

Sieć neuronalna wykorzystuje zbiór zmiennych. Kiedy są to zmienne ekonomiczne, takie jak PKB na głowę mieszkańca czy efektywność energetyczna, każdą z nich można traktować jako chwilowy przejaw zbioru decyzji podejmowanych przez dużą liczbę ludzi w dłuższym okresie czasu. Stopień wzajemnego powiązania tych decyzji można traktować jako stopień wzajemnej koordynacji zachowań, które stoją za takimi a nie innymi wartościami zmiennych. Związki pomiędzy liczbami są prostsze niż związki między ludźmi. Można te związki zmierzyć, np. przy pomocy odległości Euklidesowej: V(x1;x2) = [(x1 – x2)2]0,5.  Z tym pierwiastkiem z kwadratu to chodzi o zlikwidowanie możliwego minusa. Ujemna odległość źle wygląda w pomiarach. W tym wypadku należy pohamować zapędy wpojone na lekcjach matematyki. Mówili nam „upraszczaj !”. W tym wypadku, jeżeli uproszczę potęgi, to wyjdzie mi potęga „1”, a to z minusem nic nie zrobi. Nie upraszczamy więc nadmiernie, tylko grzecznie, po kolei, najpierw do kwadratu, a potem dopiero z tego pierwiastek kwadratowy.

Kiedy mam wiele zmiennych, wtedy dla każdej z nich mogę określić jej odległości Euklidesowe wobec wszystkich pozostałych i wyciągnąć średnią arytmetyczną z tych odległości. Potem z tych średnich arytmetycznych wyciągam kolejną średnią arytmetyczną i otrzymuję w ten sposób jedną z możliwych postaci funkcji spójności, która określa jak ciasne są relacje między zmiennymi.

Moje eksperymenty z perceptronem wielowarstwowym pokazały, że zmienia on wartość swojej funkcji spójności, a dokładnie zwiększa średnią odległość Euklidesową między swoimi zmiennymi wejściowymi po to, żeby zminimalizować błąd w szacowaniu zmiennej wyjściowej (wynikowej). W tym sensie perceptron zachowuje się jak inteligentny rój żywych istot. Daje sobie trochę dodatkowego luzu, żeby się czegoś nauczyć. Co ciekawe, kiedy w skład błędu odnotowywanego przez perceptron włączam także wartość jego funkcji spójności – czyli wzajemną odległość Euklidesową zmiennych – wtedy sieć neuronalna zachowuje się bardzo rożnie w zależności od zastosowanej funkcji aktywacyjnej. Kiedy stosuję funkcję sigmoidalną unipolarną, wtedy perceptron mniej się uczy i zachowuje większą spójność. Zachowuje się trochę jak człowiek, któremu nagle kazano zwracać uwagę na nieznane mu wcześniej zasady savoir-vivre’u. Zachowywać to się zachowuje, ale jakby tak z lekkim odcieniem kija w d**ie. Kiedy jednak zmieniam funkcję aktywacji na tangens hiperboliczny, wtedy perceptron zmuszony do obserwacji swojej własnej spójności zaczyna się bujać w krainę wyobraźni: znacznie zmniejsza swoją wewnętrzną spójność i wymyśla bardzo wysokie wartości zmiennych wejściowych.

No i ja tu tak gadu gadu i ni z tego, ni z owego prawie dokładnie wyjaśniłem, o co mi chodzi z tym perceptronem jako wyrazem inteligencji zbiorowej. Mam coś, co potrafi samo ze sobą eksperymentować i stopniowo zmniejszać błąd generowany przez te eksperymenty. Znaczy będą z tego czegoś ludzie. Jak się uczy, to rozluźnia swoją wewnętrzną spójność, czyli otwiera się na inherentny chaos egzystencji. Otwiera się różnie w zależności od zastosowanej funkcji aktywacyjnej oraz tego, czy ma zwracać uwagę na to, jak się otwiera. Jak pozwolę temu czemuś odróżniać sukcesy od porażek i wyciągać optymistyczne wnioski z niektórych odchyleń od wartości oczekiwanych, to nagle stwierdza, że już wszystko wie i że dość tego eksperymentowania.

 

No dobrze. Teraz ważne pytanie: co z tego? Jaka jest wartość naukowa tego narzędzia? Przypuszczam, że mogę w ten sposób tworzyć dość dokładne hipotezy dla badań empirycznych. Przy pomocy perceptrona symuluję, jakie mogą być oczekiwane wartości zmiennych empirycznych, w różnych warunkach uczenia się. Następnie sprawdzam dopasowanie wartości empirycznych do tych oczekiwanych i mogę określić, która hipoteza na temat zbiorowego uczenia się jest najbliższa prawdy.

 

Perceptron opiera się na akumulacji danych z przeszłości. To typ sztucznej inteligencji, który dokłada kolejne porcje informacji do już posiadanej wiedzy i w ten sposób coś optymalizuje. To jest mechanizm uczenia się, który wykracza poza potocznie pojmowany schemat « bodziec <> reakcja » (już raz o tym pisałem, w „Dwie kule w Kalifornii i wielebny Thomas Bayes”). W tej chwili chyba najbardziej fascynuje mnie to, w jaki sposób modyfikacja tej pamięci – czy też raczej zmiana sposobu zbierania informacji do pamięci – wpływa na proces uczenia się. Przedstawię teraz krótki eksperyment, jaki prowadzę przy pomocy mojego perceptronu, na danych dotyczących efektywności energetycznej gospodarki Polski.

 

Mój podstawowy model, który wykorzystałem już do jednego artykułu, zakłada że efektywność energetyczna gospodarki jest efektem oddziaływania następujących zmiennych:

 

  1. Współczynnika kapitału w bilansowych środkach trwałych przedsiębiorstw w przeliczeniu na 1 krajowe zgłoszenie patentowe; to nam mówi, jak przeciętnie dokapitalizowany jest każdy wynalazek zgłaszany do patentowania;
  2. Współczynnika udziału zagregowanej amortyzacji środków trwałych w PKB; ta zmienna mierzy, jakim obciążeniem dla gospodarki jest nadążanie za zmianą technologiczną;
  3. Liczby krajowych zgłoszeń patentowych na 1 mln mieszkańców, czyli stopnia innowacyjności społeczeństwa;
  4. Finalnego zużycia energii per capita;
  5. Odsetka ludności miejskiej w całości populacji;
  6. Zagregowanego PKB
  7. PKB per capita
  8. Liczby ludności

 

Biorę jedną i tą samą funkcję aktywacji neuronalnej: sigmoid unipolarny. Jako materiał wyjściowy, żeby perceptron oparty na tej funkcji cośkolwiek zakumał, daję mu dane empiryczne na temat powyższych zmiennych w Polsce, włącznie z samą efektywnością energetyczną, dla lat 1990 – 2014. Dane standaryzuję, czyli dla każdej zmiennej każdą wartość z osobna dzielę przez zaobserwowaną w jej rozkładzie wartość maksymalną. W efekcie każda zmienna ma wartości w przedziale 0 < x ≤ 1. Zaczynamy w roku 1990. Perceptron generuje wagi losowe, w przedziale 0 < w < 1 dla każdej zmiennej. Mnoży zestandaryzowane wartości zmiennych przez te wagi losowe i suma iloczynów „xi*wi” stanowi złożony argument „x” dla funkcji sigmoidalnej unipolarnej. Funkcja zwraca jakąś lokalną wartość i jakąś lokalną pochodną, dla roku 1990. Biorę rzeczywistą, zestandaryzowaną wartość zmiennej wynikowej – efektywności energetycznej dla roku 1990 – i odejmuję od niej wartość zwróconą przez funkcję aktywacji. Tą różnicę mnożę przez lokalną pochodną i mam lokalny błąd ważony znaczeniem lokalnej zmiany wartości (czyli pochodnej).

 

Swoją drogą, na boku, obliczam średnią arytmetyczną dla odległości Euklidesowych każdej zmiennej, w roku 1990, od wszystkich pozostałych. Potem z tych średnich arytmetycznych wyciągam kolejną średnią arytmetyczną, a następnie obliczam jej odwrotność, czyli 1/V(x). To jest ogólna funkcja spójności mojego perceptronu.

 

Dalej, począwszy od roku 1991 i dalej w przyszłość, mam jeden stały sposób postępowania – czyli podstawowy schemat uczenia się mojego perceptronu – oraz kilka możliwych wariacji na ten główny temat. Co do zasady, w roku 1991, perceptron bierze zestandaryzowaną wartość każdej zmiennej, zarówno wynikowej efektywności energetycznej i jak i zmiennych wejściowych (a – h), dodaje do tej empirycznej wartości te lokalny błąd ważony pochodną dla roku poprzedniego – 1990 – i dalej tak samo, czyli wagi losowe, suma iloczynów zmiennych wejściowych przez wagi losowe jako złożony argument dla funkcji aktywacji neuronalnej itd. To się nazywa propagacja błędu.

 

W ten sposób, dla każdego roku od 1991 do 2014, perceptron buduje stopniowo coraz bardziej odchyloną od rzeczywistości wersję wydarzeń. Daje to 2014 – 1990 = 24 rundy eksperymentalne, podczas których perceptron twórczo uczy się na danych empirycznych.

Począwszy od rundy 25 i dalej, perceptron już nie ma danych empirycznych jako układu odniesienia. Wtedy zaczyna powtarzać tą samą operację na swojej własnej, zmodyfikowanej wersji roku 2014. Nadbudowuje na tym ostatnim rzeczywistym zdarzeniu swoją całkowicie własną wersję wydarzeń, wciąż według tego samego mechanizmu dodawania błędu zaobserwowanego w bezpośrednio poprzedzającej przeszłości.

 

Teraz możliwe modyfikacje. Pierwsza polega na obserwacji własnej spójności. W każdej kolejnej rundzie eksperymentu, poza dodawaniem błędu z poprzedniej rundy, perceptron dodaje średnią spójność tej konkretnej zmiennej z pozostałymi zmiennymi (jej średnią odległość Euklidesową od pozostałych zmiennych), zaobserwowaną w rundzie poprzedniej. Innymi słowy, perceptron zapamiętuje, jak daleko była ta konkretna zmienna od pozostałych. Potem jak w scenariuszu podstawowym: wagi losowe, suma iloczynów itede.

 

Druga modyfikacja to rozróżnienie na sukcesy i porażki. Obliczam, o ile wzrosła standaryzowana efektywność energetyczna gospodarki Polski w okresie 1990 – 2014. Wychodzi (11,77694401 – 9,673094195) / 11,77694401 = 0,178641404. Dalej dzielę to przez 24 lata, czyli 0,178641404 / 24 = 0,007443392. To jest próg odniesienia „y*” dla odróżnienia sukcesu od porażki. Błąd „e” zwracany przez funkcję aktywacji perceptronu i spełniający warunek „e > y*” jest sukcesem, każda inna jest porażką. Daję więc mojemu perceptronowi do zrozumienia: jeżeli wygenerowałeś błąd większy od średniego rocznego przyrostu efektywności energetycznej, to brawo. Jak nie, to niestety, ale wtopiłeś.

Teraz pytanie, jak mu to powiedzieć. Niektórzy ludzie źle reagują na krytykę. Nie wiem, jak zareaguje sztuczna inteligencja. Muszę sprawdzić. Na początek robię tak, jak doradza psychologia: zamiast krytykować, pokaż konsekwencje sukcesu oraz porażki. Mogę te konsekwencje wzmocnić w jednym albo w drugim kierunku, czyli wzmocnić sukcesy kosztem porażek („nieważne, że nie zająłeś pierwszego miejsca, perceptronku, ten przed Tobą i tak był na koksach, ważne jest uczestnictwo i rywalizacja”) albo też mogę wzmocnić porażki kosztem sukcesów („Ty łajzo, jak mogłeś tak polec!”). Kiedy chcę wzmocnić pamięć o sukcesach i osłabić pamięć o porażkach, to robię na przykład tak, że kiedy e > y*, to wtedy pozwalam perceptronowi dalej propagować błąd „e”, kiedy jednak e ≤ ∆y*, to wtedy pozwalam propagować tylko jakiś ułamek błędu „e”. Kiedy chcę wzmocnić pamięć o porażkach kosztem pamięci o sukcesach, to robię odwrotnie. Wszystko to mogę ująć elegancko w ramy jednego warunku logicznego:

 

>> jeżeli (e > y*), to propaguj ß1*e, a jeżeli (e ≤ y*), to propaguj ß2*e.

 

Parametry ß1 oraz ß2 określają odpowiednie wzmocnienie pamięci o sukcesach oraz o porażkach. Jeżeli ß1 > ß2, to wzmacniam wspomnienie sukcesu („W 1970-tym tośmy im pokazali!”). Jeżeli ß1 < ß2, wzmacniam z kolei wspomnienie porażki („Nigdy nie zapomnimy tego, jak ONI nas skrzywdzili!”). Konstruuję pięć scenariuszy:

 

Scenariusz 0: Bez uczenia się na spójności, bez nagrody

Scenariusz A.1: Bez uczenia się na spójności, wzmocnienie nagrody *2 ó ß1 = 1, ß2 = 0,5

Scenariusz A.2: Bez uczenia się na spójności, wzmocnienie nagrody o 5% ó ß1 = 1, ß2 = 0,95

Scenariusz B.1: Uczenie się na spójności, wzmocnienie nagrody *2 ó ß1 = 1, ß2 = 0,5

Scenariusz B.2: Uczenie się na spójności, wzmocnienie nagrody o 5% ó ß1 = 1, ß2 = 0,95

 

Dla każdego z pięciu scenariuszy obserwuję funkcję spójności mojego perceptronu – czyli to, na ile zachowuje się jak inteligentny rój – oraz procent energii odnawialnych w konsumpcji finalnej energii ogółem. Obserwacja obejmuje 100 rund eksperymentalnych: interesuje mnie przede wszystkim to, jak perceptron zaczyna się uczyć. Tak, dla perceptrona wielowarstwowego 100 rund eksperymentalnych to zaledwie rozgrzewka. To jest chyba największa odmiana w stosunku do moich poprzednich eksperymentów z tym perceptronem. Wcześniej moja standardowa obserwacja obejmowała 5000 rund eksperymentalnych, czyli okres 50 razy dłuższy (dłuższy w sensie zgromadzonego doświadczenia, a nie upływu czasu – perceptron nie ma pojęcia czasu). Ten eksperymentalny zoom przyniósł bardzo ciekawe wyniki, które pokazuję na dwóch wykresach poniżej i komentuję dalej, pod wykresami.

 

Widać wyraźnie dwa etapy uczenia się perceptronu. Pierwszy etap to ten, kiedy perceptron pracuje na danych empirycznych i tylko trochę je tak sobie przekształca. W tym etapie wszystkie pięć scenariuszy uczenia się idzie łeb w łeb. Wszystkie pięć zmniejsza wartość funkcji spójności – a więc usztywnia strukturę logiczną i czyni ją mniej podatną na zmiany adaptacyjne – a jednocześnie zwiększa udział energii odnawialnych w ogólnej konsumpcji. W momencie kiedy perceptron przechodzi we fristajl, czyli kiedy już sam buduje wartości danych wejściowych na podstawie zapamiętanych informacji o rzeczywistości, wszystko się zmienia. Scenariusz 0 oraz scenariusze A.1 i A.2 utrzymują sztywną strukturę logiczną (niską wartość funkcji spójności) oraz mniej więcej ten sam mix energetyczny, w sensie względem odnawialnych. Z kolei scenariusze B.1 i B.2 wracają częściowo do poprzedniej, nieco luźniejszej struktury logicznej perceptronu (wartość funkcji spójności zwiększa się), a jednocześnie generują coraz większy odsetek energii odnawialnych.

 

Kiedy więc robię zbliżenie na 100 pierwszych rund eksperymentalnych, obserwuję coś przeciwnego niż relacje zaobserwowane dla 5000 rund. Perceptron wyposażony w zdolność uczenia się na swojej własnej spójności zachowuje się jak o wiele bardziej inteligentny rój niż perceptron bez takiej zdolności. Przy 5000 rund perceptron obserwujący własną spójność wydawał się mieć kij w tyłku, a tutaj, przy zbliżeniu na pierwsze 100 rund, jest dokładnie odwrotnie: jest bardziej elastyczny i jakby śmielszy i więcej fantazji ma i w ogóle. Co ciekawe, perceptron operujący stosunkowo niewielkim rozróżnieniem między karą a nagrodą  –  jeżeli (e > y*), to propaguj e, a jeżeli (e ≤ y*), to propaguj 0,95*e – buja się bardziej niż ten, który operuje rozróżnieniem jak jeden do dwóch.

 

Najważniejszym czynnikiem różnicującym procesy uczenia się okazuje się być obserwacja własnej spójności. Jeżeli traktuję perceptron jako przedstawienie rzeczywiście działającej inteligencji zbiorowej, społeczność wyposażona w zdolność wyciągania wniosków z własnej spójności może nauczyć się więcej, niż społeczność pozbawiona takiej zdolności. No jednak musi być jakieś jednakowoż. Jednakowoż, kiedy sięgam do rundy eksperymentalnej 5000, obraz się zmienia. Perceptron wyposażony w zdolność obserwacji własnej spójności generuje odsetek energii odnawialnych ok. 16,5%. Z kolei ten, który ignoruje własną spójność osiąga ok. 17,5%. Coś się zmienia gdzieś po drodze między setną rundą eksperymentalną, a tą pięciotysięczną. Jest taka masa krytyczna pamięci zgromadzonej przez perceptron, która w pewnym sensie odwraca jego działanie. Ciekawe.

[1] Stradner, J., Thenius, R., Zahadat, P., Hamann, H., Crailsheim, K., & Schmickl, T. (2013). Algorithmic requirements for swarm intelligence in differently coupled collective systems. Chaos, Solitons & Fractals, 50, 100-114.

The painful occurrence of sometimes. Educational about insurance and financial risk.

 

My editorial on You Tube

 

Things happen sort of sometimes. You are never sure. Take a universe. Technically, there are so many conditions to meet if you want to have a decent universe that is seems a real blessing we have one. You need them electric charges, for example. We call them negative and positive, fault of a better description, but the fact is that in reality, we have two kinds of elementary particles, A and B, I mean protons and electrons, and each A repels any other A but is irresistibly attracted to any B. Same for B’s. Imagine that 50% of B’s start behaving like A’s, i.e. they are attracted by other B’s and repel A’s. You would have 50% of matter devoid of atoms, as you need A and B to behave properly, i.e. to cross-mate A+B, and avoid any A+A or B+B indecency, in order to have an atom.

Kind of stressful. You could think about an insurance. An insurance contract stipulates that the Insured pays to the Insurer a Premium, and in exchange the Insurer gives to the Insured the guarantee of paying them damages in case a specific unpleasant event happens in the future. We insure our cars against physical accident and theft, same for our houses and apartments. You can insure yourself when you travel, and you are afraid of medical bills in case something happens to your health when on the road.

I learnt, with a big surprise, when reading the magnificent Fernand Braudel’s “Civilisation and Capitalism”  , that insurance was the core business of the first really big financial institutions in Europe. Yes, we used to do banking. Yes, we did all that circulation in debt-based securities. Still, it was all sort of featherweight business. Apparently, the real heavyweights of finance appeared with the emergence of maritime insurance. When small, local bankers started offering to the owners of commercial ships those new contracts, guaranteeing to pay for their damages in case there are any, and they gave those guarantees in exchange of relatively small insurance premiums, it was, apparently, like the release of a new iPhone in the world of gadget-lovers: a craze. By offering such contracts to captains and ship owners, those local bankers had rapidly swollen to the size of really big financial institutions.

Financial instruments always have an underlying behavioural pattern. Financial instruments are what they are because we, humans, do what we do. One of the things we do is selective individuation. There is a hurricane coming your way. You board your windows, you attach your garden furniture, you lock yourself in your house, and you check the insurance of your house. You brace against the calamity as an individual. That hurricane is going to do damage. We know it. We know it is going to do damage to the whole neighbourhood. Technically, the entire local community in threatened. Still, we prepare as individuals.

As I check the insurance of my house, I can read that in exchange of a premium, which I have already paid, I can possibly receive a coverage of my damages. Do I really want things to take such a turn, which would make those damages material? With rare exceptions, not really. Yes, I have that insurance but no, I don’t want to use it. I just want to have it, and I want to avoid whatever event might make those damages payable.

I imagine other people in a similar position. All bracing for an imminent hurricane, all having their individual insurances, and all sincerely expecting not to suffer any damage covered by those insurance contracts.

This is selective individuation as it comes to the foresight of future events. I know some bad s**t is heading my way, I know it is going to hit all around, and I just expect it is not going to hit me. As it is bound to hit all around, there is bound to be some aggregate damage. The hurricane is bound to destroy property for an amount of $5 000 000. There are 500 000 people under threat. Let’s say that 24% of them think about insuring their property. How will an insurer approach the situation?

First of all, there is bound to be those $5 000 000 of damages. Seen from a financial point of view, it is a future, certain capital expenditure. I stress it very strongly: certain. What is just a probability at the individual level becomes a certainty at a given level of aggregation. What is the “given level”? Let’s suppose there is a 1% likelihood that I step on a banana skin, when walking down the street. With 100 of me, the 1% becomes 1%*100 = 100%. Sure as taxes.

You have (I hope) already studied my lectures on equity-based securities, the debt-based ones, and on monetary systems. Thus, you already know three manners of securing capital for a future, certain outlay. Way #1: create an entity, endowed with equity in some assets, and then split that equity into tradable shares, which you sell to third parties. This way is good for securing capital in the view of slightly risky ventures, with a lot of open questions as for the strategy to adopt. Way #2: borrow, possibly through issuance of promissory notes (oldie), or bonds, if you really mean business. This path is to follow when you can reasonably expect some cash flows in the future, with relatively low risk. Way #3: get hold of some highly liquid assets, somebody else’s bonds, for example, and then create a system of tokens for payment, backed with the value of those highly liquid assets. This manner of securing capital is good for large communities, endowed with a pool of recurrent needs, and recurrent, yet diffuse fears as for the future.

With insurance, we walk down a fourth avenue. There are some future capital outlays that will compensate a clear, measurable, future loss that we know is bound to happen at a certain level of social aggregation. This aggregate loss decomposes into a set of individual s**t happening to individual people, in a heterogenous manner. It is important, once again: what you can predict quite accurately is the aggregate amount of trouble, but it is much harder to predict individual occurrences inside this aggregate. What you need is a floating mass of capital, ready to rush into whatever individual situation it is needed to compensate for. We call this type of capital a pooled fund. Insurance is sort of opposite of equity or debt. With the latter two, we expect something positive to happen. With the former, we know something bad is going to occur.

According to the basic logic of finance, you look for people who will put money in this pooled fund. Let’s take those 500 000 people threatened by a hurricane and the resulting aggregate loss of $5 000 000. Let’s say that 24% of them think about insuring their property, which makes 24%*500 000 = 120 000. In order to secure the $5 000 000 we need, the basic scheme is to make those people contribute an average of $5 000 000/ 120 000 = $41,67 of insurance premium each. Now, if you take a really simplistic path of thinking, you will say: wait, $5 000 000 divided by 500 000 folks exposed makes $10 per capita, which is clearly less than the $41,67 of insurance premium to pay. Where is my gain? Rightful question, indeed. Tangible gains appear where the possible, individual loss is clearly greater than the insurance premium to pay. Those $5 000 000 of aggregate loss in property are not made as $10 times 500 000 people. It is rather made as 0,005% likelihood in each of those people to incur an individual loss of $200 000 in property. That makes 0,005%*500 000 (remember? the banana skin) = 25. Thus, we have 25 people who will certainly lose property in that hurricane. We just don’t know which 25 out of the general population 500 000 will they be. If you are likely, just likely, to lose $200 000, will you not pay $41,67 of insurance premium? Sounds more reasonable, doesn’t it?

You are not quite following my path of thinking? Calm down, I do not always do, either. Still, this time, I can explain. There are 500 000 people, right? There is a hurricane coming, and according to all the science we have, it is going to hit badly 0,005% of that population, i.e. 25 households, and the individual loss will be $200 000 on average. That makes 25*$200 000 = $5 000 000. In the total population of 500 000, some people acknowledge this logic, some others not really. Those who do are 120 000. Each of them is aware they could be among the 25 really harmed.  They want to sign an insurance contract. Their contracts taken together need to secure the $5 000 000. Thus, each of them has to contribute $41,67 of insurance premium.

At this very basic level, the whole business of insurance is sort of a balance between the real, actual risk we are exposed to, and our behavioural take on that risk. Insurance works in populations where the subset of people who really need capital to compensate damages is much smaller than the population of those who are keen to contribute to the pooled fund.

Interestingly, people are not really keen on insuring things that happen quite frequently. There is high likelihood, although lower that absolute certainty, that someone in the street will stick an old chewing gum on the seat, on a bus, and then you sit on that chewing gum and have your brand-new woollen pants badly stained. Will you insure against it? Probably not. Sort of not exactly the kind of catastrophe one should insure against. There is a certain type of risks we insure against. They need to be spectacular and measurable, and, in the same time, they need to be sufficiently uncertain so as to give us a sense of false security. That kind of trouble is certainly not going to happen to me, still, just in case, I buy that insurance.

We can behaviourally narrow the catalogue of insurable risks, by comparing insurance to hedging, which is an alternative way to shield against risk. When I hedge against a risk, I need to know what amount of capital, in some assets of mine, is exposed to possible loss. When I know that, I acquire other assets, devoid of the same risk, for a similar amount of capital. I have that house, worth $200 000, in a zone exposed to hurricanes. I face the risk of seeing my house destroyed. I buy sovereign bonds of the Federal Republic of Germany, for another $200 000. Rock solid, these ones. They will hold value for years, and can even bring me some profits. My portfolio of German bonds hedges the risk of having my house destroyed by a hurricane.

Thus, here is my choice as for shielding my $200 000 house against hurricane-related risks. Option #1: I hedge with equity in valuable assets worth $200 000 or so. Option #2: I insure, i.e. I buy a conditional claim on an insurer, for the price of $41,67. Hedging looks sort of more solid, and indeed it is. Yet, you need a lot of capital to hedge efficiently. For every penny exposed to a definite risk, you need to hedge with another penny free of that risk. Every penny doubles, sort of. Besides, the assets you hedge with can have their own, intrinsic risk, or, if they haven’t, like German sovereign bonds, you need to pay a juicy discount (price, in financial tongue) for acquiring them. Insurance is cheaper than hedging.

My intuitive perception of the financial market tells me that if somebody has enough capital to hedge efficiently against major risks, and there are assets in view, to hedge with, people will hedge rather than insure. They insure when they either have no big capital reserves at all, when they have run out of such reserves with the hedging they have already done, or when they have no assets to hedge with. When I run a pharmaceutical company and I am launching a new drug at high risk, I will probably hedge with another factory that makes plain, low risk aspirin. That makes sense. It is a sensible allocation of my capital. On the other hand, when I have a fleet of company cars worth $5 000 000, I would rather insure than hedge.

This is what people do in the presence of risk: they insure, and they hedge. They create pooled capital funds for insurance, and they make differentiated portfolios of investments for hedging. Once again: this is what people do, like really. This is how financial markets work, and this is a big reason why they exist.

As I talk about how it works, let’s have a closer look. It is finance and it is business, so what we need is a balance sheet. When, as an insurer, I collect $5 000 000 in insurance premiums to cover $5 000 000 of future damages, I have a potential liability. Here, it becomes a little tricky. Those damages have not taken place yet, and I do not need to pay them now. I am not liable yet to people I signed those insurance contracts with. Still, the hurricane is going to hit, and it is going to destroy property for $5 000 000, and then I will be liable. All in all, the principles of accounting specifically made for the insurance business impose an obligation, upon insurers, to account the insured value as a liability.

Now, a big thing. I mean, really big. Economically, most of what we call ‘public sector’ or ‘political organisations’ are pooled funds. The constitutional state can be seen as a huge pooled fund. We pay our taxes into it, and in exchange we receive security, healthcare, infrastructure, bullshit, enlightened guidance of our leaders etc. Just some of us can really experience that payoff, and, strangely enough, we don’t always want to. Yes, we all want to drive on good roads, but we don’t want to be in a situation when the assistance of a police officer is needed. Most of us wants to have nothing to do with prisons, which are also part of what this pooled fund finances.

There is a pattern in the way that pooled funds work. That pattern sums up to the residual difference between the insurance premiums actually collected, and the actual damages to be paid. A successful insurer manages to market his contracts in sufficiently big an amount so as to have a surplus of premiums collected over the damages to be paid. The part of premiums collected, which is supposed to pay for damages, is the technical reserve of the pooled fund. The residual surplus of premiums collected, over the technical reserve for damages, is de facto an investment fund, which brings a financial yield.

Most types of insurance are based on the scarcity of occurrence across space. Hurricanes do damage to just some of us, but many are willing to insure against.

There is a special type of insurance, usually observable as those special contracts called ‘life insurance’. Life insurance contracts are about death and severe illness rather than about life. When you think about it, those contracts insure a type of events, which are certainly going to happen. In ‘ordinary’ insurance we pool funds for events scarce across space: we don’t know where the hurricane is going to hit. In life insurance, we pool funds for financing occurrences 100% bound to happen to everyone, we just don’t know when.

I am consistently delivering good, almost new science to my readers, and love doing it, and I am working on crowdfunding this activity of mine. As we talk business plans, I remind you that you can download, from the library of my blog, the business plan I prepared for my semi-scientific project Befund  (and you can access the French version as well). You can also get a free e-copy of my book ‘Capitalism and Political Power’ You can support my research by donating directly, any amount you consider appropriate, to my PayPal account. You can also consider going to my Patreon page and become my patron. If you decide so, I will be grateful for suggesting me two things that Patreon suggests me to suggest you. Firstly, what kind of reward would you expect in exchange of supporting me? Secondly, what kind of phases would you like to see in the development of my research, and of the corresponding educational tools?

Tenez-vous bien, chers Autrichiens

 

Mon éditorial sur You Tube

 

Je réfléchis sur ce qu’est intelligence et j’y réfléchis comme je gagne de l’expérience avec une forme très simple d’intelligence artificielle, un perceptron à couches multiples. Vous direz : « Encore ? Tu ne t’es pas ennuyé à mort avec ce truc ? » Eh bien, non. Pas du tout. Je sens intuitivement que je ne fais que commencer ce voyage intellectuel.

Alors, qu’est-ce que je fais ? Je commence par prendre un ensemble de données empiriques.  Chaque variable empirique est un phénomène stimulant distinct. Je leur assigne des coefficients aléatoires de pondération et je sur la base de ces valeurs pondérées je calcule, à travers une fonction d’activation neurale, la valeur d’une variable de résultat. Je compare, par soustraction, cette valeur avec une valeur espérée de référence. Je multiplie la différence par la dérivée locale de la fonction neurale d’activation et je considère le résultat comme une erreur locale. Je produis donc une variation momentanée d’une certaine structure logique et je compare cette variation à un état de référence. La spécificité de chaque variation locale réside dans le mélange unique des coefficients de pondération des phénomènes stimulants.

A ce stade-là, j’expérimente avec la perception proprement dite. C’est ça, la perception. Je suis confronté à un certain nombre des phénomènes de réalité. Le trait important d’un perceptron est que c’est moi, son utilisateur, donc une Intelligence Externe, qui détermine la nature de ces phénomènes. C’est moi qui donne la distinction entre la variable A et la variable B etc.  Dans la perception réelle, la définition des phénomènes se fait par expérimentation. Je marche à travers ce gros truc hétérogène et j’essaie voir quelle est la meilleure façon de ne pas buter constamment contre ces trucs plus petits. En fin de compte, il semble approprié de distinguer le gros truc comme « forêt » et les petits trucs comme « arbres », mettre en place des règles précises de distinguer un arbre d’un autre ainsi que pour distinguer les espaces libres entre eux.

Le perceptron que j’utilise est donc une structure phénoménologique prédéterminée. Je viens de dire que c’est moi, son utilisateur, qui la prédétermine, mais ce n’est pas tout à fait vrai. Mes variables d’entrée correspondent aux données quantitatives que je peux assembler. Dans la structure logique de mon perceptron, je reproduis celle des bases des données publiquement accessibles, comme celle de la Banque Mondiale.

Ce que j’expérimente avec, à travers le perceptron, est donc une structure phénoménologique prédéterminée par ces bases des données. Si la structure phénoménologique est donnée comme exogène, que reste-t-il à expérimenter avec ? Allons pas à pas. Ces coefficients aléatoires de pondération que mon perceptron attribue aux variables d’entrée reflètent l’importance relative et temporaires des phénomènes que ces variables représentent. Le tout – le perceptron – est censé faire quelque chose, produire un changement. L’importance des phénomènes reflète donc ce qu’ils font dans ce tout. Le phénomène donné joue-t-il un rôle important ou pas tout à fait ? Allons donc voir. Attribuons à ce phénomène des rôles d’importance variable et observons le résultat final, donc la variable de résultat.

Ici, il est bon de rappeler un truc à la frontière des maths et de la vie réelle. Les valeurs de variables d’entrée représentent l’état temporaire des processus qui produisent ces variables. Ma taille en centimètres reflète le processus de la croissance de mon corps, précédé par le processus de mélange de mon matériel génétique, dans les générations de mes ancêtres. La consommation d’énergie par tête d’habitant reflète le résultat temporaire de tout ce qui s’est passé jusqu’alors et qui avait une influence quelconque sur ladite consommation d’énergie. Lorsque le perceptron expérimente avec l’importance des rôles respectifs des variables d’entrée, il expérimente avec l’influence possible des différentes séquences d’évènements.

L’apprentissage d’un perceptron devrait conduire à un état de minimisation d’erreur locale, lorsque la combinaison d’influences respectives de la part des variables d’entrée rend possible une approche asymptotique de la fonction d’activation neuronale vers la valeur espérée de la variable de résultat. Ce résultat d’apprentissage est une sorte de perception optimale par rapport à ce que je veux. Monsieur désire une efficience énergétique de l’économie nationale proche de $10 constants 2011 par 1 kilogramme d’équivalent pétrole consommé ? Rien de plus facile, répond le perceptron. Monsieur prend une population plus grande de 3 millions d’habitants, donc plus de 8%, avec un zest de plus en termes de consommation d’énergie par tête d’habitant, quoi que ladite tête d’habitant va consommer un peu moins de Produit Intérieur Brut par an et voilà ! Monsieur a bien les (presque) 10 dollars par kilogramme d’équivalent pétrole. Monsieur désire autre chose ?

Le perceptron simule donc la perception mais en fait il fait autre chose : il optimise la connexion fonctionnelle entre les variables. Ce type de réseau neuronal devrait plutôt s’appeler « expéritron » ou quelque chose de pareil, car l’essence de son fonctionnement c’est l’expérimentation qui tend vers une erreur minimale. Comment l’optimise-t-il ? C’est le mécanisme de rétropropagation. Le perceptron calcule l’erreur locale d’estimation et ensuite – c’est-à-dire dans la prochaine ronde d’expérimentation – il ajoute cette erreur à la valeur des variables d’entrée. Dans la prochaine ronde d’expérimentation, la valeur de chaque variable d’entrée sujette à la pondération aléatoire va être la valeur initiale plus l’erreur enregistrée dans la ronde précédente.

Une seule et même erreur est ajoutée à l’estimation quantitative de chaque phénomène distinct de réalité. Le fait d’ajouter l’erreur est vaguement équivalent à la mémoire d’une entité intelligente. L’erreur est une pièce d’information et je veux l’emmagasiner pour qu’elle serve mon apprentissage. Dans la version de base de mon perceptron, chaque phénomène de réalité – chaque variable d’entrée – absorbe cette information d’exactement de la même façon. C’est une mémoire concentrée sur les échecs et voilà la grosse différence par rapport à l’intelligence humaine. Cette dernière aime apprendre sur des succès. Une tentative réussie immédiatement donne une gratification à notre système nerveux et ça marche nettement mieux que l’apprentissage à travers des échecs.

Question : comment construire un réseau neuronal qui apprend sur des succès plutôt que sur des échecs ? Un échec est relativement facile à représenter mathématiquement : c’est une erreur d’estimation. Un succès veut dire que j’ai essayé d’avancer dans une direction et ça a marché. Disons que j’ai une variable chère à mon cœur, comme l’efficience énergétique d’économie nationale, donc ces dollars de Produit Intérieur Brut obtenus avec 1 kilogramme d’équivalent pétrole. J’espère d’avancer par X dollars, mais grâce à mon génie indéniable tout comme avec l’aide de la Providence divine, j’ai avancé par Y dollars et Y > X. Alors la différence Y – X est la mesure de mon succès. Jusqu’à ce point, ça à l’air identique à ce que fait le perceptron classique : ça soustrait.

Question : comment utiliser la différence d’une soustraction comme quelque chose à amplifier comme succès au lieu de la minimiser en tant que la mesure d’un échec ? Réponse : il faut utiliser une fonction d’activation neurale qui amplifie un certain type de déviation, la positive. La première idée qui me vient à l’esprit est de mettre dans le perceptron une formule logique du type « si Y – X > 0, alors fais A, mais en revanche si Y – X ≤ 0, alors fais B ». Ça a l’air enfantin à première vue. Seulement si ça doit se répéter 5000 fois, comme je le fais d’habitude avec ce perceptron, çççaa raaalentiîîit terriblement. Je pense à quelque chose de plus simple : et si je calculais immédiatement la valeur exponentielle de l’erreur locale ? Si Y – X > 0, alors la valeur exponentielle va être nettement supérieure à celle de Y – X ≤ 0. Je teste avec l’Autriche et les données sur son efficience énergétique. Non, ça marche pas : j’obtiens une variable de résultat rigoureusement égale à la valeur espérée déjà après 30 rondes d’expérimentation – ce qui est pratiquement la vitesse de la lumière dans l’apprentissage d’un perceptron  – mais les variables d’entrée prennent des valeurs ridiculement élevées. Tenez : il leur faudrait être 42 millions au lieu de 8 millions, à ces Autrichiens. Impensable.

Bon. Bon gré mal gré, faudra que j’aille dans cette formule « si A, alors B, sinon va te faire … ». Tenez-vous bien, chers Autrichiens. J’observe et je raisonne. Ce que vous avez accompli vraiment, entre 1990 et 2014, c’est passer de 9,67 dollars de PIB par kilogramme d’équivalent pétrole à 11,78 dollars, donc une différence de 1,22 dollars. Si mon perceptron rend une erreur positive supérieure à cet accomplissement, je le laisse la rétropropager sans encombre. En revanche, tout ce qui n’est pas un succès est un échec, donc toute erreur en-dessous de ce seuil de référence, y compris une erreur négative, je la divise par deux avant de la rétropropager. J’amplifie des succès et je réduis l’impact mémorisé des échecs. Résultat ? Tout devient plus petit. L’efficience énergétique après les 5000 rondes expérimentales est à peine plus grande qu’en 1990 – 9,93 dollars – la population se rétrécit à moins de 3 millions, la consommation d’énergie et le PIB par tête d’habitant sont coupés par 4.

Ça alors ! Lorsque je parlais d’apprentissage à travers les succès, je m’attendais à quelque chose de différent. Bon. Je mets une muselière sur mon perceptron : tout en laissant l’apprendre sur les succès, comme dans le cas cité, j’ajoute la composante d’apprentissage sur la cohésion mutuelle entre les variables. Consultez « Ensuite, mon perceptron réfléchit » ou bien « Joseph et le perceptron » pour en savoir plus sur ce trait particulier. Ça se réfère à l’intelligence collective des fourmis. Peu ambitieux mais ça peut marcher. Résultat ? Très similaire à celui obtenu avec cette fonction particulière (apprentissage sur cohésion) et avec la rétroprogation de base, donc vers l’échec minimal. Faut que j’y réfléchisse.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Ta Ważna Komisja: rzecz o rozporządzeniu ewaluacyjnym

 

Mój wstępniak na You Tube

 

Po miesiącach przerwy wracam do pisania po polsku na moim blogu. Jak zwykle, piszę po to, żeby ułożyć myśli. Zaangażowałem się w projekt wdrożenia w praktyce tzw. rozporządzenia ewaluacyjnego, czyli Rozporządzenia Ministra Nauki i Szkolnictwa Wyższego z dnia 22 lutego 2019 roku w sprawie ewaluacji jakości działalności naukowej. Jak klikniecie w link, ściągniecie z archiwum mojego bloga tą wersję, z którą ja obecnie pracuję. Mam nadzieję zresztą, że ta wersja nie ulegnie jakimś znacznym zmianom. W każdym razie przydają się też okazjonalne odniesienia do ustawy 2.0 czyli tzw. Konstytucji dla Nauki. Moja praca z tym małym cudem legislacji polega na zaproponowaniu struktury logicznej dla narzędzia informatycznego, które z kolei pozwoli rejestrować dorobek naukowy na mojej macierzystej uczelni, Krakowskiej Akademii im. Andrzeja Frycza Modrzewskiego.

W tym wpisie staram się zrobić coś, co oburza moją żonę. Nie, nie to, co myślicie. Staram się przełożyć treść rozporządzenia na strukturę logiczną. Moja żona jest prawnikiem i uważa, że takie zabiegi podcinają gałąź, na której siedzi cała profesja. Co by to było, gdyby nagle ludzie rozumieli w intuicyjny i praktyczny sposób treść rozporządzeń? Zgroza, nie? Ano właśnie to robię. Zapuszczam się w krainę zgrozy.

Przekonałem się, że akty prawne warto czytać od końca. Tym razem też to się sprawdziło. Załącznik nr 2 do rozporządzenia określa „Algorytm porównania ocen przyznanych ewaluowanemu podmiotowi prowadzącemu działalność naukową w ramach danej dyscypliny naukowej albo artystycznej za spełnienie podstawowych kryteriów ewaluacji z wartościami referencyjnymi dla tych kryteriów”. Długa nazwa. Budzi respekt. Zobaczymy, co jest w środku. W środku jest mowa o tym, że kiedy ewaluowany podmiot X dostanie jakąś ocenę Oi(X) według i-tego kryterium ewaluacji, to porównujemy ją z wartością referencyjną Oi(R). Porównujemy w dwóch krokach. Najpierw patrzymy, co jest większe, a następnie robimy odejmowanie bez wyników ujemnych. Wyniki ujemne są kłopotliwe. Znak trzeba zmieniać albo określać wartość bezwzględną. W każdym razie, jeżeli Oi(X) ≥ Oi( R ), to wtedy robimy ∆O = Oi(X) – Oi( R ). Jeżeli jest wręcz przeciwnie, to znaczy kiedy „oj-iks!” jest mniejsze od „oj-er!” to wtedy ∆O = Oi( R ) – Oi(X).

Mamy deltę ∆O i ta delta też ma swoją wartość referencyjną G, zwaną progiem pełnego przewyższania i określaną przez Komisję. Jaką Komisję? No chyba jakąś ważną, nie? Jeżeli Oi(X) ≥ Oi( R ) i jednocześnie  ∆O = Oi(X) – Oi( R )G, to wtedy wynik porównania ewaluowanego podmiotu z wartością referencyjną dla i-tego kryterium ewaluacji wynosi  Pi(X, R) = 1 i to jest najlepsza możliwa wiadomość. Jeżeli Oi(X) ≥ Oi( R ) ale jednak  ∆O = Oi(X) – Oi( R ) < G, to wtedy przykro nam, bracie, ale twój Pi(X, R) = ∆O/G. Może być jeszcze bardziej przykro, kiedy Oi(X) < Oi( R ), to wtedy robimy ∆O = Oi( R ) – Oi(X) i jeżeli na dodatek taka ∆O ≥ G, to wtedy Pi(X,R) = -1. Bagno. Może być trochę płytsze, w sensie to bagno. Jeżeli Oi(X) < Oi( R ) i ∆O = Oi( R ) – Oi(X) < G, to wtedy Pi(X,R) = -∆O/G.

Innymi słowy, wynik ewaluacji według i-tego kryterium może się zawierać w przedziale -1 ≤ Pi(X,R) ≤ 1. Każdy taki cząstkowy wynik ewaluacji wpisujemy do Matki Wszystkich Wzorów, czyli:

 

V(X,R) = W1*P1(X,R) + W2*P2(X,R) + W3*P3(X,R).

 

Czyli i-te kryterium ewaluacji to może być kryterium 1, 2 albo 3? No trzeba było tak od razu, zamiast komplikować z tym „i”. Kryterium P1 to poziom naukowy prowadzonej działalności, kryterium P2 to efekty finansowe badań naukowych lub prac rozwojowych, zaś kryterium P3 oznacza wpływ działalności naukowej na funkcjonowanie społeczeństwa i gospodarki. Za chwilę powiem więcej na temat treści tych kryteriów. Na razie w kwestii formalnej: W1, W2 oraz W3 to wagi kryteriów P1 ÷ P3 i wagi te są zróżnicowane w zależności od dziedziny nauki, jak w tabeli poniżej.

 

 

Wartości W dla kryteriów ewaluacji
Kryteria ewaluacji Nauki humanistyczne, nauki społeczne i nauki teologiczne Nauki ścisłe i przyrodnicze, nauki medyczne i nauki o zdrowiu Nauki inżynieryjne i techniczne oraz nauki rolnicze Dyscypliny artystyczne
P1 – poziom naukowy działalności – W3 70 60 50 80
P2 – Efekty finansowe badań naukowych lub prac rozwojowych – W2 10 20 35 0
P3 – Wpływ działalności naukowej na funkcjonowanie społeczeństwa i gospodarki – W3 20 20 15 20

 

 

Teraz o kryteriach P1 ÷ P3. Poziom naukowy działalności, czyli P1, jest definiowany przez §8 rozporządzenia i jest oceniany na podstawie: monografii naukowych tudzież redakcji takowych monografii albo rozdziałów w nich, artykułów naukowych, patentów na wynalazki, praw ochronnych na wzory użytkowe oraz wyłącznych praw hodowców do odmian roślin. Znakomita większość ocen cząstkowych przyznawanych za poszczególne osiągnięcia naukowe to sztywne wartości punktowe.

Poziom naukowy działalności (P1) ma inną ważną cechę: jest w przeważającej mierze oceniany na podstawie indywidualnych osiągnięć naukowych poszczególnych osób, które spełniają przesłanki określone w §11 rozporządzenia. Tak jest dla artykułów, monografii, ich redakcji oraz rozdziałów w nich. W przypadku własności intelektualnej, czyli patentów, praw do wzorów użytkowych oraz do odmian roślin, bierzemy pod uwagę tylko własność intelektualną przysługującą ewaluowanemu podmiotowi. Jeżeli ja opublikuję artykuł, to jego wartość przelicza się na ocenę mojej macierzystej uczelni. Jednakowoż, jeżeli ja mam patent, to jego wartość naukowa nie przenosi się na moją uczelnię. To uczelnia musi być uprawniona z patentu, żeby mogła go wykorzystać w ewaluacji.

Szybki przegląd wartości punktowych określanych w §12 ÷ §19 rozporządzenia pokazuje, że kryterium P1 pompujemy przede wszystkim publikacjami: artykułami i monografiami. Patenty mogą być cenne, ale uczelnia musiałaby ich mieć naprawdę mnóstwo, żeby ich łączna punktacja była porównywalna z tym, co można udyndolić za spokojne pisanie. Jeżeli ewaluowany podmiot ma, powiedzmy, 30 pracowników naukowych, to w ciągu roku oni mogą natrzaskać nawet 6000 punktów P1. Tych samych 30 pracowników mogłoby w ciągu roku postarać się o 1 – 2 patenty, czyli maksimum 200 punktów, jeżeli są to patenty w trybie europejskim.

Nieco odrębną kategorię w ocenie P1 stanowią dyscypliny artystyczne. Punktacja osiągnięć artystycznych określona w §20 rozporządzenia odsyła do Załącznika nr 1 pt. „Rodzaje osiągnięć artystycznych uwzględnianych w ocenie poziomu artystycznego prowadzonej działalności naukowej w zakresie twórczości artystycznej i liczba przyznawanych za nie punktów”. Powiem szczerze: nie znam się na tym. Mogę sobie jedynie wyrobić ogólny pogląd na ten temat. Jeżeli widzę w tym załączniku 200 punktów za wybitne osiągnięcie w zakresie reżyserii realizacji telewizyjnej, a jednocześnie można uzyskać 200 punktów za porządną monografię na temat reżyserii filmowej, to intuicyjnie zgaduję, że te drugie 200 punktów znacznie łatwiej uzyskać niż te pierwsze 200 punktów.

Swoją odrębność w zakresie kryterium P1 mają również nauki humanistyczne, społeczne i teologiczne, a konkretnie monografie wydawane w tym obszarze. Po pierwsze, za pełne autorstwo monografii w tym obszarze, jeżeli została wydana we Właściwym Wydawnictwie, określonym przez Ministra na podstawie art. 267 ust. 2 pkt. 2 ustawy Konstytucja dla Nauki, można mieć nawet 300 punktów. W innych obszarach nauki maksimum to 200 za sztukę. Po drugie, istnieje tu pojęcie monografii z tzw. oceną ekspercką. Jeżeli ktoś coś zrobi z monografią naukową w dziedzinie nauk humanistycznych, społecznych lub teologicznych, w sensie napisze, zredaguje albo jakiś rozdzialik strzeli, ale monografia ukaże się w wydawnictwie pozbawionym Namaszczenia Ministerstwa, to wtedy można się zwrócić do Przewodniczącego Komisji (tej ważnej Komisji), żeby on się zwrócił do Ministra (no, wiecie, Ministra) żeby on wyznaczył panel ekspertów, którzy ocenią taką monografię. Wtedy jest więcej punktów.

Ogólnie, to z tym kryterium P1 jest tak, jak na obrazku poniżej.

 

Dobra, to teraz P2, czyli efekty finansowe badań naukowych lub prac rozwojowych.  O tym mówi §22 rozporządzenia ewaluacyjnego. Paragraf 22… Ciekawe… Czytał ktoś tą powieść? No, ale do adremu. Najkorzystniejsza punktacja – czyli 4 punkty ewaluacyjne za każde 12 500 zł wydanych na finansowanie badań naukowych i prac rozwojowych – pojawia się przy spełnieniu kilku przesłanek. Po pierwsze, projekt musi być finansowany przez Europejską Radę do Spraw Badań Naukowych (European Reseach Council), w trybie konkursowym. Po drugie, projekt musi być realizowany przez grupę podmiotów, do której należy ewaluowany podmiot i jednocześnie której liderem jest albo był podmiot nienależący do systemu szkolnictwa wyższego i nauki. W sensie jakaś firma albo rząd jakiś. Po trzecie, te 12 500 zł to musi być tylko w ramach zadań wykonywanych w takiej grupie przez ewaluowany podmiot. Mówiąc krótko, nawiązujemy kontakt z korporacją o ambicjach w zakresie rozwoju nowych technologii, robimy wspólnie projekt badawczo – rozwojowy finansowany przez Europejską Radę do Spraw Badań Naukowych i dbamy o to, żeby przypadkiem nie być liderem takiego projektu. Po czwarte, projekt powinien dotyczyć nauk społecznych, humanistycznych lub teologicznych. Czyli tak: namawiam dużą firmę do wspólnego projektu, w którym na pewno nie będziemy liderem i jednocześnie będziemy szukali dowodu na istnienie Boga. Aha, no i muszą być konkretne prace rozwojowe, np. detektor obecności Boga. Namawiamy Europejską Radę do Spraw Badań Naukowych do ogłoszenia konkursu na takie projekty i uzyskujemy dofinansowanie w ramach takiego konkursu. Dalej już z górki: 1 000 000 zł na takie coś i mamy 320 punktów ewaluacyjnych.

Najgorszym wyjściem jest zrobić samodzielnie (bez konsorcjum) projekt badawczy w zakresie nauk innych niż humanistyczne, społeczne i teologiczne, a projekt ten powinien być realizowany przez grupę podmiotów, której liderem jest ewaluowany podmiot albo inny podmiot należący do systemu szkolnictwa wyższego i nauki. Wtedy mamy 1 punkt ewaluacyjny za każde 50 000 zł wydane na projekt. Jeden milion złotych daje zaledwie 20 punktów.

No i wreszcie trzecie kryterium ewaluacji, czyli P3 „Wpływ działalności naukowej na funkcjonowanie społeczeństwa i gospodarki, czyli §23 rozporządzenia ewaluacyjnego. Ewaluowany podmiot może przedstawić Komisji tzw. opisy wpływu, czyli co dobrego się wydarzyło pod wpływem badań naukowych prowadzonych i/lub popularyzowanych przez ten podmiot. Przedstawić można od 2 do 5 opisów wpływu, w zależności od liczby osób zaliczonych do tzw. liczby N. O liczbie N będę jeszcze pisał, ale na razie krótko. Zgodnie z § 7 rozporządzenia ewaluacyjnego liczba „N” to liczba pracowników ewaluowanego podmiotu, którzy prowadzą działalność naukową w danej dyscyplinie naukowej albo artystycznej oraz którzy złożyli dwa oświadczenia, opisane odpowiednio w art. 343 ust. 7 oraz art. 265 ust. 5 ustawy.

Typowy wydział na uczelni ma z reguły nie więcej niż 100 osób w liczbie N, a więc może przedstawić dwa opisy wpływu. W najbardziej optymistycznych układach, jeżeli uda się wykazać wpływ o międzynarodowym zasięgu i znaczeniu, można dostać 100 punktów za sztukę, czyli w sumie 200. Jednakowoż jeżeli posłużymy się bazą POL-on, wychodzi 164000 pracowników zatrudnionych w 656 podmiotach, czyli średnio 250 osób na podmiot. Taka średnia statystyczna może złożyć, zgodnie z rozporządzeniem, 4 opisy wpływu na funkcjonowanie społeczeństwa i gospodarki. Każdy z tych opisów może dostać od 20 do 100 punktów. Daje to w sumie przedział od 80 do 400 punktów.

Suma summarum rysują się dwie strategie dla uczelni, w perspektywie uzyskania jak najwyższej kategorii naukowej zgodnie z rozporządzeniem: strategia zorientowana na publikacje naukowe oraz ta zorientowana na współpracę z biznesem w zakresie rozwoju nowych technologii, przy finansowaniu środkami publicznymi przyznawanymi w drodze konkursów. Dla przykładu, budżet Narodowego Centrum Badań i Rozwoju na 2019 rok, w ramach Programu Operacyjnego Inteligentny Rozwój, wynosi 3,09 mld zł. W zależności od tego, jak inteligentnie jednostki naukowe wykorzystają ten łączny budżet, jest to „rynek” 61 800 ÷ 988 800 punktów P2 do podziału między zainteresowanych. Zgodnie z danymi systemu POL-on, w Polsce jest 396 uczelni oraz 260 jednostek naukowych, w sumie 656 graczy. Te punkty P2 rozkładają się więc średnio od 94 punktów rocznie na jeden podmiot aż do nieco ponad 1500 punktów rocznie. Zależy, jak mówiłem, od strategii pozyskiwania funduszy badawczych.

Porównajmy to teraz z punktami P1, za jakość działalności naukowej. W bazie POL-on jest 1 mln publikacji, a baza działa od 2011 roku. Do daje średnio po 125 000 publikacji rocznie, czyli w przeliczeniu średnio na jeden podmiot daje to ok. 190 publikacji. Przy optymistycznym wariancie publikacji wysoko punktowanych można liczyć średnio 65 punktów za jedną publikację. Przy nieco mniejszych sukcesach byłoby to średnio 20 punktów P1 za sztukę. W efekcie mamy roczny dorobek punktowy w średnim przedziale od 3800 do 12 350 punktów.

Pogrzebałem trochę w bazie POL-on w poszukiwaniu liczb. Liczby służą mi do zgadywania myśli, w sensie myśli Komisji (tej ważnej) w momencie kolejnej ewaluacji. Pokusiłem się o coś w rodzaju modelu ewaluacji, czyli o wyobrażenie sobie, jak liczby z POL-onu oraz liczby z rozporządzenia ewaluacyjnego mogą pracować w praktyce. W dwóch tabelach poniżej przedstawiam efekty tej symulacji. Policzyłem prawdopodobny przedział dorobku punktowego, jaki typowy ewaluowany podmiot może zrobić w ciągu roku i pomnożyłem to przez 3 lata. Potem podzieliłem ten dorobek punktowy przez średnią liczbę N, która mi wychodzi N = 250. Te wielkości wpuściłem do równania V(X,R) = W1*P1(X,R) + W2*P2(X,R) + W3*P3(X,R) i policzyłem coś w rodzaju przedziału ufności. Wyszedłem z założenia, że wartość referencyjna R będzie gdzieś w środku tego przedziału, a próg przewyższania G będzie liczony jako połowa tego przedziału. No i wyszło to co widzicie poniżej.

 

 

Średni możliwy dorobek punktowy W przeliczeniu na 1 osobę z liczby N
Kryterium ewaluacji Od Do Od Do
P1 11400 37 050 45,6 148,2
P2 282 4500 1,128 18
P3 240 1200 0,96 4,8

 

 

 

Nauki humanistyczne, nauki społeczne i nauki teologiczne Nauki ścisłe i przyrodnicze, nauki medyczne i nauki o zdrowiu Nauki inżynieryjne i techniczne oraz nauki rolnicze Dyscypliny artystyczne
Dolna granica przedziału referencyjnego 3 222,48 2 777,76 2 333,88 3 667,20
Górna granica przedziału referencyjnego 10 650,00 9 348,00 8 112,00 11 952,00
Prawdopodobna wartość referencyjna R 6 936,24 6 062,88 5 222,94 7 809,60
Prawdopodobny próg przewyższania G 3 713,76 3 285,12 2 889,06 4 142,40

 

 

More and more money just in case. Educational about money and monetary systems

 

My editorial on You Tube

 

Here comes the next, hopefully educational piece in Fundamentals of Finance. This time it is about money. Money strictly speaking. This is probably one of the hardest. Money is all around us, whether we have it or not. How to explain something so pervasive? I think the best way is to stick to facts, in the first place. I take my wallet. What’s inside? There is some cash, there is a debit card, and two credit cards. Oh, yes, and there is that payment app, SkyCash, on my phone. All that, i.e. cash + credit cards + debit card + payment app, is the money I am walking around with.

How to explain things which seem really hard to explain? One possible way is to ask THOSE questions. I mean those stupid, out of place questions. One such question is just nocking at the door of my consciousness. Are all these forms of money in my wallet just different forms of essentially the same thing, or are they rather essentially different things which just take a similar form? I mean, if this is all money, why is there not just one form of money? Why are there many forms? Why don’t I use just cash, or just a payment app? See? If anyone was in any doubt as for whether I can ask a really stupid question, here is the answer. Yes, I can.

Now, I need the really hard answer, I mean the answer to that stupid question. I observe things and try to figure something out. I observe my credit card, for example. What is that? It is a technology that allows me to tap into a credit account that a bank has allowed me. Which means that the bank studied me, and compared me to a bunch of other people, and they decided that I have a certain borrowing capacity, i.e. I am able to generate sufficient a stream of income over time to pay back a certain amount of credit. When I use a credit card, I use my future income. If this is a technology, there must have been need for its massive use. We usually make technologies for things that happen recurrently. Banks recurrently assess the amount of credit they can extend to non-bank people, and they take care of securing some kind of technology to do so. Here comes an important distinction in plastic, namely that between a credit card and a debit card. A debit card is a technology that allows me to tap into my own current bank account, which is different from my credit card account. I trust the bank with recording a certain type of transactions I make. These transactions are transfers to and from my current account. The bank is my book keeper, and, as far as a current account strictly spoken is concerned, it is a smart book keeper. I cannot make more transfers from my current account than I receive onto it. It is book keeping with a safety valve. Banks recurrently keep the record of financial transactions that people enter into, they take care of preventing negative balance on those transactions, and the temporary bottom line of such transactions is the current balance on the same people’s current accounts.

 

Good, now comes cash money. Those notes and coins I have in my wallet are any good for payment because a special bank, the Central Bank of my country, printed and minted them, put them in circulation, and guarantees their nominal (face) value. Guaranteeing means that the Central Bank can be held liable of the total nominal value of all the notes and coins in circulation. This means, in turn, that the Central Bank needs to hold assets of similar liquidity, just to balance the value of cash guaranteed. When I use cash, I indirectly use a fraction of those liquid assets held by the central bank. What kind of assets has a similar liquidity to money? Well, money, of course. The Central Bank can extend credit to commercial banks, and thus holding claims on the money those banks hold. The Central Bank can also buy the cash money guaranteed by other central banks, mostly those reliable ones. We have another behavioural pattern: governments form central banks, and those central banks hold some highly liquid assets, and they use those highly liquid assets to back a certain amount of cash they put in circulation.

Now, there is that beast called « FinTech » and all them Payment Apps we can use, like Apple Wallet. I can use a payment app in two ways: I can connect a credit card to it, or I can directly hold a monetary balance in it. Anyway, I need to register an account, and give it some liquidity. When I pay through connection with my credit card, the Payment App is just an extension of the same technology as the one in the card. On the other hand, when I hold a monetary balance with a payment app, that balance is a claim of mine on the operator of the app. That means the operator has a liability to me, and they need to hold liquid assets to balance that liability. By the way, when a bank holds my current account, the temporary balance on that account is also my claim on the bank, and the bank needs to hold some highly liquid assets to balance my current balance with them. Here comes an even more general behavioural pattern. Some institutions, called financial institutions, like commercial banks, central banks, and operators of FinTech utilities, are good at assessing the future liquidity in other agents, and hold highly liquid assets that allow them to be liable to third persons as for holding, and keeping operational, specific accounts of liabilities: current accounts and cash in circulation.

Those highly liquid assets held by financial institutions need to be similar in their transactional pattern to the liabilities served. They need to be various forms of money. A bank can extend me a credit card, because they have another bank extends them an even bigger credit card. A central bank can maintain cash in circulation because it can trust in the value of other currencies in circulation. Looks like a loop? Well, yes, ‘cause it is a loop. Monetary systems are made of trusted agents who are trusted precisely as for their capacity to maintain a reliable balance between what they owe and what they have claims on. Historically, financial institutions emerged as agents who always pay their debts.

 

Good, this is what them financial institutions do about money. What do I do about money? I hold it and I spend it. When I think about it, I hold much more than I spend. Even if I count just my current wallet, i.e. all those forms of liquidity I walk around with, it is much more than I need for my current expenses. Why do I hold something I don’t immediately need? Perhaps because I think I might need it. There is some sort of uncertainty ahead of me, and I more or less consciously assume that holding more money than I immediately need can help me facing those contingencies. It might be positive or negative. I might have to pay for sudden medical care, or I might be willing to enter into some sudden business deals. Some of the money I hold corresponds to a quantity of goods and services I am going to purchase immediately, and another part of my money is there just to assure I might be able to buy more if I need.

When I focus on the money I hold just in case, I can see another distinction. I just walk around with some extra money, and I hold a different balance of extra money in the form of savings, i.e. I have it stored somewhere, and I assume I don’t spend it now. When I use money to meet uncertainty, the latter is scalable and differentiated. There are future expenditures, usually in a more distant future, which I attempt to provide for by saving. There are others, sort of more diffuse and seemingly more immediate, which I just hold some money for in my current wallet. We use money to meet uncertainty and risk, and we adapt our use of money to our perception of that uncertainty and risk.

Let’s see how Polish people use money. To that end, I use the statistics available with the National Bank of Poland as well as those published by the World Bank. You can see a synthetic picture in the two graphs below. In the first one, you can see the so-called broad money (all the money we hold) in relation to the GDP, or to Gross Domestic Product. The GDP is supposed to represent the real amount of goods and services supplied in the country over 1 year. Incidentally, the way we compute GDP implies that it reflects the real amount of all final goods and services purchased over one year. Hence, that proportion between money supplied and GDP is that between the money we hold, and the things we buy. You can see, in the graph, that in Poland (it is the same a bit all around the world, by the way) we tend to hold more and more money in relation to the things we buy. Conclusion: we hold more and more money just in case.

In the second graph below, you can see the structure of broad money supplied in Poland, split into the so-called monetary aggregates: cash in circulation, current account money, and term deposits in money. You can see current account money gently taking over the system, with the cash money receding, and deposits sort of receding as well, still holding a larger position in the system. It looks as if we were adapting our way of using money to a more and more intense perception of diffuse, hardly predictable risks.

 

I am consistently delivering good, almost new science to my readers, and love doing it, and I am working on crowdfunding this activity of mine. As we talk business plans, I remind you that you can download, from the library of my blog, the business plan I prepared for my semi-scientific project Befund  (and you can access the French version as well). You can also get a free e-copy of my book ‘Capitalism and Political Power’ You can support my research by donating directly, any amount you consider appropriate, to my PayPal account. You can also consider going to my Patreon page and become my patron. If you decide so, I will be grateful for suggesting me two things that Patreon suggests me to suggest you. Firstly, what kind of reward would you expect in exchange of supporting me? Secondly, what kind of phases would you like to see in the development of my research, and of the corresponding educational tools?

Ensuite, mon perceptron réfléchit

 

Mon éditorial sur You Tube

 

Je vais au fond des choses, dans ma recherche courante. Comme vous le savez peut-être, je suis en train de combler une grosse lacune dans mon éducation scientifique : j’apprends les rudiments d’intelligence artificielle (consultez « Joseph et le perceptron » par exemple). Je pense que j’ai déjà compris quelques trucs, surtout le principe général du réseau neuronal appelé « perceptron ». Au fin fond de la science moderne, il y a cette observation générale : les choses, elles surviennent comme des instances momentanées et locales des structures sous-jacentes. Disons que je suis assis, là, devant mon ordinateur, j’écris, et tout à coup il me vient à l’esprit que je pourrais démolir l’univers entier et le reconstruire à nouveau. Je dois le faire instantanément, en une fraction de seconde. Après tout, l’absence totale de l’univers peut poser des problèmes. Alors, je démolis et je reconstruis mon univers entier. Je le fais plusieurs fois de suite, comme mille fois. Question : après chaque reconstruction de l’univers, suis-je le même Krzysztof Wasniewski que j’étais dans l’univers précèdent ? Eh bien, tout ce que je sais de la science me dit : presque. Dans chaque instance consécutive de l’univers je suis presque le même moi. Des petits détails diffèrent. C’est précisément ce que fait le réseau neuronal du type perceptron. Il crée plusieurs instances possibles de la même structure logique et chaque instance particulière est originale par des petits détails.

Question : qu’est-ce que ferait un perceptron qui serait à ma place, donc qui découvrirait qu’il est une instance parmi plusieurs autres, temporairement présente dans un univers momentané ? Ça dépend quelle est sa fonction d’activation. Si mon perceptron travaille avec la fonction sigmoïde, il accumule l’expérience et produit une série de plus en plus récurrente d’instances de lui-même, tout en relâchant un peu les gonds de sa structure. Il devient à la fois plus souple et plus répétitif. En revanche, si la fonction d’activation c’est la tangente hyperbolique, le perceptron devient très susceptible et en même temps rigide. Il produits des instances de lui-même par des à-coups soudains, il se balance loin de son état initial mais après, il retourne très près ce cet état initial et à la longue, il n’apprend pas vraiment beaucoup.

Comme j’expérimente avec le perceptron, j’ai découvert deux types d’apprentissage : le sigmoïde rationnel et systématique d’une part, et la tangente hyperbolique violente et émotionnelle d’autre part. Ces deux sentiers de traitement de l’expérience ont leur expression mathématique et moi, en ce moment, j’essaie de comprendre le lien entre ces structures mathématiques et l’économie. Plus je fais de la recherche et de l’enseignement en sciences sociales, plus je suis convaincu que l’approche behavioriste est l’avenir des sciences économiques. Les modèles économiques reflètent et généralisent notre compréhension du comportement humain. Mes observations à propos du perceptron se traduisent en un débat long-présent dans les sciences économiques : l’état doit-il intervenir pour atténuer les chocs quantitatifs sur les marchés ou bien doit-il s’abstenir d’intervention et laisser les marchés apprendre à travers les chocs ?

L’application des deux fonctions neuronales – le sigmoïde et la tangente hyperbolique – me permet de reconstruire ces deux alternatives. Le sigmoïde est parfait pour simuler un marché protégé des chocs. La structure logique de la fonction sigmoïde la rend pareille à un pare-chocs. Le sigmoïde absorbe tout excès de stimulation et rend un résultat lissé et domestiqué. En revanche, la tangente hyperbolique est hyper-réactive dans sa structure logique et semble être une bonne représentation d’un marché dépourvu des ceintures de sécurité.

Je prends donc le modèle financier que je suis en train de développer pour le marché de l’énergie – donc la solution qui permet aux petits fournisseurs locaux d’énergies renouvelables de bâtir une base financière tout en créant des liens durables avec leurs clients (consultez « More vigilant than sigmoid », par exemple) – et j’utilise le perceptron pour expérimenter. Ici, il y a une question méthodologique que jusqu’alors j’hésitais à poser directement et que je dois répondre, d’une façon ou d’une autre : qu’est-ce que le perceptron représente, au juste ? Quel type d’environnement expérimental peut être associé avec la façon dont le perceptron apprend ? Mon idée est de faire le parallèle avec l’intelligence collective, donc de défendre l’assomption que le perceptron représente l’apprentissage qui réellement prend lieu dans une structure sociale. Question : comment donner de l’assise intellectuelle à cette assomption ? Le sentier le plus évident passe par la théorie d’essaims que j’avais déjà discuté dans « Joseph et le perceptron » ainsi que dans « Si je permets plus d’extravagance ». Si le perceptron est capable de varier sa fonction interne d’adaptation , donc de passer entre des degrés différents d’association entre ses variables, alors ce perceptron peut être une représentation acceptable de l’intelligence collective.

Ça, c’est fait. J’ai déjà vérifié. Mon perceptron produit de la variation dans sa fonction d’adaptation et qui plus est, il la produit de façons différentes suivant la fonction d’activation utilisée, soit le sigmoïde ou bien la tangente hyperbolique. Point de vue théorie d’essaims, il est collectivement intelligent, mon perceptron.

Ceci fait et dit, j’ai déjà découvert que le sigmoïde – donc le marché assisté par des institutions anticycliques – apprend plus (il accumule plus de mémoire expérimentale) et il produit un modèle financier plus étoffé en termes de finance et d’investissement. Il produit des prix d’énergie plus élevés, aussi. En revanche, la tangente hyperbolique – soit le marché sans protection – apprend moins (accumule moins de mémoire expérimentale) et il produit un marché final avec moins de capital financier offert et moins d’investissement, tout en gardant les prix d’énergie à un niveau relativement plus bas. En plus, la tangente hyperbolique produit plus de risque, dans la mesure où elle rend plus de disparité entre des différentes instances expérimentales que le sigmoïde.

Bon, un instant de réflexion : à quoi bon ? Je veux dire : qui peut faire un usage pratique de ce que je suis en train de découvrir ? Réfléchissons : je fais tout ce bazar de recherche avec l’aide d’un réseau neuronal pour explorer le comportement d’une structure sociale vis-à-vis d’un schéma financier nouveau dans le marché d’énergies renouvelables. Logiquement, cette science devrait servir à introduire et développer un tel schéma. Dans la finance, la science ça sert à prédire les prix et les quantités d’instruments financiers en circulation, ainsi qu’à prédire la valeur agrégée du marché prix dans sa totalité. J’ai déjà expérimenté avec les valeurs que peut prendre la capitalisation « K » du financement participatif pour les énergies renouvelables et j’ai découvert que cette capitalisation peut varier en présence d’une fourchette des prix « PQ – PB » constante. Pour savoir ce que veulent dire ces symboles, le mieux est de consulter « De la misère, quoi ». Je peux donc faire une simulation des états possibles du marché, donc de la proportion entre la capitalisation K et les prix d’énergie, avec ces deux scénarios alternatifs en tête : marché protégé contre variation cyclique ou bien un marché pleinement exposé à des telles variations. Ensuite, l’expérimentation que j’ai conduite jusqu’alors m’a permis de cerner les variations possibles de consommation d’énergie, ainsi que de l’investissement brut en la capacité de génération d’énergie, encore une fois avec variations cycliques ou pas.

J’ai donc trois variables – capitalisation du financement participatif, investissement brut et quantité d’énergie consommée – dont la variation je peux simuler avec mon perceptron. C’est donc quelque chose de similaire aux équations de la physique quantique, donc un outil analytique qui permet de formuler des hypothèses très précises à propos de l’état futur du marché.

Deux idées me viennent à l’esprit. Premièrement, je peux prendre les données que j’avais déjà utilisées dans le passé pour développer mon concept EneFin (consultez, par exemple : « Je recalcule ça en épisodes de chargement des smartphones »), donc les profils des pays Européens particuliers et de voir où exactement mon perceptron peut aller à partir de ces positions. Y-aura-t-il de la convergence ? Y-aura-t-il un schéma récurrent de changement ?

Deuxièmement, je peux (et je veux) retourner à la recherche que j’avais déjà faite en automne 2018 à propos de l’efficience énergétique d’économies nationales. A l’époque, j’avais découvert que lorsque je transforme les données empiriques brutes de façon à simuler l’occurrence d’un choc soudain dans les années 1980 et ensuite l’absorption de ce choc, ce modèle particulier a nettement plus de pouvoir explicatif qu’une approche basée sur l’extraction des tendances a long-terme. Consultez « Coefficients explosifs court-terme » pour en savoir plus à ce sujet. Il se peut que l’échantillon empirique que j’avais utilisé raconte une histoire complexe – composée d’un changement agité façon tangente hyperbolique combiné avec quelque chose de plus pondéré façon sigmoïde – et que l’histoire hyper-tangentielle soit la plus forte des deux. Alors, le scénario possible à construire avec la fonction sigmoïde pourrait représenter quelque chose comme un apprentissage collectif beaucoup plus calme et plus négocié, avec des mécanismes anticycliques.

Ce deuxième truc, l’efficience énergétique, ça m’a inspiré. Aussitôt dit, aussitôt fait. Chaque économie nationale montre une efficience énergétique différente, donc j’assume que chaque pays est un essaim intelligent distinct. J’en prends deux : Pologne, mon pays natal, et Autriche, qui est presque à côté et j’adore leur capitale, Vienne. J’ajoute un troisième pays – les Philippines – pour faire un contraste marqué. Je prends les données que j’avais déjà utilisées dans ce brouillon d’article et je les utilise dans un perceptron. Je considère l’efficience énergétique en tant que telle, soit le coefficient « Q/E » de PIB par 1 kg d’équivalent pétrole de consommation finale d’énergie, comme ma variable de résultat. Le tenseur des variables d’entrée se compose de : i) le coefficient « K/PA » de capital fixe par une demande locale de brevet ii) le coefficient « A/Q » d’amortissement agrégé divisé par le PIB iii) le coefficient « PA/N » de nombre de demandes de brevet locales par 1000 habitants iv) le coefficient « E/N » de consommation d’énergie par tête d’habitant v) le coefficient « U/N » de la population urbaine comme fraction de la population entière du pays vi) le coefficient « Q/N » de PIB par tête d’habitant vii) la part « R/E » d’énergies renouvelables dans la consommation totale d’énergie et enfin viii) deux variables d’échelle, soit « Q » pour le PIB agrégé et « N » pour la population.

Chaque variable contient 25 observations annuelles, de 1990 à 2014, parmi lesquelles j’identifie la valeur maximale et je l’utilise ensuite comme base de standardisation. Le perceptron, il se sent vraiment à l’aise seulement dans un univers standardisé. Le « Q/E » standardisé pour année « ti » est donc égal à Q/E(ti)/max(Q/E) sur Q/E(1990) ≤ x ≤ Q/E(2014) et ainsi de suite pour chaque variable. Je prends les 25 valeurs standardisées pour chaque variable et je les donne à mon perceptron comme matériel d’apprentissage. Le perceptron, il commence par assigner à chaque valeur standardisée un coefficient aléatoire W(x) de pondération et pour chaque il fait ∑W(x)*x, donc la somme des produits « coefficient de pondération multiplié par la valeur locale standardisée ».

Le ∑W(x)*x est ensuite utilisé dans la fonction d’activation neurale : le sigmoïde y = 1 / (1 + e-∑W(x)*x) ou bien la tangente hyperbolique y = (e2*∑W(x)*x – 1) / (e2*∑W(x)*x + 1). Pour chaque période d’observation je calcule aussi la fonction d’adaptation locale, ce qui commence par le calcul des distances Euclidiennes entre cette variable et les autres. La distance Euclidienne ? Eh bien, je prends la valeur x1 et celle de x, par exemple Q/E(1995) – U/N(1995). Bien sûr, on ne parle que valeurs standardisées.  Je fais donc Q/E(1995) – U/N(1995) et pour s’assurer qu’il n’ait pas de négativité compromettante, je tire la racine carrée du carré de la différence arithmétique, soit {[Q/E(1995) – U/N(1995)]2}0,5. Avec M variables au total, et 1 ≤ j ≤ M – 1, pour chacune d’elles je fais V(xi) = {xi + ∑[(xi – xj)2]0,5}/M et ce V(xi) c’est précisément la fonction d’adaptation.

J’utilise V(xi) dans une troisième version du perceptron, le sigmoïde modifié

y = 1 / (1 + e-∑V(x)*W(x)*x)

donc une forme d’intelligence qui assume que plus une variable d’entrée est distante d’autres variables d’entrée, plus elle est importante dans la perception de mon perceptron. C’est la vieille histoire de distinction entre un arbre et un ours grizzli, dans une forêt. Un ours, ça déteint nettement sur un fond forestier et il vaut mieux y attacher une attention particulière. Le perceptron basé sur le sigmoïde modifié contient un tantinet d’apprentissage profond : ça apprend sa propre cohésion interne (distance Euclidienne entre variables).

Quel que soit la version du perceptron, il produit un résultat partiellement aléatoire et ensuite il le compare à la valeur espérée de la variable de résultat. La comparaison est complexe. Tout d’abord, le perceptron fait Er(Q/N ; t) = y(t) – Q/E(t) et il constate, bien sûr, qu’il s’est gouré, donc que Er(Q/N ; t) = y(t) – Q/E(t) ≠ 0. C’est normal avec tous ces coefficients aléatoires de pondération. Ensuite, mon perceptron réfléchit sur l’importance de cette erreur locale et comme la réflexion n’est pas vraiment un point fort de mon perceptron, il préfère prendre refuge dans les maths et calculer la dérivée locale y’(t). De tout en tout, le perceptron prend l’erreur locale et la multiplie par la dérivée locale de la fonction d’activation neurale et cette valeur complexe  y’(t-1)*[y(t-1) – Q/E(t-1)] est ensuite ajoutée à la valeur de chacune variable d’entrée dans la ronde suivante d’expérimentation.

Les 25 premières rondes d’expérimentation sont basées sur les données réelles pour les années 1990 – 2014 et c’est donc du matériel d’apprentissage. Les rondes suivantes, en revanche, sont de l’apprentissage pur : le perceptron génère les variables d’entrée comme valeurs de la ronde précédente plus y’(t-1)*[y(t-1) – Q/E(t-1)].

Bon, appliquons. J’itère mon perceptron sur 5000 rondes d’expérimentation. Première chose : ce truc est-il intelligent ? Sur la base de la théorie d’essaims j’assume que si la cohésion générale des données, mesurée comme 1/V(x) donc comme l’inverse de la fonction d’adaptation, change significativement sur les 5000 essais, ‘y-a de l’espoir pour intelligence. Ci-dessous, je présente les graphes de cohésion pour la Pologne et les Philippines. Ça promet. Le sigmoïde, ça se désassocie de façon systématique : la ligne bleue sur les graphes descend résolument. Le sigmoïde modifié, ça commence par plonger vers un niveau de cohésion beaucoup plus bas que la valeur initiale et ensuite ça danse et oscille. La tangente hyperbolique prend bien garde de ne pas sembler trop intelligente, néanmoins ça produit un peu de chaos additionnel. Toutes les trois versions du perceptron semblent (formellement) intelligentes.

Le truc intéressant c’est que le changement de cohésion diffère fortement suivant le pays étudié. Je ne sais pas encore quoi penser de ça. Maintenant, les résultats des 5000 rondes expérimentales. Il y a des régularités communes pour tous les trois pays étudiés. Le sigmoïde et la tangente hyperbolique produisent un état avec efficience énergétique égale (ou presque) à celle de 2014 – donc de la dernière année des données empiriques – et toutes les autres variables fortement en hausse : plus de population, plus de PIB, plus d’innovation, plus d’énergies renouvelables etc. Le sigmoïde modifié ajoute aussi à ces variables mais en revanche, il produit une efficience énergétique nettement inférieure à celle de 2014, à peu près égale à celle de 2008 – 2009.

J’essaie de comprendre. Est-ce que ces résultats veulent dire qu’il y a un sentier possible d’évolution sociale où on devient plus ou moins créatifs et chaotiques – donc où la cohésion entre nos décisions économiques décroit – et en même temps nous sommes comme plus grands et plus intenses en termes de consommation d’énergie et des biens ?

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Unconditional claim, remember? Educational about debt-based securities

My editorial on You Tube

 

Here comes another piece of educational content, regarding the fundamentals of finance, namely a short presentation of debt-based securities. As I will be discussing that topic,  here below, I will compare those financial instruments to equity-based securities, which I already discussed in « Finding the right spot in that flow: educational about equity-based securities ».

In short, debt-based securities are financial instruments which transform a big chunk of debt, thus a big obligatory contract, into a set of small, tradable pieces, and give to that debt more liquidity.

In order to understand how debt-based securities work in finance, it is a good thing to put a few clichés on their head and make them hold that stance. First of all, we normally associate debt with a relation of power: the CREDITOR, or the person who lends to somebody else, has a dominant position over the DEBTOR, who borrows. Whilst being sometimes true, it is true just sometimes, and it is just one point of view. Debt can be considered as a way of transferring capital from entity A to entity B. Entity A has more cash than they currently need, whilst B has less. Entity A can transfer the excess of cash to B, only they need a contractual base to do it in a civilized way. In my last educational, regarding equity-based securities, I presented a way of transferring capital in exchange of a conditional claim on B’s assets, and of a corresponding decisional power: that would be investing in B’s equity. Another way is to acquire an unconditional claim on B’s future cash flows, and this is debt. Historically, both ways have been used and developed into specific financial instruments.

Anyway, the essential concept of debt-based securities is to transform one big, obligatory claim of one entity onto another entity into many small pieces, each expressed as a tradable deed (document). How the hell is it possible to transform a debt – thus future money that is not there yet – into securities? Here come two important, general concepts of finance: liquidity, and security. Liquidity, in financial terms, is something that we spontaneously associate with being able to pay whatever we need to pay in the immediate. The boss of a company can say they have financial liquidity when they have enough cash in their balance sheet to pay the bills currently on the desk. If some of those bills cannot be paid (not enough cash), the boss can say ‘Sorry, not enough liquidity’.

You can generalize from there: liquidity is the capacity to enter into new economic transactions, and to fulfil obligations resulting from such transactions. In markets that we, humans, put in place, there is a peculiar phenomenon to notice: we swing between various levels of required liquidity. In some periods, people in that market will be like immerged in routine. They will repeat the same transactions over and over again, in recurrent amounts. It is like an average Kowalski (the Polish equivalent of the English average Smith, or the French average Dupont) paying their electricity bills. Your electricity bill comes in the form of a six-month plan of instalments. Each month you will have to pay the same, fixed amount, which results from the last reading of your electricity counter. That amount is most likely to be similar to the amounts from previous six-month periods, unless you have just decided to grow some marijuana and you need extra electricity for those greenhouse lamps. If you manage to keep your head above the water, in day-to-day financial terms, you have probably incorporated those payments for electricity into your monthly budget, more or less consciously. You don’t need extra liquidity to meet those obligations. This is the state of a market, when it runs on routine transactions.

Still, there are times when a lot of new business is to be done. New technologies are elbowing their way into our industry, or a new trade agreement has been signed with another country, or the government had the excellent idea of forcing every entity in the market to equip themselves with that absolutely-necessary-thingy-which-absolutely-incidentally-is-being-marketed-by-the-minister’s-cousin. When we need to enter into new transactions, or when we just need to be ready for entering them, we need a reserve of liquidity, i.e. we need additional capacity to transact. Our market has entered into a period of heightened need for liquidity.

When I lend to someone a substantial amount of money in a period of low need for liquidity, I can just sit and wait until they pay me back. No hurry. On the other hand, when I lend during a period of increased need for liquidity, my approach is different: I want to recoup my capital as soon as possible. My debtor, i.e. the person which I have lent to, cannot pay me back immediately. If they could, they would not need to borrow from me. Stands to reason. What I can do is to express that lending-borrowing transaction as an exchange of securities against money.

You can find an accurate description of that link between actual business, its required liquidity, and all the lending business in: Adam Smith – “An Inquiry Into The Nature And Causes Of The Wealth of Nations”, Book II: Of The Nature, Accumulation, and Employment of Stock, Chapter IV: Of Stock Lent At Interest: “Almost all loans at interest are made in money, either of paper, or of gold and silver; but what the borrower really wants, and what the lender readily supplies him with, is not the money, but the money’s worth, or the goods which it can purchase. If he wants it as a stock for immediate consumption, it is those goods only which he can place in that stock. If he wants it as a capital for employing industry, it is from those goods only that the industrious can be furnished with the tools, materials, and maintenance necessary for carrying on their work. By means of the loan, the lender, as it were, assigns to the borrower his right to a certain portion of the annual produce of the land and labour of the country, to be employed as the borrower pleases.”

Here, we come to the concept of financial security. Anything in the future is subject to uncertainty and risk. We don’t know how exactly things are going to happen. This generates risk. Future events can meet my expectations, or they can do me harm. If I can sort of divide both my expectations, and the possible harm, into small pieces, and make each such small piece sort of independent from other pieces, I create a state of dispersed expectations, and dispersed harm. This is the fundamental idea of a security. How can I create mutual autonomy between small pieces of my future luck or lack thereof? By allowing people to trade those pieces independently from each other.

It is time to explain how the hell can we give more liquidity to debt by transforming it into securities. First things first, let’s see the typical ways of doing it: a note, and a bond. A note, AKA promissory note, or bill of exchange, in its most basic appearance is a written, unconditional promise to pay a certain amount of money to whoever presents the note on a given date. You can see it in the graphic below.

Now, those of you, who, hopefully, paid attention in the course of microeconomics, might ask: “Whaaait a minute, doc! Where is the interest on that loan? You told us: there ain’t free money…”. Indeed, there ain’t. Notes were invented long ago. The oldest ones we have in European museums date back to the 12th century A.D. Still, given what we know about the ways of doing business in the past, they had been used even further back. As you might know, it was frequently forbidden by the law to lend money at interest. It was called usury, it was considered at least as a misdemeanour, if not a crime, and you could even be hanged for that. In the world of Islamic Finance, lending at interest is forbidden even today.

One of the ways to bypass the ban on interest-based lending is to calculate who much money will that precise interest make on that precise loan. I lend €9000 at 12%, for one year, and it makes €9000 *12% = €1 080. I lend €9000, for one year, and I make my debtor liable for €10 080. Interest? Who’s talking about interest? It is ordinary discount!

Discount is the difference between the nominal value of a financial instrument (AKA face value), and its actual price in exchange, thus the amount of money you can have in exchange of that instrument.

A few years ago, I found that same pattern in an innocently-looking contract, which was underpinning a loan that me and my wife were taking for 50% of a new car. The person who negotiated the deal at the car dealer’s announced joyfully: ‘This is a zero-interest loan. No interest!’. Great news, isn’t it? Still, as I was going through the contract, I found that we have to pay, at the signature, a ‘contractual fee’. The fee was strangely precise, I mean there were grosze (Polish equivalent of cents) after the decimal point. I did my maths: that ‘contractual fee’ was exactly and rigorously equal to the interest we would have to pay on that loan, should it be officially interest-bearing at ordinary, market rates.

The usage of discount instead of interest points at an important correlate of notes, and debt-based securities in general: risk. That scheme with pre-calculated interest included into the face value of the note is any good when I can reliably predict when exactly will the debtor pay back (buy the note back). Moreover, as the discount is supposed to reflect pre-calculated interest, it also reflects that part of the interest rate, which accounts for credit risk.

There are 1000 borrowers, who borrow from a nondescript number of lenders. Each loan bears a principal (i.e. nominal amount) of €3000, which makes a total market of €3 000 000 lent and borrowed. Out of those 1000, a certain number is bound to default on paying back. Let it be 4%. It makes 4% * 1000 * €3000 = €120 000, which, spread over the whole population of borrowers makes €120 000/ 1000 = €120, or €120/€3000 = 4%. Looks like a logical loop, and for a good reason: you cannot escape it. In a large set of people, some will default on their obligations. This is a fact. Their collective default is an aggregate financial risk – credit risk – which has to be absorbed by the market, somehow. The simplest way to absorb it is to make each borrower pay a small part of it. When I take a loan, in a bank, the interest rate I pay always reflects the credit risk in the whole population of borrowers. When I issue a note, the discount I have to give to my lender will always include the financial risk that recurrently happens in the given market.

The discount rate is a price of debt, just as the interest rate. Both can be used, and the prevalence of one or the other depends on the market. Whenever debt gets massively securitized, i.e. transformed into tradable securities, discount becomes somehow handier and smoother to use. Another quote from invaluable Adam Smith sheds some light on this issue (

Adam Smith – “An Inquiry Into The Nature And Causes Of The Wealth of Nations”, Book II: Of The Nature, Accumulation, and Employment of Stock, Chapter IV: Of Stock Lent At Interest): “As the quantity of stock to be lent at interest increases, the interest, or the price which must be paid for the use of that stock, necessarily diminishes, not only from those general causes which make the market price of things commonly diminish as their quantity increases, but from other causes which are peculiar to this particular case. As capitals increase in any country, the profits which can be made by employing them necessarily diminish. It becomes gradually more and more difficult to find within the country a profitable method of employing any new capital. There arises, in consequence, a competition between different capitals, the owner of one endeavouring to get possession of that employment which is occupied by another; but, upon most occasions, he can hope to justle that other out of this employment by no other means but by dealing upon more reasonable terms.”

The presence of financial risk, and the necessity to account for it whilst maintaining proper liquidity in the market, brought two financial inventions: endorsement, and routed notes. Notes used to be (and still are) issued for a relatively short time, usually not longer than 1 year. If the lender needs to have their money back before the due date of the note, they can do something called endorsement: they can present that note as their own to a third party, who will advance them money in exchange. Presenting a note as my own means making myself liable for up to 100% of the original, i.e signing the note, with a date. You can find an example in the graphic below.

Endorsement used to be a normal way of assuring liquidity in the market financed with notes. Endorsers’ signatures made a chain of liability, ordered by dates. The same scheme is used today in cryptocurrencies, as the chain of hash-tagged digital signatures. Another solution was to put in the system someone super-reliable, like a banker. Such a trusted payer, who, on their part, had tons of reserve money to provide liquidity, made the whole game calmer and less risky, and thus the price of credit (the discount rate) was lower. The way of putting a banker in the game was to write them in the note as the entity liable for payment. Such a note was designated as a routed one, or as a draft. Below, I am presenting an example.

As banks entered the game of securitized debt, it opened the gates of hell, i.e. the way to paper money. Adam Smith was very apprehensive about it (Adam Smith – “Wealth of Nations”, Book II: Of The Nature, Accumulation, and Employment of Stock, Chapter II: Of Money, Considered As A Particular Branch Of The General Stock Of The Society, Or Of The Expense Of Maintaining The National Capital”): “The trader A in Edinburgh, we shall suppose, draws a bill upon B in London, payable two months after date. In reality B in Lon- don owes nothing to A in Edinburgh; but he agrees to accept of A ‘s bill, upon condition, that before the term of payment he shall redraw upon A in Edinburgh for the same sum, together with the interest and a commission, another bill, payable likewise two months after date. B accordingly, before the expiration of the first two months, redraws this bill upon A in Edinburgh; who, again before the expiration of the second two months, draws a second bill upon B in London, payable likewise two months after date; and before the expiration of the third two months, B in London redraws upon A in Edinburgh another bill payable also two months after date. This practice has sometimes gone on, not only for several months, but for several years together, the bill always returning upon A in Edinburgh with the accumulated interest and com- mission of all the former bills. The interest was five per cent. in the year, and the commission was never less than one half per cent. on each draught. This commission being repeated more than six times in the year, whatever money A might raise by this expedient might necessarily have cost him something more than eight per cent. in the year and sometimes a great deal more, when either the price of the commission happened to rise, or when he was obliged to pay compound interest upon the interest and commission of former bills. This practice was called raising money by circulation”

Notes were quick to issue, but a bit clumsy when it came to financing really big ventures, like governments. When you are a king, and you need cash for waging war on another king, issuing a few notes can be tricky. Same in the corporate sector. When we are talking about really big money, making the debt tradable is just one part, and another part is to make it nicely spread over the landscape. This is how bonds came into being, as financial instruments. The idea of bonds was to make the market of debt a bit steadier across space and over time. Notes worked well for short-term borrowing, but long-term projects, which required financing for 5 or 6 years, encountered a problem of price, i.e. discount rate. If I issue a note to back a loan for 5 years, the receiver of the note, i.e. the lender, knows they will have to wait really long to see their money back. Below, in the graphic, you have the idea explained sort of in capital letters.

The first thing is the face value. The note presented earlier proudly displayed €10 000 of face value. The bond is just €100. You divide €10 000 into 100 separate bonds, each tradable independently, at you have something like a moving, living mass of things, flowing, coming and going. Yep, babe. Liquidity, liquidity, and once again liquidity. A lot of small debts flows much more smoothly than one big.

The next thing is the interest. You can see it here designated as “5%, annuity”, with the word ‘coupon’ added. If we have the interest rate written explicitly, it means the whole thing was invented when lending at interest became a normal thing, probably in the late 1700ies. The term ‘annuity’ means that every year, those 5% are being paid to the holder of the bond, like a fixed annual income. This is where the ‘word’ coupon comes from. Back in the day, when bonds were paper documents (they are not anymore), they had detachable strips, as in a cinema ticket, one strip per year. When the issuer of the bond paid annuities to the holders, those strips were being cut off.

The maturity date of the bond is the moment, when the issuer is supposed to buy it back. It is a general convention that bonds are issued for many years. This is when the manner of counting and compound the interest plays a role, and this is when we need to remind one fundamental thing – bonds are made for big borrowers. Anyone can make a note, and many different anyones can make it circulate, by endorsement or else. Only big entities can issue bonds, and because they are big, bonds are usually considered as safe placements, endowed with low risk. Low risk means low price of debt. When I can convince many small lenders that I, the big borrower, am rock solid in my future solvency, I can play on that interest rate. When I guarantee an annuity, it can be lower than the interest paid only at the very end of maturity, i.e. in 2022 as regards this case. When all around us all of them loans are given at 10% or 12%, an annuity backed with the authority of a big institution can be just 5%, and no one bothers.

Over time, bonds have dominated the market of debt. They are more flexible, and thus assure more liquidity. They offer interesting possibilities as for risk management and discount. When big entities issue bonds, it is the possibility for other big entities to invest large amounts of capital at fixed, guaranteed rate of return, i.e. the interest rates. Think about it: you have an investment the size of a big, incorporated business, and yet you have a risk-free return. Unconditional claim, remember? Hence, over time, what professional investors started doing was building a portfolio of investment with equity-based securities for high yield and high risk, plain lending contracts for moderate yield (high interest rate) and moderate risk, and, finally, bonds for low yield and low risk. Creating a highly liquid market of debt, by putting a lot of bonds into circulation, was like creating a safe harbour for investors. Whatever crazy s**t they were after, they could compensate the resulting risk through the inclusion of bonds in their portfolios.

I am consistently delivering good, almost new science to my readers, and love doing it, and I am working on crowdfunding this activity of mine. As we talk business plans, I remind you that you can download, from the library of my blog, the business plan I prepared for my semi-scientific project Befund  (and you can access the French version as well). You can also get a free e-copy of my book ‘Capitalism and Political Power’ You can support my research by donating directly, any amount you consider appropriate, to my PayPal account. You can also consider going to my Patreon page and become my patron. If you decide so, I will be grateful for suggesting me two things that Patreon suggests me to suggest you. Firstly, what kind of reward would you expect in exchange of supporting me? Secondly, what kind of phases would you like to see in the development of my research, and of the corresponding educational tools?