Smart cities, or rummaging in the waste heap of culture

My editorial

I am trying to put together my four big ideas. I mean, I think they are big. I feel small when I consider them. Anyway, they are: smart cities, Fintech, renewable energies, and collective intelligence. I am putting them together in the framework of a business plan. The business concept I am entertaining, and which, let’s face it, makes a piece of entertaining for my internal curious ape, is the following: investing in the development of a smart city, with a strong component of renewable energies supplanting fossil fuels, and financing this development partly or totally, with FinTech tools, i.e. mostly with something like a cryptocurrency as well as with a local platform for financial transactions. The whole thing is supposed to have collective intelligence, i.e. with time, the efficiency in using resources should increase in time, on the condition that some institutions of collective life emerge in that smart city. Sounds incredible, doesn’t it? It doesn’t? Right, maybe I should explain it a little bit.

A smart city is defined by the extensive use of digital technologies, in order to optimize the local use of resources. Digital technologies age relatively quickly, as compared to technologies that make the ‘hard’ urban infrastructure. If, in a piece of urban infrastructure, we have an amount KH of capital invested in the hard infrastructure, and an amount KS invested in the smart technologies with a strong digital component, the rate of depreciation D(KH) of the capital invested in KH will be much lower than D(KS) invested in KS.


[D(KS)/ KS] > [D(KH)/ KH]

and the ‘>’ in this case really means business.

The rate of depreciation in any technology depends on the pace that new technologies come into the game, thus on the pace of research and development. The ‘depends’, here, works in a self-reinforcing loop: the faster my technologies age, the more research I do to replace them with new ones, and so my next technologies age even faster, and so I put metaphorical ginger in the metaphorical ass of my research lab and I come with even more advanced technologies at even faster a pace, and so the loop spirals up. One day, in the future, as I will be coming back home from work, the technology embodied in my apartment will be one generation more advanced than the one I left there in the morning. I will have a subscription with a technology change company, which, for a monthly lump fee, will assure smooth technological change in my place. Analytically, it means that the residual difference in the rates of depreciation, or [D(KS)/ KS] – [D(KH)/ KH] , will widen.

On the grounds of the research I did in 2017, I can stake three hypotheses as for the development of smart cities. Hypothesis #1 says that the relative infusion of urban infrastructure with advanced and quickly ageing technologies will generate increasing amounts of highly liquid assets, monetary balances included, in the aggregate balance sheets of smart cities  (see Financial Equilibrium in the Presence of Technological Change Journal of Economics Library, Volume 4 (2), June 20, s. 160 – 171 and Technological Change as a Monetary Phenomenon Economics World, May-June 2018, Vol. 6, No. 3, 203-216 ). This, in turn, means that the smarter the city, the more financial assets it will need, kind of around and at hand, in order to function smoothly as a social structure.

On the other hand, in my hypothesis #2, I claim that the relatively fast pace of technological change associated with smart cities will pump up the use of energy per capita, but the reciprocal push, namely from energy-intensity to innovation-intensity will be much weaker, and this particular loop is likely to stabilize itself relatively quickly in some sort of energy-innovation standstill (see Technological change as intelligent, energy-maximizing adaptation Journal of Economic and Social Thought, Volume 4 September 3  ). Mind you, I am a bit less definitive on this one than on hypothesis #1. This is something I found out to exist, in human civilisation, as a statistically significant correlation. Yet, in the precise case of smart cities, I still have to put my finger on the exact phenomena, likely corresponding to the hypothesis. Intuitively, I can see some kind of social change. The very transformation of an ordinary (i.e. dumb) urban infrastructure into a smart one means, initially, lots of construction and engineering work being done, just to put the new infrastructure in place. That means additional consumption of energy. Those advanced technologies embodied in the tissues of the smart cities will tend to be advanced for a consistently shortening amount of time, and as they will be replaced, more and more frequently, with consecutive generations of technological youth. All that process will result in the consumption of energy spiralling up in the particular field of technological change itself. Still, my research suggests some kind of standstill, in that particular respect, coming into place quite quickly. I am thinking about our basic triad in energy consumption. If we imagined our total consumption of energy, I mean as civilisation, as a round cake, one third of that cake would correspond to household consumption, one third to transportation, and the remaining third to the overall industrial activity. With that pattern of technological change, which I have just sketched regarding smart cities, the cake would go somehow more to industrial activity, especially as said activity should, technically, contribute to energy efficiency in households and in transports. I can roughly assume that the spiral of more energy being consumed in the process of changing for more energy-efficient technologies can find some kind of standstill in the proportions between that particular consumption of energy, on the one hand, and the household & transport use. I mean, scrapping the bottom of the energy barrel just in order to install consecutive generations of smart technologies is the kind of strategy, which can quickly turn dumb.

Anyway, the development of smart cities, as I see it, is likely to disrupt the geography of energy consumption in the overall spatial structure of human settlement. Smart cities, although energy-smart, are likely to need, on the long run, more energy to run. Yet, I am focusing on another phenomenon, now. Following in the footsteps of Paul Krugman (see Krugman 1991[1];  Krugman 1998[2]), and on the grounds of my own research ( see Settlement by energy – Can Renewable Energies Sustain Our Civilisation? International Journal of Energy and Environmental Research, Vol.5, No.3, pp.1-18  ) I am formulating hypothesis #3: if the financial loop named in hypothesis #1, and the engineering loop from hypothesis #2 come together, the development of smart cities will create a different geography of human settlement. Places, which will turn into smart (and continuously smarter) cities will attract people at faster a pace than places with relatively weaker a drive towards getting smarter. Still, that change in the geography of our civilisation will be quite idiosyncratic. My own research (the link above) suggests that countries differ strongly in the relative importance of, respectively, access to food and access to energy, in the shaping of social geography. Some of those local idiosyncrasies can come as quite a bit of a surprise. Bulgaria or Estonia, for example, are likely to rebuild their urban tissue on the grounds of local access to energy. People will flock around watermills, solar panels, maybe around cold fusion. On the other hand, in Germany, Iran or Mexico, where my research indicates more importance attached to food, the new geography of smart human settlement is likely to gravitate towards highly efficient farming places.

Now, there is another thing, which I am just putting my finger on, not even enough to call it a hypothesis. Here is the thing: money gets hoarded faster and more easily than fixed assets. We can observe that the growing monetization of the global economy (more money being supplied per unit of real output) is correlated with increasing social inequalities . If, in a smart and ever smarter city, more financial assets are being around, it is likely to create a steeper social hierarchy. In those smart cities, the distance from the bottom to the top of the local social hierarchy is likely to be greater than in other places. I know, I know, it does not exactly sound politically correct. Smart cities are supposed to be egalitarian, and make us live happily ever after. Still, my internal curious ape is what it is, i.e. a nearly pathologically frantic piece of mental activity in me, and it just can’t help rummaging in the waste heap of culture. And you probably know that thing about waste heaps: people tend to throw things, there, which they wouldn’t show to friends who drop by.

I am working on making science fun and fruitful, and I intend to make it a business of mine. I am doing by best to stay consistent in documenting my research in a hopefully interesting form. Right now, I am at the stage of crowdfunding. You can consider going to my Patreon page and become my patron. If you decide so, I will be grateful for suggesting me two things that Patreon suggests me to suggest you. Firstly, what kind of reward would you expect in exchange of supporting me? Secondly, what kind of phases would you like to see in the development of my research, and of the corresponding educational tools?

[1] Krugman, P., 1991, Increasing Returns and Economic Geography, The Journal of Political Economy, Volume 99, Issue 3 (Jun. 1991), pp. 483 – 499

[2] Krugman, P., 1998, What’s New About The New Economic Geography?, Oxford Review of Economic Policy, vol. 14, no. 2, pp. 7 – 17

Le cousin du beau-frère de mon ami d’école

Mon éditorial

Je retourne au sujet des villes intelligentes, que j’avais déjà commencé à développer dans ma mise à jour du 11 janvier, intitulée « My individual square of land, 9 meters on 9 ». Je me mets, à présent, à rechercher des sources de données que je juge vitales pour le développement des villes intelligentes : densité de population, croissance démographique et prix de l’immobilier. J’ai déjà fait un peu de recherche côté immobilier au sujet de la ville de Lyon – et le projet local baptisé « Confluence » – ainsi que sur Vienne, la capitale d’Autriche, toutes les deux très fortement engagées dans l’investissement en villes intelligentes. J’avais déjà étudié leurs prix locaux de l’immobilier et leurs taux respectifs de croissance démographique. Maintenant, j’ajoute l’information sur la densité de population. Je rappelle que cette variable a été jugée comme vitale par les auteurs du rapport ‘The State of European Cities’ : apparemment, 3000 habitants par km2 est le seuil minimum pour pouvoir envisager des investissements en infrastructure urbaine intelligente. La logique de ce chiffre particulier est simple : c’est le seuil inférieur de densité de population qui détermine le bien-fondé d’investissements en l’infrastructure des transports en commun. En tout cas, selon l’INSEE, la densité de population dans la commune urbaine de Lyon est de 10 583,1 habitants par kilomètre carré . J’en passe sur le sort pas très clair de ce un dixième d’habitant par mètre carré. Ça doit être une expérience étrange, lorsqu’on est un habitant, d’avoir besoin d’être constamment étendu sur 10 km2 pour être un habitant complet. La distance de votre chambre à coucher à votre salle des bains peut s’étendre jusque 141,4213562 mètres, contre un maximum de 13,94321098 mètres pour chacun des 10 583 habitants complets avant la virgule décimale. En tout cas, le deuxième arrondissement de Lyon, celui où le projet « Confluence » commence à voir le jour, se caractérise par une densité de population légèrement inférieure : juste 8 926 habitants par km2 .  Par comparaison, Vienne, en Autriche, associée avec la ville de Lyon dans ce projet des villes intelligentes, montre une densité de population de 4 326,1 habitants par kilomètre carré . Munich, la troisième ville de ce partenariat tripartite, recense recense 4 700 habitants par kilomètre carré .

Intéressant : parmi ces trois villes métropolitaines, engagées toutes les trois dans des projets coordonnés d’investissement en villes intelligentes, la ville de Lyon recense la population la plus dense et elle est la seule des trois où le projet de ville intelligente prend la forme de réaménagement d’un quartier entier. Autre truc qui m’intrigue : à Lyon, l’emplacement exact du projet, le deuxième arrondissement, tout en étant très peuplé, a une densité de population légèrement inférieure à la moyenne de la ville entière. Tout comme si cette différence 10583,1 – 8926 = 1657,1 (ou plus 18,6%) d’habitants par kilomètre carré était une sorte de densité résiduelle, possible à atteindre à travers l’investissement en l’infrastructure de ville intelligente.   Bon, je forme deux hypothèses de travail rapides. Premièrement, l’investissement en l’infrastructure des villes intelligentes a du sens à partir d’une densité de population de 3000 habitants par km2, ça prend de l’élan au-dessus de 4000 habitants sur le kilomètre carré, et ça a des fortes chances de prendre la forme de réaménagement des quartiers entiers lorsqu’on se balance dans 8000 habitants, ou plus, sur leur kilomètre carré statistique moyen. Deuxièmement, l’émergence d’infrastructure de ville intelligente peut entraîner une croissance en densité de population, par un peu plus de 1500 personnes par km2 ou à peu près 18%.

Ces deux hypothèses me permettent déjà de commencer à esquisser mon business plan pour investir en des villes dont l’intelligence a des fortes chances de surpasser celle de certains de leurs habitants. Avant que je m’en prenne à modeler le truc façon économie, voilà encore une poignée de données intéressantes sur le sujet : le rapport d’INSEE intitulé « L’accès aux services, une question de densité des territoires » , ainsi que deux rapports signés EUROSTAT, tout d’abord celui intitulé « Urban Europe 2016 » et ensuite « L’Annuaire régional d’Eurostat ». J’espère bien de retourner à discuter le contenu de tous les trois, sur mon blog, en français ou bien en anglais (dépendra du jour) mais à présent, je modèle. Je me dis que du point de vue business, l’investissement en des villes intelligentes veut dire investissement tout court, donc un bilan. Ce bilan, il s’installe dans une ville sous la forme d’une infrastructure : réseau routier, métro, tramway, bâtiment, réseau sanitaire, approvisionnement en énergie etc. Cette infrastructure élémentaire est ce dont nous avons besoin pour pouvoir nous appeler une ville, mais ce n’est pas tout : nous en avons besoin en une certaine densité par kilomètre carré. Oui, mesdames et messieurs, une ville, ça n’a pas seulement plus de personnes par kilomètre carré que la campagne, mais aussi plus de capital investi dans l’infrastructure, sur le même kilomètre carré. Enfin, pas rigoureusement le même kilomètre, ça peut être bien un autre kilomètre, équivalent, quoi.

En tout cas, une ville, c’est un territoire R habité par une population N et pourvu en infrastructure équivalente en valeur à un montant de capital K. Tout habitat humain se caractérise par des coefficients respectifs N/R et K/R. A propos, je n’en sais rien du second, c’est à dire de la valeur comptable d’infrastructure urbaine. Faudra que je me renseigne. Lorsqu’une ville arrête d’être bête et commence à être intelligente, son bilan change de deux façons. D’une part, il y a de l’infrastructure nouvelle. Des fibres optiques en abondance, c’est certain, ainsi que des transmetteurs haut débit de signal Internet. Avec ça, nous pouvons ajouter des sources génératrices locales d’énergies renouvelables : panneaux solaires, petites turbines hydrauliques, des moulins à vent c’est trop gros mais un système de recirculation d’eau chaude en provenance du refroidissement des gros serveurs (marche en Scandinavie, apparemment). Ça, c’est de l’investissement immédiat en l’infrastructure, qui suggère plus de capital dans le bilan immédiat et qui est l’équivalent urbain d’un diplôme humain : ça suggère la possibilité d’une intelligence latente, mais ne la garantit pas. En plus, c’est comme un cerveau. Ça a besoin de tout le reste du corps et en même temps ça peut transformer ce corps. La présence des connexions intelligentes change la façon dont l’infrastructure urbaine lourde fonctionne. Le réseau des transports en commun, le réseau sanitaire, l’approvisionnement en énergie : tout ça, ça s’adapte à mesure que ça a plus de retour d’information. Tous ces millions d’euros investis en conduits, rails, câbles etc., ça va se réallouer dans l’espace.

Voilà une question intéressante : après que tout soit fait et dit, à long terme, quoi, une ville intelligente contient-elle plus ou bien moins de K/R ? Encore une fois, je n’en sais que dalle sur les valeurs réelles de K/R dans des villes typiques – bêtes ou intelligentes, peu importe – et il faudra que je prenne quelques prisonniers de guerre pour me renseigner là-dessus. Néanmoins, je peux formuler des hypothèses. Par instinct économique, je définis trois périodes distinctes de temps : t-1 ou ville bête d’avant, t0 ou ville intelligente comme je l’ai devant mes yeux et enfin t+1 qui correspond à la ville encore plus intelligente que j’espère dans l’avenir. Ensuite, je pose deux hypothèses alternatives. Premièrement, je peux avoir K/R(t-1) < K/R(t0) < K/R(t+1) : la ville intelligente d’avenir aura plus de capital par kilomètre carré que ses versions précédentes. Deuxièmement et alternativement, il se peut que K/R(t-1) < K/R(t0) et K/R(t+1) < K/R(t-1) donc que la ville encore plus intelligente de l’avenir sera moins pourvue en l’infrastructure lourde que la ville bête du passé, comme elle apprendra à utiliser ladite infrastructure lourde de façon plus intelligente.

Bon, ça commence à prendre une forme cohérente, au moins je l’espère. Je peux traduire mes hypothèses en une structure logique avec des conditions préalables et des changements possibles :

  • ville intelligente, condition nécessaire : N/R > 2999 habitants par km; K/R > X1 € par km2
  • ville intelligente, ça devient intéressant : N/R > 3999 habitants par km2; K/R > X2 € par km2
  • ville intelligente, ça devient politique : N/R > 7999 habitants par km2; K/R > X3 € par km2
  • ville intelligente, ça peut apporter du changement 1500 < ∆N/R < 1700 habitants par km2 ou bien 15% < (∆N/R)/[N/R(t0)] < 20% et en plus
    • K/R(t-1) < K/R(t0) < K/R(t+1)

ou bien

  • K/R(t-1) < K/R(t0) et K/R(t+1) < K/R(t-1)

Bon, ça c’est le côté bilan et maintenant je jette un coup d’œil côté compte d’exploitation. Le retour sur l’investissement en infrastructure urbaine peut prendre deux formes, une directe et une autre plus chic. Façon directe et brutale, je peux vendre l’accès à mon infrastructure sur la base platement commerciale, comme accès à Internet. Néanmoins, si le cousin du beau-frère de mon ami d’école est proche des certains milieux, je peux obtenir une subvention publique qui couvrira une part ou le total des revenus dont j’ai besoin pour avoir un retour décent (indécent ?) sur mon investissement. Dans ce second scénario, les habitants me paient de toute façon mais ils le font indirectement, à travers leurs impôts, et ça s’appelle « partager » (avec le cousin du beau-frère de mon ami d’école) au lieu de « vendre et se faire payer » et quand ça sonne bien c’est toujours mieux. Quoi qu’il en soit au sujet du cousin du beau-frère de mon ami d’école, je peux espérer un flux futur FR(t0 ; t+1) de trésorerie. Avec l’investissement dénoté comme ∆K, en équilibre il faut que ∆K = FR(t0 ; t+1) mais soyons raisonnables : le bon business c’est quand ∆K < FR(t0 ; t+1) .

Le flux FR de trésorerie dépend, bien sûr, du nombre N d’habitants et du revenu disponible D/N par tête d’habitant. Enfin, pas seulement la tête. Les talons-aiguille Manolo Blahnik, ça ne se porte pas sur la tête et il y a même des cas où ça se gagne autrement qu’avec la tête. Quoi qu’il en soit, la population N a un revenu disponible agrégé de D = N*D/N et ce qui importe c’est le revenu disponible D/R = {N*(D/N)}/{N/R} par kilomètre carré de ma ville (votre ville aussi) et c’est important parce que mon flux futur FR(t0 ; t+1) de trésorerie par kilomètre carré, soit FR(t0 ; t+1)/R sera une fraction de ce revenu disponible et cette fraction sera une fonction et ça veut dire FR(t0 ; t+1)/R = f(D/R). A ce moment-là, mon sac à probabilités devient vraiment bien pourvu. La transformation d’une ville bête en une ville intelligente peut influencer pratiquement toutes les variables de l’équation. Il peut y avoir plus de N/R dans une ville intelligente que dans la ville bête d’avant, mais c’est juste une hypothèse. Ces gens peuvent gagner plus par tête mais là aussi, c’est une hypothèse. La fonction qui transforme leur revenu disponible en flux de trésorerie dans la direction d’investisseurs en l’infrastructure de la ville intelligente peut changer sous l’impact de cet investissement-même.

Bon, fini de modeler pour aujourd’hui. Maintenant, faut mettre cette pâte modelée au four et la cuire, pour que ça durcisse. Si ça casse dans la cuisson, cela voudra dire qu’il faut modeler à nouveau.

Ceux parmi vous qui ont bien voulu suivre mon activité de blogger sur l’année dernière ont probablement vu que mon objectif est de créer de la science de bonne qualité, neuve ou presque. Sur mon chemin vers la création d’un site éducatif payant je passe par le stade de financement participatif. Voici le lien hypertexte de mon compte sur Patreon . Si vous vous sentez prêt à cofinancer mon projet, vous pouvez vous enregistrer comme mon patron. Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon projet de création de site éducatif ?

Fringe phenomena, which happen just sometimes

My editorial

I am focusing on the Fintech industry, and I continue studying that report by Pricewaterhouse Coopers, entitled “Global FinTech Report 2017. Redrawing the lines: FinTech’s growing influence on Financial Services” . I started studying this report in my last update in French (see Quatorze mâles avec le gène Fintech ), and, just for the sake of delivering interesting information, I am reproducing, in English, the table with percentages of incidence as regards partnerships with FinTech companies (table 1, below). Still, I want to focus on another topic. Further below, in Table 2, I reproduce the contents of Figure 7, page 8, in that report. It is supposed to show the attitudes that FinTech companies, and incumbent financial institutions have as for working with each other. This is quite a piece of information: simple at the first glance, bloody cryptic when you really think about it. You can see there one of those tables (in the source report this is a graph, but it does not really help), with a structure much more complex than the content it conveys. I want to use this piece of empirical data as a pretext to discuss the mathematical and logical interpretation I would use to tackle this type of information, i.e. poll percentages. Hence, I invite you to scroll through both tables and I invite you to follow up my analysis, below the table no. 2.My editorialMy editorial

Table 1 Incidence of partnerships with FinTech companies, in the PwC survey 2017

Country Percentage of respondents currently engaging in partnerships with FinTech companies Percentage of respondents expecting to increase partnerships over the next three to  ve years
Germany 70% 78%
Belgium 69% 81%
Netherlands 65% 85%
Australia & New Zealand 64% 83%
South Africa 63% 96%
Canada 62% 88%
Finland 62% 100%
Singapore 62% 89%
Switzerland 59% 82%
Indonesia 55% 94%
Russia 54% 74%
United States 53% 88%
Taiwan 52% 68%
Argentina 50% 83%
France 45% 90%
Global 45% 82%
Poland 44% 64%
United Kingdom 44% 81%
Hungary 43% 74%
India 42% 95%
Luxembourg 42% 83%
Italy 41% 84%
China mainland 40% 68%
Ireland 40% 71%
Hong Kong SAR 37% 82%
Denmark 36% 81%
Mexico 31% 81%
Brazil 30% 72%
Japan 30% 91%
Colombia 25% 93%
Turkey 22% 76%
South Korea 14% 76%

Source: “Global FinTech Report 2017. Redrawing the lines: FinTech’s growing influence on Financial Services”

Table 2 When working with Financial Institutions (or FinTech companies), what challenges do you face?

Working with FinTech companies

Working with the incumbent financial institutions
Field of cooperation

Current score in 2017

Change regarding 2016 Current score in 2017

Change regarding 2016

IT Security


-1% 58%


Regulatory uncertainty


5% 54%


Differences in management and culture





Differences in business models


9% 35%


IT compatibility


5% 34%


Differences in operational processes


-11% 24%


Differences in knowledge and skills


3% 24%


Required financial investments 16% -12% 17%


Source: “Global FinTech Report 2017. Redrawing the lines: FinTech’s growing influence on Financial Services”

Good. You’ve rummaged (intellectually, I mean) through both tables, and now I am focusing on table 2. I am giving here my own interpretation of the data at hand, which is not the same as presented in the source report. Firstly, the basic assumption that I can derive from the data in question is that PwC asked both some FinTech companies, and some classical financial institutions, how they get along with each other. The questioning visibly implied that it is not all rose petals and little angels, and there is tough s**t to handle, on both sides. The typical challenges are enumerated in the left column, under the heading ‘Field of cooperation’. Once again, this is a typical case of Ockham’s razor: I have no clue as for how those fields of cooperation have been defined. They could have resulted from open, in depth-interviews, or could have been defined a priori, whatever: I take what I see. They are linguistic pieces of meaning that some people considered intelligible enough to answer questions about, and this is all I need to know at the starting point.

And thus we come by any percentage we want in that table and we ask a legitimate question: “So what?”. Such type of percentages is based on the Aristotelian logic of the excluded third, i.e. anything we encounter in this world can be A or non-A. The supervisor of my Master’s thesis in law, professor Studnicki, used to tease us, his students, with those mindf***ing games in the lines of: “All the phenomena in the universe are either pink elephants or non-pink-elephants. Prove me wrong”. It was bloody hard to prove him wrong. This is probably what made him a professor. Anyway, Aristotelian logic comes handy regarding basic distinctions, as it does not burden us with too many of them. There is just one. Yet, what Aristotle used to train the minds of young, ancient aristocrats requires some deeper understanding. Suppose I ask you: “Do you consider differences in business models as a challenge in cooperating with FinTech companies?”, and you can answer just with a YES or a NO, without any further opportunity to enter into nuanced judgments. I ask the same question to like 100 other people. As a result, X% of them say YES, and Y% = 1 – X% say NO. The 1 – X% part is crucial here: each of the percentages X in table 2 (just as in table 1, by the way) makes a closed universe together with its opposite 1 – X. We call it a logical division, both complete (it covers the whole universe) and separable (no overlapping between the classes defined). Mathematically, we translate it as the probability X% of scoring a success in a trial, versus the 1 – X% probability of suffering a failure. In mathematics, we use the binomial distribution to understand such situations. You can check the mathematical details with Wikipedia (formal, quite complete an exposition) or with the Khan academy .  What I want to discuss is the practical logic behind the equations.

In the first place, it is legitimate to ask ‘Why the binomial distribution? Why not something like the Gaussian, normal distribution or any other distribution, as we are talking about it?’. Well, we have just A and non-A, happening with the respective probabilities of X%, and 1 – X%. This is all we have. If you calculate the mean of X% and 1 – X%, you always end up with 50%. Any parametric distribution is close to meaningless in such cases. The binomial one is the only practical logic we can apply in order to understand the situation. Thus, we go with the binomial logic. The interviewer asks a sample of people from FinTech companies what do they think about differences in knowledge and skills when working with the incumbent financial institutions (first numerical column in table 2, second row from the bottom); 33% of them say ‘Yes, this is a challenge’ and 1 – 33% = 67% say ‘No problem whatsoever’ or something similar. Provisionally, I label the former answer as a success in the experiment, and the latter as a failure. On 100 trials, the interviewer scored 33 successes and 67 failures. How could it have happened? How could those 33 successes take place on 100 trials? The binomial distribution says that the probability of having k successes on n trials is defined as P(k; n, p) = (n!/k!*(n – k)!)*pk*(1 – p)n-k (the exclamation mark means a factorial, i.e. 1*2*…*n etc.). It further means that there is some kind of underlying probability p of having any given respondent saying ‘Yes, this is a challenge’, and there is (100!/33!*(100 – 33)!) = 294 692 427 022 541 000 000 000 000,00    ways of having that underlying probability happening 33 times on 100.

That makes a lot of ways of happening, more than people on Earth. Seeing this number could make you turn intuitively towards an attempt to extract that underlying probability from the equation. Legitimate goal, indeed, and yet I want to attract your attention to something else. If I change the proportion between the number of successes and that of failures, so if I take e.g. the incidence of people from FinTech companies mentioning IT security as a challenge when working with incumbent financial institutions, and I have that 58%, it means that on 100 people interviewed, I have (100!/58!*(100 – 58)!) = 28 258 808 871 162 600 000 000 000 000,00 ways of having that happening, which is two orders of magnitude more than in the previous case. Of course, these (n!/k!*(n – k)!) values are pretty abstract, and still they show an important aspect of the situation at hand: different distributions of percentages in the Aristotelian logic of excluded third correspond to different degrees of variety in the possinble ways those percentages can happen in real life. If I take a question, which yields ‘Yes, you were correct in your intuition, dear Interviewer’ in 98 cases on 100, I have just (100!/98!*(100 – 98)!) = 4 950 ways of having it happening. If I have something like the electoral results of some politicians I know of, i.e. 99% of support from those voters who are sensible enough not to deny their support (happens in some countries), I have barely (100!/99!*(100 – 99)!) = 100 ways it can possibly take place.

Do you understand? The greater the percentage of something that I qualify as a success (generally, the positive happening of that something), the less distinct ways this percentage can occur. Conversely, the less probable is that occurrence, the more distinct ways it can happen. Big, respectable percentages in table 2, like 58% or 48%, mean that whatever are their underlying mechanisms, they are relatively more unified in terms of patterns in human behaviour than the small percentages, like 16%. Small incidences can happen in more ways than big incidences. Counterintuitive? Apparently, yes. Yet, as you think about it, more robust a logic raises its head. If anything happens quite frequently, like atoms happening in the same spot in space-time in the chair I am sitting on, the structure supporting the happening is relatively stable. My chair is stable: I took it to the carpenter, recently, and he fixed that wobbly leg. If something else happens pretty seldom, like an atom of oxygen in the outer space, the supporting structure must be pretty unstable. Here, it becomes logical. Big, stable, central phenomena, which happen in 99 cases on 100, and make me believe there is any point in all that process called ‘living’, are all based on some stable, predictable structures. Fringe phenomena, on the other hand, which happen just sometimes and their sometimes is really choosy in its happening, are based on ephemeral structures in reality.

This is deep philosophy. How could I have got there, starting from those percentages supplied by Pricewaterhouse Coopers? I still wonder.

One more thing. I am working on launching that fully fledged, business-based educational website of my own. If you follow my blog for some time, you can see I am doing by best to stay consistent in documenting my research in a hopefully interesting form. Right now, I am at the stage of crowdfunding. You can consider going to my Patreon page and become my patron. If you decide so, I will be grateful for suggesting me two things that Patreon suggests me to suggest you. Firstly, what kind of reward would you expect in exchange of supporting me? Secondly, what kind of phases would you like to see in the development of my research, and of the corresponding educational tools?

Quatorze mâles avec le gène Fintech

Mon éditorial

Je continue à préciser mon champ de recherche pour 2018. Je sais déjà que je me concentre sur quatre domaines, partiellement liées l’une à l’autre : les villes intelligentes, le Fintech, les énergies renouvelables et le phénomène d’intelligence collectives. Je sais qu’à part la recherche proprement dite, je veux développer un produit pédagogique où j’enseignerai les sciences sociales par le moyen d’engager mes clients-étudiants dans ma propre recherche. Je sais aussi que cet enseignement aura pour base l’observation et l’analyse empirique des variables suivantes : densité de population, croissance démographique, prix de l’immobilier, la taille des soldes et des flux du Fintech comme pourcentage du PIB, la consommation finale de l’énergie, la part d’énergies renouvelables dans ladite consommation finale, l’amortissement agrégé d’actifs fixes comme pourcentage du PIB et finalement le développement des institutions que je juge significatives pour étudier le phénomène d’intelligence collective.

Je suis d’humeur exploratrice et je combine des différentes sortes de données empiriques. Je prends donc le rapport sur l’industrie Fintech par PWC , intitulé « Global FinTech Report 2017. Redrawing the lines: FinTech’s growing influence on Financial Services ». En général, le rapport présente les résultats d’une enquête conduite par Pricewaterhouse Coopers parmi les entreprises liées directement ou indirectement à la finance. Voilà que je trouve un graphique à la page 7. C’est le graphique no. 6, qui montre la distribution de deux variables :

  1. Le pourcentage des compagnies enquêtées, couramment engagées dans des partenariats avec les compagnies Fintech
  2. Le pourcentage des compagnies enquêtées qui espèrent d’accroître leur participation dans des partenariats avec les compagnies Fintech dans les 3 – 5 années à venir

Je reproduis le contenu de ce graphique 6 dans Tableau 1, ci-dessous. Comme je suis en train de me lancer dans la carrière d’un pédagogue en ligne (pédagogue aligné ?), j’ai envie de faire un peu de travail pédagogique avec ces données. Je suis mes envies et je suis dans ma foulée et je vous revois à l’autre bout du Tableau 1, un peu plus loin ci-dessous.

Tableau 1

Pays Pourcentage des compagnies enquêtées couramment engagées dans des partenariats avec les compagnies Fintech Pourcentage des compagnies enquêtées qui espèrent d’accroître leur participation dans des partenariats avec les compagnies Fintech dans les 3 – 5 années à venir
Allemagne 70% 78%
Belgique 69% 81%
Pays-Bas 65% 85%
Australie et Nouvelle Zelande 64% 83%
Afrique du Sud 63% 96%
Canada 62% 88%
Finlande 62% 100%
Singapore 62% 89%
Suisse 59% 82%
Indonésie 55% 94%
Fédération Russe 54% 74%
Etats Unis 53% 88%
Taiwan 52% 68%
Argentine 50% 83%
France 45% 90%
Monde – moyenne 45% 82%
Pologne 44% 64%
Royaume Uni 44% 81%
Hongrie 43% 74%
Inde 42% 95%
Luxembourg 42% 83%
Italie 41% 84%
Chine continentale 40% 68%
Irlande 40% 71%
Hong Kong SAR 37% 82%
Danemark 36% 81%
Mexique 31% 81%
Brésil 30% 72%
Japon 30% 91%
Colombie 25% 93%
Turquie 22% 76%
Corée du Sud 14% 76%

Source : dernier accès 26 Janvier 2018

Bon, allons-y avec l’analyse. Tout d’abord, essayons de comprendre ce que le poète a bien voulu dire. En l’occurrence, le poète c’est la société de conseil Pricewaterhouse Coopers et le poème c’est la signification de ces deux pourcentages. Un pourcentage est la fréquence avec laquelle quelque chose survient. Prenons l’échantillon complet des compagnies enquêtées par PwC. Dans cet échantillon, certaines compagnies sont couramment engagées dans des partenariats avec les compagnies Fintech, pendant que d’autres ne le sont pas. C’est comme un gène dans l’ADN d’une entité vivante. Ça peut être branché ou débranché, ce que nous pouvons noter mathématiquement comme, respectivement, 1 ou 0. La même chose pour ce second pourcentage : celui des compagnies enquêtées qui espèrent d’accroître leur participation dans des partenariats avec les compagnies Fintech dans les 3 – 5 années à venir. Encore une fois, c’est un gène qui peut être en position active (1) ou passive (2). Nous avons donc deux gènes distribués dans la population générale d’entités interviewées par PwC et deux variables digitales, notées sur une échelle discrète binomiale {0, 1}. Du point de vue mathématique, le truc le plus immédiat que je peux faire avec une variable binomiale consiste à dresser une distribution binomiale classique de Bernoulli ou bien une distribution Bayésienne. Du point de vie cognitif, si j’ai quelque chose qui ressemble à un code génétique, je me pose deux questions : est-ce que ce que j’ai devant mes yeux est un code complet ou juste le fragment d’un tel code et, d’autre part, comment ce code (fragment de code) peut bien se transmettre de génération en génération ?

Je développe, d’abord, sur la méthode génétique, pour aller ensuite vers les maths des distributions binomiales. Est-ce que le contenu du Tableau 1 reflète un code génétique complet ou est-ce juste le fragment d’un code ? Intuitivement je peux dire, et ceci avec beaucoup de certitude, que c’est juste un fragment. Les entreprises et les institutions financières ont beaucoup plus des caractéristiques importantes à part ces deux traits exprimés dans l’enquête. Si j’ai juste le fragment du code génétique d’un dinosaure, le truc vraiment chouette est de découvrir les gènes manquants et de reconstruire l’ADN en entier. Est-ce un carnassier féroce, partant pour une carrière hollywoodienne, ou bien est-ce un herbivore paisible, fait tout au plus pour des rôles de second plan ? Tableau 1 m’inspire à chercher les gènes manquants qui font : a) une organisation engagée en partenariat avec un fournisseur de technologie Fintech b) une organisation qui envisage un accroissement de participation dans un tel partenariat.

Dans la recherche de ces gènes frappants par leur absence, un peu de logique peut servir. Si je compare les valeurs numériques dans les deux colonnes de tableau 1, le pourcentage dans la colonne de droite est toujours plus grand que celui dans la colonne de gauche. Le gène de droite est enclenché plus fréquemment que le gène de gauche et j’écris ceci sans l’ombre d’une allusion politique. Logiquement, il peut y avoir quatre cas de figure. Premièrement, une compagnie peut être déjà engagée dans un partenariat avec un fournisseur Fintech et « accroître la participation » a un sens littéral. C’est le cas de deux gènes enclenchés en même temps. Notons-le comme FH(t) = 1 et FHe(t) = 1. Le symbole FH(t) veut la présence ou l’absence de partenariat Fintech au moment donné t; par analogie, FHe(t) symbolise la présence ou l’absence des plans d’accroître la participation. Le « e » en registre de bas est une référence sentimentale au terme « espéré » dans les sciences économiques. Deuxièmement, une organisation n’a pas de tel partenariat dans son portefeuille d’affaires et « accroître » veut dire « démarrer de zéro ». Là, le gène FH(t) est dans la position FH(t) = 0 et le gène FHe(t) est enclenché en FHe(t) = 1.  Troisièmement, une compagnie est déjà engagée dans un tel partenariat et elle se sent repue avec, sans stratégie d’accroissement de participation, donc j’ai FH(t) = 1 et FHe(t) = 0. Finalement, il peut y avoir des cas de FH(t) = 0 et FHe(t) = 0 donc pas de partenariat et pas de plans.

Je passe au mécanisme de transmission génétique. Le Fintech est un phénomène d’origine récente. En termes d’ADN du business, c’est une mutation. Elle a pu avoir lieu de deux façons distinctes : soit comme le réveil d’un gène récessif, longtemps assoupi, soit comme une mutation spontanée complètement nouvelle. Quoi qu’il en soit, ces pourcentages dans le tableau 1 ont tous une histoire : leurs valeurs respectives reflètent l’état courant des processus qui les ont créés. Si dans mon pays, la Pologne, 44% d’institutions enquêtées déclarent avoir un partenariat avec un fournisseur Fintech, je peux être presque certain qu’avant ça il y avait un moment avec 34%, encore plus tôt il y en avait un marqué par 24% et ainsi de suite. Toute histoire est une concurrence des séquences différentes qui produisent des évènements différents. Je veux dire qu’il y a quelques 4 155 000 entreprises en Pologne, dont à peu près 33 000 (8%) sont suffisamment grandes pour penser de créer des partenariats Fintech. Quarante-quatre pourcent de 33 000 fait 14 520 entités. Je peux appliquer la même logique à la France. Selon INSEE en mars 2017 il y avait 4 226 488 entreprises en France et en gardant les mêmes proportions j’assume que dans cette population générale quelques 0,8% – soit 33 600 – sont de taille suffisante pour s’engager dans des partenariats Fintech. Tableau 1 me dit que 45% de parmi eux sont effectivement engagés dans de tels partenariats, ce qui fait 15 100 entités. Un autre pays, la Belgique, en tête de liste en termes de fréquence des partenariats Fintech. La Belgique, c’est une population d’à peu près 210 000 entreprises et j’applique le même calcul à cette population. Le noyau dur des grands costauds, capables de s’engager dans des partenariats Fintech : 0,8% de la population générale fait 1682 entités et les 69% indiqués dans tableau 1 fait 1 160.

Je viens d’estimer, très grossièrement, il est vrai, trois populations nationales d’entreprises engagées dans des partenariats Fintech : Pologne, France, Belgique. Si je veux reconstruire leur génome complet, je peux suivre les types d’histoires individuelles qui les ont amenés à former de tels partenariats. Ensuite, je pourrai me demander comment ces types de biographies d’affaires ont bien pu se reproduire dans 69% des cas enquêtés en Belgique et seulement dans 45% en France. Quel est le mécanisme qui a bâti ces pourcentages et ces populations d’entreprises ? Bien sûr, la question reste ouverte. Encore, j’ai une bonne occasion pour montrer les traits distinctifs de la méthode évolutionniste, que je viens de suggérer fortement à travers cette métaphore de gènes. J’ai déjà mentionné dans l’une de mes mises à jour précédentes, celle intitulée “Une courbe élégante en « S » aplati” , que le modèle classique pour simuler la propagation d’une nouvelle technologie est celui de la contagion, qui est la reproduction d’un organisme, pas la propagation d’un gène. Si je veux appliquer la logique évolutionniste, j’ai besoin d’une optique légèrement différente. L’histoire approchée en des termes évolutionnistes est une séquence de générations, dont la succession repose sur la reproduction sexuée. Il y a des entités mâles et des entités femelles. Le mâle ici c’est l’entité qui donne l’information sur le concept de finance à pratiquer et la femelle c’est le capitaliste – individuel ou institutionnel – qui finance l’application de l’idée. Supposons que le Fintech est une mutation. A l’aube de temps il n’y avait que des mâles sans gène Fintech et à un certain moment – faute d’une meilleure idée disons que c’était le 3 janvier 2009, la date départ de Bitcoin – quatorze mâles avec le gène Fintech étaient apparus, qui étaient les 14 premières adresses enregistrées dans le réseau. Le 17 août 2010, le Bitcoin a eu sa première cotation en dollars américains, donc c’est à ce moment-là que la reproduction capitaliste de l’idée a commencé. A l’époque il y avait quelque 300 – 500 adresses dans le réseau. Question (apparemment) bête : comment une mutation spontanée avait-elle pu se propager de 14 adresses jusqu’atteindre 300 ? En retournant à mes populations d’entreprises, et en passant (momentanément) sur l’exactitude de ces estimations, si je veux étudier ces populations en des termes génétiques et évolutionnistes, j’ai besoin d’une donnée importante : quelle génération consécutive avons-nous devant nos yeux ? Ces populations représentent-elles la première génération des porteurs du gène FH(t) = 1 ou bien sont-elles des descendants de ladite première génération ?

Maintenant, je change de sujet. Ceux parmi vous qui ont bien voulu suivre mon activité de blogger sur l’année dernière ont probablement vu que mon objectif est de créer de la science de bonne qualité, neuve ou presque. Sur mon chemin vers la création d’un site éducatif payant je passe par le stade de financement participatif. Voici le lien hypertexte de mon compte sur Patreon . Si vous vous sentez prêt à cofinancer mon projet, vous pouvez vous enregistrer comme mon patron. Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon projet de création de site éducatif ?

The other cheek of business

My editorial

I am turning towards my educational project. I want to create a step-by-step teaching method, where I guide a student in their learning of social sciences, and this learning is by doing research in social sciences. I have a choice between imposing some predefined topics for research, or invite each student to propose their own. The latter seems certainly more exciting. As a teacher, I know what a brain storm is, and believe: a dozen dedicated and bright individuals, giving their ideas about what they think it is important to do research about, can completely uproot your (my own?) ideas as what it is important to do research about. Still, I can hardly imagine me, individually, handling efficiently all that bloody blissful diversity of ideas. Thus, the first option, namely imposing some predefined topics for research, seems just workable, whilst still being interesting. People can get creative about methods of research, after all, not just about topics for it. Most of the great scientific inventions was actually methodology, and what was really breakthrough about it consisted in the universal applicability of those newly invented methods.

Thus, what I want to put together is a step-by-step path of research, communicable and teachable, regarding my own topics for research. Whilst I still admit the possibility of student-generated topics coming my way, I will consider them as a luxurious delicacy I can indulge in under the condition I can cope with those main topics. Anyway, my research topics for 2018 are:

  1. Smart cities, their emergence, development, and the practical ways of actually doing business there
  2. Fintech, and mostly cryptocurrencies, and even more mostly those hybrid structures, where cryptocurrencies are combined with the “traditional” financial assets
  • Renewable energies
  1. Social and technological change as a manifestation of collective intelligence

Intuitively, I can wrap (I), (II), and (III) into a fancy parcel, decorated with (IV). The first three items actually coincide in time and space. The fourth one is that kind of decorative cherry you can put on a cake to make it look really scientific.

As I start doing research about anything, hypotheses come handy. If you investigate a criminal case, assuming that anyone could have done anything anyhow gives you certainly the biggest possible picture, but the picture is blurred. Contours fade and dance in front on your eyes, idiocies pop up, and it is really hard to stay reasonable. On the other hand, if you make some hypotheses as for who did what and how, your investigation gathers both speed and sense. This is what I strongly advocate for: make some hypotheses at the starting point of your research. Before I go further with hypothesising on my topics for research, a few preliminary remarks can be useful. First of all, we always hypothesise about anything we experience and think. Yes, I am claiming this very strongly: anything we think is a hypothesis or contains a hypothesis. How come? Well, we always generalise, i.e. we simplify and hope the simplification will hold. We very nearly always have less data than we actually need to make the judgments we make with absolute certainty. Actually, everything we pretend to claim with certainty is an approximation.

Thus, we hypothesise intuitively, all the time. Now, I summon the spirit of Milton Friedman from the abyss of pre-Facebook history, and he reminds us the four basic levels of hypothesising. Level one: regarding any given state of nature, we can formulate an indefinitely great number of hypotheses. In practice, there is infinitely many of them. Level two: just some of those infinitely many hypotheses are checkable at all, with the actual access to data I have. Level three: among all the checkable hypotheses, with the data at hand, there are just some, regarding which I can say with reasonable certainty whether they are true or false. Level four: it is much easier to falsify a hypothesis, i.e. to say under what conditions it does not hold at all, than to verify it, i.e. claiming under what conditions it is true. This comes from level one: each hypothesis has cousins, who sound almost exactly the same, but just almost, so under given conditions many mutually non-exclusive hypotheses can be true.

Now, some of you could legitimately ask ‘Good, so I need to start with formulating infinitely many hypotheses, then check which of them are checkable, then identify those allowing more or less rigorous scientific proof? Great. It means that at the very start I get entangled for eternity into checking how checkable is each of the infinitely many hypotheses I can think of. Not very promising as for results’. This is legit to say that, and this is the reason why, in science, we use that tool known as the Ockham’s razor. It serves to give a cognitive shave to badly kept realities. In its traditional form it consists in assuming that the most obvious answer is usually the correct one. Still, as you have a closer look at this precise phrasing, you can see a lot of hidden assumptions. It assumes you can distinguish the obvious from the dubious, which, in turn, means that you have already applied the razor beforehand. Bit of a loop. The practical way of wielding that razor is to assume that the most obvious thing is observable reality. I start with finding my bearings in reality. Recently, I gave an example of that: check ‘My individual square of land, 9 meters on 9’  . I look around and I assess what kind of phenomena, which, at this stage of research, I can intuitively connect to the general topic of my research, and which I can observe, measure, and communicate intelligibly about. These are my anchors in reality.

I look at those things, I measure them, and I do my best to communicate by observations to other people. This is when the Ockham’s razor is put to an ex post test: if the shave has been really neat, other people can easily understand what I am communicating. If I and a bunch of other looneys (oops! sorry, I wanted to say ‘scientists’) can agree on the current reading of the density of population, and not really on the reading of unemployment (‘those people could very well get a job! they are just lazy!), then the density of population is our Ockham’s razor, and unemployment not really (I love the ‘not really’ expression: it can cover any amount of error and bullshit). This is the right moment for distinguishing the obvious from the dubious, and to formulate my first hypotheses, and then I move backwards the long of the Milton Friedman’s four levels of hypothesising. The empirical application of the Ockham’s razor has allowed me to define what I can actually check in real life, and this, in turn, allows distinguishing between two big bags, each with hypotheses inside. One bag contains the verifiable hypotheses, the other one is for the speculative ones, i.e. those non-verifiable.

Anyway, I want my students to follow a path of research together with me. My first step is to organize the first step on this path, namely to find the fundamental, empirical bearings as for those four topics: smart cities, Fintech, renewable energies and collective intelligence. The topic of smart cities certainly can find its empirical anchors in the prices of real estate, and in the density of population, as well as in the local rate of demographic growth. When these three dance together – once again, you can check ‘My individual square of land, 9 meters on 9’ – the business of building smart cities suddenly gets some nice, healthy, reddish glow on its cheeks. Businesses have cheeks, didn’t you know? Well, to be quite precise, businesses have other cheeks. The other cheek, in a business, is what you don’t want to expose when you already get hit somewhere else. Yes, you could call it crown jewels as well, but other cheek sounds just more elegantly.

As for Fintech, the first and most obvious observation, from my point of view, is diversity. The development of Fintech calls into existence many different frameworks for financial transactions in times and places when and where, just recently, we had just one such framework. Observing Fintech means, in the first place, observing diversity in alternative financial frameworks – such as official currencies, cryptocurrencies, securities, corporations, payment platforms – in the given country or industry. In terms of formal analytical tools, diversity refers to a cross-sectional distribution and its general shape. I start with I taking a convenient denominator. The Gross Domestic Product seems a good one, yet you can choose something else, like the aggregate value of intellectual property embodied in selfies posted on Instagram. Once you have chosen your denominator, you measure the outstanding balances, and the current flows, in each of those alternative, financial frameworks, in the units of your denominator. You get things like market capitalization of Ethereum as % of GDP vs. the supply of US dollar as % of its national GDP etc.

I pass to renewable energies, now. When I think about what is the most obviously observable in renewable energies, it is a dual pattern of development. We can have renewable sources of energy supplanting fossil fuels: this is the case in the developed countries. On the other hand, there are places on Earth where electricity from renewable sources is the first source of electricity ever: those people simply didn’t have juice to power their freezer before that wind farm started up in the whereabouts. This is the pattern observable in the developing countries. In the zone of overlapping, between those two patterns, we have emerging markets: there is a bit of shifting from fossils to green, and there is another bit of renewables popping up where nothing had dared to pop up in the past. Those patterns are observable as, essentially, two metrics, which can possibly be combined: the final consumption of energy per capita, and the share of renewable sources in the final consumption of energy. Crude as they are, they allow observing a lot, especially when combined with other variables.

And so I come to collective intelligence. This is seemingly the hardest part. How can I say that any social entity is kind of smart? It is even hard to say in humans. I mean, virtually everybody claims they are smart, and I claim I’m smart, but when it comes to actual choices in real life, I sometimes feel so bloody stupid… Good, I am getting a grip. Anyway, intelligence for me is the capacity to figure out new, useful things on the grounds of memory about old things. There is one aspect of that figuring out, which is really intriguing my internal curious ape: the phenomenon called ultra-socialisation, or supersocialisation. I am inspired, as for this one, by the work of a group of historians: see ‘War, space, and the evolution of Old World complex societies’ (Turchin et al. 2013[1]). As a matter of fact, Jean Jacques Rousseau, in his “Social Contract”, was chasing very much the same rabbit. The general point is that any group of dumb assholes can get social on the level of immediate gains. This is how small, local societies emerge: I am better at running after woolly mammoths, you are better at making spears, which come handy when the mammoth stops running and starts arguing, and he is better at healing wounds. Together, we can gang up and each of us can experience immediate benefits of such socialisation. Still, what makes societies, according to Jean Jacques Rousseau, as well as according to Turchin et al., is the capacity to form institutions of large geographical scope, which require getting over the obsession of immediate gains and provide long-term, developmental a kick. What is observable, then, are precisely those institutions: law, state, money, universally enforceable contracts etc.

Institutions – and this is the really nourishing takeaway from that research by Turchin et al. (2013[2]) – are observable as a genetic code. I can decompose institutions into a finite number of observable characteristics, and each of them can be observable as switched on, or switched off. Complex institutional frameworks can be denoted as sequences of 1’s and 0’s, depending on whether the given characteristics is, respectively, present or absent. Somewhere between the Fintech, and collective intelligence, I have that metric, which I found really meaningful in my research: the share of aggregate depreciation in the GDP. This is the relative burden, imposed on the current economic activity, due to the phenomenon of technologies getting old and replaced by younger ones. When technologies get old, accountants accounts for that fact by depreciating them, i.e. by writing off the book a fraction of their initial value. All that writing off, done by accountants active in a given place and time, makes aggregate depreciation. When denominated in the units of current output (GDP), it tends to get into interesting correlations (the way variables can socialize) with other phenomena.

And so I come with my observables: density of population, demographic growth, prices of real estate, balances and flows of alternative financial platforms expressed as percentages of the GDP, final consumption of energy per capita, share of renewable energies in said final consumption, aggregate depreciation as % of the GDP, and the genetic code of institutions. What I can do with those observables, is to measure their levels, growth rates, cross-sectional distributions, and, at a more elaborate level, their correlations, cointegrations, and their memory. The latter can be observed, among other methods, as their Gaussian vector autoregression, as well as their geometric Brownian motion. This is the first big part of my educational product. This is what I want to teach my students: collecting that data, observing and analysing it, and finally to hypothesise on the grounds of basic observation.

[1] Turchin P., Currie, T.E.,  Turner, E. A. L., Gavrilets, S., 2013, War, space, and the evolution of Old World complex societies, Proceedings of The National Academy of Science, vol. 110, no. 41, pp. 16384 – 16389

[2] Turchin P., Currie, T.E.,  Turner, E. A. L., Gavrilets, S., 2013, War, space, and the evolution of Old World complex societies, Proceedings of The National Academy of Science, vol. 110, no. 41, pp. 16384 – 16389

Prudemment formuler deux conditions d’équilibre

Mon éditorial

Dans ma recherche, je me concentre provisoirement sur un sujet qui émerge un peu par lui-seul : le Fintech. C’est une sacrée bête, ce Fintech, un peu comme Marsupilami : il est même difficile de dire exactement qu’est-ce que c’est, tout ce bazar de Fintech. Lorsque mes étudiants me posent la question « Qu’est-ce que le Fintech ? » et ils attendent une réponse simple, eh bien, ils peuvent bien attendre. Si j’en avais une, de réponse simple, je la donnerais volontiers, seulement je n’en ai pas. Enfin, si, j’en ai une, mais elle est à peine intelligible : « le Fintech consiste à utiliser une plateforme de technologie numérique pour organiser des transactions financières, souvent avec l’utilisation de la technologie Blockchain ». Charmante dans sa brièveté, cette réponse, et lorsque je la donne à mes étudiants, leur réaction est celle de quelqu’un qui vient d’entendre quelque chose de complètement incompréhensible et néanmoins veut faire semblant de comprendre parfaitement. « Une plateforme de technologie numérique pour organiser des transactions financières ? Bien sûr ! Alors là, c’est clair. Donc une carte bancaire, c’est du Fintech ? ». Ouais, comment répondre à ça ? Oui et non, en principe. Oui, un système de cartes bancaires c’est une technologie numérique qui sert à organiser des transactions financières, seulement, comment le dire ? Un système des cartes bancaires est au Fintech ce qu’une hache est à un robot industriel dans une scierie et en plus, ce robot est doté d’intelligence artificielle.

C’est précisément cet aspect d’intelligence qui est le trait distinctif de Fintech par rapport aux technologies telles que les cartes bancaires. Je parle d’intelligence artificielle en tant que technologie mais ce qui est au moins aussi important dans le Fintech est le phénomène beaucoup plus diffus et néanmoins plus fondamental d’intelligence collective des réseaux d’utilisateurs. Ce le point essentiel de de cet article par Satoshi Nakamoto, le fondateur mystérieux de Bitcoin : le comportement des participants dans un réseau pair à pair de paiements électroniques forme une barrière tout aussi efficace contre des actions frauduleuses que celle offerte par les technologies d’encryptage. Je peux donc enrichir ma définition de Fintech :  c’est une méthode d’organiser l’activité économique, avec l’aide d’une plateforme de technologie numérique, souvent basée sur le principe de Blockchain, où un certain type des comportements dans un réseau de participants est garant de la stabilité d’un réseau des transactions financières, qui, à leur tour, rendent possible le transfert de capital dans le réseau des participants. Je vous avais dit : si vous attendez une réponse simple à propos de ce qu’est le Fintech, je n’en ai pas. J’en ai une qui est bien compliquée et abstraite, mais voilà toute l’importance de la pensée abstraite : lorsque j’ai affaire à des phénomènes à peine intelligibles pour mon propre cerveau – et ce cerveau à moi, je le partage avec mon singe curieux, mon bouledogue joyeux et mon moine discipliné, et ça fait du monde dans un seul cerveau – j’ai besoin de raccourcis intellectuels, de quelque étiquette générale que je peux provisoirement coller sur un fragment de réalité. Le premier fragment de réalité en question, le voilà : il y a des gens qui créent des technologies numériques, qui, à leur tour, rendent possible un réseau des paiements pair à pair, c’est-à-dire sans l’intermédiation d’une institution financière, ainsi que sans garantie de liquidité offerte par une telle institution. Ça, ce sont les velociraptors de Fintech : les crypto-monnaies. A première vue, il faudrait être fou pour s’engager dans un tel système et néanmoins il y en a pas mal de fous comme ça. Le 17 août 2010, lorsque la première crypto-monnaie, le fameux Bitcoin, a été cotée contre le dollar américain pour la première fois, il y avait déjà quelques 400 participants systématiques dans le jeu. En d’autres mots : il y a toujours une poignée de clients qui s’engagent volontiers dans un système des paiements nouveau même si le système en question repose sur un paradoxe : sa solidité dépend du nombre des gens qui le joignent et qui veulent bien jouer réglo. Une fois que ces pionniers s’y soient engagés, ils forment la base même du réseau et facilitent ainsi l’entrée des participants moins téméraires, certes, mais plus fidèles à long terme.

Le code génétique des crypto-monnaies peut se combiner avec celui de la finance traditionnelle. C’est ainsi qu’émergent des systèmes des paiements rapides en ligne, comme PayPal ou PayZen. Les technologies d’encryptage caractéristiques aux crypto-monnaies y sont combinées avec la présence des banques comme garants des paiements. Moi, je m’intéresse plus particulièrement à une autre espèce hybride : des crypto-monnaies attachées aux actifs financiers. Récemment, j’avais remarqué le démarrage d’un projet intéressant dans ce domaine, en Estonie, sous le nom de WePower . L’idée centrale est d’émettre une crypto-monnaie dont chaque unité (le soi-disant token) est attachée à un contrat à terme pour le futur achat d’une kilowatt heure d’électricité des sources renouvelables. Un token = 1 kWh dans l’avenir. L’intention de cette structure est de créer un flot de capital vers les créateurs des centrales électriques basées sur les énergies renouvelables. En vendant aujourd’hui leur puissance fournie dans l’avenir, WePower crée un mécanisme d’escompte sur les ventes futures pour fournir du capital dans le moment présent.

Il y a une composante casse-tête dans ce concept financier. En gros, quelle doit être la proportion entre la quantité totale d’énergie future que j’escompte aujourd’hui sous la forme des tokens WePower, d’une part, et la quantité d’énergie future vendue « normalement » dans l’avenir. J’ouvre mollo. J’assume que toute centrale électrique en voie de construction, à être mise en service dans l’avenir, une fois qu’elle se trouve dans ce schéma WePower, déploie sa production totale d’énergie QE dans le temps de façon à avoir de l’énergie future à vendre aujourd’hui, que je note comme QE(t-1). A part QE(t-1), ce serait une bonne idée d’avoir de l’énergie future à vendre dans l’avenir comme énergie présente dans cet avenir qui sera alors le présent. Je note cette fraction de production comme QE(t0). Un peu en cas où, j’ajoute une portion QE(t1), qui sera de l’énergie encore plus future par rapport au moment t0, qui est l’avenir de mon présent courant et qui se sentira mieux, à coup sûr, s’il aura un avenir t1 bien à lui. Je ne pas d’idée bien claire ce que je peux faire, en termes de modèle économique, avec ce QE(t1). Je pense simplement qu’il vaut toujours mieux d’avoir une vision articulée de l’avenir. Somme toute, j’obtiens cette première équation :

QE = QE(t-1) + QE(t0) + QE(t1)                (1)

C’est alors que je fais un salut dans la direction d’ingénieurs et j’assume que la production d’énergie, en général, est une fonction de trois facteurs : la puissance installée PW, son degré d’utilisation U, ainsi que le nombre d’heures H dans l’année durant lesquelles j’exploiterai cette puissance PW au niveau d’intensité U. Mon H total sur une année est égal à H = 8760 heures sur une année normale et HB = 8784 sur une année bissextile. De toute façon, lorsque j’assume  QE = PW*U*H, l’équation (2), ci-dessous, pratiquement saute aux yeux :

QE = PW(t-1)*U(t-1)*H(t-1) + PW(t0)*U(t0)*H(t0) + PW(t1)*U(t1)*H(t1)       (2)

A ce moment-là, je transforme une simple constatation des faits plus ou moins évidents en une stratégie (une combine ?) : j’inclus la composante prix dans le modèle. En général, je vends mon QE à un prix P, seulement là, je joue avec le temps et sur les variations des prix dans le temps. Aujourd’hui, donc dans le passé t-1 par rapport à l’avenir t0, je vends mon énergie future à P(t-1) une kilowatt heure. Dans l’avenir t0, qui sera son propre présent, je vendrai ma kilowatt heure à P(t0) la pièce et j’envisagerai de vendre mes kilowatt heures encore plus futures, soit PW(t1)*U(t1)*H(t1), à un prix de P(t1). En tout cas, j’ai (3) :

QE*P = PW(t-1)*U(t-1)*H(t-1)*P(t-1)

      + PW(t0)*U(t0)*H(t0)*P(t0)

                             + PW(t1)*U(t1)*H(t1)*P(t1)                    (3)

Maintenant, j’assume que l’énergie vendue en avance dans le présent (qui est le passé du futur immédiat) apporte une injection de capital KWP (ça vient du « capital dans le système WePower). Le financement total K d’investissement en la puissance future consiste en KWP plus un montant résiduel Krés collecté d’autres sources. J’ai donc K = KWP + Kres . Pour que toute la combine (le mot « stratégie me semble un peu grandiloquent pour l’instant) aie des bras et des jambes – comme nous disons en Pologne – le flux de revenu PW(t0)*U(t0)*H(t0)*P(t0) + PW(t1)*U(t1)*H(t1)*P(t1) moins le coût total de production TC(t0) et TC(t1) – doit être supérieur à cette portion résiduelle Krés de capital (il faut que toute l’opération donne un positif flux de trésorerie). Je peux donc prudemment formuler deux conditions d’équilibre financier dans un projet comme WePower :

KWP < PW(t-1)*U(t-1)*H(t-1)*P(t-1)

Kres < PW(t0)*U(t0)*H(t0)*P(t0) + PW(t1)*U(t1)*H(t1)*P(t1) – TC(t0) TC(t1)

My individual square of land, 9 meters on 9

My editorial

And so I am building something with a strategy. Last year, 365 days ago, I was just beginning to play with scientific blogging. Now, I have pretty clear a vision of how I want to grow over the next 365 days. My internal bulldog is sniffing around two juicy bones: putting up a method of and pitching a product, relevant to the teaching of social sciences by participation in the actual doing of research, and, on the other hand, putting together an investment project in the domain of smart cities. In this update, I start developing more specifically on that second one, and I focus on two things. Firstly, I perceive smart cities as both technological and social a change, which develops through diffusion of innovation. Very nearly axiomatically, the phenomenon of diffusion in innovations is represented as a process tending towards saturation. I want to find a method, and, hopefully, the metrics relevant to measuring the compound size of the market in the phenomenon called ‘Smart Cities’, mostly in Europe. In the same time, I want to test the tending-towards-saturation approach in forecasting the size of this market.

The emergence of smart cities, as both an urban concept and a business model, is made of smaller parts. There is investment in the remodelling and rebuilding of infrastructure. On the other hand, there is the issue of energy, both in terms of efficiency in its use, and in terms of its renewable sourcing. Finally, there is the huge field of digital technologies, and, looming somehow at the horizon, the issue of Fintech: the use of digital technologies to create local, flexible monetary systems. I am collecting data, step by step, to acquire a really sharp view of the situation, and so my internal curious ape comes by that report ‘The State of European Cities’ , as well as by that article ‘Smart Cities in Europe’ , and finally it swings to that interesting website: ‘Organicity’ . There seem to be two common denominators to all the reports and websites on this topic: experimentation and teaming up. Cities build their smart cities in consortiums rather than single-handedly. Each project is an experiment, to the extent that ‘established technologies’ are essentially the opposite of what business people expect to invest in when they invest in a smart city.

When I teach my students the fundamentals of business planning, I ask them frequently to look at the business concept from two sides: that of the enthusiastic founder, and that of a conservative investor. The balance sheet of the new business is likely to take shape at the intersection of those two approaches. I am adopting the same approach with my business concept. If I were a truly conservative an investor, I would ask, among other questions, what type of business am I supposed to put capital into, and what is the workable business model. The main types of business that come to my mind, regarding smart cities, are: development of real estate, construction, and technical services. However smart a city is becoming, it is made of architectural structures: buildings, roads, rails etc. Someone owns them before the smart city starts burgeoning, and someone owns them when the smart city is already running. Question: are the someones who own those structures afterwards the same someones who owned them beforehand, or are they different someones? What does the transfer of property in real estate look like in those smart cities? Another thing that I teach my students is ‘When you know nearly nothing about a market or a business, look at the prices and the demographics in the first place. Is the market conflating with people, is it stationary, or is it deflating? Are there any prices, which you can qualify as equilibrium prices, i.e. prices virtually exogenous to the bargaining power of individual market players, and clearly sensitive to other economic variables? If you can spot such prices, what trends do they display?’. Right, so now, I am applying my wisdom for sale to my own plans, and I try to figure out those things for selected cases of smart cities, just to make my hand.

I have recently read a lot about a project of smart city, namely the ‘Confluence’ project in Lyon, France. The place is dear to my heart, as I spent quite a chunk of my youth in Lyon, and I am glad to return there, whenever I can. The Confluence Project is located in the 2nd district of Lyon, at what the locals call ‘Presqu’Ile’, i.e. ‘Nearly an Island’, and the confluence of two rivers: Rhone and Saone. From the bird’s view, it is like an irregular, triangular wedge, with its top pointing South at the exact confluence of the two rivers, and its base resting, more or less, on the Perrache rail station. I am having a look at the local prices of real estate. As I visit the website ‘Meilleurs Agents’  , I can see an almost uninterrupted growth in the price per 1 m2, since 1994. Surprisingly, even the burst of the housing bubble in 2007 – 2009 didn’t curb much that trend. Over the last 10 years, it means almost 31% more in the average price of square meter. I focus on the prices of flats. Right now, the average price in Lyon is 3 690 € per square meter, and that average is expected in a general span from 2 767 € to 5 535 €. Against this general background, I take a few snapshots at different addresses. First, I have a glance at a long street – Cours Charlemagne – which almost makes the longitudinal backbone of the Confluence wedge. The average price per 1 m2 is 3 783 €, in a range from 2 664 € to 5 040 €. That average is slightly higher than the whole city, but the range of prices has slightly lower extremities.

Cours Charlemagne connects the posh neighbourhood of Perrache, in the North, to really industrial a place, at the Southern junction of the two rivers. Thus, I take a closer focus, and I target those different environments. Angle of Quai Rambaud and Rue Suchet, a truly posh place in the Northern part of Confluence, displays an average price of 4 725 € per 1 m2, in a range from 3 186 € to 6 207 €. Yes, baby, it just rockets up. Now, I take a little stroll to the South, apparently advancing towards lower prices, and I call by Rue Paul Montrochet. It should be cheaper than up North, and yet it is not: the average price is 5 144 € per square meter, in a range from 3 461 € to 6 483 €.

As usually, observing reality has been of some value. Provisional hypothesis, based on the case of Lyon-Confluence: smart cities grow where the prices of real estate grow. Now, a bit of a bow to reverend Malthus: I check the demographics, with The World Population Review , and I show those numbers in Table 1, below. There has been, and there still is, quite a consistent demographic growth. Basically, if you calculate the annual average growth rates in, respectively, the price of 1 m2 in residential space, and the local population, those two rates look almost like twins: around 3% a year. My provisional hypothesis puts on some ornamentation: smart cities grow where the prices of real estate grow, and where population grows.

Table 1 The population of Lyon, France (urban area)

Year  Population Growth Rate (%) Growth
2030  1 814 000 3,72%  65 000
2025  1 749 000 3,98%  67 000
2020  1 682 000 2,81%  46 000
2017  1 636 000 1,68%  27 000
2015  1 609 000 3,74%  58 000
2010  1 551 000 3,68%  55 000
2005  1 496 000 3,67%  53 000
2000  1 443 000 2,78%  39 000
1995  1 404 000 2,48%  34 000
1990  1 370 000 2,54%  34 000
1985  1 336 000 4,54%  58 000
1980  1 278 000 8,49%  100 000
1975  1 178 000 5,56%  62 000
1970  1 116 000 8,67%  89 000
1965  1 027 000 13,61%  123 000
1960  904 17,71%  136 000
1955  768 5,06%  37 000
1950  731 0,00%  –

source: , last accessed January 11th 2018

The decision makers of the Lyon-Confluence project claim they are in some sort of agreement with two other initiatives: Vienna and Munich. I quickly perform the same check for Vienna as I did for Lyon. In this case, the initiative of smart city seems to be city-wide, and not confined to just one district. As for the prices of apartments, I start with the Global Property Guide . Apparently, the last six years brought a sharp rise in prices (plus 39%), still those prices started curbing down a bit, recently. A quick glance at Numbeo shows an average price of 7 017,18 € per 1 m2 in the city centre, in a range from 4 800 € to 10 000 €, and further out of the centre it makes like 3 613,40 € per square meter on average, comprised between 3 000 € and 5 000 €. On the whole, Vienna looks a shade more expensive than Lyon. Let’s check the demographics, once again with The World Population Review (Table 2, below). Quite similar to Lyon, maybe with a bit more bumps on the way. Interestingly, both initiatives of smart cities started to take shape around 2015, when both cities started to flirt with more or less 1,5 million people in the urban area. Looks like some sort of critical mass, at least for now.

Table 2 The population of Vienna, Austria (urban area)

Year Population Growth Rate (%) Growth
2030 1 548 000 0,98% 15 000
2025 1 533 000 2,06% 31 000
2020 1 502 000 2,32% 34 000
2017 1 468 000 2,09% 30 000
2015 1 438 000 6,28% 85 000
2010 1 353 000 7,89% 99 000
2005 1 254 000 4,33% 52 000
2000 1 202 000 -3,14% (39 000)
1995 1 241 000 1,89% 23 000
1990 1 218 000 -3,87% (49 000)
1985 1 267 000 -2,46% (32 000)
1980 1 299 000 0,23% 3 000
1975 1 296 000 0,15% 2 000
1970 1 294 000 10,13% 119 000
1965 1 175 000 10,85% 115 000
1960 1 060 000 13,25% 124 000
1955 936 12,64% 105 000
1950 831 0,00%

source: , last accessed January 11th, 2018

Good. As my internal curious ape turns and returns those coconuts, ideas start taking shape. At least one type of socio-economic environment, where that curious new species called ‘smart cities’ seem to dwell, is an environment where them growth rates in housing prices, and in population, are like 3% or more. One million and a half people living in a more or less continuous urban area seem to make like a decent size, in terms of feeding grounds for a smart city. Prices of residential real estate, associated with the emergence of smart cities in Europe, seem hitting like 4 500 € or more. This is probably just one type of environment, but one is already better than saying ‘any environment’. The longer I do social sciences, the more I am persuaded that we, humans, are very simple and schematic in our social structures. Theoretically, with the individual flexibility we are capable of, the science we have, and with Twitter, we could form an indefinitely diverse catalogue of social structures. Yet, it is more like in a chess game: there are just a few structures that work, and others just don’t, and we don’t even full comprehend the reasons for them not working at all. When we talk business and investment, there are some contexts that allow the deployment of a business model, whilst it just doesn’t work in other contexts. Same thing here: the type of environment I am casually sketching is the one where smart cities work in terms of business and investment.

My business plan for investing in smart cities has certainly one cornerstone, namely that of gains in the market value of real estate involved. One cornerstone is not bad at all, and now I am thinking about putting some stones under the remaining three corners. In that report which I mentioned earlier, namely report ‘The State of European Cities’ , I have already spotted two interesting pieces of information. Firstly, the sustainable density of population for a smart city is generally the same as for sustainable public transport: 3000 people per km2 or more. Secondly, the dominant trend in the European urbanisation is the growth of suburbs and towns, rather than cities strictly spoken. It pertains to my home country, Poland, as well. Thus, what we have as market, is a network of urban units moderate in size, but big in connections with other similar units. Two classes of business prospects emerge, then, regarding the investment in smart cities. Following my maths classes at school, I call those prospects, respectively, the necessary context, and the favourable context. The necessary is based on the density of population: the more we are per square kilometre, the more fun we are having, and the special kind of fun we can have in a smart city requires at least 3000 people per km2, or, in other words, each individual person having for their personal use no more than a square of 18 meters on 18. The favourable is made of real estate prices, and demographic growth, the former hitting above 4 500 € per 1 m2, and growing at 3% per annum, on average; the latter needs to make the same 3% a year.

By the way, I made a quick calculation for my family and our house. We live in a terraced house, located on a plot of land of 250 m2. We are three, which makes 83,6 m2 per capita, which, in turn, means that each capita has an individual square of land the size of 9,14 meters on 9,14. We are double the density of population required for a smart city. There is no other way: I have to go for it.

Une courbe élégante en « S » aplati

Mon éditorial

Hier, dans ma mise à jour en anglais (“The dashing drip of Ketonal, or my fundamental questions for the New Year”  ), je me suis permis de formuler une sorte de compte rendu de tous les projets sur lesquels j’ai l’intention de travailler en 2018. D’une part, c’est comme une liste de résolutions pour le Nouvel An mais d’autre part c’est un premier pas sur mon chemin vers un peu de mise en ordre dans ce p****n de bordel – créatif, certes, bordel quand même – qui est tout à coup apparu dans ma vie professionnelle. J’ai découvert – tout récemment, en fait – que je suis capable d’achever quelque chose comme du développement personnel lorsque je combine du chaos avec de la cohérence. En ce qui concerne le chaos, la vie donne tout ce qu’il me faut. En ce qui concerne la cohérence, l’écriture est une bonne stratégie. Ecrire, dans une forme proche de celle d’un journal personnel, m’aide à mettre de l’ordre dans des idées échevelées. En plus, j’ai découvert que l’écriture marche le mieux dans mon cas lorsque je m’adresse à un public, par exemple à vous, les lecteurs de mon blog. Cette fois aussi, ça a marché. Dans cette mise à jour d’hier, comme je divaguais (oui, je le dis franchement, je divaguais un peu) sur ces différents projets que j’ai sur la planche à présent, mes idées avaient tout à coup commencé à prendre une cohérence respectable.

Alors, mon ordre personnel dans du chaos personnel s’articule autour de deux projets principaux : d’une part, je développe un site Internet éducatif, dévoué à l’éducation en sciences sociales à travers la participation dans de la recherche réelle, et d’autre part, je développe un projet d’investissement ciblé sur les soi-disant cités intelligentes, ou « smart cities » en anglais. La première de ces deux idées, le site éducatif, est quelque chose que j’avais en tête pour pas mal de temps déjà, et que je suis en train d’amorcer à travers ce blog-même. Ce qui me manquait, c’était une sorte d’idée distinctive de base. Comme élève d’abord, étudiant ensuite, j’avais toujours une réserve profonde vis à vis des manuels classiques. Depuis que je suis devenu prof et chercheur, je pris une conscience même plus aiguë de la superficialité des manuels, en comparaison du savoir scientifique à proprement dit. Bien sûr, l’étape suivante après les manuels, c’est l’éducation interactive. C’est intéressant, mais là, je me sens un tout petit peu mal à l’aise. Etre interactif dans le cadre d’un contenu typiquement standardisé pour l’éducation, n’est pas encore tout à fait ce que je veux faire avec les étudiants. Le terrain où je me sens vraiment dans mon élément, c’est l’éducation à travers la participation dans la solution des problèmes réels à 100%. Les sciences sociales sont mon champ de recherche et l’éducation la plus réaliste qu’on peut y avoir c’est l’application de l’outillage scientifique au développement des projets d’investissement, d’action sociale, ou encore des projets politiques.

Avec tout le côté excitant et (un peu) grandiose de confronter des étudiants des sciences sociales directement avec des cas réels, je suis conscient du fait que cette idée peut aussi bien s’enliser dans un phénomène bien connu : si vous apprenez aux gens à nager en les jetant directement dans de l’eau profonde, beaucoup d’entre eux vont tout simplement se noyer. L’éducation, dans quel domaine que ce soit, consiste à créer, pour l’apprenti, un sentier fait de tâches qu’il est objectivement capable d’accomplir, donc de tâches où son système nerveux peut enregistrer un succès qu’il serait intéressant de reproduire, encore et encore. Je sais par expérience que la recherche scientifique, au moins si on l’approche de façon vraiment sérieuse, est une tâche ardue. Même des chercheurs bien rôdés ont des crises de découragement. Alors le vrai défi éducatif consiste à prendre des cas réels, et des objectifs de recherche cent pourcent ancrés dans la vie réelle, et en même temps, les diviser en des petits pas scientifiques abordables pour les novices.

Ce que je mijote est donc un chemin éducatif, dans le cadre duquel je vais guider les étudiants dans une approche scientifique des situations réelles. C’est alors que mon second projet pour cette année entre en scène : l’investissement dans les cités intelligentes. Tout d’abord : pourquoi ? Tout d’abord : parce que ça m’intéresse. Ensuite, j’ai récemment eu la preuve du bien-fondé de ces intuitions que j’avais partagées avec mes lecteurs à propos d’une monnaie virtuelle reliée au marché d’énergies renouvelables. Si vous daigniez de jeter un coup d’œil chez , vous verrez pratiquement la même chose que mon idée de Wasun, que j’avais décrite plusieurs fois sur ce blog ( regardez, par exemple : ‘Being like silk, espousing the protrusions of Vatenfall’ ou bien ‘Les moulins de Wasun’ ). Finalement, si je veux jouer le rôle d’un mentor dans l’application des sciences sociales à des entreprises réelles, eh bien, il faut que je tienne la forme, moi-même, en ce qui concerne l’étude de tels projets.

Je commence par consulter professeur Google sur le sujet. Voilà qu’il me retourne quelques adresses utiles : , par exemple, ou bien , ou encore . Comme d’habitude, j’effectue une lecture superficielle de ces sites juste pour avoir une idée de ce qui se passe. Là, une précision est due : lorsque j’écris « une idée de ce qui se passe », je l’entends dans le sens le plus fondamental. Ce qui se passe c’est un ensemble des phénomènes qui se passent, c’est-à-dire qui démontrent du changement dans le temps. Avoir une idée de ce qui se passe au sujet des cités intelligentes veut dire identifier des variables, objectivement observables et mesurables, qui montrent du changement. La première variable que j’ai pu observer est le nombre des villes en Europe qui mettent en place, à des échelles différentes, des projets de cité intelligente. Ce nombre est en train de croître. C’est une expansion qui – en des termes théoriques – a tout l’air d’un phénomène de contagion. En sciences économiques, nous modelons des trucs comme ça avec des fonctions qui tendent vers un niveau hypothétique de saturation. D’habitude, c’est une fonction logistique ou bien la densité cumulative de probabilité de l’occurrence d’un phénomène donné dans des cellules séparées d’un marché. Dans les deux cas, on a une courbe élégante en « S » aplati qui tend asymptotiquement vers le niveau de saturation. Avec un peu d’Excel, un peu de temps à tuer et un peu d’imagination mathématique on peut donner à cette courbe des contorsions intéressantes, mais ce qui m’intéresse vraiment à ce point-ci est ce niveau hypothétique de saturation. Quelle est la taille du marché des cités intelligentes en Europe ? Ce marché est composite : il englobe des travaux de construction, de la mise en place d’infrastructure(s), des plateformes du type Fintech (finance plus utilité en ligne) et même des logiciels pour les téléphones portables. Je me demande combien des gens et combien de capital peut joindre ce mouvement.

Alors voilà mon premier challenge de recherche dans ce projet des cités intelligentes : prédire la taille du marché et en même temps imaginer un chemin éducatif pour apprendre aux étudiants en sciences sociales comment formuler une telle prédiction.

The dashing drip of Ketonal, or my fundamental questions for the New Year

My editorial

Recently, I have been working on a few parallel projects, which all orient me towards business and management rather than economics. Of course, the three are related: you cannot expect to draft a decent business plan without understanding markets around you, just as you have meagre chances to understand markets if you ignore the way organisations work. Anyway, the business projects that I am currently working on orient me towards those most fundamental questions of social theory. It starts with a very practical issue, like ‘How can I know this precise project is going to be successful?’, and then, as I am articulating the answer, I feel as if I were ploughing through the entire field of social sciences. I have just finished preparing a business plan for an investment in real estate. At the first sight, it seemed simple as the blueprint of flail: you buy a residential building, you renovate it, in the course of renovation you consider rearranging the division of the building into apartments, then you sell the apartments one by one, and you rent the shops at the ground floor. A textbook of doing business, someone could say. Yet, as I started to estimate the profitability of the thing, questions popped up, initially very simple: will the Internal Rate of Return (IRR) be more suitable to estimate the return on investment, or should I rather consider the Net Present Value (NPV) of the project? Whatever I choose, what window of time should I take to gauge the profits: 5 years, 7 years, or maybe 12? Simple, almost stupid questions, and still they matter. For the mildly initiated: the IRR tends to be used mostly for low-risk, long-run projects, whilst the NPV looks better for short-termist, hit-and-run ventures.

By textbook rules, real estate is definitely the first kind: no technological life-cycle, not really much to handle in terms of manufacturing or logistics, sniper-like customer relations. The IRR should be better. Yet, as I did my homework about the local market of residential real estate, the sheer distribution of prices showed me a dilemma in the design of apartments in the course of renovation: you go into structure and design A, and you gain a modest return, not much above the average yield of sovereign bonds, but if you go into structure and design B, you can achieve way higher. The fork of disparity between the two scenarios was such that I decided to settle for NPV as my main metric of profitability. Absolutely against the textbook, but I intuitively guess this is a better measure. As I applied it, an interesting result appeared: whatever the design chosen, the project has any chance to bring a positive cash flow to the investor if and only if he leverages the thing with a mortgage, like 60% of the assets planned. You could ask: how can borrowing, with the obvious necessity to share your profits with the bank, at a fixed rate, enhance the net cash-flow? Well, yes, it can.

There is that other project I am working on, namely the practical implementation of CSR (Corporate Social Responsibility) in a real company. The company’s boss, who happens to be my friend, asked me to assess objectively whether it would pay him off to implement a code of CSR in his organisation. As a social scientist, I almost intuitively assume that what people think is one thing, what they do is another, what they think they do is still different story, and what they say they think they do is the ultimate smokescreen of human behaviour. For me, the current fashion for Corporate Social Responsibility is very much the Bullshido of management. Still, that friend of mine does not really care about theory. He is about to participate in a few serious tenders in his market, and in each of them he can score additional points if his company has a code of CSR effectively in place. Of course, as you can easily guess, the ‘effectively in place’ part is the trickiest one. There are pennies to collect, actually implementing CSR is the way to collect them, and the practical questions are: is it feasible at all, how to do it, and is it any good outside the formal conditions of those tenders? Just if you haven’t spotted it yet: it is about predicting complex human behaviour, in an organisation, and about assessing the economic outcomes of that behaviour. Tough s**t, actually.

There is still another venture I am progressively becoming involved into, in the Fintech. A group of business people is considering the issuance of cryptocurrencies in the stock-market fashion, i.e. they would like to issue cryptocurrencies in the way financial institutions issue various financial instruments: with an Initial Public Offering, and some respectable balance sheet to back up that IPO, with decent underwriting, with book building etc. The only difference in comparison to regular securities is that what will be issued are not securities as such but numerical codes corresponding to the units of cryptocurrency, and there has to be a technological platform to sustain the whole thing. The question those business people ask is very simple, once again: at the end of the day, after we account for the discount at issuance, and for the cost of maintaining the technology, what will be the return on investment? Intuitively, I am thinking about taking the history of Bitcoin (the best documented so far) as a case study, and try to build any kind of bridging to the world of classical financial instruments. Still, this is just an intuition. I am trying to find out the right scientific questions to ask, in order to answer the general business question.

I am nurturing my own business project on a small scale: an educational website in the field of social sciences. That scientific blog I keep, progressively more and more nested in the WordPress environment at , and still mirrored at makes some sort of core, which I want to build that project around. The blog serves me to make my hand as for the style, and the general drill of producing content. I am applying that principle, anecdotally attributed to Pablo Picasso, namely that when inspiration comes, it is likely to find me at work. For the moment, I have very loose ideas as for this project. I haven’t even formalized my paid content yet. I suppose I will start with some sort of crowdfunding, Patreon or other beast, and then move towards something more organized.

The questions I have in my mind, regarding this project, sum up to a loop between ‘who?’, ‘what?’, and ‘how?’. How do I want to interact with my customers? What exactly will be my product? Who will be my customer? Initially, I am thinking about providing additional, educational resources for students. By ‘additional’ I mean that what I will be offering will be a step further beyond textbooks, rather than the typical textbook content. Probably it is because I have always been bored to death with textbooks. I have always preferred to discover things by myself. Yes, it involves getting some dirt on my hands, but it is a lot more fun, and this is the kind of fun I want to provide my customers with: the fun with doing research in social sciences, where doing research is training, in the same time. Thus, the kind of interaction I want to have with my customers consists in involving them in doing research, where I will mentor them. Here, I come to the ‘what?’, and, honestly, I still don’t know what the ‘what?’ is going to look like, in details. I know, for sure, that I want to go for real stuff, i.e. the actual, important, social issues, not the distilled type of problems you can find in textbooks. If I want to learn how to hunt grizzly bears, I have to learn with someone who actually hunts them, not with a rat catcher.

Finally, there is that last one, and in the same time the biggest. I have been working, all the 2017-long, on technological change, and, more particularly, on renewable energies. I have been progressively becoming aware that there is an actual, huge business building up around the topic: smart cities. In Europe, the idea is really gathering speed. Recently, I did some research about the ‘Confluence’ project in Lyon, France. This is another smart city – or rather smart district in a city – being built in parallel with similar ones popping up in Vienna and Munich. As I had a provisional glimpse of the thing, the speed and magnitude of business and investment projects going on there is just appalling. I think I am going to devote much of my time until this summer to preparing and promoting a business plan for entering the business of smart cities. Here, once again, I am at the stage of figuring out what are the right questions to ask.

Those last months, I tend to think that fundamental questions are the best ones to ask. Additionally, I had that funny kind of New Year’s Night, at an emergency ward, in my district hospital, under an intravenous drip, with symptoms of acute food poisoning. The main suspect is a piece of herring with unclear curriculum. This is the thing with us, Polish people, and the herring: this is really tough love. Anyway, that night spent with a cannula stuck in my left hand’s veins, it made me really consider life under a different angle. The angle was really different. I asked my friends around: no one was seeing their drinks from underneath, only I did. Ketanol was the dashiest one. Such situations tend to push you back to fundamental questions, like: what is the point of being here and now? Now, you could legitimately wonder about the connection between the doings of a vicious herring, and social sciences. Well, I am wondering what are the most fundamental questions of social sciences, when said sciences are being applied to real-life, practical situations. This is the kind of questions I would like my students to know how to ask.

I ask ‘What kinds of things are happening around me and how are they happening?’. In each of the situations I have just described, I am kind of tuning my brain on some specific distinctions: prices of real estate and their distribution over time and across space, cash flows, patterns in human behaviour regarding ethical norms, creation and evolution of monetary systems, ways of entering the general field of smart cities, and, finally, the number of drops that an intravenous drip produces per minute. When I am wrapping my mind around something new, the wrapping means finding the right categories to distinguish in the given situation. How can I know my distinctions are the right ones? There is only one way to know it, baby: by trial and error. Make some distinctions, apply them in the situation at hand, figure out whether they make you advance any further, draw a bottom line, repeat the whole sequence until you reach a subjective state of intellectual satisfaction. There is a useful scientific method of checking if my distinctions are accurate for the piece of real life I am currently dealing with. Just check if you can deconstruct, out of that piece of real life, meaningful sequences of things you have distinguished. If you can build a sequence of events, and that sequence is kind of relevant for the situation, the way you describe those events is probably accurate. Not necessarily accurate at 100% – it never is – but accurate just enough to set a path for further action. The scientific bottom line of this question is to transform experience into data, which, in turn, can be subject to mathematical modelling. Yes, I like maths. They are logic expressed without bullshit.

Then, in a second step, I ask ‘How is the way of happening in the thing A connected to the way of happening in the thing B?’. In terms of formal scientific tools, there is a cartload of statistics to apply here, and this is the right track. Still, my own path of thinking, and the path of thinking I would like my students to follow, is even more fundamental. When I study the connection between happenings, I want to know, for example, whether the thing A kind of pulls the thing B out of inexistence, or does it rather push the thing B out of the world? If reality had a DNA, and if that DNA reproduced itself by recombination (which requires female realities and male realities, and this is really interesting), my two things, A and B, would be like two genes, which can be switched on or off. In one possible scenario, when the gene A gets activated, the gene B follows, and it is like 1 -> 1. In another scenario, the activation of A automatically switches B off, or 1 -> 0. On the long run, the kind of gene B that gets deactivated frequently, gets kicked out of reality, into a dormant state, as there is no respectable, female reality who would like to give birth to baby realities with B in their genome. This is how some phenomena, like burning the alleged witches at the stake, get kicked into a blissfully dormant state, at least until some idiot has the idea of waking them up. Easier than you think, to wake those monsters up, by the way.

If, on the other hand, phenomenon B gets activated in noticeably many cases, it kind of gets knighted into the reality, and it acquires the privilege of activating or deactivating other genes in reality. This is how small, functional interactions between measurable occurrences can lead to structural changes in the social system (see, for example: Krugman 1991[1];  Krugman 1998[2]). That approach to functional connection between phenomena is slightly different from what you can learn in you class of statistics, yet there is a lot on common between the two ways of apprehending coincidental change. Statistically, we can talk about correlation between phenomena, when they swing away from their statistically expected states by a similar distance in the same time, or about their mutual cointegration, if they swing at the same rhythm, i.e. with the same length, amplitude, and frequency in their respective cycles. What I am the most interested in, in my research, are those specific cases of correlation and/or cointegration, when the functional connection at hand leads to one of the connected phenomena suddenly shifting into a qualitatively different state (into a different equilibrium, as we could say in economics).

Now, I ask my third BIG question: ‘So what? Does it matter at all? How does it matter?’. Things matter to me, when they change I do things. Things matter to the society, when they change the way people do things. Thus, in all the multitude of coincidentally changing things, in their correlations and cointegrations, in the way they affect the genetic code of reality, there are changes that involve our behaviour. These ones matter. If the given piece of reality switches its genes into the ON position, what will I do? How can some patterns of behaviour become dormant? How can they be revived (and, bloody hell, is it a good idea to revive them)? What should I do? What will other people do? What do I expect them to do? This is when social science becomes the real fun. I look for that tiny little correlation, which makes my behaviour wise or aberrant in the given situation. I look for those little signals, predictors of wonderful progress, or, in more complex a situation, of deplorable recess.

[1] Krugman, P., 1991, Increasing Returns and Economic Geography, The Journal of Political Economy, Volume 99, Issue 3 (Jun. 1991), pp. 483 – 499

[2] Krugman, P., 1998, What’s New About The New Economic Geography?, Oxford Review of Economic Policy, vol. 14, no. 2, pp. 7 – 17