Combinatorial meaning and the cactus

My editorial on You Tube

I am back into blogging, after over two months of pausing. This winter semester I am going, probably, for record workload in terms of classes: 630 hours in total. October and November look like an immersion time, when I had to get into gear for that amount of teaching. I noticed one thing that I haven’t exactly been aware of, so far, or maybe not as distinctly as I am now: when I teach, I love freestyling about the topic at hand. Whatever hand of nice slides I prepare for a given class, you can bet on me going off the beaten tracks and into the wilderness of intellectual quest, like by the mid-class. I mean, I have nothing against Power Point, but at some point it becomes just so limiting… I remember that conference, one year ago, when the projector went dead during my panel (i.e. during the panel when I was supposed to present my research). I remember that mixed, and shared feeling of relief and enjoyment in people present in the room: ‘Good. Finally, no slides. We can like really talk science’.

See? Once again, I am going off track, and that in just one paragraph of writing. You can see what I mean when I refer to me going off track in class. Anyway, I discovered one more thing about myself: freestyling and sailing uncharted intellectual waters has a cost, and this is a very clear and tangible biological cost. After a full day of teaching this way I feel as if my brain was telling me: ‘Look, bro. I know you would like to write a little, but sorry: no way. Them synapses are just tired. You need to give me a break’.

There is a third thing I have discovered about myself: that intense experience of teaching makes me think a lot. I cannot exactly put all this in writing on the spot, fault of fresh neurotransmitter available, still all that thinking tends to crystallize over time and with some patience I can access it later. Later means now, as it seems. I feel that I have crystallized enough and I can start to pull it out into the daylight. The « it » consists, mostly, in a continuous reflection on collective intelligence. How are we (possibly) smart together?

As I have been thinking about it, three events combined and triggered in me a string of more specific questions. I watched another podcast featuring Jordan Peterson, whom I am a big fan of, and who raised the topic of the neurobiological context of meaning. How our brain makes meaning, and how does it find meaning in sensory experience? On the other hand, I have just finished writing the manuscript of an article on the energy-efficiency of national economies, which I have submitted to the ‘Energy Economics’ journal, and which, almost inevitably, made me work with numbers and statistics. As I had been doing that empirical research, I found out something surprising: the most meaningful econometric results came to the surface when I transformed my original data into local coefficients of an exponential progression that hypothetically started in 1989. Long story short, these coefficients are essentially growth rates, which behave in a peculiar way, due to their arithmetical structure: they decrease very quickly over time, whatever is the source, raw empirical observation, as if they were representing weakening shock waves sent by an explosion in 1989.

Different types of transformed data, the same data, in that research of mine, produced different statistical meanings. I am still coining up real understanding of what it exactly means, by the way. As I was putting that together with Jordan Peterson’s thoughts on meaning as a biological process, I asked myself: what is the exact meaning of the fact that we, as scientific community, assign meaning to statistics? How is it connected with collective intelligence?

I think I need to start more or less where Jordan Peterson moves, and ask ‘What is meaning?’. No, not quite. The ontological type, I mean the ‘What?’ type of question, is a mean beast. Something like a hydra: you cut the head, namely you explain the thing, you think that Bob’s your uncle, and a new head pops up, like out of nowhere, and it bites you, where you know. The ‘How?’ question is a bit more amenable. This one is like one of those husky dogs. Yes, it is semi wild, and yes, it can bite you, but once you tame it, and teach it to pull that sleigh, it will just pull. So I ask ‘How is meaning?’. How does meaning occur?

There is a particular type of being smart together, which I have been specifically interested in, for like the last two months. It is the game-based way of being collectively intelligent. The theory of games is a well-established basis for studying human behaviour, including that of whole social structures. As I was thinking about it, there is a deep reason for that. Social interactions are, well, interactions. It means that I do something and you do something, and those two somethings are supposed to make sense together. They really do at one condition: my something needs to be somehow conditioned by how your something unfolds, and vice versa. When I do something, I come to a point when it becomes important for me to see your reaction to what I do, and only when I will have seen it, I will further develop on my action.

Hence, I can study collective action (and interaction) as a sequence of moves in a game. I make my move, and I stop moving, for a moment, in order to see your move. You make yours, and it triggers a new move in me, and so the story goes further on in time. We can experience it very vividly in negotiations. With any experience in having serious talks with other people, thus when we negotiate something, we know that it is pretty counter-efficient to keep pushing our point in an unbroken stream of speech. It is much more functional to pace our strategy into separate strings of argumentation, and between them, we wait for what the other person says. I have already given a first theoretical go at the thing in « Couldn’t they have predicted that? ».

This type of social interaction, when we pace our actions into game-like moves, is a way of being smart together. We can come up with new solutions, or with the understanding of new problems – or a new understanding of old problems, as a matter of fact – and we can do it starting from positions of imperfect agreement and imperfect coordination. We try to make (apparently) divergent points, or we pursue (apparently) divergent goals, and still, if we accept to wait for each other’s reaction, we can coordinate and/or agree about those divergences, so as to actually figure out, and do, some useful s**t together.

What connection with the results of my quantitative research? Let’s imagine that we play a social game, and each of us makes their move, and then they wait for the moves of other players. The state of the game at any given moment can be represented as the outcome of past moves. The state of reality is like a brick wall, made of bricks laid one by one, and the state of that brick wall is the outcome of the past laying of bricks.  In the general theory of science, it is called hysteresis. There is a mathematical function, reputed to represent that thing quite nicely: the exponential progression. On a timeline, I define equal intervals. To each period of time, I assign a value y(t) = et*a, where ‘t’ is the ordinal of the time period, ‘e’ is a mathematical constant, the base of natural logarithm, e = 2,7188, and ‘a’ is what we call the exponential coefficient.

There is something else to that y = et*a story. If we think like in terms of a broader picture, and assume that time is essentially what we imagine it is, the ‘t’ part can be replaced by any number we imagine. Then, the Euler’s formula steps in: ei*x = cos x + i*sin x. If you paid attention in math classes, at high school, you might remember that sine and cosine, the two trigonometric functions, have a peculiar property. As they refer to angles, at the end of the day they refer to a full circle of 360°. It means they go in a circle, thus in a cycle, only they go in perfectly negative a correlation: when the sine goes one unit one way, the cosine goes one unit exactly the other way round etc. We can think about each occurrence we experience – the ‘x’ –  as a nexus of two, mutually opposing cycles, and they can be represented as, respectively, the sine, and the cosine of that occurrence ‘x’. When I grow in height (well, when I used to), my current height can be represented as the nexus of natural growth (sine), and natural depletion with age (cosine), that sort of things.

Now, let’s suppose that we, as a society, play two different games about energy. One game makes us more energy efficient, ‘cause we know we should (see Settlement by energy – can renewable energies sustain our civilisation?). The other game makes us max out on our intake of energy from the environment (see Technological Change as Intelligent, Energy-Maximizing Adaptation). At any given point in time, the incremental change in our energy efficiency is the local equilibrium between those two games. Thus, if I take the natural logarithm of our energy efficiency at a given point in space-time, thus the coefficient of GDP per kg of oil equivalent in energy consumed, that natural logarithm is the outcome of those two games, or, from a slightly different point of view, it descends from the number of consecutive moves made (the ordinal of time period we are currently in), and from a local coefficient – the equivalent of ‘i’ in the Euler’s formula – which represents the pace of building up the outcomes of past moves in the game.

I go back to that ‘meaning’ thing. The consecutive steps ‘t’ in an exponential progression y(t) = et*a progression correspond to successive rounds of moves in the games we play. There is a core structure to observe: the length of what I call ‘one move’, and which means a sequence of actions that each person involved in the interaction carries out without pausing and waiting for the reaction observable in other people in the game. When I say ‘length’, it involves a unit of measurement, and here, I am quite open. It can be a length of time, or the number of distinct actions in my sequence. The length of one move in the game determines the pace of the game, and this, in turn, sets the timeframe for the whole game to produce useful results: solutions, understandings, coordinated action etc.

Now, where the hell is any place for ‘meaning’ in all that game stuff? My view is the following: in social games, we sequence our actions into consecutive moves, with some waiting-for-reaction time in between, because we ascribe meaning to those sub-sequences that we define as ‘one move’. The way we process meaning matters for the way we play social games.

I am a scientist (well, I hope), and for me, meaning occurs very largely as I read what other people have figured out. So I stroll down the discursive avenue named ‘neurobiology of meaning’, welcomingly lit by with the lampposts of Science Direct. I am calling by an article by Lee M. Pierson, and Monroe Trout, entitled ‘What is consciousness for?[1]. The authors formulate a general hypothesis, unfortunately not supported (yet?) with direct empirical check, that consciousness had been occurring, back in the day, I mean like really back in the day, as cognitive support of volitional movement, and evolved, since then, into more elaborate applications. Volitional movement is non-automatic, i.e. decisions have to be made in order for the movement to have any point. It requires quick assemblage of data on the current situation, and consciousness, i.e. the awareness of many abstract categories in the same time, could the solution.

According to that approach, meaning occurs as a process of classification in the neurologically stored data that we need to use virtually simultaneously in order to do something as fundamental as reaching for another can of beer. Classification of data means grouping into sets. You have a random collection of data from sensory experience, like a homogenous cloud of information. You know, the kind you experience after a particularly eventful party. Some stronger experiences stick out: the touch of cold water on your naked skin, someone’s phone number written on your forearm with a lipstick etc. A question emerges: should you call this number? It might be your new girlfriend (i.e. the girlfriend whom you don’t consciously remember as your new one but whom you’d better to if you don’t want your car splashed with acid), or it might be a drug dealer whom you’d better not call back.  You need to group the remaining data in functional sets so as to take the right action.

So you group, and the challenge is to make the right grouping. You need to collect the not-quite-clear-in-their-meaning pieces of information (Whose lipstick had that phone number been written with? Can I associate a face with the lipstick? For sure, the right face?). One grouping of data can lead you to a happy life, another one can lead you into deep s**t. It could be handy to sort of quickly test many alternative groupings as for their elementary coherence, i.e. hold all that data in front of you, for a moment, and contemplate flexibly many possible connections. Volitional movement is very much about that. You want to run? Good. It would be nice not to run into something that could hurt you, so it would be good to cover a set of sensory data, combining something present (what we see), with something we remember from the past (that thing on the 2 o’clock azimuth stings like hell), and sort of quickly turn and return all that information so as to steer clear from that cactus, as we run.

Thus, as I follow the path set by Pierson and Trout, meaning occurs as the grouping of data in functional categories, and it occurs when we need to do it quickly and sort of under pressure of getting into trouble. I am going onto the level of collective intelligence in human social structures. In those structures, meaning, i.e. the emergence of meaningful distinctions communicable between human beings and possible to formalize in language, would occur as said structures need to figure something out quickly and under uncertainty, and meaning would allow putting together the types of information that are normally compartmentalized and fragmented.

From that perspective, one meaningful move in a game encompasses small pieces of action which we intuitively guess we should immediately group together. Meaningful moves in social games are sequences of actions, which we feel like putting immediately back to back, without pausing and letting the other player do their thing. There is some sort of pressing immediacy in that grouping. We guess we just need to carry out those actions smoothly one after the other, in an unbroken sequence. Wedging an interval of waiting time in between those actions could put our whole strategy at peril, or we just think so.

When I apply this logic to energy efficiency, I think about business strategies regarding innovation in products and technologies. When we launch a new product, or implement a new technology, there is something like fixed patterns to follow. When you start beta testing a new mobile app, for example, you don’t stop in the middle of testing. You carry out the tests up to their planned schedule. When you start launching a new product (reminder: more products made on the same energy base mean greater energy efficiency), you keep launching until you reach some sort of conclusive outcome, like unequivocal success or failure. Social games we play around energy efficiency could very well be paced by this sort of business-strategy-based moves.

I pick up another article, that by Friedemann Pulvermüller (2013[2]). The main thing I see right from the beginning is that apparently, neurology is progressively dropping the idea of one, clearly localised area in our brain, in charge of semantics, i.e. of associating abstract signs with sensory data. What we are discovering is that semantics engage many areas in our brain into mutual connection. You can find developments on that issue in: Patterson et al. 2007[3], Bookheimer 2002[4], Price 2000[5], and Binder & Desai 2011[6]. As we use words, thus as we pronounce, hear, write or read them, that linguistic process directly engages (i.e. is directly correlated with the activation of) sensory and motor areas of our brain. That engagement follows multiple, yet recurrent patterns. In other words, instead of having one mechanism in charge of meaning, we are handling different ones.

After reviewing a large bundle of research, Pulvermüller proposes four different patterns: referential, combinatorial, emotional-affective, and abstract semantics. Each time, the semantic pattern consists in one particular area of the brain acting as a boss who wants to be debriefed about something from many sources, and starts pulling together many synaptic strings connected to many places in the brain. Five different pieces of cortex come recurrently as those boss-hubs, hungry for differentiated data, as we process words. They are: inferior frontal cortex (iFC, so far most commonly associated with the linguistic function), superior temporal cortex (sTC), inferior parietal cortex (iPC), inferior and middle temporal cortex (m/iTC), and finally the anterior temporal cortex (aTC). The inferior frontal cortex (iFC) seems to engage in the processing of words related to action (walk, do etc.). The superior temporal cortex (sTC) looks like seriously involved when words related to sounds are being used. The inferior parietal cortex (iPC) activates as words connect to space, and spatio-temporal constructs. The inferior and middle temporal cortex (m/iTC) lights up when we process words connected to animals, tools, persons, colours, shapes, and emotions. That activation is category specific, i.e. inside m/iTC, different Christmas trees start blinking as different categories among those are being named and referred to semantically. The anterior temporal cortex (aTC), interestingly, has not been associated yet with any specific type of semantic connections, and still, when it is damaged, semantic processing in our brain is generally impaired.

All those areas of the brain have other functions, besides that semantic one, and generally speaking, the kind of meaning they process is correlated with the kind of other things they do. The interesting insight, at this point, is the polyvalence of cortical areas that we call ‘temporal’, thus involved in the perception of time. Physicists insist very strongly that time is largely a semantic construct of ours, i.e. time is what we think there is rather than what really is, out there. In physics, what exists is rather sequential a structure of reality (things happen in an order) than what we call time. That review of literature by Pulvermüller indirectly indicates that time is a piece of meaning that we attach to sounds, colours, emotions, animal and people. Sounds come as logical: they are sequences of acoustic waves. On the other hand, how is our perception of colours, or people, connected to our concept of time? This is a good one to ask, and a tough one to answer. What I would look for is recurrence. We identify persons as distinct ones as we interact with them recurrently. Autistic people have frequently that problem: when you put on a different jacket, they have hard time accepting you are the same person. Identification of animals or emotions could follow the same logic.

The article discusses another interesting issue: the more abstract the meaning is, the more different regions of the brain it engages. The really abstract ones, like ‘beauty’ or ‘freedom’, are super Christmas-trees: they provoke involvement all over the place. When we do abstraction, in our mind, for example when writing poetry (OK, just good poetry), we engage a substantial part of our brain. This is why we can be lost in our thoughts: those thoughts, when really abstract, are really energy-consuming, and they might require to shut down some other functions.

My personal understanding of the research reviewed by Pulvermüller is that at the neurological level, we process three essential types of meaning. One consists in finding our bearings in reality, thus in identifying things and people around, and in assigning emotions to them. It is something like a mapping function. Then, we need to do things, i.e. to take action, and that seems to be a different semantic function. Finally, we abstract, thus we connect distant parcels of data into something that has no direct counterpart neither in the mapped reality, nor in our actions.

I have an indirect insight, too. We have a neural wiring, right? We generate meaning with that wiring, right? Now, how is adaptation occurring, in that scheme, over time? Do we just adapt the meaning we make to the neural hardware we have, or is there a reciprocal kick, I mean from meaning to wiring? So far, neurological research has demonstrated that physical alteration in specific regions of the brain impacts semantic functions. Can it work the other way round, i.e. can recurrent change in semantics being processed alter the hardware we have between our ears? For example, as we process a lot of abstract concepts, like ‘taxes’ or ‘interest rate’, can our brains adapt from generation to generation, so as to minimize the gradient of energy expenditure as we shift between levels of abstraction? If we could, we would become more intelligent, i.e. able to handle larger and more differentiated sets of data in a shorter time.

How does all of this translate into collective intelligence? Firstly, there seem to be layers of such intelligence. We can be collectively smart sort of locally – and then we handle those more basic things, like group identity or networks of exchange – and then we can (possibly) become collectively smarter at more combinatorial a level, handling more abstract issues, like multilateral peace treaties or climate change. Moreover, the gradient of energy consumed, between the collective understanding of simple and basic things, on the one hand, and the overarching abstract issues, is a good predictor regarding the capacity of the given society to survive and thrive.

Once again, I am trying to associate this research in neurophysiology with my game-theoretical approach to energy markets. First of all, I recall the three theories of games, co-awarded the economic Nobel prize in 1994, namely those by: John Nash, John (Yan) Harsanyi, and Reinhard Selten. I start with the latter. Reinhard Selten claimed, and seems to have proven, that social games have a memory, and the presence of such memory is needed in order for us to be able to learn collectively through social games. You know those situations of tough talks, when the other person (or you) keeps bringing forth the same argumentation over and over again? This is an example of game without much memory, i.e. without much learning. In such a game we repeat the same move, like fish banging its head against the glass wall of an aquarium. Playing without memory is possible in just some games, e.g. tennis, or poker, if the opponent is not too tough. In other games, like chess, repeating the same move is not really possible. Such games force learning upon us.

Active use of memory requires combinatorial meaning. We need to know what is meaningful, in order to remember it as meaningful, and thus to consider it as valuable data for learning. The more combinatorial meaning is, inside a supposedly intelligent structure, such as our brain, the more energy-consuming that meaning is. Games played with memory and active learning could be more energy-consuming for our collective intelligence than games played without. Maybe that whole thing of electronics and digital technologies, so hungry of energy, is a way that we, collective human intelligence, put in place in order to learn more efficiently through our social games?

I am consistently delivering good, almost new science to my readers, and love doing it, and I am working on crowdfunding this activity of mine. As we talk business plans, I remind you that you can download, from the library of my blog, the business plan I prepared for my semi-scientific project Befund  (and you can access the French version as well). You can also get a free e-copy of my book ‘Capitalism and Political Power’ You can support my research by donating directly, any amount you consider appropriate, to my PayPal account. You can also consider going to my Patreon page and become my patron. If you decide so, I will be grateful for suggesting me two things that Patreon suggests me to suggest you. Firstly, what kind of reward would you expect in exchange of supporting me? Secondly, what kind of phases would you like to see in the development of my research, and of the corresponding educational tools?

[1] Pierson, L. M., & Trout, M. (2017). What is consciousness for?. New Ideas in Psychology, 47, 62-71.

[2] Pulvermüller, F. (2013). How neurons make meaning: brain mechanisms for embodied and abstract-symbolic semantics. Trends in cognitive sciences, 17(9), 458-470.

[3] Patterson, K. et al. (2007) Where do you know what you know? The representation of semantic knowledge in the human brain. Nat. Rev. Neurosci. 8, 976–987

[4] Bookheimer,S.(2002) FunctionalMRIoflanguage:newapproachesto understanding the cortical organization of semantic processing. Annu. Rev. Neurosci. 25, 151–188

[5] Price, C.J. (2000) The anatomy of language: contributions from functional neuroimaging. J. Anat. 197, 335–359

[6] Binder, J.R. and Desai, R.H. (2011) The neurobiology of semantic memory. Trends Cogn. Sci. 15, 527–536

Coefficients explosifs court-terme

Mon éditorial sur You Tube

Je savais que ça allait arriver : pour moi, l’avènement du semestre d’hiver, à la fac, c’est inévitablement un changement profond de rythme de vie et de travail. Sur toute l’année académique, donc à partir du mois d’octobre jusqu’au mois de juin, plus de 70% de mon volume horaire d’enseignement prend lieu précisément entre le 1er Octobre et le 30 Janvier. Ce plus de 70%, cette année-ci, cela veut dire 630 heures de cours sur 4 mois.

Quoi qu’il en soit, je tiens à maintenir ne serait-ce qu’un rythme lent d’écriture sur mon blog. Un rythme lent vaut mieux que pas de rythme du tout. Je sais que le fait de blogger régulièrement me donne une sorte d’apprentissage additionnel, comme un processus supplémentaire de traitement d’information dans mon cerveau.

Les deux mois qui viennent de s’écouler m’ont amené à quelques réalisations capitales. Je pense que la première d’entre elles est que l’enseignement est vraiment mon élément. « Eh bien voilà qu’il vient de découvrir l’Amérique, le gars » vous rigolerez, « Il a été prof pour douze ans et voilà qu’il vient de découvrir qu’il aime le job. Vaut mieux tard que jamais ». Oui, ça me fait rigoler, moi aussi, donc j’explique. Les deux premières semaines avec ce plan de cours super chargé, à la fac, ça me faisait un peu irrité (et irritable, par ailleurs). C’était une matinée il y a à peu près dix jours que je m’étais rendu compte que la perspective de cinq heures de cours ce jours précis ça me branchait. Oui, ça me branchait. Je sentais ce flot extrêmement plaisant d’adrénaline et de sérotonine, le mélange d’excitation et de volonté d’action.

L’enseignement est donc ce qui met mon système nerveux en vitesse de compétition, en quelque sorte. Banal et fondamental en même temps. Je veux approcher la chose de façon scientifique. Objectivement, l’enseignement en classe c’est de la communication et c’est précisément ce qui met mon système nerveux central en cet état d’excitation plaisante. Subjectivement, lorsque j’y pense, la communication en classe me procure deux sensations majeures : celle de connecter très vite des parcelles d’information, en des phrases intelligibles, et celle de dire ces phrases à un public.

Puisque j’y suis à la connexion des parcelles d’information, je peux aussi bien me vanter d’en avoir connecté un peu. Je viens de pondre un article sur le marché d’énergie, sous un titre de travail « Apprehending energy efficiency : what is the cognitive value of hypothetical shocks ? ».  Je donne ce titre en lien hypertexte pour que vous puissiez accéder le brouillon que j’ai déposé comme proposition de publication chez « Energy Economics ».  Je donne ici un sommaire de mon raisonnement. J’avais commencé par connecter deux types de phénomènes : tous les trucs que j’eusse observés par rapport au marché d’énergie, durant ces deux dernières années, d’une part, avec un phénomène de toute autre nature, c’est-à-dire le fait que l’économie de notre planète est en train de traverser la plus longue période de croissance économique ininterrompue depuis 1960. En même temps, l’efficacité énergétique de l’économie mondiale – mesurée avec le coefficient de PIB par kilogramme d’équivalent pétrole de consommation finale d’énergie – continue de croître paisiblement. Je m’étais demandé : y-a-t-il un lien entre les deux ? Est-il concevable que l’accalmie présente du cycle macroéconomique vienne du fait que notre espèce avait appris quelque chose de plus en ce qui concerne l’exploitation des ressources énergétiques ?

Comme j’y pense, j’ai quelques intuitions (obsessions ?) qui reviennent encore et encore. Intuition no. 1 : l’intensité de consommation d’énergie est liée au niveau général de développement socio-économique, y compris développement institutionnel (stabilité politique etc.). Je l’ai déjà exprimée, celle-là, dans « Les 2326 kWh de civilisation ». Intuition no. 2 : la vitesse de changement technologique est plutôt une cadence rythmée dans un cycle qu’une vitesse proprement dite. En d’autres mots, les technologies, ça change de génération en génération. Toute technologie à un cycle de vie et ce cycle de vie se reflète dans son coefficient d’amortissement. Changement au niveau de l’efficience énergétique d’un système économique se passe au rythme d’un cycle de vie des technologies. Intuition no. 3 : les marchés financiers, y compris les systèmes monétaires, jouent un rôle similaire au système endocrinien dans un organisme vivant. L’argent, aussi bien que d’autres titres financiers, c’est comme des hormones. Ça transmet l’information, ça catabolise quelque chose et anabolise quelque chose d’autre. S’il y a quoi que ce soit d’important qui se passe niveau innovation, ça engage les marchés financiers.

Dans la science, il est bon de prendre en considération l’avis d’autres personnes, pas seulement mes propres intuitions. Je veux dire, c’est aussi une bonne habitude dans d’autres domaines de la vie. Après avoir donc fait ce qui s’appelle ‘revue de la littérature’, j’avais trouvé une corroboration partielle de mes propres intuitions. Il y a un modèle intéressant d’efficience énergétique au niveau macroéconomique appelé « MuSIASEM » qui appréhende la chose précisément comme s’il était question du métabolisme d’un organisme vivant (consultez, par exemple, Andreoni 2017[1] ou bien Velasco-Fernández et al. 2018[2]).

De tout en tout, j’avais formulé un modèle théorique que vous pouvez trouver, en détail, dans ce manuscrit brouillon. Ce que je voudrais discuter et explorer ici est une composante particulière de cette recherche, un truc que j’avais découvert un peu par hasard. Lorsque je fais de la recherche quantitative, j’aime bien jouer un peu avec les données et avec les façons de les transformer. D’autre part, en sciences économiques, lorsqu’on fait des tests économétriques sur des séries temporelles, l’une des choses les plus fondamentales à faire est de réduire les effets de la non-stationnarité ainsi que ceux de la différence entre des échelles de mesure. De ce fait, une procédure commune consiste à prendre ce qu’on appelle le moment d’observation au lieu de l’observation elle-même. La première dérivée est un moment, par exemple. Le moment est donc la dynamique de quelque chose. Pour ceux qui sont un peu familiers avec l’économie, les coefficients tels que la valeur marginale ou bien l’élasticité sont des moments.

Je voulais donc jouer un peu avec les moments de mes données empiriques. Entre temps, j’avais presque automatiquement calculé les logarithmes naturels de mes données, histoire de les calmer un peu et éliminer des variations accidentelles à court-terme. Le logarithme naturel c’est la puissance à laquelle il faut élever la constante mathématique e = 2,71828 pour obtenir le nombre donné. C’est alors que je m’étais souvenu d’une interprétation possible des logarithmes naturels et de la constante « e », celle de la progression exponentielle. Je peux construire une fonction mathématique de forme générale « y = et*a » où t est le numéro de série d’une période spécifique de temps et a est un paramètre. La progression exponentielle a la réputation de représenter particulièrement bien les phénomènes qui se déploient dans le temps comme la construction d’un mur, où chaque brique consécutive repose sur les briques posées auparavant. On appelle ce type de développement « hystérèse » et en général, cela veut dire que les résultats obtenus dans la période précédente forment une base pour les choses qui se passent dans la période suivante.

Normalement, dans la version scolaire de la progression exponentielle, le paramètre « a » est constant, seulement moi, je voulais jouer avec. Je me suis dit que si j’avais déjà calculé les logarithmes naturels de mes observations empiriques, je peux aussi bien assumer que chaque logarithme est l’exposante « t*a » de la fonction « y = et*a ». J’ai donc un « a » local pour chaque observation empirique et ce « a » local est un moment (une dynamique locale) de cette observation. Question : comment extraire le « t » et le « », séparément, du « t*a » ? La réponse était toute bête : comme je veux. Je peux créer une ligne temporelle arbitraire, donc assigner à chaque observation empirique une abscisse de période selon mon gré.

A ce moment-là, je me suis dit qu’il y a deux lignes temporelles alternatives qui m’intéressent particulièrement dans le contexte donné de recherche sur l’efficience énergétique des économies nationales. Il y a une ligne de changement lent et séculaire, la cadence de mûrissement des civilisations en quelque sorte et d’autre part il y a une ligne de changement explosif à court terme. Mes observations empiriques commençaient toutes en 1990 et continuaient jusqu’en 2014. Je pouvais donc simuler deux situations alternatives. Premièrement, je pouvais considérer tout ce qui s’était passé entre 1990 et 2014 comme partie d’un processus exponentiel initialisé il y a longtemps. Un siècle auparavant, c’est longtemps, tenez. Je pouvais donc prendre chaque abscisse temporelle entre 1990 et 2014 et lui assigner une coordonnée spéciale, égale à « année – 1889 ». L’année 1990 serait donc « 1990 – 1889 = 101 » pendant que 2014 correspondrait à « 2014 – 1889 = 125 » etc.

Deuxièmement, je pouvais assumer que ma période de 1990 à 2014 représente les conséquences de quelque évènement hypothétique qui venait d’avoir pris lieu, par exemple en 1989. L’année 1990 aurait alors l’abscisse temporelle t = 1990 – 1989 = 1, et 2014 serait t = 2014 – 1989 = 25. J’avais fait ces deux transformations : pour chaque observation empirique j’avais pris son logarithme naturel et ensuite je l’avais divisé, respectivement, par ces deux abscisses temporelles alternatives, l’une sur une ligne s’étendant depuis 1889 et l’autre initialisée en 1989. Comme je ruminais ces résultats, j’avais remarqué quelque chose que j’aurais dû prévoir si j’étais un mathématicien et non pas un économiste sauvage qui utilise les maths comme un Néanderthalien utiliserait une calculatrice. Lorsque j’assume que mon histoire commence en 1990, donc que t = 1990 – 1989 = 1 etc., chaque « t » consécutif est beaucoup plus grand que son prédécesseur, mais cette différence décroit très vite. Tenez, t(1991) = 1991 – 1989 = 2 et ça fait deux fois plus que t(1990) = 1990 – 1989 = 1. Cependant t(1995) = 1995 – 1989 = 6 et ça fait juste 20% de plus que t(1996) = 1994 – 1989 = 5. Si je divise donc mes logarithmes naturels par ces « t » qui grimpent vite, mes moments « a » locaux décroissent tout aussi vite et la cadence de cette décroissance ralentit tout aussi vite.

Quel genre de phénomène dans la vie réelle une telle progression mathématique pourrait bien représenter ? Je me suis dit que si un choc profond avait pris lieu en 1989 et avait envoyé des ondes de choc de force décroissante dans l’avenir, ce serait à peu près ça. C’est alors que vient le truc vraiment intéressant dans cette recherche que je viens de faire. Les données transformées en cette onde de choc relativement courte, se répandant depuis 1989, donnent le plus grand pouvoir explicatif dans mon modèle et lorsque je parle de « plus grand » cela veut dire un coefficient de détermination qui se balance vers R2 = 0,9 et un coefficient de signifiance statistique de p < 0,001.

Encore une fois. Je prends un modèle de changement niveau efficience énergétique d’économies nationales. Je veux dire mon modèle. Je le teste avec trois types de données transformées : les logarithmes naturels, genre de calmer le jeu, ensuite des coefficients exponentiels locaux long-terme, qui commencent leur histoire en 1889, et enfin des coefficients exponentiels qui racontent une histoire explosive à partir de 1989. Les derniers, je veux dire les explosifs court-terme, racontent l’histoire la plus cohérente en termes de pouvoir explicatif. Pourquoi ? Qu’y a-t-il de si exceptionnel dans cette représentation particulière des données quantitatives ? Honnêtement, je ne sais pas. Tout ce qui me vient à l’esprit est ce créneau de recherche sur l’innovation et le changement technologique qui perçoit ces phénomènes comme une série d’à-coups et de virages soudains plutôt qu’une ligne continue d’évolution progressive (consultez, par exemple, Vincenti 1994[3], Edgerton 2011[4]).

Je me suis dit que – puisque je discute le mécanisme de changement de l’efficience énergétique des économies nationales, mesurée en unités de PIB par unité d’énergie consommée – il est intéressant de regarder du côté des projections officielles à long terme. Ces derniers jours, deux rapports ont été largement publicisés à cet égard : celui d’OECD et celui de PriceWaterhouse Coopers. Niveau conclusions, ils sont tous les deux plutôt optimistes et semblent contredire les pronostics alarmants de certains économistes qui augurent une crise imminente. Ce qui m’intéresse le plus, toutefois, sont les méthodologies de prédictions utilisées dans les deux rapports. Celui de PriceWaterhouse Coopers se réfère au modèle classique de Solow de 1956[5] pendant qu’OECD vogue plutôt dans la direction de la fonction de production de Cobb-Douglas, transformée en logarithmes naturels. La différence entre les deux ? La fonction de production assume un état d’équilibre macroéconomique. En fait, la fonction de production en elle-même est un équilibre et cet équilibre sert comme point de repère pour prédire ce qui va se passer le plus probablement. En revanche, le modèle de Solow ne requiert pas nécessairement un équilibre. Enfin, ça gène pas, mais ce n’est pas absolument nécessaire. Quand j’y pense, la méthodologie que je viens d’employer dans mon article est plus proche de celle de Solow, donc du rapport de PriceWaterhouse Coopers que de celui d’OECD.

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Vous pouvez donner votre support financier à ce blog


[1] Andreoni, V. (2017). Energy Metabolism of 28 World Countries: A Multi-scale Integrated Analysis. Ecological Economics, 142, 56-69

[2] Velasco-Fernández, R., Giampietro, M., & Bukkens, S. G. (2018). Analyzing the energy performance of manufacturing across levels using the end-use matrix. Energy, 161, 559-572

[3] Vincenti, W.G., 1994, The Retractable Airplane Landing Gear and the Northrop “Anomaly”: Variation-Selection and the Shaping of Technology, Technology and Culture, Vol. 35, No. 1 (Jan., 1994), pp. 1-33

[4] Edgerton, D. (2011). Shock of the old: Technology and global history since 1900. Profile books

[5] Solow, R. M. (1956). A contribution to the theory of economic growth. The quarterly journal of economics, 70(1), 65-94.

Średnia, która tak naprawdę nie istnieje

Mój wstępniak na You Tube

No i mamy za sobą 1 października. Dzień, kiedy te trochę starsze dzieci idą do szkoły zwanej „wyższą uczelnią”. Zaczynam obrabiać moje 630-godzinne pensum przewidziane na ten semestr i jednocześnie nie przestaję myśleć. W sumie, jak uczę, to staram się nie myśleć za wiele, bardziej się wczuwam, ale myślę przed zajęciami, a czasem i po. Myślę teraz nad związkiem pomiędzy etyką i biznesem: czy działając etycznie firma zmniejsza czy zwiększa swoją zdolność przetrwania i rozwoju ? Poprawność polityczna nakazuje powiedzieć „zdecydowanie tak, etyczne działanie przyczynia się do zwiększenia konkurencyjności”. Przegląd literatury naukowej na ten temat nie jest już jednak tak jednoznaczny: czasami jest tak, a czasami zupełnie inaczej.

Chcę wykorzystać to ogólne pytanie, tzn. „Czy w biznesie opłaca się działać etycznie ?” jako pretekst to kolejnej gawędy na temat metody naukowej, a dokładnie na temat badania związku między zjawiskami. Chcę się bliżej przyjrzeć trzem metodom badania takiego związku: statystycznej analizie korelacji, analizie współzmienności (zwanej też analizą krańcową) oraz analizie Bayesowskiej.

Czy w biznesie opłaca się działać etycznie ? Z naukowego punktu widzenia to pytanie przekłada się na założenie, że jestem w stanie zaobserwować dwa odmienne zjawiska – etykę w działaniu (czy też stopień urzeczywistnienia wartości etycznych w działaniu) z jednej strony i opłacalność z drugiej strony. Ważne pytanie: czy jestem w stanie mierzyć twa dwa zjawiska z podobną precyzją ? Pytanie jest ważne, ponieważ od razu rzutuje na to, którą z trzech wymienionych powyżej metod badania zależności wybiorę.

Czy mogę zmierzyć etykę działania przedsiębiorstwa tak samo dokładnie, jak mierzę jego opłacalność ? Jeżeli chcę zmierzyć ją bezpośrednio, to mam problem. Przestrzeganie albo nieprzestrzeganie norm postępowania – etycznych, prawnych, technicznych itp. – jest oparte na osądzie kategorycznym. Przestrzegam albo nie przestrzegam. Trudno byłoby popełnić 60% kradzieży. Twierdzenie że jestem w 36% uczciwym pracodawcą niekoniecznie byłoby najlepszą reklamą na rynku pracy. Możliwą furtką jest pomiar częstości naruszenia norm etycznych i chyba to jest właśnie powód, dla którego przedsiębiorstwa odchodzą od polityki społecznej odpowiedzialności pojmowanej jako kodeks etyczny w kierunku tzw. polityki zrównoważonego rozwoju. W przeciwieństwie do przestrzegania norm etycznych, przestrzeganie zasad zrównoważonego rozwoju to stosunkowo łatwy pomiar. Można dokładnie policzyć, ile spośród zużywanych przez moją firmę kilowatogodzin energii pochodzi ze źródeł odnawialnych, czy też jaki procent odpadów generowanych w mojej firmie poddaję recyklingowi.

Tak czy inaczej, kiedy badam zależność między opłacalnością biznesu a etyką jego działania, mogę się znaleźć w jednej z trzech sytuacji poznawczych: a) mam dwa zjawiska obiektywnie mierzalne z podobną dokładnością b) ma dwa zjawiska, z których każde jest obiektywnie mierzalne, ale pomiar jednego z nich jest wyraźnie mniej dokładny niż tego drugiego c) mam dwa zjawiska, z których przynajmniej jedno nie ma zobiektywizowanej skali pomiaru i moja obserwacja opiera się na osądzie kategorycznym, czyli na zaliczaniu obserwacji do stosunkowo szerokich kategorii.

Zacznijmy od rzutu oka na pierwszy wariant: mierzę dwa różne zjawiska przy pomocy skal pomiaru o zbliżonej dokładności. Wtedy mogę założyć, że każde z moich zjawisk ma swoją wartość średnią, czyli mam jakąś średnią opłacalność obserwowanych firm i średni poziom przestrzegania norm etycznego działania. Urok średniej arytmetycznej polega na tym, że ona istnieje tylko częściowo. Jeżeli wezmę zbiór liczb 4, 6, 12, 56, 9 oraz 7, ich średnia arytmetyczna jest równa 15,66666667. Jest to wartość, której nie obserwuję w zbiorze, ale ona jednak jakoś tam jest, tak jakby przynależy i jest skoligacona. Jednakowoż z faktu, że jednak tak do końca to jej tam nie ma wynika istotny wniosek: każda wartość w zbiorze jest w jakiś sposób odchylona od średniej ze zbioru. Jeżeli wezmę 100 firm i policzę ich średnią opłacalność, każda pojedyncza firma będzie w którąś stronę odchylona od tej średniej, na plus albo na minus. Możemy policzyć średnią wartość typowego odchylenia od średniej i mamy wtedy miarę statystyczną zwaną odchyleniem standardowym. Odchylenie standardowe jest jak ten typowo chwiejny krok osób, które stosunkowo często wracają do domu przyswoiwszy uprzednio znaczną ilość napojów wyskokowych. Chwieję się i mnie znosi na boki i wiem o tym i wiem jak balansować tymi długimi białymi skrzydłami u ramion żeby jednak nie upaść.

Jeżeli mam dwa takie mierzalne zjawiska i chcę zbadać ich wzajemny związek, mogę spróbować odpowiedzieć sobie na pytanie: jeżeli jedno zjawisko jest odchylone od swojej własnej średniej o 20% na plus, to jakie jest prawdopodobieństwo że drugie też będzie odchylone o 20% na plus ? Obserwuję wtedy, jakie odchylenie od średniej w ramach zjawiska B towarzyszy odchyleniu od średniej w zjawisku A. Powiedzmy, że dana firma jest odchylona o 20% na plus pod względem opłacalności i 30% na minus pod względem etyki w działaniu. Mnożę to plus 20% razy minus 30% i wychodzi mi – 6%. Te -6% to jest lokalna kowariancja, w tej konkretnej firmie, między etyką i opłacalnością.

Teraz biorę moje wszystkie 100 firm i dla każdej z nim mam taką lokalną kowariancję. Wyciągam średnią arytmetyczną z tych wszystkich lokalnych kowariancji i mam wtedy ogólną kowariancję, w tym zbiorze obserwacji, między opłacalnością a etyką. Każda z moich dwóch zmiennych ma swoje własne odchylenie standardowe, czyli swój własny, chwiejny, pijacki krok. Chodzi o to, żeby sprawdzić, w jakiej części ogólna kowariancja naszych zmiennych to wyłącznie statystyczna iluzja, wynikająca z nałożenia się dwóch odchyleń standardowych, a w jakiej mierze to jest coś naprawdę ważnego, jakiś związek między zjawiskami. Bułka z masłem. Liczę tzw. korelację, czyli dzielę ogólną kowariancję dwóch zmiennych przez iloczyn ich odpowiednich odchyleń standardowych.

Jeżeli wyjdzie mi korelacja między -1 a -0,3, etyka jest istotnie ujemnie skorelowana z opłacalnością. Im uczciwsi, tym biedniejsi. Jeżeli moja korelacja zawiera się między -0,3 a 0,3, z reguły nie ma o czym pisać na Fejsie. W zasadzie brak podstaw do stwierdzenia jakiejkolwiek korelacji. Jeżeli wreszcie mój współczynnik korelacji jest gdzieś między 0,3 a 1, no to wtedy opłaca mi się być uczciwym: im więcej etyki w działaniu, tym więcej kasy. Pięknie.

No dobra, ale to było wszystko przy idealnym założeniu, że mogę mierzyć etykę w działaniu tak samo, jak opłacalność biznesu. Teraz pora na lekką rozbieżność skal pomiarowych: mogę mierzyć etykę mojego działania, ale nie tak samo dokładnie jak opłacalność mojego biznesu. Badanie korelacji może być ciekawe, ale jednocześnie mylące. Tym bardziej mylące, im większa rozbieżność skal pomiarowych. Z reguły mamy wynik zafałszowany w dół: korelacja statystyczna wychodzi nieistotna w sytuacji, kiedy jednak jakiś związek jest. W takiej sytuacji można użyć klasycznego narzędzia analitycznego nauk ekonomicznej: analizy elastyczności, zwanej inaczej analizą wartości krańcowych.

Matematycznie rzecz biorąc, analiza elastyczności opiera się na pojęciu pochodnej. Pochodna funkcji to inaczej ∆y/∆x, czyli (y1 – y0)/(x1 – x0). Przypuśćmy teraz, że rozluźniamy nieco założenia odnośnie związku pomiędzy zmiennymi: x oraz y mogą być ze sobą jakoś funkcjonalnie związane, ale nie muszą. Mogą być wzajemnie niezależne. Iloraz ∆y/∆x mówi wtedy, w jakiej proporcji zmieni się wartość zmiennej y, jeżeli zmienna x wzrośnie albo zmaleje o jednostkę. W jakiej proporcji wzrośnie albo spadnie opłacalność biznesu – jaka będzie ∆y – jeżeli stopień urzeczywistnienia wartości etycznych w działalności tej firmy wzrośnie albo spadnie (czyli ∆x) o jednostkę ?

Współczynnik elastyczności nadaje się przede wszystkim do badania zależności dynamicznych. Wiadomo: mówimy o zmianie. Interesuje nas przebieg zjawisk w czasie. Wyliczamy nasz współczynnik ∆(opłacalność)/∆(etyczne działanie) dla każdego przypadku, w którym możemy mniej więcej określić skalę zmiany w zakresie etycznego działania przedsiębiorstwa. Sprawdzamy, czy w naszej próbce obserwacji wartość tego współczynnika jest raczej powtarzalna czy też mocno rozstrzelona. W pierwszym przypadku możemy mówić o jakiejś zależności, w drugim raczej nie.

Teraz opuszczamy wygodny i nieco fikcyjny świat, w którym stopień urzeczywistnienia wartości etycznych jest mierzalny na jakiejś powtarzalnej skali. Wchodzimy do świata, w którym albo jesteśmy w porządku albo nie, a więc gdzie etyczna wartość naszych działań opiera się na osądzie kategorycznym. Dla mnie to świetny pretekst, żeby ponownie nawiązać do filozofii matematycznej Thomasa Bayesa, będącej podstawą metody zwanej dzisiaj statystyką Bayesowską. Pisałem na temat jej podstaw już wcześniej, we wpisie pod tytułem „Dwie kule w Kalifornii i wielebny Thomas Bayes”. Teraz mam okazję pokazać inne jej praktyczne zastosowanie.

Przypuśćmy znowu, że badamy 100 firm, pod względem etyki ich działalności oraz jej związku z opłacalnością biznesu. Wyznaczamy standard etyczny działalności tak, żeby można było dokonać podziału logicznego tej populacji, na tych, którzy są w porządku oraz na tych, którzy niezupełnie. W ten sposób dzielimy naszą populację na dwie kategorie, czyli w świecie metody Bayesa dzielimy prostokąt rzeczywistości na dwa pod-prostokąty: jeden odpowiadający firmom działającym etycznie, drugi zaś obejmujący te działające nieetycznie. W praktyce, ten drugi prostokąt jest łatwiejszy do wyznaczenia. Selekcjonujemy te firmy, które możemy bez wątpienia uznać za odpowiednik ludzkiej kategorii „ten cholerny skurwysyn” i grupujemy je w jednym podzbiorze, a więc w jednym z naszych dwóch pod-prostokątów.

Pierwsze obliczenie ilościowe polega zwyczajnie na analizie proporcji. Jeżeli w naszym całkowitym zbiorze 100 firm jest pięciu „cholernych skurwysynów” i 95 firm, które przynajmniej trochę przestrzegają wartości etycznych, to pod-prostokąt nieetycznych jest jak 5 do 100, a więc 5%, podczas gdy pod-prostokąt tych przynajmniej mniej więcej w porządku jest jak 95 do 100, czyli 95%.

Teraz skupiamy się na tych 95% firm, które przynajmniej wyglądają jakby były w miarę w porządku pod względem etyki w działaniach biznesowych. Przyjrzyjmy się im. Być może wyłonią się jakieś intuicyjne kategorie. To tak, jakby każda z tych 95 firm była odrębną, zapisaną kartką papieru i my staramy się intuicyjnie podzielić je na dwa albo więcej odrębnych stosów. No to podzielmy. Wyszły trzy intuicyjnie odrębne stosy ? No i dobrze. Teraz zróbmy dokładniejszy przegląd: czym te stosy kartek (firm) różnią się między sobą wzajemnie ? Aha, przestrzeganie praw pracowniczych. W stosie A ponad 80% pracowników skarży się na mobbing albo na łamanie ich praw. W stosie A ta proporcja oscyluje pomiędzy 30% a 50%. W stosie C utrzymuje się systematycznie poniżej 10%. Mamy trzy kategorie etyczne. Jest to podejście kontekstualne do wartości etycznych, a więc patrzymy na etykę przez pryzmat efektów, w tym wypadku skarg ze strony pracowników. Emmanuel Kant miałby zapewne kilka słów do powiedzenia na ten temat, np. że wartość etyczna musi być treścią i zamierzonym celem działania, a nie tylko jego efektem. No tak, ale lepiej mieć miarę etyki kontekstualnej niż nie mieć miary etyki w ogóle.

Podzieliliśmy nasze 100 firm na kategorie. Jest to coś w rodzaju mierzalnej skali, jednak tylko coś w rodzaju. Porządna skala czegokolwiek – np. temperatura na termometrze – jest podzielona na równe, przylegające odcinki. Są takie termometry w sklepach z zabawnymi gadżetami, które zamiast pokazywać temperaturę na normalnej skali wyświetlają kategorie, np. „strasznie zimno”, „tylko trochę zimno, ale może być”, „herbata już nie zamarza”, „przyjemne ciepło” i „no, mogłoby być trochę chłodniej”. My, w naszym dzieleniu populacji 100 firm na odrębne kategorie pod względem obserwowalnej etyki w działaniu, stworzyliśmy właśnie takie kategorie. Ani równe, ani przyległe, ale lepsze to niż nic.

Liczymy, ile firm mamy w każdym ze stosów: A – 30, B – 50, C – 15. Podsumowując, jeżeli nasza próbka 100 firm jest reprezentatywna dla ogólnej populacji, to rzeczona ogólna populacja składa się zapewne z: 5/100 = 5% tych kompletnie pozbawionych wartości etycznych w biznesie, 30/100 = 30% takich niezbyt sympatycznych, 50/100 = 50% takich w sumie całkiem w porządku i wreszcie 15/100 = 15% takich prawie zupełnie OK. Intuicyjne dzielenie próbki badawczej na kategorie pozwoliło odtworzyć coś w rodzaju struktury. Mogę spróbować wyciągnąć z tego jeszcze więcej. W oparciu o otrzymane wyniki, stawiam przykładową hipotezę typu Bayesowskiego: prawdopodobieństwo, że badając kolejne 100 firm napotkam 50 firm typu B oraz 50 przedstawicieli pozostałych trzech kategorii, wynosi P = {n!/[p!(n-p)!]}*ap*bq = {100!/[50!(100 – 50)!]}*0,550*0,550 = 7,96%. Mogę tej hipotezy użyć do dalszego badania sensowności kategorii, jakie wyznaczyłem. Sprawdzam kolejne próbki firm i jeżeli faktycznie wyjdzie mi te 7,96%, to znaczy że moja kategoryzacja jest solidna. Jeżeli nie, trzeba szukać dalej.

Obliczamy teraz średnie wartości wskaźników opłacalności w tych kategoriach, (np. średnią stopę zwrotu z kapitału własnego) oraz odchylenia standardowe od tych średnich. W ten sposób możemy dojść do kilku alternatywnych wniosków. Scenariusz nr 1: w miarę przechodzenia od niższej do wyższej kategorii etycznej, opłacalność systematycznie wzrasta. Opłaca się działać etycznie. Scenariusz 2: do pewnego momentu warto działać etycznie, np. opłaca się przejść z kategorii „cholernych skurwysynów” do stosu A, ale dalej to już nie jest takie oczywiste. Mamy coś w rodzaju garbatego wielomianu kwadratowego wybrzuszonego w górę. Scenariusz 3: w sumie na odwrót niż w scenariuszu [2], tzn. opłacalność biznesów w kategorii A jest wyraźnie niższa niż w kategorii „cholernych skurwysynów”, ale potem kategorie B oraz C wykazują coraz wyższą opłacalność. No i wreszcie mamy scenariusz 4, w sumie najgorszy: „cholerne skurwysyny” mają najbardziej opłacalne biznesy, na drugim miejscu są ci z kategorii

Aha, no i jeszcze poza tym odjazdem teoretycznym, funduję moim czytelnikom trochę praktycznie przydatnego materiału do dydaktyki, czyli typową, szkolną analizę przypadku na temat amerykańskiej firmy Life Point Health. Life Point Health Inc. jest amerykańską firmą, która prowadzi sieć lokalnych szpitali, regionalnych systemów opieki zdrowotnej, przychodni oraz oddziałów opieki nad pacjentami po intensywnej terapii[1]. Sieć obiektów prowadzonych przez Life Point Health jest ukierunkowana przede wszystkim na prowincję (co formalnie jest określane przez firmę jako ‘tereny inne niż miejskie’) i liczyła sobie, na koniec 2016 roku, 72 obiekty zlokalizowane w 22 stanach USA, przy całkowitym zasobie łóżek szpitalnych wynoszącym 9 424. Szpitale Life Point Health typowo świadczą opiekę zdrowotną w zakresie: chirurgii ogólnej, interny, położnictwa, oddziałów ratunkowych, radiologii, onkologii, diagnostyki, kardiologii, oraz rehabilitacji ruchowej. W niektórych lokalizacjach ten typowy profil jest wzbogacony czy to o świadczenia bardziej specjalistyczne – operacje na otwartym sercu, kwalifikowana opieka pielęgniarska, psychiatria oraz neurochirurgia – czy też o szerszy zakres opieki pozaszpitalnej i ambulatoryjnej takich, jak chirurgia jednego dnia, badania laboratoryjne, radiologia i diagnostyka obrazowa, terapia oddechowa, medycyna sportowa czy wreszcie litotrypsja[2].

Możecie traktować Life Point Heath Inc. jako przypadek reprezentatywny dla dwóch kategorii: opieki zdrowotnej z jednej strony oraz organizacji sieciowej z drugiej strony. Zaczynamy od specyfiki branży, czyli opieki zdrowotnej. Tabela 1, poniżej, ukazuje strukturę przychodów Life Point Health w podziale na kategorie płatników: publiczne programy opieki zdrowotnej, prywatnych ubezpieczycieli oraz samych pacjentów. Dla tych z Was, którzy nie do końca rozumieją ten mechanizm, kilka słów wyjaśnienia. Kiedy korzystamy z opieki zdrowotnej, możemy finansować otrzymywane świadczenia na trzy sposoby. Po pierwsze, mogą one być opłacane przez państwo, czyli, jak to się potocznie mówi w Polsce, „na NFZ”. Po drugie, możemy korzystać z finansowania świadczeń przez prywatnych ubezpieczycieli. Obejmuje to także tzw. abonamenty zdrowotne (np. Luxmed, Medicover), które nie są umowami ubezpieczenia w ścisłym tego słowa znaczeniu, ale działają na podobnej zasadzie ekonomicznej: ciągły strumień regularnych płatności ze strony pacjenta oraz okazjonalne finansowanie świadczeń przez firmę otrzymującą te płatności. Po trzecie wreszcie, możemy płacić za każde otrzymane świadczenie zdrowotne bezpośrednio z własnej kieszeni. Znamy to szczególnie z kontaktów ze stomatologami czy fizjoterapeutami.

Jak widać w tabeli 1, Life Point Health opiera swoją działalność na swego rodzaju płynnej równowadze między świadczeniami finansowanymi przez sektor publiczny a tymi opłacanymi przez prywatnych ubezpieczycieli. Relacje firmy z klientami odbywają się na dwóch poziomach: klientem jest płatnik z jednej strony oraz pacjent z drugiej. Marketing jest ukierunkowany na tworzenie długofalowych więzi z płatnikami, udokumentowanych odpowiednimi umowami, a jednocześnie na zachęcanie pacjentów do korzystania ze świadczeń zdrowotnych. Według danych Banku Światowego[3], w USA ok. 48,3% wydatków na opiekę zdrowotną pochodzi z programów publicznych, 40,65% to świadczenia opłacane przez prywatnych ubezpieczycieli, a 11,05% to płatności bezpośrednie od pacjentów. Struktura przychodów Life Point Health jest więc zbliżona do struktury rynku jako całości.

Zagadnienie nr 1: W jaki sposób organizacja może stworzyć taką strukturę kontaktów z klientami, która naśladuje strukturę rynku jako całości ?

Jak może wyglądać proces takiego przystosowania ?

Jak mogą wyglądać alternatywne wzorce biznesu w przypadku Life Point Health Inc. ?

Jaką różnicę w funkcjonowaniu organizacji moglibyśmy dostrzec, gdyby ta firma była stosunkowo bardziej skupiona na świadczeniach opłacanych bezpośrednio przez pacjentów ?

Co by było, gdyby skupiła się wyłącznie na relacjach z prywatnymi ubezpieczycielami albo wyłącznie na obsłudze publicznych programów opieki zdrowotnej ?

Tabela 1 Struktura przychodów Life Point Health Inc. według kategorii płatników

Rok 2016 Rok 2015 Rok 2014
Przychody według kategorii płatników Kwota w MLN USD % przychodów przed rezerwą Kwota w MLN USD % przychodów przed rezerwą Kwota w MLN USD % przychodów przed rezerwą
Publiczna opieka zdrowotna (Medicare, Medicaid) 3 294,90 45,3% 2 750,10 45,7% 2 247,40 42,4%
Prywatne ubezpieczenia zdrowotne 3 015,00 41,5% 2 393,50 39,8% 2 210,50 41,7%
Świadczenia opłacane wprost przez pacjentów 832,80 11,4% 749,00 12,5% 744,90 14,1%
Inne świadczenia 130,90 1,8% 121,80 2,0% 98,10 1,9%
Przychody przed rezerwą na poczet rachunków trudno ściągalnych 7 273,60 100,0% 6 014,40 100,0% 5 300,90 100,0%
Rezerwa na poczet rachunków trudno ściągalnych (909,60) -12,5% (800,10) -13,3% (817,80) -15,4%
Przychody po rezerwie na poczet rachunków trudno ściągalnych $6 364,00 87,5% 5 214,30 86,7% 4 483,10 84,6%


Tabela 2, poniżej, pokazuje wyniki finansowe Life Point Health Inc. Tabela 3, dalej poniżej, zawiera dane bilansowe firmy. W strukturze bieżącego wyniku finansowego (Tabela 2) widać szczególną kategorię: „Odpis na rachunki trudno ściągalne”. Chodzi tu o pacjentów, dla których brak jest jasno określonego sposobu sfinansowania świadczeń. Można podejrzewać, że chodzi o osoby stosunkowo ubogie, pozbawione ubezpieczenia zdrowotnego albo też o niejasnej sytuacji ubezpieczeniowej, którzy są jednakowoż przyjmowani do szpitala. Odpis na rachunki trudno ściągalne jest to więc wartość świadczeń zdrowotnych udzielonych takim pacjentom. Widać, że udział tego odpisu w przychodach stopniowo maleje z roku na rok tak, jakby organizacja czegoś się uczyła. Struktura kosztów operacyjnych wydaje się stosunkowo stabilna.  Jednakowoż, stopa zysku brutto jest zmienna z roku na rok. Dane bilansowe (Tabela 3) wskazują na akumulację kapitału po stronie aktywów. Z finansowego punktu widzenia biznes Life Point Health wygląda więc, jakby zbliżał się do stabilizacji.

Zagadnienie nr 2: Co wiecie o strategicznych cechach organizacji, których finanse wyglądają stabilnie ?

Możecie wykorzystać modele analityczne takie, jak macierz BCG albo macierz McKinseya. Co w związku z tym możecie wywnioskować na temat innowacyjności w Life Point Health Inc. ?

Czy wyniki finansowe firmy wskazują raczej na daleko posuniętą innowacyjność w zakresie nowych technologii medycznych, czy też raczej na konserwatyzm ? 

Tabela 2 Wyniki finansowe Life Point Health Inc.

2016 2015 2014
Kategoria Kwota [MLN USD] % udział w przychodach przed odpisem Kwota [MLN USD] % udział w przychodach przed odpisem Kwota [MLN USD] % udział w przychodach przed odpisem
Przychody przed odpisem na rachunki trudno ściągalne 7 273,60 100,0% 6 014,40 100,0% 5 300,90 100,0%
Odpis na rachunki trudno ściągalne (909,60) -12,5% (800,10) -13,3% (817,80) -15,4%
Przychody po odpisie na rachunki trudno ściągalne 6 364,00 87,5% 5 214,30 86,7% 4 483,10 84,6%
Wynagrodzenia i dodatki do wynagrodzeń 3 047,40 41,9% 2 496,90 41,5% 2 134,50 40,3%
Zakupy zewnętrzne 1 066,60 14,7% 815,00 13,6% 699,00 13,2%
Inne koszty operacyjne 1 558,10 21,4% 1 246,40 20,7% 1 087,30 20,5%
Inne dochody (29,90) -0,4% (49,70) -0,8% (71,90) -1,4%
Amortyzacja 344,60 4,7% 279,00 4,6% 250,50 4,7%
Odsetki netto od zobowiązań finansowych 149,20 2,1% 114,40 1,9% 123,00 2,3%
Koszty z tytułłu zmiany wyceny wartości aktywów 1,20 0,0% 13,80 0,2% 57,70 1,1%
Saldo innych zdarzeń 22,00 0,3% (4,00) -0,1% 0,0%
Koszty razem 6 159,20 84,7% 4 911,80 81,7% 4 280,10 80,7%
Zysk brutto przed opodatkowaniem 204,80 2,8% 302,50 5,0% 203,00 3,8%
Odpis na podatek dochodowy 73,00 1,0% 109,50 1,8% 68,10 1,3%
Zysk netto po opodakowaniu 131,80 1,8% 193,00 3,2% 134,90 2,5%


Tabela 3 Bilans Life Point Health Inc.

Bilans, MLN USD 2016 2015
Aktywa płynne 1 315,30 1 266,00
Gotówka i odpowiedniki 96,10 284,00
Należności 912,70 743,70
Zapasy 154,30 127,70
Wydatki przedpłacone 71,90 50,80
Inne aktywa płynne 80,30 59,80
Aktywa trwałe 5 209,20 4 322,30
Grunty 191,60 162,80
Budynki 2 601,60 2 272,30
Sprzęt 2 237,70 1 767,80
Bodowy w toku 178,30 119,40
Skumulowana amortyzacja (2 142,40) (1 840,00)
Aktywa niematerialne 80,30 70,60
Inne aktywa długoterminowe 78,70 510,40
Wartość firmy (ang. Goodwill) 1 777,90 1 667,50
Aktywa razem 6 319,00 5 996,80
Zobowiązania 3 976,90 3 584,40
Kapitał własny 2 342,10 2 412,40
Pasywa razem 6 319,00 5 996,80


Tabele 4 – 6, poniżej, pokazują strukturę sieci szpitali Life Point Health Inc. w podziale na rynki poszczególnych stanów w USA. Dodatkowo, tabela 7 dalej poniżej, dostarcza informacji na temat rynków poszczególnych stanów. Sieć Life Point Health skupia się na rynkach ośmiu stanów: Karoliny Północnej, Kentucky, Tennessee, Virginii, Pensylwanii, Michigan, Georgii oraz Nowego Meksyku. Firma ma swoje placówki także w innych stanach, jednak te osiem rynków stanowych przynosi lwią część przychodów firmy. Z drugiej strony, porównanie tychże przychodów z rozmiarami rynków świadczeń zdrowotnych w tych stanach (patrz: Tabela 7) wskazuje, że w żadnym z nich Life Point Health nie ma pozycji chociażby zbliżonej do monopolu. Wracamy w ten sposób do kwestii sposobu, w jaki organizacja przystosowuje się do otoczenia.

Zagadnienie nr 3: Proszę wymodelować proces rozwoju sieci placówek Life Point Health Inc. W jaki sposób struktura sieciowa w ogóle może zacząć się tworzyć ? Jakie mechanizmy i jakie bodźce rynkowe mogą spowodować, że dwie lub więcej placówek medycznych łączą się w sieć ?

Tabela 4 Przychody Life Point Health Inc. w układzie geograficznym

Przychody w MLN USD
Stan Liczba obiektów 2016 2015 2014
Karolina Północna 9 947,90 580,30 372,60
Kentucky 10 679,90 638,50 587,90
Virginia 6 661,80 641,90 624,40
Pensylwania 4 562,50 566,50 *
Michigan 3 468,00 476,20 460,80
Georgia 2 453,70 * *
Tennessee 10 450,10 420,70 404,50
Nowy Meksyk 2 320,40 287,30 266,50
Inne stany 26  2 729,30  2 403,00  2 584,20


Tabela 5 Struktura geograficzna przychodów Life Point Health Inc. w ujęciu procentowym

Udział w przychodach [%]
Stan 2016 2015 2014
Karolina Północna 20,9% 16,1% 13,7%
Kentucky 15,0% 17,7% 21,6%
Virginia 14,6% 17,8% 23,0%
Pensylwania 12,4% 15,7% *
Michigan 10,3% 13,2% 17,0%
Georgia 10,0% * *
Tennessee 9,9% 11,6% 14,9%
Nowy Meksyk 7,1% 8,0% 9,8%
Inne stany 37,5% 40,0% 48,8%


Tabela 6 Zróżnicowanie geograficzne sieci obiektów Life Point Health Inc.

Przychody na 1 obiekt w MLN USD  
Stan 2016 2015 2014 Wzrost przychodów 2014 – 2016 [%] Wzrost liczby ludności 2014 – 2016 [%]
Karolina Północna 105,32 64,48 41,40 154,4% 2,1%
Kentucky 67,99 63,85 58,79 15,6% 0,5%
Virginia 110,30 106,98 104,07 6,0% 1,1%
Pensylwania 140,63 141,63 * 100,0% 0,0%
Michigan 156,00 158,73 153,60 1,6% 0,1%
Georgia 226,85 * * 100,0% 2,2%
Tennessee 45,01 42,07 40,45 11,3% 1,6%
Nowy Meksyk 160,20 143,65 133,25 20,2% -0,1%
Inne stany  104,97  100,13  129,21 5,6% ##


Tabela 7 Wielkość i dynamika rynku poszczególnych stanów

Stan Wydatki na opiekę zdrowotną w USD na głowę mieszkańca [2014][4] Liczba ludności[5] Wartość rynku opieki zdrowotnej w MLN USD Udział Life Point Health w rynku stanowym
Karolina Północna $7 264,00 9 934 399 72 163,47 1,31%
Kentucky $8 004,00 4 413 057 35 322,11 1,92%
Virginia $7 372,00 8 317 372 61 315,67 1,08%
Pensylwania $9 258,00 12 790 565 118 415,05 0,48%
Michigan $8 055,00 9 915 767 79 871,50 0,59%
Georgia $6 587,00 10 087 231 66 444,59 0,68%
Tennessee $7 556,00 6 544 663 49 451,47 0,91%
Nowy Meksyk $7 214,00 2 083 024 15 026,94 2,13%

Źródło: ,

Zalecenia dla prowadzącego zajęcia

Ogólne zalecenie dla analizy przypadków jest takie, żeby traktować ją jak trening w rozumowaniu naukowym. Kiedy w zagadnieniach do analizy pojawia się pytanie typu „W jaki sposób może się wydarzyć to czy tamto ?”, możemy to interpretować jako różne możliwe sekwencje zdarzeń (sposób wydarzania się czegoś to sekwencja zjawisk składających się na to zdarzenie). W ten sposób można w praktyce zastosować zasady dowodu naukowego według Miltona Friedmana: dla każdego stanu rzeczy można sformułować tak wiele hipotez, że w praktyce ich liczba jest nieskończona, tylko dla niektórych z tych hipotez można znaleźć sposób weryfikacji i w efekcie weryfikacji tylko dla niektórych z nich można jednoznacznie określić, w jakich warunkach są prawdziwe, a w jakich fałszywe.

Zagadnienie nr 1

Struktura przychodów odzwierciedlająca strukturę rynku zakłada istnienie jakiejś hipotetycznej sekwencji zdarzeń, która pozwala firmie osiągnąć taką właśnie strukturę. Można założyć, że to Life Point Health przystosowała strukturę swojej działalności do struktury rynku, a nie odwrotnie. Wiemy, że organizacja nie przystosowuje się „sama”. Musi istnieć jakiś mechanizm przetwarzający informacje na temat rynku na decyzje kierownicze, Te ostatnie muszą być rzeczywiście wdrożone, żeby organizacja faktycznie się zmieniała. To zagadnienie odsyła więc do takich narzędzi zarządzania strategicznego, jak Strategiczna Karta Wyników (ang. Balanced Scorecard) czy też model CANVAS i jego filozofia generowania rozwiązań wewnątrz organizacji. Interesującą ścieżką pracy grupowej jest stworzenie modelowej sekwencji zdarzeń, które prowadzą firmę do takiego właśnie „przystawania” do struktury rynku. W modelowaniu takiej sekwencji można pokazać twórcze zastosowanie narzędzi analizy ryzyka: staramy się określić prawdopodobieństwo że wystąpią określone sekwencje zdarzeń.

Zagadnienie nr 2

Domyślna odpowiedź w tym przypadku jest taka, że Life Point Health to organizacja stosunkowo konserwatywna. Stabilna struktura kosztów i malejący udział odpisu na rachunki trudno ściągalne świadczy o dążeniu do redukcji ryzyka. W macierzy BCG oznaczałoby to skupienie się na „dojnych krowach”, w macierzy McKinseya na obszarach o niskim potencjale wzrostu i dużym potencjale zysku. Można tu jednak pokierować pracą studentów tak, aby połączyli zagadnienia 1 i 2, a więc aby zastanowili się „co by było, gdyby ?”. W jaki sposób, na przykład, Life Point Health mogłaby przejść od strategii stosunkowo konserwatywnej do strategii bardziej ryzykownej ?

Zagadnienie nr 3

To konkretne zagadnienie daje okazję do szerokiego przeglądu wiedzy studentów z zakresu ekonomii, socjologii i zarządzania. Tworzenie sieci można interpretować jako łączenie się niezależnych podmiotów – w oparciu o wspólne interesy – albo też jako stopniowe przejmowanie kontroli przez jeden podmiot nad innymi. Można stosować modele gier – np. gra kooperatywna w zestawieniu z grą bez kooperacji, dylemat więźnia itp. – a do tych modeli można dokładać zmienne typowo ekonomiczne, chociażby w postaci wyników ekonomicznych poszczególnych jednostek w strukturze sieciowej. Dla studentów jest to okazja do swego rodzaju freestyle’u analitycznego, gdzie wszystkie chwyty są dozwolone tak długo, jak coś wiarygodnie wyjaśniają.

No i tyle byłoby tej prawie nowej nauki na dzisiaj.

[1] Informacje na temat firmy Life Point Health Inc. zostały zaczerpnięte z serwisu relacji inwestorskich: (data ostatniego dostępu 22-12-2017)

[2] Litotrypsja – zabieg urologiczny polegający na pozaustrojowym skruszeniu kamienia w pęcherzu moczowym, moczowodzie lub nerce.

[3] , last accessed 19/12/2017

[4] Na podstawie: , ostatni dostęp 23-12-2017

[5] Na podstawie: , ostatni dostęp 23-12-2017

The social brain

My editorial on You Tube

I am thinking about my opening lectures in the coming semester. I am trying to phrase out sort of a baseline philosophy of mine, underlying all or most of what I teach, i.e. microeconomics, management, political systems, international economic relations, and economic policy. Certainly, my most fundamental message to my students is: watch reality in a scientific way. Get the hell above clichés, first impressions and tribal thinking. Reach for the information that most other people don’t, and process it rigorously. You will see that once you really mean it, scientific method is anything but boring. When you really swing that Ockham’s razor with dexterity, and cut out the bullshit, you can come to important existential realizations.

Science starts with observation. Social sciences start with the observation of what people do, and what people do consists very largely in doing something with other people. We are social beings, we do things in recurrent sequences of particular actions, sequences that we have learnt and that we keep on learning. Here I come to an interesting point, namely to what I call the « action and reaction paradigm » and what is a slightly simplistic application of the Newtonian principle labelled with the same expression. It goes more or less like: what people do is a reaction to what happens. There is a ‘yes-but’ involved. Yes, people do things in reaction to what happens, but you need to add the component of temporal sequence. People do things in reaction to everything relevant that has happened within their span of memory connected to the particular phenomenon in question.

This is a fundamental distinction. If I say ‘I do what I do in reaction to what is happening now’, my claim is essentially different from saying that ‘I do what I do as a learnt response to all the things which I know to have happened so far and which my brain considers as relevant for the case’. Two examples come to my mind: social conflicts, and technological change. When a social conflict unfolds, would it be a war between countries, a civil war, or a sharp rise in political tension, the first, superficial interpretation is that someone has just done something annoying, and the other someone just couldn’t refrain themselves from reacting, and it all ramped up to the point of being out of control. In this approach, patterns of behaviour observable in social conflicts are not really patterns, in the sense that they are not really predictable. There is a strong temptation to label conflictual behaviour as more or less random and chaotic, devoid of rationality.

Still, here, social sciences come with a firm claim: anything we do is a learnt, recurrent pattern of doing things. Actions that we take in a situation of conflict are just as much a learnt, repetitive strategy as any other piece of behaviour. Some could argue: ‘But how is it possible that people who have very seldom been aggressive in the past suddenly develop whole patterns of aggressive behaviour? And in the case of whole social groups? How can they learn being aggressive if there has not been conflict before?’. Well, this is one of the wonders observable in human culture. Culture is truly like a big virtual server. There are things stored in our culture – and by ‘things’ I mean, precisely, patterns of behaviour – which we could have hardly imagined to be there. We accumulate information over weeks, months, and years, and, all of a sudden, a radical shift in our behaviour occurs. We have tendency to consider such a brusque shift as insanity, but this usually not the case. As long as the newly manifested set of actions is coherent around an expected outcome, this is a new, subjectively rational strategy that we have just picked up from the cultural toolbox.

Cultural memory is usually much longer in its backwards reach than individual memory. If the right set of new information is being input into the life of a social group, or of an individual, centuries-old strategies can suddenly pop up. It works like a protocol: ‘OK, we have now enough information accumulated in this file so as to trigger the strategy AAA’. Different cultures have different toolboxes stored in them, and yet, the simple tools of social conflict are almost omnipresent. Wherever any tribe has ever had to fight for its hunting grounds, the corresponding patterns of whacking-the-other-over-the-head-with-that-piece-of-rock are stored in the depths of culture, most fundamentally in language.

Yes, the language we use is a store of information about how to do things. Never have looked at the thing like that? Just think: the words and expressions we use describe something that happens in our brain in response to accumulated sensory experience. Usually we have less words at hand than different things to designate. In all the abundance of our experience just some among its pieces become dignified enough to have their own words.  For a word or expression to form as part of a language, generations need to recapitulate their things of life. This is how language becomes an archive of strategies. The information it conveys is like a ZIP file in a computer: it is tightly packed, and requires some kind of semantic crowbar in order to become fully accessible and operational. The crowbar is precisely the currently absorbed experience.

Right, so we can get to fighting each other even without special training, as we have the basic strategies stored in the language we speak. And technological change? How do we innovate? When we shift towards some new technology, do we also use old patterns of behaviour conveyed in our cultural heritage? Let’s see… Here is a little intellectual experiment I use to run with my students, when we talk about innovation and technological change. Look around you. Look at all those things that surround you and which, fault of a better word, you call ‘civilisation’. Which of those things would you change, like improve or replace with something else, possibly better?

Now comes an interesting, stylized fact that I can observe in that experiment. Sometimes, I hold my classes in a big conference room, furnished in a 19th – centurish style, and equipped with a modern overhead projector attached to the ceiling. When I ask my students whether they would like to innovate with that respectable, sort of traditional furniture, they give me one of those looks, as if I were out of my mind. ‘What? Change these? But this is traditional, this is chic, this is… I don’t know, it has style!’. On the other hand, virtually each student is eager to change the overhead projector for a new(er) one.

Got it? In that experiment, people would rather change things that are already changing at an observably quick pace. The old and steady things are being left out of the scope of innovation. The 100% rational approach to innovation suggests something else: if you want to innovate, start with the oldest stuff, because it seems to be the most in need of some shake-off. Yet, the actual innovation, such as we can observe it in the culture around us, goes the other way round: it focuses on innovating in things which are already being innovated with.

Got it? Most of what we call innovation is based on a millennia-old pattern of behaviour called ‘joining the fun’. We innovate because we join an observable trend towards innovating. Yes, there are some minds, like Edison or Musk, who start innovating apparently from scratch, when there is no passing wagon to jump on. Thus, we have two patterns of innovation: joining a massively observable trend of change, or starting a new trend. The former is clear in its cultural roots. It has always been fun to join parties, festivities and public executions. The latter is more interesting in its apparent obscurity. What is the culturally rooted pattern of doing something completely new?

Easy, man, easy. Let’s do it step by step. When we perceive something as ‘completely new’, it means there are two sets of phenomena: one made of things that look old, and the other looking new. In other words, we experience cognitive dissonance. Certain things look out of date when, after having been experiencing them as functional, we start experiencing them as no more up to facing the situation at hand. We experience their dissonance as compared to other things of life. This is called perceived obsolescence.

Anything is perceived as completely new only if there is something obsolete to compare with. Let’s generalise it mathematically. There are two sets of phenomena, which I can probably define as two strings of data. I say ‘strings’, and not ‘lists’, on the account of that data being complex. Well, yes: data about real life is complex. In terms of digital technology, our experience is made of strings (not to confound with that special type of beachwear).

And so I have those two strings, and I keep using and reusing them. With time, I notice that I need to add new data, from my ongoing experience, to one of the strings, whilst the other one stays the same. With even more time, as my first string of data gets new pieces of information, i.e. new memory, that other string slowly turns from ‘the same’ into ‘old school’, then into ‘retro’, and finally into ‘that old piece of junk’. This is learning by experiencing cognitive dissonance.

We have, then, two cultural patterns of technological change. The more commonly practiced one consists in the good old ‘let’s join the fun’ sequence of actions. Willing to do things together with other people is simple, universal, and essentially belongs to the very basis of each culture. The much rarer pattern consists in becoming aware of a cognitive dissonance and figuring out something new. This is interesting. Some cultural patterns are like screwdrivers or duck-tape. Sooner or later most people use it. Other models of behaviour, whilst still rooted in our culture, are sort of harder to dig out of that abyssal toolbox. Just some people do it.

I am coming back to that « action and reaction paradigm ». Yes, we act in reaction to what happens, but what happens, happens over time, and the ‘time’ part is vital here. We act in reaction to the information that our brain collects, and when enough information has been collected, it triggers a pre-learnt, culturally rooted pattern of behaviour, and this is our action. In response to basically the same set of data available in the environment, different human beings pull different patterns of action out of the cultural toolbox. This is interesting: how exactly is it happening? I mean, how exactly this differentiation of response to environment occurs?

There is that article I have just found on Science Direct, by Porcelli et al. (2018[1]). The paper puts together quite a cartload of literature concerning the link between major mental disorders – schizophrenia (SCZ), Alzheimer’s disease (AD) and major depressive disorder (MDD) – and their corresponding impairments in social behaviour. More specifically, the authors focus on the correlation between the so-called social withdrawal (i.e. abnormal passivity in social relations), and the neurological pathways observable in these three mental disorders. One of the theoretical conclusions they draw regards what they call ‘the social brain’. The social brain is a set of neurological pathways recurrently correlated with particular patterns of social behaviour.

Yes, ladies and gentlemen, it means that what is observable outside, has its counterpart inside. There is a hypothetical way that human brains can work – a hypothetical set of sequences synaptic activations observable in our neurons – to make the best of social relations, something like a neurological general equilibrium. I have just coined up that term by analogy to general economic equilibrium. Anything outside that sort of perfect model is less efficient in terms of social relations, and so it goes all the way down to pathological behaviour connected with pathological neural pathways. Porcelli et al. go even as far as quantifying the economic value of pathological behaviour grounded in pathological mental impairment. By analogy, there is a hypothetical economic value attached to any recurrent, neural pathway.

Going reeeaally far this speculative avenue, our society can look completely different if we change the way our brain works.

I am consistently delivering good, almost new science to my readers, and love doing it, and I am working on crowdfunding this activity of mine. As we talk business plans, I remind you that you can download, from the library of my blog, the business plan I prepared for my semi-scientific project Befund  (and you can access the French version as well). You can also get a free e-copy of my book ‘Capitalism and Political Power’ You can support my research by donating directly, any amount you consider appropriate, to my PayPal account. You can also consider going to my Patreon page and become my patron. If you decide so, I will be grateful for suggesting me two things that Patreon suggests me to suggest you. Firstly, what kind of reward would you expect in exchange of supporting me? Secondly, what kind of phases would you like to see in the development of my research, and of the corresponding educational tools?

Support this blog


[1] Porcelli, S., Van Der Wee, N., van der Werff, S., Aghajani, M., Glennon, J. C., van Heukelum, S., … & Posadas, M. (2018). Social brain, social dysfunction and social withdrawal. Neuroscience & Biobehavioral Reviews

Les 2326 kWh de civilisation

Mon éditorial sur You Tube

Je reviens à ma recherche sur le marché de l’énergie. Je pense que l’idée théorique a suffisamment mûri. Enfin j’espère.

Dans un marché donné d’énergie il y a N = {i1, i2, …, in} consommateurs finaux, M = {j1, j2, …, jm} distributeurs et Z = {k1, k2, …, kz} fournisseurs primaires (producteurs). Les consommateurs finaux se caractérisent par un coefficient de consommation individuelle directe EC(i). Par analogie, chaque distributeur se caractérise par un coefficient de quantité d’énergie négociée EN(j) et chaque fournisseur primaire se caractérise par un coefficient individuel de production EP(k).

Le marché est à priori ouvert à l’échange avec d’autres marchés, aussi bien au niveau de la fourniture primaire d’énergie qu’à celui du négoce. En d’autres mots, les fournisseurs primaires peuvent exporter l’énergie et les distributeurs peuvent aussi bien exporter leurs surplus qu’importer de l’énergie des fournisseurs étranger pour balancer leur négoce. Logiquement, chaque fournisseur primaire se caractérise par une équation EP(k) = EPd(k) + EPx(k), où EPd signifie fourniture primaire sur le marché local et EPx symbolise l’exportation de l’énergie.

De même, chaque distributeur conduit son négoce d’énergie suivant l’équation EN(j) = ENd(j) + EI(j) + ENx(j)ENx symbolise l’énergie exportée à l’étranger au niveau des relations entre distributeurs, EI est l’énergie importée et ENd est l’énergie distribuée dans le marché local.

L’offre totale OE d’énergie dans le marché en question suit l’équation OE = Z*[EPd(k) – EPx(k)] = M*[ENd(j) + EI(j) – ENx(j)]. Remarquons qu’une telle équation assume un équilibre local du type marshallien, donc le bilan de l’offre d’énergie et de la demande pour énergie se fait au niveau microéconomique des fournisseurs primaires et des distributeurs.

La consommation totale ET(i) d’énergie au niveau des consommateurs finaux est composée de la consommation individuelle directe EC(i) ainsi que de l’énergie ECT(i) consommée pour le transport et de l’énergie incorporée, comme bien intermédiaire ECB(i), dans les biens et services finaux consommés dans le marché en question. Ainsi donc ET(i) = EC(i) + ECT(i) + ECB(i).

La demande totale et finale DE d’énergie s’exprime donc comme

N*ET(i) = N*[EC(i) + ECT(i) + ECB(i)]

et suivant les assomptions précédentes elle est en équilibre local avec l’offre, donc

Z*[EPd(k) – EPx(k)] = N*[EC(i) + ECT(i) + ECB(i)]

aussi bien que

M*[ENd(j) + EI(j) – ENx(j)] = N*[EC(i) + ECT(i) + ECB(i)].

Avant que j’aille plus loin, une explication. Pour le moment j’assume que les coefficients individuels mentionnés plus haut sont des moyennes arithmétiques donc des valeurs espérées dans des ensembles structurées suivant des distributions normales (Gaussiennes). C’est une simplification qui me permet de formaliser théoriquement des « grosses » idées. Je pense que par la suite, j’aurai à faire des assomptions plus détaillées en ce qui concerne la distribution probabiliste de ces coefficients, mais ça, c’est pour plus tard.

Ça, c’était simple. Maintenant, le premier défi théorique que je perçois consiste à exprimer cette observation que j’avais faite il y a des mois de ça : les pays les plus pauvres sont aussi le moins pourvus en énergie. Au niveau du bilan énergétique la pauvreté se caractérise soit, carrément, par la quasi-absence de la consommation d’énergie niveau transport et niveau énergie incorporée dans les biens et services, soit par une quantité relativement petite dans ces deux catégories. C’est à mesure qu’on grimpe les échelons de richesse relative par tête d’habitant que les coefficients ECT(i) et ECB(i) prennent de la substance.

La seconde observation empirique à formaliser concerne la structure de la fourniture primaire d’énergie. Dans les pays les plus pauvres, l’énergie primaire est très largement fournie par ce que l’Agence Internationale d’Énergie définit élégamment comme « combustion des bio fuels » et qui veut tout simplement dire qu’une grande partie de la société n’a pas d’accès à l’électricité et ils se procurent leur énergie primaire en brûlant du bois et de la paille. Formellement, ça compte comme utilisation d’énergies renouvelables. Le bois et la paille, ça repousse, surtout cette dernière. Encore faut se souvenir que ce type d’énergétique est renouvelable au niveau de la source d’énergie mais pas au niveau du produit : le processus relâche du carbone dans l’atmosphère sans qu’on ait une idée vraiment claire comment faire retourner ce génie dans la lampe. La morale (partielle) du conte des fées est que lorsque vous voyez des nombres agrégés qui suggèrent la prévalence d’énergies renouvelables en Soudan du Sud, par exemple, alors ces renouvelables c’est du feu de paille très littéralement.

La différence empirique entre ces pays les plus pauvres et ceux légèrement plus opulents réside dans le fait que ces derniers ont un réseau de fourniture primaire d’électricité ainsi que de sa distribution et ce réseau dessert une large partie de la population. Ce phénomène se combine avec une percée originale d’énergies renouvelables dans les pays en voie de développement : des populations entières, surtout des populations rurales, gagnent l’accès à l’électricité vraiment 100% renouvelable, comme du photovoltaïque, directement à partir d’un monde sans électricité. Ils ne passent jamais par la phase d’électricité fournie à travers des grosses infrastructures industrielles que nous connaissons en Europe.

C’est justement la percée d’électricité dans une économie vraiment pauvre qui pousse cette dernière en avant sur la voie de développement. Comme j’étudie la base des données de la Banque Mondiale à propos de la consommation finale d’énergie par tête d’habitant, je pose une hypothèse de travail : lorsque ladite tête d’habitant dépasse le niveau de quelques 2326 kilowatt heures de consommation finale d’énergie par an, soit 200 kg d’équivalent pétrole, une société quasiment dépourvue d’économie régulière d’échange se transforme en une société qui produit et fait circuler des biens et des services.

Une fois ce cap franchi, le prochain semble se situer aux environs d’ET(i) égale à 600 ± 650 kg d’équivalent pétrole, soit 6 978,00 ± 7 559,50 kilowatt heures par an par tête d’habitant. Ça, c’est la différence entre des sociétés pauvres et en même temps instables socialement ainsi que politiquement d’une part, et celles dotées d’institutions bien assises et bien fonctionnelles. Rien qui ressemble à du paradis, au-dessus de ces 6 978,00 ± 7 559,50 kilowatt heures par an par tête d’habitant, néanmoins quelque chose qui au moins permet de construire un purgatoire bien organisé.

L’étape suivante est la transgression d’un autre seuil, que je devine intuitivement quelque part entre 16 240 kWh et 18 350 kWh par an par tête d’habitant. C’est plus ou moins le seuil officiel qui marque la limite inférieure de la catégorie « revenu moyen » dans la terminologie de la Banque Mondiale. C’est alors qu’on commence à observer des marchés bien développés est des structures institutionnelles tout à fait stables. Oui, les hommes politiques peuvent toujours faire des conneries, mais ces conneries sont immédiatement projetées contre un fonds d’ordre institutionnel et de ce fait sont possibles à contrecarrer de façon autre qu’une guerre civile. Une fois dans la catégorie « revenu moyen », une économie semble capable de transition secondaire vers les énergies renouvelables. C’est le passage des réseaux typiquement industriels, basés sur des grosses centrales électriques, coexistantes avec des réseaux de distribution fortement oligopolistes, vers des systèmes de fourniture d’énergie basés sur des installations locales puisant leur jus des sources renouvelables.

Finalement, à partir de quelques 3000 kg d’équivalent pétrole = 34 890 kWh par an par tête d’habitant c’est la catégorie des pays vraiment riches. En ce qui concerne les énergies renouvelables, des investissements vraiment systémiques commencent au-dessus de ce seuil. C’est une transition secondaire à forte vapeur.

Bon, je formalise. Une variable parmi celles que j’ai nommées quelques paragraphes plus tôt vient au premier plan :  la consommation totale d’énergie par tête d’habitant ou ET(i) = EC(i) + ECT(i) + ECB(i). Les observations empiriques que je viens de décrire indiquent que dans le processus de développement économique des sociétés, le côté droit de l’équation ET(i) = EC(i) + ECT(i) + ECB(i) se déploie de gauche à droite. D’abord, il y a du EC(i). Les gens consomment de l’énergie pour leurs besoins le plus individuels et le plus directement possible. On brûle du bois ou de la paille et on a de l’énergie thermique pour faire de la cuisine, pour décontaminer l’eau et pour se chauffer. Si ça marche, des habitats humains permanents s’établissent.

Je sais que ça sonne comme le compte rendu d’évènements qui se passèrent à l’aube de la civilisation, mais après que j’ai étudié la situation des nations les plus pauvres du monde je sais aussi que c’est bien ce qui se passe dans des pays comme Niger ou Soudan. Le premier défi de ces populations consiste à faire marcher la structure sociale de base, donc à arriver au point quand les communautés locales sont capables de se développer et pour se développer lesdites communautés locales ont tout simplement besoin de s’établir sur une base relativement stable de nourriture et d’énergie.

Une fois que ce cap est franchi, donc une fois qu’ET(i) passe un seuil critique ET1(i), il y a un surplus d’énergie qui peut se traduire comme le développement du transport, ainsi que celui des marchés des biens et des services. En d’autres mots :

ET1(i) = 2 326 kWh

[EC(i) ≤ EC1(i)] => [ET(i) = EC(i) et ECT(i) ≈ 0 et ECB(i) ≈ 0]

[EC(i) > EC1(i)] => [ET(i) = EC(i) + ECT(i) + ECB(i) ; ECT(i) > 0 et ECB(i) > 0]

[EC(i) > EC1(i)] <=> [ECT(i) + ECB(i) = ET(i) – 2 326 kWh]

La seconde valeur critique, que je nomme ET2(i), donne lieu à l’émergence d’une structure institutionnelle suffisamment stable pour être appelée « ordre institutionnel ». Je sais que :

6 978,00 kWh ≤ ET2(i) ≤ 7 559,50 kWh

et que

4652 kWh < [ET2(i) – ET1(i)] ≤ 5233,5 kWh

et de même

{4652 kWh < [ECT(i) + ECB(i)] ≤ 5233,5 kWh}

ainsi que

[6 978,00 kWh ≤ ET2(i) ≤ 7 559,50 kWh] => ordre institutionnel

Alors vient ce troisième seuil, 16 240 kWh ≤ ET3(i) ≤ 18 350 kWh où la transition secondaire vers les énergies renouvelables devient possible. Cette transition prend donc lieu lorsque

13 914 kWh ≤ [ECT(i) + ECB(i)] ≤ 16 024 kWh

Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Vous pouvez donner votre support financier à ce blog


Chaos jak po zbóju, czyli karteczki dla premiera

Mój wstępniak na You Tube

Jedną z sytuacji, kiedy ktoś musi znaleźć swoją ścieżkę w przestrzeni społecznej jest tworzenie własnego biznesu. Najlepiej mogę sprawdzić jak moje nauczanie może pomóc w tworzeniu czyjegoś biznesu, jeżeli sam co jakiś czas wezmę się za przygotowanie biznes planu. Temu właśnie chciałbym poświęcić przynajmniej kilka wpisów w polskojęzycznej wersji mojego bloga naukowego. Mam dwa, autentyczne i nieudawane pomysły na biznes i staram się je rozwinąć. Jeden to projekt, który nazwałem BeFund, przedsięwzięcie bliskie mojej pracy naukowej. Jest to połączenie laboratorium behawioralnego z funduszem inwestycyjnym dla startupów. Podstawowa idea tego projektu opiera się na obserwacji, że najwięcej porażek startupów technologicznych ma miejsce w fazie dostosowania technologii do potrzeb użytkowników i utrzymania konkurencyjności tej technologii. Laboratorium behawioralne miałoby służyć optymalizacji cech użytkowych technologii, na których startup się opiera. Dla tego projektu mam już nakreślony biznes plan w języku angielskim i teraz postaram się przedstawić go w polskojęzycznej ścieżce mojego pisania.

Cała idea projektu BeFund wzięła się z mojej fascynacji zjawiskiem tzw. Smart Cities, czyli inteligentnych miast. Ta fascynacja ma z kolei swoje korzenie w innej, tej związanej ze zmianami technologicznymi i relacją pomiędzy energią, technologią – szczególnie elektroniką i technologiami cyfrowymi – a ludzką cywilizacją. Wracam jednak do projektu BeFund. Na początek: co to jest laboratorium behawioralne i po kiego licha tworzyć kolejne? Otóż jest to laboratorium przeznaczone do badania ludzkich zachowań, w tym szczególnie interakcji z nowymi technologiami. „Zachowanie” rozumiem szeroko. Sposób podejmowania decyzji to wzorzec zachowań i ewentualne przyspieszenie oddechu podczas podejmowania niektórych z tych decyzji też jest wzorcem zachowań. Zauważcie: płynnie przeszedłem od pojęcia zachowania do wzorca zachowań. Nawiązuję w ten sposób do jednej z podstawowych zasad nauk społecznych: my, ludzie, działamy według powtarzalnych wzorców, których uczymy się w drodze kolejnych eksperymentów. Piszę więcej na ten temat w moim poprzednim wpisie pt. „Dwie kule w Kalifornii i wielebny Thomas Bayes”.

Kiedy zacząłem się interesować rozwojem inteligentnych miast, zauważyłem kilka interesujących zjawisk. Inteligentne miasta rozwijają się w dużej mierze poprzez inkubację startupów technologicznych (czyli świeżo zakładanych, z reguły stosunkowo niewielkich firm ukierunkowanych na komercjalizację nowych technologii). Startupy technologiczne odznaczają się stosunkowo wysoką śmiertelnością: większość z nich pada po 2 – 3 latach albo zostaje wchłonięte przez duże korporacje. Technologie lansowane przez startupy są najczęściej swego rodzaju użytkowymi mutacjami jakiejś szerszej bazy technologicznej. Dla przykładu, taką modną ostatnio bazą technologiczną jest język programowania Python. Wiele aplikacji FinTech, lansowanych przez startupy, jest opartych właśnie na nim.

To trochę jak wiele konkurujących ze sobą domów mody. Mają dostęp do tych samych materiałów i tych samych technik krawieckich. Różnica tkwi w koncepcji estetycznej, czyli w dopasowaniu tych materiałów i tych technik do oczekiwań określonej grupy klientów, a jednocześnie trzeba mieć kreatywny pazur. Ze startupami technologicznymi jest tak samo. Opieramy się na jakieś szerokiej bazie technologicznej i coś wymyślamy. To coś musi oryginalne i prowokujące ciekawość, lecz jednocześnie funkcjonalnie dopasowane do określonego użytkownika. Taki mały paradoks tu mamy: z jednej strony musimy dać funkcjonalność niecodzienną i prowokującą, ale z drugiej strony, pod powłoką prowokacji i unikalności, to coś musi być dopasowane do wyuczonych, rutynowych wzorców zachowań po stronie użytkowników.

Tu pojawia się czysto praktyczna strona mojego pomysłu BeFund. Kontrolowane środowisko eksperymentalne, które twórcy startupów technologicznych mogliby wynajmować na godziny po to, aby testować interakcje tworzonych rozwiązań technologicznych z użytkownikami, byłoby jak znalazł. W ten sposób znacznie zmniejsza się ryzyko, że jakaś funkcjonalność dozna porażki biznesowej na skutek niewystarczającej konkurencyjności dla użytkownika.

Przykład eksperymentu behawioralnego ? A proszę bardzo. Każda technologia musi być niezawodna. Jednym z aspektów niezawodności jest odporność na błędy popełniane przez użytkownika. Błąd to sytuacja, kiedy użytkownik powinien wykonać działanie A, lecz zamiast tego wykonuje działanie B. Umieszczamy osoby reprezentatywne dla tego, co pokolenie młodsze od mojego określa mianem „targetu”, w kontrolowanym środowisku eksperymentalnym. Są sam na sam z testowaną technologią. Poddajemy ich celowej dystrakcji, czyli rozpraszamy ich uwagę. W pomieszczeniu, gdzie się znajdują jest np. bardzo gorąco albo bardzo zimno. Miga tam ostre światło. Gra głośna muzyka. Zawieszony na ścianie telewizor wyświetla coś strasznego, np. kolejny wiec wyborczy albo kolejny przegrany mecz polskiej drużyny w jakąś piłkę (rodzaj piłki do wyboru). Można te bodźce mnożyć do woli.

Teraz kalibrujemy. Dajemy uczestnikom eksperymentu jakieś zadania wymagające koncentracji uwagi: połącz punkty na rysunku, rozwiąż zadania matematyczne, dopasuj elementy puzzla itp. Najpierw robimy to w środowisku sprzyjającym koncentracji uwagi – nie ma wiecu wyborczego w telewizorze na ścianie. Zapisujemy wyniki osiągnięte przez uczestników eksperymentu. Potem stopniowo podkręcamy strumień bodźców i zwiększamy dystrakcję. Robimy to np. w pięciu kolejnych stopniach. Na każdym stopniu dystrakcji dajemy uczestnikom do wykonania identyczny zestaw zadań (oczywiście puzzle jest inny i działania matematyczne są inne, ale struktura zadania jest taka sama) i mierzymy ich wyniki.

W ten sposób kalibrujemy nasze środowisko eksperymentalnie, tzn. określamy różne poziomy dystrakcji u naszych uczestników. Może być spokój i porządek – stopień pierwszy – albo trochę nieporządku, tak jak pod koniec dnia w centrum rozliczeniowym – stopień drugi – albo sporo nieporządku, jak tuż przed rodzinnym wyjazdem na wakacje – stopień trzeci – albo znowu tak, jak wtedy, kiedy nazajutrz rano po solidnej imprezie trzeba się wybrać do pracy na 6:30 rano – stopień czwarty – albo wreszcie tak, jak wtedy kiedy naszym szefem jest premier i właśnie się dowiedział, że nie przygotowaliśmy mu tych małych karteczek do przemówienia, które ma wygłosić za 5 minut – to jest stopień piąty, czyli chaos po zbóju.

Teraz nasi uczestnicy zaczynają korzystać z testowanej technologii. Obserwujemy błędy, jakie popełniają na kolejnych stopniach dystrakcji. Interesuje nas kilka różnych rzeczy. Po pierwsze, ważny jest katalog możliwych błędów. Twórcy testowanej technologii mogą do nich dopasować funkcjonalności typu „głupi Jasio”. Najdalej idącym rozwiązaniem jest automatyzacja tego konkretnego fragmentu procesu tak, żeby użytkownik nawet nie miał okazji podejmować decyzji prowadzących do popełnienia błędu. Innym rozwiązaniem jest sugestia ukierunkowana na podświadomość, np. wyeksponować graficznie to, co użytkownik powinien kliknąć na ekranie i raczej zmniejszyć albo schować w mniej widocznym menu to, czym w danej chwili raczej nie powinien się zajmować jak nie chce żeby mu się apka zawiesiła. Największe zaufanie do użytkowników wykazujemy wtedy, kiedy po prostu umieszczamy sugestie ukierunkowane na świadomość, jak na ekranach zamówienia w McDonaldzie: „czy jesteś pewien/pewna że to jest Twoje zamówienie ?” itp.

Wyposażamy kolejną generację prototypów w tego typu zabezpieczenia i testujemy ponownie. Ideałem jest dojście do zerowej liczby błędów użytkowników na najwyższym poziomie dystrakcji. Eksperyment może jednak wykazać, że realistycznie możliwy do osiągnięcia jest nieco niższy poziom doskonałości. Pozwala nam to określić, jaka liczba jakiego rodzaju błędów jest realistycznie do przewidzenia w typowej interakcji naszego reprezentatywnego targeta z definitywną, lansowaną na rynku technologią.

Tak sobie pomyślałem, że takie laboratorium behawioralne, jakie chciałbym stworzyć w projekcie BeFund może już na wejściu oferować twórcom nowych technologii środowisko eksperymentalne skalibrowane – i to starannie – pod kątem możliwych stopni dystrakcji. To byłoby jak znalazł do testowania różnych aspektów technologii. Niezawodność to jedno, ale szybkość to drugie. Jak szybko nasze króliki eksperymentalni (królicy eksperymentalni ?) zarejestrują 100 faktur w systemie rachunkowo – księgowym, na różnych stopniach dystrakcji ? Jakie błędy przy tym popełnią ? No i jeszcze jedno: jak bardzo będą kontent, albo wręcz przeciwnie, po wykonaniu całego ciągu operacji ?

Ta ostatnia kwestia, czyli subiektywne doznania uczestników eksperymentu, jest istotna dla procesów uczenia się, o których pisałem już wcześniej, we wpisie pt. „Dwie kule w Kalifornii i wielebny Thomas Bayes”. Kiedy uczestnik eksperymentu przechodzi sekwencję działań, w których może popełniać błędy, jest to sekwencja sukcesów i porażek, która prowadzi do wyćwiczenia określonych wzorców zachowań lub do uświadomienia, że trzeba wykształcić nowe wzorce, lepiej dopasowane do określonego kontekstu. Pojawia się tutaj subtelne rozróżnienie między obiektywną a subiektywną definicją sukcesu lub porażki.

Każda technologia ma jakiś obiektywnie mierzalny wzorzec optymalnego wykorzystania: taki to a taki czas trwania procesu, taka to a taka liczba powtórek w poszczególnych działaniach, taka to a taka liczba błędów poszczególnych typów itd. Można zdefiniować sukces w korzystaniu z tej technologii, np. w jednokrotnym przejściu procesu księgowania faktury, jako określony stopień zbieżności z wzorcem optymalnego działania. Wszystko inne jest porażką. Sukcesem jest np. wykonanie określonego działania bezbłędnie lub w oznaczonym minimalnym czasie. Błędy w wykonaniu tych działań lub dłuższy od wyznaczonego czas wykonania to porażka.

Wiele technologii, zwłaszcza tych obsługiwanych cyfrowo przez użytkownika, zawiera mechanizmy natychmiastowej kompensacji błędów popełnianych przez tego ostatniego lub też natychmiastowego wspierania użytkownika. Podręcznikowym przykładem jest system kontroli trakcji w samochodzie albo też znana wielu osobom funkcjonalność cyfrowa, gdzie system kupowania czegoś przez Internet pyta czy wypełnić dany formularz wcześniej zapisanymi danymi użytkownika. W obecności takich rozwiązań pojawia się różnica między obiektywnie pojętym sukcesem lub porażką z jednej strony, a subiektywnym postrzeganiem sukcesu i porażki przez użytkownika technologii. Ten ostatni często nie zauważa że popełnił błąd albo że działał z nieoptymalną sprawnością, gdyż technologia „zamaskowała” to.

Wyobraźmy sobie sekwencję działań w 12 krokach, wykonywaną w środowisku eksperymentalnym. Dla każdego kroku, poza obiektywną obserwacją pytamy uczestnika eksperymentu o jego opinię, czy działał optymalnie (sukces) czy też nie (porażka). W tabeli poniżej przedstawiam dwa równoległe zapisy tej sekwencji, jeden wynikający z obiektywnej obserwacji, drugi z subiektywnego postrzegania uczestnika eksperymentu.

Krok sekwencji Obiektywna obserwacja Subiektywne wrażenie uczestnika eksperymentu
1 Porażka Sukces
2 Porażka Sukces
3 Sukces Sukces
4 Porażka Porażka
5 Porażka Sukces
6 Porażka Sukces
7 Sukces Sukces
8 Porażka Sukces
9 Porażka Sukces
10 Porażka Sukces
11 Porażka Porażka
12 Sukces Sukces

Sekwencja sukcesów i porażek wynikająca z obiektywnej obserwacji wskazuje, że użytkownik testowanej technologii odniósł więcej porażek niż sukcesów, a więc jego zachowanie wymaga zmiany, czyli wykształcenia nowego wzorca. Co więcej, ciągi porażek pomiędzy punktowymi sukcesami są coraz dłuższe w miarę upływu kolejnych sekwencji testowanego procesu. Użytkownik potrzebuje coraz więcej działań, żeby uczyć się wykonywać poprawnie przynajmniej niektóre z działań poprawnie. No, kochanieńki, trza się wziąć za siebie i odrobić lekcje.

Lekcje może jednak odrobić także sama technologia. Wbudowane do niej bufory kompensujące nieoptymalne działania ze strony użytkownika umożliwiają temu ostatniemu zupełnie inną percepcję tej samej sekwencji. W swoim własnym mniemaniu użytkownik miał więcej sukcesów niż porażek, czyli ma podstawy żeby ten konkretny wzorzec działania utrwalić. Co więcej, jego własne wrażenie jest takie, że w miarę wykonywania kolejnych działań w tej sekwencji porażki pojawiają się coraz rzadziej. Sławoj być king, innymi słowy. Sławoj nie odczuwa najmniejszej potrzeby odrabiania jakichkolwiek lekcji.

Wyobraźmy sobie teraz, że rozwijamy technologię, która po każdym eksperymencie tworzy rozwiązania pozwalające kompensować nieoptymalne działania użytkowników. Kolejne generacje samochodowych systemów kontroli trakcji są tutaj idealnym przykładem. Automatyczny termostat w systemach klimatyzacji jest innym przykładem. Taka technologia rozwija się w kierunku zwiększenia różnicy między jej własnym procesem uczenia się a procesem uczenia się jej użytkowników. To jest jeden z najbardziej chyba niepokojących aspektów sztucznej inteligencji: jesteśmy dzisiaj w stanie tworzyć coraz więcej technologii, których stosowanie pozwala nam żyć w błogim przeświadczeniu, że wszystko jest spoko a my jesteśmy panami stworzenia, podczas gdy stajemy się, obiektywnie rzecz biorąc, coraz głupsi funkcjonalnie.

No dobra, to tyle byłoby na dzisiaj tej nauki. Niezła, prawie nowa, mało jeżdżona. Tylko kilka niewielkich wgnieceń, ale to jej nadaje charakteru. Tak mi się wydaje, ale to jest tylko subiektywna opinia uczestnika eksperymentu.

The really textbook-textbook exponential growth

My editorial on You Tube

Here I go again, travelling. Not much of an expedition, just a trip to France, for a family visit of 5 days. As it is usually the case when I go for this type of trip, I am leaving sort of a tiny mess at home. This time, it is a leaking roof, and my son is supposed to handle (hopefully) the professionals, who are supposed (hopefully) to come and fix it.

This is supposed to be a scientific blog, and so I pass to scientific things. I am thinking about two, partly connected topics: my research and teaching about political systems, and a piece of research I am doing on Corporate Social Responsibility, or CSR, in the insurance industry. The connection that I see consists in defining the basic observables in large institutional structures, such as political systems or strongly regulated markets. I mean, how can I sort of know empirically what people do in such structures, with all the foam of propaganda, political and corporate, and with all those metaphysics, based on strong emotions, in the lines of “Corporations always cheat and politicians always cheat!”.

What can I sort of observe empirically, as directly, and as free of bias as possible, in political systems? Two things come to my mind in the first place: legal rules, starting with constitutions, and policies. The latter are partly wrapped in the former, mind you. Then, I am thinking about parties, or coalitions, at power. They are observable through their numerical, electoral scores and the parliamentary seats allotted. In the case of ruling coalitions, the proportions of executive offices, like ministers, deputy ministers, and secretaries of state, held by respective parties in the coalition, can be informative. Now, a little remark: anywhere outside the United States of America, a secretary of state is written in small letters, without capital initials, and means sort of a minister being at the disposition of the prime minister or of the president, inside the structure of respective offices adjacent to those two head jobs. In the United States, the Secretary of State writes himself or herself in with capital initials and is in charge of foreign policy.

As it comes to CSR in the insurance industry, I have three basic observables. One consists of business models, as I can deconstruct them through objective insight into the financials of insurance companies. The other is made of the officially declared policies of social responsibility. Finally, the third observable are the typical contractual patterns applied by insurance companies.

And so I observe those observables. I am strongly quantitative in my approach to anything, and so I am trying to nail down differences across space, as well as changes over time. There is one more thing. Whatever exact avenue I follow, ethics matter. There are certain outcomes of human actions, which can be deemed as social, in the sense of being general and widespread. We are ethical beings, as we want things and strive to achieve goals we see as valuable. If there are any general values, possible to distillate from various goals we are going for, and if these values are essentially constructive and positive, they are ethical values.

Good, that’s theory, and now I am taking on a topic of current importance. The President of my country, Andrzej Duda, has just met President Donald Trump. Apparently, he urged Donald Trump to move American troops from Germany to Poland, and to establish permanent bases of the U.S. military in Poland. That’s what the media say he apparently said he means. This is the foam that I have been just talking about. Now, I am reaching to less foamy a source, namely to the John S. McCain National Defense Authorization Act for Fiscal Year 2019. National Defense Authorisation Acts, voted each year for the next year, are federal peri-budgetary regulations. In the properly spoken Federal Budget of the United States of America, expenditures on defense are essentially presented as discretionary spending, i.e. remaining in the discretion of the executive. Still, the National Defense Authorisation act of each consecutive year gives some detail and some structure to that discretion.

So, in that John S. McCain National Defense Authorization Act for Fiscal Year 2019 three components refer to Poland. Firstly, there is Section 1280, entitled ‘Report On Permanent Stationing of United States Forces in The Republic of Poland. Then, sections 2901 and 4602 give a glimpse of actual expenditures of the U.S. military in Poland, scheduled for 2019. This report is supposed to lay out the feasibility and advisability of permanently stationing United States forces in the Republic of Poland. The type of forces taken into account are both the combat units properly spoken, and the so-called « combat enabler units », i.e. combat engineering, logistics and sustainment, warfighting headquarters elements, long-range fires, air and missile defense, intelligence, surveillance, reconnaissance, electronic warfare.

My experience with studying those things governments do and call ‘policies’ is that governments declare a policy sort of publicly, such as in this case, in an official act, when they have actually already done much in the given direction. In other words, efficient governments do something and then they announce they are going to do it. Inefficient governments declare the willingness to do something, and then they start thinking how the hell they can do it.

And so I go to numbers. Those in the National Defense Authorization Act 2019 come first. Section 2901 specifies the expenditures on Authorized Army Construction and Land Acquisition Projects. As for Poland, it makes a total of $144 400 000, and it is more than whatever the U.S. Army, the U.S. Navy, or the U.S. Air Force plan to spend in most other countries in Europe. The United Kingdom tops it with $185 130 000, and Germany closes by, mind you, with $119 000 000 to be spend by the U.S. Air Force in 2901. Section 4602 contains expenditures grouped under the heading of ‘Military Construction for Overseas Contingency Operations’, and it essentially mirrors the same amount as in Section 2901, i.e. $144 400 000.

Now, I compare these numbers with their counterparts specified in, respectively, the National Defense Authorization Act for Fiscal Year 2017  – $8 200 000 to be spent in Poland – and the National Defense Authorization Act for Fiscal Year 2018   >> $22 400 000 in the same category.

US Military Spending in Poland


This is an almost textbook case of exponential growth. How do I know it? I take those values for three consecutive years, thus Money(2017) = $8 200 000, Money(2018) = $22 400 000, and Money(2019) = $144 400 000, and I take natural logarithms out of those numbers. Reminder: a natural logarithm is the power, to which the Euler’s constant e = 2,7182 has to be taken in order to obtain the given number. In this case, Money(2017) = e15,91964471, Money(2018) = e16,92457152, and Money(2019) = e18,78532386.

The really textbook-textbook exponential growth is like y = eb*t, where ‘t’ is the number of the consecutive period on a timeline, and ‘b’ is a parameter. Constant exponential growth occurs when the ‘b’ coefficient is constant over time. When ‘b’ dares to grow with each consecutive period, we have an accelerating exponential growth, whose opposite is the decelerating growth with ‘b’ decreasing over time. What I do now is to assume that my three consecutive years are three periods on a timeline, which is basically what they are, but I need to do it sort of by the book, and so I have 2017 = t1, 2018 = t2, and 2019 = t3. Consequently, I divide the natural logarithms from the preceding paragraph by their respective abscissae on the timeline. That gives Money(2017) = e1*15,91964471, Money(2018) = e2*8,462285758, and Money(2019) = e3*6,261774619.

See? The ‘b’ coefficients of this particular exponential chain decrease over time. Here comes the deep logic of exponential growth: it is a type of process over time, where each consecutive step sort of stands and builds up on the shoulders of the preceding steps. Military spending addressed by U. S. Department of Defense, in Poland grows over time but the exponential pace of this growth decreases. The building up over time is impressive in absolute numbers, but it seems to decelerate.

Now, I come back from maths to politics. Those calculations indicate two things. Firstly, whatever is being said in official meetings between my domestic President, and President Trump, regarding the U.S. military presence in Poland, is already happening. The United States are increasing their military footing in Europe in general, and in Poland in particular, and it happens as President Trump loudly declares being sick of it. Secondly, this policy took its strongest kick-start a few years ago, and now it is progressively coming to maturity.

I am consistently delivering good, almost new science to my readers, and love doing it, and I am working on crowdfunding this activity of mine. As we talk business plans, I remind you that you can download, from the library of my blog, the business plan I prepared for my semi-scientific project Befund  (and you can access the French version as well). You can also get a free e-copy of my book ‘Capitalism and Political Power’ You can support my research by donating directly, any amount you consider appropriate, to my PayPal account. You can also consider going to my Patreon page and become my patron. If you decide so, I will be grateful for suggesting me two things that Patreon suggests me to suggest you. Firstly, what kind of reward would you expect in exchange of supporting me? Secondly, what kind of phases would you like to see in the development of my research, and of the corresponding educational tools?

Support this blog


La vie d’un scientifique dans le monde réel

Mon éditorial sur You Tube

Voilà un truc intéressant, apparu un peu par accident. Mon université s’engage dans un projet commun avec une société informatique. Le but est de préparer le lancement d’une fonctionnalité digitale du type « App Builder » et le rôle de l’université est de conduire une recherche côté humain, donc d’identifier les facteurs comportementaux significatifs chez les utilisateurs potentiels de cette technologie ainsi que de prédire l’attitude desdits utilisateurs vis à vis du produit, une fois celui mis en marché. Je suis chargé de préparer un plan de recherche et je besoin de déconstruire l’idée générale à fond. Je sais par expérience que le fait de développer un sujet par écrit, sur mon blog, m’aide beaucoup à clarifier mes idées sur un sujet complexe. D’autre part, le sujet en proche de ma propre ligne de recherche que je conduis depuis des années : l’innovation et son contexte social.

Une fonctionnalité du type « App Builder » est un outil informatique qui rend possible la construction rapide d’un logiciel par des personnes qui ne sont pas ingénieurs en technologies digitales. C’est un peu comme un kit de construction type mécano : vous avez une interface principalement visuelle, qui rend possible la construction d’un logiciel à partir des composantes standardisées. Vous avez des fragments substantiels de code informatique accessibles et maniables en la forme des « pièces » visuelles sur l’écran. Vous avec, par exemple, une pièce appelée « Formulaire de contact pour l’utilisateur », une autre décrite comme « Localisation par GPS » et ainsi de suite. Vous les combinez sur votre écran et de cette façon vous construisez le code complet d’un logiciel.

Comme vous pouvez le deviner aisément, cette technologie qui sert à fabriquer d’autres technologies, d’une manière quasi-artisanale, a deux groupes d’utilisateurs : ceux qui utilisent l’AppBuilder directement, pour fabriquer des logiciels – appelons-les « utilisateurs primaires » – et ensuite ceux qui utilisent les logiciels ainsi crées, donc les « utilisateurs secondaires ». Les utilisateurs primaires sont surtout des PME, ainsi que des ONG (Organisations Non Gouvernementale) de taille pas-encore-très-respectable. La logique de leur adhésion à ce produit est basée sur le mécanisme déjà connu depuis des décennies dans le marché des vêtements pour homme. Un costume pour homme, c’est en principe une pièce de vêtement qui se faisait sur mesure. Lorsque le prêt à porter est apparu, la différence sautait – et saute toujours – aux yeux, surtout dans le cas des messieurs qui ne sont pas exactement bâtis comme Tarzan. C’est ainsi que les tailleurs ont inventé un type de couture que les Anglo-Saxons appellent « bespoke » et pour laquelle je n’ai pas trouvé de traduction exacte en français. Le bespoke c’est comme du semi-sur-mesure. Le costume est pré-taillé et sa structure contient des petites pièces astucieusement masquées dans les endroits critiques, comme la ceinture, les hanches ou les épaules. Ces petites pièces rendent possible un ajustement poussé à la silhouette d’un personne précise. Le tailleur prend la mesure du client et ajuste le vêtement à sa silhouette. Le tout est beaucoup moins coûteux et plus rapide que du sur mesure strictement dit, tout en gardant l’élégance dure à trouver dans du prêt-à-porter typique.

Un AppBuilder c’est du digital façon bespoke. Il y en a déjà pas mal d’AppBuilders offerts sur le marché et ils présentent des régularités intéressantes. Premièrement, la majorité d’entre eux est accessible aux utilisateurs primaires sur la base d’un abonnement mensuel et cependant il en reste une minorité qui n’affiche pas du tout de conditions standardisées d’utilisation et qui présentent la collaboration avec chaque utilisateur primaire comme un projet singulier avec des modalités business tout aussi singulières. Deuxièmement, certains de parmi ces AppBuilders – je ne saurais pas dire si c’est une majorité ou bien une minorité – offrent des versions gratuites de base. Nous avons donc une proportion solide du type « majorité – minorité des cas » accompagnée d’un phénomène apparemment aléatoire dans sa manifestation.

L’abonnement mensuel suggère un lien durable entre l’utilisateur primaire d’un AppBuilder et son fournisseur. C’est logique : une fois que j’ai construit un logiciel mobile pour les clients de ma PME, j’aurais besoin de le parfaire et transformer à mesure que d’autres logiciels de même type apparaîtront sur le marché. L’expression « à mesure que » est importante. Le type d’innovation dont je vais avoir besoin dans ce logiciel c’est du progressif, à petits pas, difficiles à planifier en avance. La boîte à outils que j’avais utilisé la première fois doit donc être à portée de la main et en plus les outils dans la boîte feraient mieux de s’adapter aux nouvelles exigences du marché. Le fournisseur de l’utilité AppBuilder garantit donc à son utilisateur primaire l’accès à la boîte digitale à outils ainsi que leur mise à jour régulière.

Ce type de relation « client – fournisseur » implique que la capacité d’innovation digitale de la part du client reste plus ou moins constante. L’utilisateur primaire d’un AppBuilder de ce type développe l’habitude d’utiliser la boîte à outils fournie, sans modifier sa propre capacité d’innovation. En revanche, lorsque le fournisseur d’un AppBuilder propose, au lieu d’un abonnement, un contrat ponctuel spécifiquement adapté à l’utilisateur primaire donné, ceci implique un schéma différent. Il y a, là, une possibilité implicite qu’une fois le logiciel construit, la relation ultérieure entre le fournisseur de l’AppBuilder et l’utilisateur primaire peut cesser. Ceci, à son tour, exige que ledit utilisateur primaire développe une capacité nouvelle d’innovation digitale. Un transfert de technologie de la part du fournisseur est logiquement à espérer. Si, en tant qu’utilisateur primaire d’un AppBuilder, je décide de naviguer, dans l’avenir, les eaux digitales incertaines sans l’assistance de mon fournisseur initial, il me faut le code-source du logiciel. Sinon, je ne pourrais pas modifier mon outil.

Ainsi donc, l’occurrence de ces deux schémas contractuels distincts dans le marché des AppBuilders – le schéma abonnement comme solution majoritaire contre celui basé sur un contrat ponctuel dans une minorité des cas – suggère que le marché d’utilisateurs primaires des AppBuilders est principalement composé d’entités à capacité plus ou moins constante d’innovation digitale, avec une sous-population faite d’organisations capables de développer leur capacité dans ce domaine. De la part du fournisseur de l’utilité type AppBuilder, ceci implique le développement de deux types distincts de compétences en termes de relations-client. D’une part, il faut une compétence d’accompagnement digital d’utilisateur primaire. Il faut rester à jour en ce qui concerne les besoins du client, l’évolution de son organisation ainsi que de son marché, pour préparer des blocs mécano correspondants dans l’AppBuilder. D’autre part, le fournisseur d’un AppBuilder peut ou doit développer la capacité de transférer à son client une partie de la technologie de base, y compris le code-source du logiciel, en cas où le client développe sa propre capacité d’innovation digitale. Ce deuxième cas donne lieu à des solutions intéressantes, par exemple des codes-source multiples (où chaque utilisateur primaire génère, de facto, un code-source individuel pour son logiciel) ou des contrats bien astucieux de transfert de propriété intellectuelle.

L’occurrence apparemment aléatoire des versions gratuites de certains AppBuilders suggère que certains de parmi leurs fournisseurs développent comme un surplus d’innovation digitale : des trucs qui sont toujours utiles pour des applications simples et possibles à utiliser comme appât marketing mais pas suffisamment impressionnants pour qu’un utilisateur primaire sérieux veuille bien payer pour y avoir accès. Ceci, à son tour, implique une course technologique extrêmement rapide dans le secteur, tellement rapide que les créateurs des technologies n’ont même pas de temps suffisant pour exploiter commercialement à fond tout ce qu’ils développent.

Le raisonnement que je viens de présenter débouche sur la question suivante : comment organiser l’étude de marché pour un nouvel AppBuilder de façon à ce que l’AppBuilder en question soit compétitif ? Voilà un carrefour intéressant de la science et du business.

Qu’est-ce que je veux savoir lorsque je lance une nouvelle version du produit qui existe déjà ? C’est une bonne question. Puisque le produit existe déjà, et sa technologie évolue tellement vite que des retombées de ladite évolution sont accessibles gratuitement, il est presque complètement inutile de lancer des sondages, basés sur des questionnaires standardisés du genre « Qu’espérez-vous d’un AppBuilder ? ». Les attentes ainsi formulées sont un pâle reflet de ce qui se passe sur le marché. Comme je viens de le discuter, les proportions entre les compétences digitales d’utilisateurs typiques des AppBuilers, d’une part, et le degré de perfectionnement technologique de ces derniers d’autre part sont ridiculement déséquilibrés. Ces utilisateurs ne sont tout simplement pas capables de dire ce qu’ils veulent puisqu’ils n’ont pas la base se savoir nécessaire pour verbaliser ce qu’ils veulent.

Dans le passé, avant que j’eus choisi la carrière académique, je travaillais précisément dans l’étude de marché comme profession. Par expérience, je sais comme profondément vraie est cette phrase de Bernard Bosanquet : « (…) souvent, lorsque les gens ne savent pas ce qu’ils veulent dire, ils néanmoins veulent dire quelque chose de très grande importance ». En d’autres mots, les questionnaires typiques, faits des questions standardisées, comme dans les sondages s’opinion publique que vous pouvez voir à la télé, sont, parmi tous les outils de recherche, les plus difficiles à utiliser correctement et par ce fait, la plupart de leurs résultats sont tout simplement erronés. L’étude de marché vraiment digne de ce nom exige que l’on se pose des questions fondamentales, tout comme dans une recherche scientifique strictement dite, et que l’on applique toute la rigueur scientifique à trouver des réponses.

Voilà donc que j’ai une occasion toute prête de se tourner vers l’une de mes petites obsessions intellectuelles : la recherche behavioriste. S’il est futile d’étudier ce que les gens disent qu’ils pensent qu’ils veulent, il peut être intéressant ce qu’ils font. Les AppBuilders sont utilisés par les entreprises et les organisations non-commerciales de taille relativement petite et de compétence digitale relativement modeste pour construire rapidement des applications mobiles qui servent à créer, maintenir et développer des relations-clients. C’est le cœur du phénomène étudié de façon scientifique : la façon dont les utilisateurs primaires potentiels d’un AppBuilder gèrent leurs relations-clients.

Une façon de faire quelque chose est une séquence. L’action B se répète, encore et encore, après l’action A et avant l’action C. Si je contacte une agence de voyages, par exemple, ses employés vont se comporter en une séquence d’actions (interview en ce qui concerne mes attentes, un devis personnalisé des voyages, deux appels de relance par téléphone etc.). Point de vue business, l’application mobile qu’une telle agence pourrait offrir à ses clients remplacerait cette séquence d’actions avec quelque chose de plus efficient, au moins en principe. C’est objectivement ce qu’un AppBuilder peut donner, en termes de valeur ajoutée, à cette agence de voyages : une technologie pour cloner – rapidement et facilement – leur séquences typiques d’actions dans les relations-clients en une forme d’application mobile.

J’ai donc pensé à une première phase qualitative de cette étude de marché, basée sur un échantillon d’interviews en profondeur dans les PME et des organisations non-commerciales, précisément en vue d’identifier des schémas comportementaux récurrents. Parmi d’autres détails méthodologiques, une question émerge : la taille de l’échantillon. Dans l’univers du qualitatif, il y a une foule d’opinions à ce propos. En fait, chaque chercheur a sa petite théorie. Ce que je peux définir comme consensus méthodologique assume des échantillons entre 20 et 70 interviews. Je me suis demandé s’il y a une méthode rationnelle de calculer ça.

J’avais commencé par assumer que dans une série d’interviews qualitatifs en profondeur, chaque interview devrait fournir des informations pertinentes pour optimiser les interviews suivantes. C’est une démarche heuristique. J’avais retourné aux notions fondamentales de la méthode de Bayes : chaque expériment consécutif permet de diviser l’univers entiers d’occurrences possibles en deux champs distincts, d’habitude possibles à décrire comme « succès » ou « échec ». Je me suis dit, aussi, que j’ai tout le droit d’attendre à ce que ces interviews marchent, en pratique, suivant la règle de Pareto : 20% d’entre elles vont fournir 80% d’informations utiles. Très intuitivement, j’ai donc calculé, encore une fois en accord avec la logique de Bayes, le coefficient binomial pour une séquence faite de 2 succès sur 10 essais. Ça fait {10!/[(10!*(10-2)!)]} = 45. Le symbole « ! » veut dire, bien sûr, une factorielle. Je sais que c’est vraiment très intuitif, mais une intuition cohérente vaut mieux que rien.

Il y a un second truc, dans cette étude de marché : l’expérimentation avec les prototypes de l’AppBuilder. A ce respect précis, une question méthodologique a surgi : comment savoir quelles caractéristiques de l’AppBuilder sont les plus importantes pour les utilisateurs. La façon la plus simple de se faire une opinion là-dessus est de demander les opinions d’utilisateurs primaires. Encore, pour moi, c’est encore une fois demander ce que les gens disent qu’ils pensent qu’ils attendent de la part de quelque chose qui n’existe pas encore. J’ai donc pensé à une approche behavioriste. Logiquement, si une modification de la caractéristique donnée d’une utilité digitale affecte le comportement d’utilisateurs relativement plus que des modifications d’autres caractéristiques, ce trait précis a la capacité de modifier le comportement, donc il est plus important que les autres. J’ai donc pensé à un expériment où la société d’informatique construit des prototypes dotés des caractéristiques hyperboliques, genre icônes vraiment petites en comparaison avec des icônes très grosses. Chaque hyperbolisation est testée séparément en vue de son impact sur le comportement d’utilisateurs dans l’environnement expérimental.

Voilà un échantillon de la vie d’un scientifique dans le monde réel, lorsqu’il faut utiliser la science pour trouver son chemin dans l’espace social. Je continue à vous fournir de la bonne science, presque neuve, juste un peu cabossée dans le processus de conception. Je vous rappelle que vous pouvez télécharger le business plan du projet BeFund (aussi accessible en version anglaise). Vous pouvez aussi télécharger mon livre intitulé “Capitalism and Political Power”. Je veux utiliser le financement participatif pour me donner une assise financière dans cet effort. Vous pouvez soutenir financièrement ma recherche, selon votre meilleur jugement, à travers mon compte PayPal. Vous pouvez aussi vous enregistrer comme mon patron sur mon compte Patreon . Si vous en faites ainsi, je vous serai reconnaissant pour m’indiquer deux trucs importants : quel genre de récompense attendez-vous en échange du patronage et quelles étapes souhaitiez-vous voir dans mon travail ?

Vous pouvez donner votre support financier à ce blog


Dwie kule w Kalifornii i wielebny Thomas Bayes

Wstępniak video na You Tube

Kontynuuję moją wycieczkę pokazową po krainie na granicy matematyki i codzienności. Tym razem chcę omówić nieco obszerniej podstawy czegoś, czym wykładowcy straszą (czasami) studentów na zajęciach z podstaw statystyki. „Myślicie, że te podstawy są trudne ? To poczekajcie, aż zaczniecie się uczyć statystyki Bayesowskiej: to dopiero jest trudne”. Chcę przybliżyć moim czytelnikom podstawy właśnie tego straszaka, czyli statystyki Bayesowskiej.

Aha, no tak. We wcześniejszych wpisach zapowiadałem, że będę omawiał sposób, w jaki podstawowe twierdzenia nauk społecznych można zastosować w praktyce. Przyjrzeliśmy się już dwóm takim twierdzeniom. Pierwsze, całkiem banalnie mówi: jesteśmy zbiorowością (patrz „Gra w tożsamość”). Drugie postuluje, że prawie wszystko co robimy, robimy w sposób powtarzalny, według powtarzalnych wzorców, a każdy taki wzorzec można rozpisać jako sekwencję (patrz „Czasami coś odrasta”). Pora na trzecie: powtarzalne wzorce zachowań tworzymy poprzez uczenie się na kolejnych eksperymentach.

Wszystko zaczęło się w roku 1763 roku, chociaż może nieco wcześniej. W dniu 23 grudnia 1763 pan John Canton, redaktor czasopisma „Philosophical Transactions”, wydawanego nakładem Królewskiego Towarzystwa Naukowego, otrzymał list od pana Richarda Price’a (nie mylić ze współcześnie żyjącym pisarzem o dokładnie tym samym imieniu i nazwisku), buntowniczego kaznodziei związanego z architektami amerykańskiej niepodległości, podobno głównie Benjaminem Franklinem. List był wysłany 10 listopada 1763 roku i rekomendował panu Johnowi Cantonowi, jako materiał na artykuł, esej napisany (podobno) przez nieżyjącego już wówczas przyjaciela Richarda Price’a, wielebnego Thomasa Bayesa. Price twierdził, że wypełniając ostatnią wolę nieżyjącego Bayesa, porządkował jego osobiste dokumenty i znalazł wśród nich właśnie ten. Redaktor John Canton musiał być pod sporym wrażeniem nadesłanego tekstu, ponieważ ukazał się on jeszcze w tym samym, 1763 roku, którego zostało wtedy tylko 7 dni, pod tytułem: „An Essay towards Solving a Problem in the Doctrine of Chances[1].

Oto jak Richard Price przedstawiał w swym liście do Johna Cantona główną myśl Thomasa Bayesa: „[…] Jego zamiarem było znaleźć metodę, poprzez którą moglibyśmy wydać osąd na temat prawdopodobieństwa że jakieś zdarzenie będzie miało miejsce, w danych okolicznościach, w oparciu o supozycję że nie wiemy nic poza tym, że w takich samych okolicznościach wydarzyło się to już pewną liczbę razy i nie powiodło się w jakiejś innej liczbie razy. […] Dodaje on, że nie jest trudno to wyliczyć, pod warunkiem posiadania jakiejś reguły dla oszacowania szans, że prawdopodobieństwo zdarzenia doskonale nam nieznanego mieści się między jakimikolwiek znanymi stopniami prawdopodobieństwa, jeszcze przed wykonaniem jakichkolwiek eksperymentów […]”.

Richard Price przedstawił redaktorowi Johnowi Cantonowi myśl swojego przyjaciela z prawie doskonałą wiernością. Prawie, gdyż Thomas Bayes wprowadzał jednak element eksperymentu w swoim modelu matematycznym. W celu wyjaśnienia logiki tego eksperymentu i jego związku z całą przedstawianą tu teorią, poniżej przedstawiam moją własną reprodukcję tzw. prostokąta Bayesa. Narysowałem go tak wiernie w stosunku do oryginału z 1763 roku, jak tylko mogłem. Na razie oznaczenia prostokąta niewiele Wam powiedzą, ale wyjaśniam je dalej pod rysunkiem. W moich wyjaśnieniach staram się streścić i odtworzyć oryginalny wywód Thomasa Bayesa też tak wiernie, jak to możliwe.

Prostokąt Bayesa

Wyobraźmy sobie, że wszystko co może się wydarzyć przedstawiamy jako płaszczyznę, a dokładnie jako skończony prostokąt ABCD wyznaczony na dwuwymiarowej płaszczyźnie; podobne geometryczne podejście jak w przypadku rozkładu normalnego ( patrz „Czasami coś odrasta” ). Wyobraźmy sobie, że mamy dwie kule: W i O. Stajemy twarzą do naszego prostokąta tak, że bok AB jest przed nami, jak rozciągnięta poprzecznie linka. W sumie tyłem też można stanąć, ale wtedy trzeba rzucać przez ramię; matematycznie nie ma to większego znaczenia. Najpierw rzucamy kulą W. Nie musimy jej nadawać żadnego konkretnego celu: po prostu staramy się, żeby potoczyła się po prostokącie ABCD. Trajektorię, jaką pokonała nasza kula W, oznaczamy jako odcinek oS.

Teraz rzucamy kulą O, ale przed rzutem zastanawiamy się, gdzie może trafić w nasz prostokąt ABCD. Pierwsza możliwa odpowiedź brzmi: gdziekolwiek. Druga, alternatywna odpowiedź brzmi jednak: albo w prostokąt oBCS, albo w przyległy do niego prostokąt AoSD. Rozumiecie ? Pierwszy rzut – kulą W – podzielił nam całą przestrzeń możliwych zdarzeń na dwie części. Pytanie o to, co się stanie następnie można uprościć: albo walnie w jedną część przestrzeni, albo w drugą. Sukces albo porażka.

Geometria ma swoje prawa: prawa proporcji. Kiedy już rzuciliśmy kulą W i podzieliliśmy w ten sposób nasz prostokąt ABCD na dwa mniejsze – oBCS oraz AoSD – prawdopodobieństwo że kolejny rzut kulą O trafi w któryś z nich jest zależny od ich powierzchni. Im większy jest prostokąt oBCS w stosunku do macierzystego ABCD, tym większa szansa że kula O trafi właśnie w niego. Ponieważ to są prostokąty, naszą proporcję prawdopodobieństwa można nawet jeszcze bardziej uprościć: prawdopodobieństwo trafienia w prostokąt oBCS jest takie, jak proporcja długości odcinka oB do długości odcinka AB. Genialnie proste.

W ten sposób działa nasz umysł. Wchodzimy na nieznany teren, na przykład do nowego biznesu albo zaczynamy nową pracę. Najpierw określamy granice, w których cokolwiek może się wydarzyć, czyli prostokąt ABCD. Następnie zaczynamy eksperymentować: rzucamy kulą W. Próbujemy nawiązać pierwsze kontakty, przeprowadzić pierwsze własne pomysły itd. Każda kolejna taka próba jest jak rozpoczynany wciąż na nowo eksperyment Bayesa. Rzut kulą W dzieli nam przestrzeń wszystkiego, co się może zdarzyć na dwie kategorie: sukces albo porażkę.

W ten sposób jednostki i zbiorowości uczą się nowych wzorców zachowań. Coś robimy. Spośród wszystkiego co się może zdarzyć, to co robimy trafia albo w prostokąt oBCS (sukces, dostajemy efekty, których oczekiwaliśmy po naszym działaniu) albo w AoSD (porażka, czyli kicha, czyli nam nie wyszło). Sekwencja sukcesów utwierdza nas w przekonaniu, że nasze działanie ma sens i z każdym sukcesem utrwalamy odpowiedni wzorzec zachowań. Sekwencja porażek skłania do refleksji, że w naszym doskonałym planie być może powinniśmy wnieść drobne korekty i następnie próbujemy znowu. Jeżeli w całkowitym zbiorze n prób będziemy mieli większość sukcesów, utrwalimy nasze wzorce zachowań. W teorii uczenia się jest to określane jako wykształcanie świadomej kompetencji. Jeżeli natomiast w sekwencji n prób mamy większość porażek, wtedy będziemy mnożyć wciąż nowe warianty zachowań i sprawdzać, który przynosi efekty. Takie zjawisko jest z kolei określane jako budowanie świadomej niekompetencji, czyli budowanie wiedzy na temat tego, kiedy nam nie wychodzi.

Sformalizujmy nieco to rozumowanie. Jeżeli na 10 prób mamy 70% prawdopodobieństwo ośmiu sukcesów i 2 porażek, całe nasze zachowanie będzie szło w kierunku utrwalania obecnie rozgrywanych strategii i kształtowania świadomej kompetencji. Jeżeli natomiast będziemy mieli 70% szans na 8 porażek i 2 sukcesy, nasze działania będą szły w kierunku budowania świadomej niekompetencji i szukania nowych rozwiązań. Prawdopodobieństwo, które starał się wyliczyć wielebny Thomas Bayes – prawdopodobieństwo p sukcesów na n prób – to obiektywny stan rzeczywistości, który nadaje kierunek naszym procesom uczenia się.

Wracam do kwestii proporcji. Przypuśćmy, że nasz pierwszy rzut kulą W wyjdzie prawie dokładnie pośrodku prostokąta ABCD. Wtedy proporcja pomiędzy odcinkiem oB i całym bokiem AB będzie bliska 50%. Prawdopodobieństwo sukcesu w kolejnym rzucie, tym kulą O, jest również bliskie 50%. Prawdopodobieństwo, że sekwencja kolejnych rzutów kulą O będzie sekwencją sukcesów, która utrwali nasz wzorzec zachowań, jest prawie równe prawdopodobieństwu, że będzie to sekwencja porażek i skłoni nas do poszukiwania wciąż nowych rozwiązań.

Nooo, nareszcie ! Pierwsza praktyczna wskazówka od wielebnego Bayesa ! Jeżeli nasz system wartości jest wyostrzony, tzn. bardzo jasno określa czego chcemy i co określamy jako sukces – czyli nasz prostokąt oBCS jest wyraźnie większy albo wyraźnie mniejszy od AoSD – wtedy potrafimy świadomie zbudować wyraźne rozróżnienie między doświadczalnym uczeniem się skierowanym na utrwalanie naszych wzorców zachowań, a uczeniem się ukierunkowanym na szukanie czegoś nowego. Jeżeli natomiast nasz system wartości jest taki cośkolwiek nijaki i nie wiemy dokładnie, na czym nam zależy, wtedy trudno jest nam określić czy lepiej utrwalać to, co już robimy czy też może szukać nowych rozwiązań. Czyli, tak po ludzku, jak wiemy czego chcemy to uczymy się szybciej, a jak nie wiemy, to wolniej.

Druga praktyczna wskazówka, taka na wielkie okazje: nasz system wartości jest określony przez nasze doświadczenie. Zawsze gdzieś tam u zarania i w kolebce zdarzeń był ten rzut kulą W, który podzielił prostokąt naszej rzeczywistości na dwie kategorie. Czasami warto się zastanowić, szczególnie kiedy czujemy że coś jest naprawdę nie tak, czy przypadkiem nie byłoby warto zainicjować nowej sekwencji i rzucić tą kulą W po raz kolejny.

No dobra, no to jakie jest w końcu to prawdopodobieństwo p sukcesów na n prób ? Thomas Bayes podszedł do tego w sposób, który dzisiaj znamy jako rozkład dwumianowy. Nie byłbym belfrem z krwi i kości, gdybym teraz nie zrobił na ten temat szczegółowego wykładu. Mamy prawdopodobieństwo sukcesu a, że nasza kula O walnie w jeden prostokąt wykreślony przez uprzedni rzut kulą W) oraz prawdopodobieństwo porażki b, czyli że kula O trafi niezupełnie w ten właśnie prostokąt. Mamy n prób, gdzie oczekujemy p sukcesów oraz q = n – p porażek. Z tych zmiennych robimy dwumian Newtona: (a + b)p + q.

Jeżeli ulegniemy pokusie dodawania w nawiasie, czyli jeżeli dodamy a + b, wtedy wyjdzie nam 1 – czyli 100% – i to samo wyjdzie nam po podniesieniu do jakiejkolwiek potęgi. Jeżeli jednak zachowamy się zgodnie z logiką dwumianu Newtona, to otrzymamy wielomian, gdzie jednym ze składników będzie: {n!/[p!(n-p)!]}*ap*bq. Ten właśnie składnik wielomianu jest prawdopodobieństwem otrzymania p sukcesów w n próbach. W składniku tym mamy dwa odrębne czynniki. Z jednej strony mamy czynnik ap*bq , czyli ściśle pojęte prawdopodobieństwo że zdarzy się p sukcesów i q porażek. Drugi czynnik to raczej współczynnik – tzw. współczynnik wielomianu – czyli {n!/[p!(n-p)!]}, który odzwierciedla liczbę możliwych sposobów, na które możemy mieć p sukcesów i q porażek na n prób.

Ten drugi czynnik, czyli {n!/[p!(n-p)!]}, ma ciekawą własność. Wyobraźmy sobie, że mamy 100 prób, czyli n = 100 oraz że chcemy sprawdzić prawdopodobieństwo osiągnięcia 33 sukcesów i 67 porażek. Wyrażenie {n!/[p!(n-p)!]} daje nam wtedy wynik 294 692 427 022 540 894 366 527 900 sposobów wystąpienia takiej kombinacji. Strasznie dużo. Co ciekawe, tyle samo, co liczba możliwych kombinacji 67 sukcesów i 33 porażek. Teraz chcę 58 sukcesów na 100 prób. Wyrażenie {n!/[p!(n-p)!]} jest wtedy równe 28 258 808 871 162 574 166 368 460 400. Jeszcze bardziej strasznie dużo, dokładnie dwa rzędy wielkości więcej co poprzednie strasznie dużo. Jeżeli mogę zadowolić się tylko 3 sukcesami, mogę je otrzymać w 100 próbach na {n!/[p!(n-p)!]} = 161 700 sposobów, tyle samo zresztą co 97 sukcesów na 100 prób. Ciągle dużo ale już nie tak strasznie dużo.

Rozwijam teraz dalej myśl, że teoria Thomasa Bayesa odzwierciedla nasze procesy uczenia się poprzez eksperymentowanie. Powyższy pokaz obliczeniowy wskazuje na ciekawą własność tego procesu. Proces eksperymentowania i uczenia się, gdzie liczba sukcesów jest zbliżona do liczby porażek, czyli gdzie utrwalanie wzorców zachowań (rozwijanie świadomej kompetencji) jest mniej więcej zrównoważone z szukaniem nowych rozwiązań (rozwijaniem świadomej niekompetencji) może się wydarzyć na więcej możliwych sposobów niż procesy skrajne, gdzie mamy albo prawie wyłącznie porażki (prawie wyłącznie uczymy się, co nam nie wychodzi) albo prawie same sukcesy i pracowicie utwierdzamy się w doskonałości naszych metod działania.

To wydarzyło się pod koniec 1763 roku. Inna ciekawa rzecz wydarzyła się całkiem niedawno. W dniu 10 sierpnia 2018 roku gubernator stanu Kalifornia podpisał i przekazał Sekretarzowi Stanu akt prawa stanowego, nakreślający plan dla przejścia gospodarki całego stanu Kalifornia w 100% na energie odnawialne[1]. Temat energii odnawialnych jest drogi mojemu sercu, prowadzę na ten temat badania i staram się tworzyć koncepcje biznesów dla rozwoju energii odnawialnych. Teraz staram się wykorzystać ten konkretny przypadek dla zilustrowania zasad racjonalnego eksperymentowania zgodnie z filozofią matematyczną Thomasa Bayesa. Tak jest, wezmę artykuł napisany w osiemnastym wieku i zastosuję jego założenia teoretyczne do interpretacji działań podejmowanych przez stan Kalifornia dla przejścia na energie odnawialne, w dwudziestym pierwszym wieku.

We wstępie owej kalifornijskiej ustawy możemy się dowiedzieć, iż przed jej uchwaleniem niejaka PUC, czyli Public Utilities Commission, czyli po naszemu Komisja ds. Infrastruktury Publicznej, miała prawo egzekwować od wszystkich detalicznych dostawców energii elektrycznej aby w ich koszyku dostaw energie odnawialne miały następujący udział: 25% w dniu 31 grudnia 2016, 33% w dniu 31 grudnia 2020, 40% dnia 31 grudnia 2024, 45% trzydziestego pierwszego grudnia 2027 oraz 50% w dniu 31 grudnia 2030. Tenże sam wstęp oznajmia, że stan (Kalifornia) wziął i się zastanowił i stwierdził, że jak się da tyle, to pewnie da się i więcej, no i zrewidowano podanej powyżej progi. Teraz postanawia się, że trzydziestego pierwszego grudnia 2024 roku elektryczność ze źródeł odnawialnych ma stanowić 44% sprzedaży detalicznej i ma to podskoczyć do 52% w dniu 31 grudnia 2027, aby osiągnąć 60% w dniu 31 grudnia 2030 roku.

Jestem ekonomistą, więc lubię wykresy. Poniżej, możecie zobaczyć tą zmianę polityki energetycznej właśnie w postaci wykresu.

Ustawowe cele stanu Kalifornia w zakresie udziału energii odnawialnych w detalicznej sprzedaży elektryczności

Pytanie nr 1: w jaki sposób cały stan – w zasadzie cały kraj, bo Kalifornia jest ludnościowo większa od Polski – może takie progi jak wymienione powyżej ustalić w sposób racjonalny i realistyczny ? Pytanie nr 2: skąd cały taki kraj wie, że można te progi podnieść ?

Przypuśćmy, że każdy z Was, moi czytelnicy, chce takie wyliczenia przeprowadzić. Skąd wiadomo, jaki procent energii odnawialnych można wyznaczyć jako cel na przyszłość dla społeczności liczącej sobie ponad 30 milionów ludzi ? Wiadomo, czego nie mamy:  nie mamy żadnej reprezentatywnej próbki wielodziesięciomilionowych populacji wraz z ich proporcjami elektryczności dostarczanej ze źródeł odnawialnych. Na tym poziomie analizy nie mamy więc podstaw do rozumowania w kategoriach typowego rozkładu statystycznego ( patrz „Czasami coś odrasta” ). Jak więc podejść do sprawy racjonalnie i wyznaczyć cele, które mają szanse być zrealizowane ?

Politycznie najprościej jest wyznaczyć takie cele, o których wiemy na pewno że zostaną zrealizowane. Jako prawodawca mamy więc przed sobą twarde prognozy, że w roku 2024 odsetek energii odnawialnych wyniesie 46 – 48% i do ustawy wpisujemy 44% itd. Jeżeli jednak myślimy nieco bardziej ambitnie i chcemy stworzyć rzeczywistą strategię przejścia, trzeba zapuścić się w krainę ryzyka i przybić jakiś zakład z losem.

No dobra, ale miało być też o Kalifornii i o jej przejściu na energie odnawialne. W zasadzie wszędzie na świecie przejście to ma szczególną postać, odmienną od tego co działo się jakieś 100 – 150 lat temu, kiedy z kolei przestawialiśmy się na energię z paliw kopalnych. Wtedy, w przeszłości, węgiel, gaz czy ropa naftowa zastępowały młyny wodne czy wiatrowe, tudzież domowe piece, w postaci wielkich skoków. Otwierała się nowa duża elektrownia i za jednym zamachem „przestawiała” na paliwa kopalne całe duże społeczności. Z energiami odnawialnymi jest przeciwnie. Z wyjątkiem niektórych miejsc na świecie (np. kompleksu słoneczno-cieplnego Ouarzazate w Maroku), energie odnawialne pojawiają się w postaci stosunkowo niewielkich, lokalnych instalacji. Przejście na energie odnawialne to stopniowe przechodzenie lokalnych społeczności na „paczki” energii pochodzącej z wody, wiatru czy słońca.

Mamy tu do czynienia z procesem zbiorowego uczenia się. Najpierw zbiorowość rzuca kulą W, jak u Bayesa i jest to zresztą rzut wielokrotny. Zaczyna się od niewielkiej liczby lokalnych instalacji opartych na energiach odnawialnych. Przedsięwzięcia te są eksperymentem, który daje wiedzę na temat tego, co można uznać za sukces ekonomiczny i technologiczny, a co jest porażką. Każde kolejne przedsięwzięcie, spośród tych pionierskich, dostarcza nowych informacji. Przychodzi moment, kiedy „sukces” i „porażka” są na tyle ściśle zdefiniowane, że można pokusić się o określenie ich prawdopodobieństwa.

Według danych udostępnianych przez U.S. Energy Information Administration, przeciętny mieszkaniec Kalifornii zużywa rocznie 199 milionów Btu (British Thermal Units) energii, czyli ok. 58 321 kilowatogodzin. Ludność Kalifornii, zgodnie z danymi World Population Review, to obecnie  39 776 830 osób. Jeżeli strukturę rynku energii w Kalifornii wyrażamy w procentach, to dzielimy ten rynek na „paczki”, z których każda równa jest 1% tegoż rynku, czyli jest to 1% * 39 776 830 osób * 58 321 kilowatogodzin =  23 198 301 877,32 kilowatogodzin = 23 198,3 gigawatogodzin. Jeżeli ustawa zakłada, że

Wskaźniki procentowe zawarte w cytowanej tu ustawie Parlamentu Stanu Kalifornia można zinterpretować jako miary prawdopodobieństwa. Jest to prawdopodobieństwo, że losowo wybrana „paczka” energii równa 23 gigawatogodziny z groszami wyląduje w prostokącie „energie odnawialne” a nie w prostokącie „energia z paliw kopalnych”. Innymi słowy, zbiorowość stanu Kalifornia rzuca już drugą kulą, czyli kulą O. W ustawie jest wpisane założenie, że prawdopodobieństwo to będzie rosło w czasie. Założenie to jest nawet wzmocnione przez fakt, że najnowszy tekst tych przepisów zakłada wyższe prawdopodobieństwo niż poprzednia wersja. Zgodnie z filozofią matematyczną Bayesa jest tylko jeden sposób, aby to prawdopodobieństwo wzrosło: prostokąt odpowiadający kategorii „sukces w eksploatacji energii odnawialnych” musi być coraz większy w relacji do całkowitych rozmiarów prostokąta ABCD, czyli całego uniwersum zdarzeń. Innymi słowy, definicja sukcesu musi być coraz bardziej pojemna.

Jest jeszcze drugi poziom logiczny w tym rozumowaniu. Pamiętacie wyliczenia współczynnika wielomianu sprzed kilku akapitów ?No wiecie, tego {n!/[p!(n-p)!]}. Pokazałem wtedy wyliczenia dla 100 prób, a więc tak jakby pokazywał je dla 100 paczek energii, z których każda ma te tam 23 gigawatogodziny z lekkim hakiem, w sensie że w Kalifornii, bo u nas w Polsce to taka paczka miałaby jakieś 11 gigawatogodzin. Oni zużywają więcej energii na transport i na klimatyzację. W każdym razie, logika rachunku dwumianowego, opartego na rozumowaniu Thomasa Bayesa sugeruje, że istnieje 100 891 344 545 564 193 334 812 497 256 sposobów uzyskiwania ze źródeł odnawialnych 50 paczek energii na 100 możliwych. To był kiedyś wyznaczony cel dla Kalifornii na rok 2030. Jest to jednocześnie największa możliwa liczba kombinacji sukcesów i porażek w 100 próbach. Innymi słowy, jest to proces uczenia się o największym potencjale przynoszenia informacji z kolejnych eksperymentów. Teraz, od 10 września, ten cel został zrewidowany do 60%, a więc do 60 paczek energii na 100 możliwych. Jest 13 746 234 145 802 811 501 267 369 720 sposobów uzyskania 60 sukcesów na 100 prób. To jest ponad siedem razy mniej niż w przypadku 50 sukcesów. Nowe ustawodawstwo stanu Kalifornia przesunęło moment maksymalnie efektywnego, zbiorowego uczenia się wstecz w czasie, z roku 2030 na moment gdzieś między rokiem 2024 a 2027. Ciekawe.

[1] Senate Bill No. 100, CHAPTER 312, An act to amend Sections 399.11, 399.15, and 399.30 of, and to add Section 454.53 to, the Public Utilities Code, relating to energy. [Approved by Governor September 10, 2018. Filed with Secretary of State September 10, 2018.]


[1] „An Essay towards Solving a Problem in the Doctrine of Chances”. By the Late Rev. Mr.Bayes, F. R. S. Communicated by Mr. Price, in a Letter to John Canton, A. M. F. R. S. ; Author(s): Mr. Bayes and Mr. Price; Source: Philosophical Transactions (1683-1775), Vol. 53 (1763), pp. 370-418. Published by: Royal Society; Stable URL:


Shut up and keep thinking

This time, something went wrong with the uploading of media on the Word Press server, and so I am publishing my video editorial on You Tube only. Click here to see and hear me saying a few introductory words.

I am trying to put some order in all the updates I have written for my research blog. Right now, I am identifying the main strands of my writing. Still, I want to explain I am doing that sorting of my past thought. I had the idea that, as the academic year is about to start, I could use those past updates as material for teaching. After all, I am writing this blog in sort of a quasi-didactic style, and a thoughtful compilation of such content can be of help for my students.

Right, so I am disentangling those strands of writing. As for the main ideas, I have been writing mostly about three things: a) the market of renewable energies b) monetary systems and cryptocurrencies, as well as the FinTech sector, c) political systems, law and institutions, and d) behavioural research. As I am reviewing what I wrote along these three lines, a few distinct patterns of writing emerge. The first are case studies, focused on interpreting the financial statements of selected companies. I went into four distinct avenues with that form of expression: a) companies operating in the market of renewable energies b) investment funds c) FinTech companies and, lately, d) film and TV companies. Then, as a different form of my writing, come quantitative studies, where I use large databases to run correlations and linear regressions. Finally, there are whole series of updates, which, fault of a better term, I call ‘concept development’. They give account of my personal work on business or scientific concepts, and look very much like daily reports of creative thinking.

Funny, by the way, how I write a lot about behavioural patterns and their importance in social structures, and I have fallen, myself, into recurrent behavioural patterns in my writing. Good, so what I am going to do is to use my readings and findings about behavioural patterns in order to figure out, and make the best possible use of my own behavioural patterns.

How can I use my past writing for educational purposes? I guess that my essential mission, as an educator, consists in communicating an experience in a teachable form, i.e. in a form possible to reproduce, and that reproduction of my experience should be somehow beneficial to other people. Logically, if I want to be an efficient educator in social sciences, what I should do now, is to distillate some sort of essence from my past experience, and formalize it in a teachable form.

My experience is that of looking for recurrent patterns in the most basic phenomena around me. As I am supposed to be clever as a social scientist, let’s settle for social phenomena. Those three distinct forms of my expression correspond to three distinct experiences: focus on one case, search for quantitative data on a s**tload of cases grouped together, and, finally, progressive coining up of complex ideas. This is what I can communicate, as a teacher.

Yet, another idea germinates in my mind. I am a being in time, and I thrust myself into the time to come, as Martin Heidegger would say (if he was alive). I define my social role very largely as that of a scientist and a teacher, and I wonder what am I thrusting, of myself as a scientist and a teacher, into this time that is about to advance towards me. I was tempted to answer grandly that it is my passion to discover that I project into current existence. Yet, precisely, I noticed it is grand talk, and I want to go to the core of things, like to the flesh of my being in time.

As I take off the pompous, out of that ‘passion to discover’ thing, something scientific emerges: a sequence. It all always starts when I see something interesting, and sort of vaguely useful. I intuitively want to know more about that interesting and possibly useful thing, and so I touch, I explore, I turn it under different angles, and yes, my initial intuition was right: it is interesting and useful. Years ago, even before having my PhD, I was strongly involved in preparing new material for management training. I was part of a team lead by a respectable professor from the University of Warsaw, and we were in scientific charge of training for the middle management of a few Polish banks. At the time, I started to read financial reports of companies listed in the stock market. I progressively figured out that large, publicly listed companies published periodical reports, which are like made of two completely different, semantic substances.

In those financial reports, there was the corporate small talk, about ‘exciting new opportunities’, ‘controlled growth’, ‘value for our shareholders’, which, honestly, I find interesting for the sake of its peculiar style, seemingly detached from real life. Yet, there is another semantic substance in those reports: the numbers. Numbers tell a different story. Even if the management of a company do their best to disguise some facts so as they look fancier, the numbers tell the truth. They tell the truth about product markets, about doubtful mergers and acquisitions, about the capacity of a business to accumulate capital etc.

As I started to work seriously on my PhD, and I started to sort out the broadly spoken microeconomic theories, including those of the new institutional school, I suddenly realised the connection between those theories and the sense that numbers make in those financial reports. I discovered that financial statements, i.e. the bare numbers, backed with some technical, explanatory notes, tend to show the true face of any business. They make of those Ockham’s razors, which cut out the b*****it and leave only the really meaningful.

Here comes the underlying, scientifically defined phenomenon. Financial markets have been ever present in human societies. In this respect, I could never recommend enough the monumental work by Fernand Braudel (Braudel 1992a[1]; Braudel 1992b[2]; Braudel 1995[3]). Financial markets have their little ways, and one of them is the charming veil of indefiniteness, put on the facts that laymen should-not-exactly-excite-themselves-about-for-their-own-good. Big business likes to dress into those fancy clothes, made of fancy and foggy language. Still, as soon as numbers have to be published, they start telling the true story. However elusive the management of a company would be in their verbal statements, the financials tell the truth. It is fascinating, how the introduction of precise measurements and accounts, into a realm of social life where plenty of b*****it floats, instantaneously makes things straight and clear.

I know what you can think now, ‘cause I used to think the same when I was (much) younger and listened to lectures at the university: here is that guy, who can be elegantly labelled as more than mature, and he gets excited about his own fascinations, financial reports in the occurrence. Still, I invite you to explore the thing. Financial markets are crucial for the current functioning of our civilisation. We need to shift towards renewable energies, we need to figure out how to make more food in sustainable ways, we need to remove plastic from the oceans, we need to go and see if Mars is an interesting place to hang around: we have a lot of challenges to face. Financial markets are crucial to that end, because they can greatly help in mobilising collective effort, and if we want them to work the way they should work, we need to assure that money goes where it is really needed. Bringing clarity and transparency to finance, over and over again, is really important. Being able to cut through the veil of corporate propaganda and go to the core of business is just as important. Careful reading of financial reports matters. It just matters.

So here is how one of my scientific fascinations formed. More or less at the same epoch, i.e. when I was working on my PhD, I started to work seriously with large datasets, mostly regarding innovation. Patents, patent applications, indicators of R&D effort: I started to go really quantitative about that stuff. I still remember that strange feeling, when synthetic measures of those large datasets started to make sense. I would run some correlations, just because you just need a lot of correlations in a PhD in economics, and vlam!: things would start to be meaningful. Those of you who work with Big Data probably know that feeling well, but I was experiencing it in the 1990ies, when digital technologies were like the grand-parents of the current ones, and even things like Panel Data Analysis, an analytical routine today, were seen as the impressionism of economic research.

I had progressively developed a strongly exploratory manner of working with quantitative data. A friend of mine, the same professor whom I used to work for in those management training projects, called it ‘the bulldog’ approach. He said: ‘Krzysztof, when you find some interesting data, you are like one of those anecdotal bulldogs: you bite into it so strongly, that sometimes you don’t even know how to let go, and you need someone who comes with a crowbar at forces your jaws open’.  Yes, indeed, this is the very same that I have just noticed as I am reviewing the past updates in that research blog of mine. What I do with data can be best described as sniffing, rummaging, playing with, digging and biting into – anything but serious scientific approach.

This is how two of my typical forms of scientific expression – case studies and quantitative studies – formed out of my fascination with the sense coming out of numbers. There is that third form of expression, which I have provisionally labelled ‘concept forming’, and which I developed the most recently, like over the last 18 months, precisely as I started to blog.

I am thinking about the best way to describe my experience in that respect. Here it comes. You have probably experienced those episodes of going outdoors, hiking or running, and then you or someone else starts moaning: ‘These backpack straps are just killing my shoulders! I am thirsty! I am exhausted! My knees are about to explode!’ etc. When I was a kid, I joined the boy scouts, and it was all about hiking. I used to be a fat kid, and that hiking was really killing me, but I liked company, too, and so I went for it. I used to moan exactly the way I have just portrayed. The team leader would just reply in the lines of ‘Just shut up and keep walking! You will adapt!’. Now, I know he was bloody right. There are times in life, when we take on something new and challenging, and then it seems just so hard to carry on, and the best way to deal with it is to shut up and carry on. You will adapt.

This is very much what I experienced as regards thinking and writing. When I started to keep this blog, I had a lot of ideas to express (hopefully, I still have), but I was really struggling with giving an intelligible form to those ideas. This is how I discovered the deep truth of that sentence, attributed to Pablo Picasso (although it could be anyone): ‘When a stroke of genius comes, it finds me at work’. As strange as it could seem, I experienced, and I am still experiencing, over and over again, the fundamental veracity of that principle. When I start working on an idea, the initial enthusiasm sooner or later yields to some moaning function in my brain: ‘F*ck, it is to hard! That thinking about one thing is killing me! And it is sooo complex! I will never sort it out! There is no point!’. Then, hopefully, another part of my brain barks: ‘Just shut up, and think, write, repeat! You will adapt’.

And you know what? It works. When, in the presence of a complex concept to figure out I just shut up (metaphorically, I mean I stop moaning), and keep thinking and writing, it takes shape. Step by step, I am sketching the contours of what’s simmering in the depths of my mind. The process is a bit painful, but rewarding.

Thus, here is the pattern of myself, which I am thrusting into the future, as it comes to science and teaching, and which, hopefully, I can teach. People around me, voluntarily or involuntarily, attract my attention to some sort of scientific and/or teaching work I should do. This is important, and I have just realized it: I take on goals and targets that other people somehow suggest. I need that social prod to wake me up. As I take on that work, I almost instinctively start flipping my Ockham’s razor between and around my intellectual fingers (some people do it with cards, phones, or even knives, you might have spotted it), and I causally give a shave here and there, and I slice observable reality into layers: there is the foam of common narrative about the thing, and there are those factual anchors I can attach to. Usually they are numbers, and, at a deeper philosophical level, they are proportions between things of reality.

As I observe those proportions, I progressively attach them to facts of life, and I start seeing patterns. Those patterns provide me something more or less interesting to say, and so I maintain my intellectual interaction with other people, and sooner or later they attract my attention to another interesting thing to focus on. And so it goes on. And one day, I die. And what will really matter will be made of things that I do but which outlive me. The ethically valuable things.

Good. I return to that metaphor I coined up a like 10 weeks ago, that of social sciences used as a social GPS system, i.e. serving to find one’s location in the social space, and then figure out a sensible route to follow. My personal experience, the one I have just given the account of, can serve to that purpose. My experience tells me that finding my place in the social space always involves interaction with other people. Understanding, and sort of embracing my social role, i.e. the way I can be really useful to other people, is the equivalent of finding my location on the social map. Another important thing I discovered as I deconstructed my experience: my social role is largely made of goals I pursue, not just of labels and rituals. It is sort of dynamic, it is very much my Heideggerian being-in-time, thrusting myself into my own immediate future.

I feel like getting it across really precisely: that thrusting-myself-into-the-future thing is not just pure phenomenology. It is hard science as well. We are defined by what we do. By ‘we’ I mean both individuals and whole societies. What we do involves something we are trying to achieve, i.e. some ethical values we seek to maximise, and to balance with other values. Understanding my social role means tracing the path I am moving along.

Now, whatever goal I am to achieve, according to my social role, around me I can see the foam of common narrative, and the factual anchors. The practical use of social sciences consists in finding those anchors, and figuring out the way to use them so as to thrive in the social role we have now, or change that role efficiently. Here comes the outcome from another piece of my personal experience: forming a valuable understanding requires just shutting up and thinking, and discovering things. Valuable discovery goes beyond and involves more than just amazement: it is intimately connected to purposeful work on discovering things.

I am consistently delivering good, almost new science to my readers, and love doing it, and I am working on crowdfunding this activity of mine. As we talk business plans, I remind you that you can download, from the library of my blog, the business plan I prepared for my semi-scientific project Befund  (and you can access the French version as well). You can also get a free e-copy of my book ‘Capitalism and Political Power’ You can support my research by donating directly, any amount you consider appropriate, to my PayPal account. You can also consider going to my Patreon page and become my patron. If you decide so, I will be grateful for suggesting me two things that Patreon suggests me to suggest you. Firstly, what kind of reward would you expect in exchange of supporting me? Secondly, what kind of phases would you like to see in the development of my research, and of the corresponding educational tools?

Support this blog


[1] Braudel, F. (1992). Civilization and capitalism, 15th-18th Century, Vol. I: The structure of everyday life (Vol. 1). Univ of California Press.

[2] Braudel, F. (1992). Civilization and capitalism, 15th-18th century, vol. II: The wheels of commerce (Vol. 2). Univ of California Press.

[3] Braudel, F. (1995). A history of civilizations (p. 178). New York: Penguin Books