Cinq entreprises de pompes funèbres et un restaurant

Mon éditorial

J’ai l’habitude de chercher, à dessein, au moins une ou deux occasions par an de participer dans la préparation d’un business plan réel. Mon expérience personnelle de recherche scientifique me dit qu’il est très facile de tomber dans de la théorie plus ou moins ésotérique (c’est-à-dire le genre de théorie que très peu de personnes comprennent), donc facile de s’éloigner de la vie réelle. Un business plan, ça me ramène droit dans la réalité, surtout quand ça sert à convaincre une banque de financer le projet. Cette fois, je suis sur un projet immobilier situé dans ma ville : Cracovie (Pologne). Le sujet m’intéresse. Je suis un peu obsédé par l’idée d’intelligence collective et par la géographie de la société humaine comme une des expressions les plus fondamentales de ladite intelligence. Comme vous avez peut-être pu le constater, j’examine, pas à pas, des différents outils théoriques que je soupçonne pouvoir être utiles dans la recherche sur l’intelligence collective. Un business plan pour un projet immobilier, ça m’oblige à réduire toute cette théorie à des choses vraiment terre à terre, des questions à la fois fondamentales et pratiques. J’en profite pour faire un petit cours de microéconomie.

Alors, lorsqu’on parle pratique dans l’immobilier, les prix viennent en tête comme sujet d’étude de marché. En Pologne, les prix des terrains de construction immobilière évoluent comme un peu en détachement des prix des bâtiments eux-mêmes, surtout lorsqu’on parle de l’immobilier de logement. Les prix des terrains de construction dans les grandes villes polonaises croissent régulièrement depuis 2011. Il y a des petits chavirements de courte durée, comme un ou deux mois, mais la tendance de long terme, depuis 2011, est fermement ascendante. En même temps, les prix des logements, après une plongée très profonde entre 2007 et 2014, avaient recommencé à grimper depuis, mais c’est vraiment timide comme croissance.   Si vous voyiez ces deux tendances de prix – que je ne peux malheureusement pas reproduire ici, par respect des droits d’auteur et que ceux parmi vous qui connaissent le polonais peuvent voir par eux-mêmes sous ce lien hypertexte – ont l’air de représenter deux marchés différents.

L’une des leçons de base en économie est que si les prix empiriquement observables semblent représenter deux marchés différents, le plus vraisemblablement ils représentent deux marchés différents. J’assume donc que dans les grandes villes polonaises il y a deux marchés distincts qui se superposent l’un à l’autre, aussi bien métaphoriquement que littéralement : le marché des terrains d’une part et celui d’immobilier de logement d’autre part. L’analyse de base en ce qui concerne les prix est celle d’équilibre Marshallien entre l’offre et la demande. La croissance du prix moyen est alors représentée comme une croissance de demande plus rapide que celle de l’offre. Bon, je modèle. Classiquement et gentiment, comme dans un manuel de microéconomie, je représente : la demande comme D, l’offre comme S, le prix c’est P et la quantité est représentée comme Q (c’est vraiment drôle juste durant les quelques premières minutes). Leurs taux de croissance respectifs sont : ∂D, ∂S, ∂P et ∂Q. La croissance systématique des prix est un cas de (∂D/∂S) > 1 ainsi que ∂P*∂Q = ∂D/∂S.

Si les prix P(TR) des terrains de construction croissent suivant une tendance différente de celle des prix P(LB) des logements, je peux tranquillement assumer (∂D(TR)/∂S(TR)) ≠  (∂D(LB)/∂S(LB)). Il y a une intuition intéressante à propos du marché de l’immobilier en général, probablement depuis les écrits de David Ricardo : la demande pour terrains de construction change beaucoup plus vite que leur offre. L’offre c’est essentiellement le paysage autour de nous plus les dispositions légales quant à son exploitation. La demande est un flot complexe de capital, couvrant toute une gamme de sources passives : fonds propres, prêt, fonds fiduciaires et toutes sortes d’autres trucs qu’homo sapiens a inventé au cours des siècles. L’offre est plus ou moins constante à court terme, surtout en terrain urbain. Cependant, à moyen terme, l’offre est décroissante. Avec chaque nouvelle vente de terrain, la quantité qui reste à vendre diminue. Ça va même plus loin : à mesure que la demande croît, l’offre diminue. Plus grande est la superficie totale de terrains demandée par les investisseurs, plus grande est la décrue dans la superficie qui reste à la disposition d’acheteurs futurs. David Ricardo en avait déduit, quelques cinq décennies avant Karl Marx, une source inhérente de crises dans le capitalisme industriel.

En revenant à mon business plan et à l’environnement urbain de ce projet, la structure profonde de l’espace habité dans ma ville semble changer. L’immobilier de logement est progressivement remplacé par de l’immobilier utilitaire, surtout par de l’espace de bureau et par celui occupé par le commerce et les services. Les tendances mutuellement autonomes dans les prix respectifs du terrain et des logements posent une sorte de paradoxe à travers mon business plan. D’une part, une fois que quelqu’un a acheté un bâtiment dans le centre-ville, il peut simplement attendre que la hausse des prix du terrain lui offre in retour confortable sur investissement. Cependant, une telle stratégie est passive point de vue flux de trésorerie : le pognon investi initialement dans l’achat ne peut être récupéré qu’une fois le bâtiment revendu à l’investisseur suivant. Si je veux assurer un peu de mouvement de capital liquide dans ce projet, cette spéculation simpliste n’est pas nécessairement la meilleure stratégie. Il faut quelque chose qui pousse le pognon à circuler et dans l’immobilier ce quelque chose c’est la vente à la pièce ainsi que la location.

Mon flux de trésorerie, il commence avec l’achat de l’immeuble et sa rénovation, pour un montant K(t0). Bien sûr, comme K(t0) est une dépense, il a un signe négatif : K(t0) < 0. La dépense de trésorerie peut être réduite par le moyen d’un prêt, disons 70% de K(t0). En généralisant, le montant du prêt sera égal au produit d’un coefficient ƒ de levier financier (c’est-à-dire le pourcentage de la valeur comptable d’actifs couvert par l’emprunt), exprimé en pourcentage, multiplié par K(t0). J’ai donc initialement deux stratégies d’investissement : dépenser K(t0) d’un coup ou bien se donner un coup de levier financier et dépenser juste (1 – ƒ)*K(t0), tout en donnant à mon banquier l’occasion de me prêter ƒ*K(t0). Du côté actif de ma trésorerie, j’espère un flux de loyer L payé par les tenanciers des locaux commerciaux, ainsi qu’un flux V de recettes de la vente d’appartements séparés à l’intérieur de l’immeuble.  Le flux L commence à un moment ti après l’acquisition de l’immeuble et continue jusqu’à un moment hypothétique tn dans l’avenir. C’est donc quelque chose comme L(ti -> tn). En ce qui concerne la vente d’appartements, je la localise à un moment tk, plus ou moins unique dans l’avenir. Je pense donc en termes de V(tk). Si je finance l’acquisition et la rénovation de l’immeuble avec fonds propres uniquement, c’est à peu près tout en termes de flux de trésorerie. En revanche, si je décide d’inclure une banque dans mon business, j’aurai à dépenser, dans l’avenir, le remboursement de mon prêt, donc ƒ*K(t0), ainsi que les intérêts ƒ*K(t0)*((1 + r)m)) calculés sur la base d’un taux d’intérêt r. Somme toute, mes deux stratégies financières – que j’appelle 1 et 2 faute de meilleure idée – se présentent comme des flux de trésorerie FT, respectivement FT1 et FT2, plus ou moins suivant les formules ci-dessous :

Stratégie 1, sans emprunt : FT1 = -K(t0) + L(ti -> tn) + V(tk)

Stratégie 2, avec levier financier : FT2 = -(1 – ƒ)*K(t0) + L(tj -> tn) + V(tk) – ƒ*K(t0) – ƒ*K(t0)*((1 + r)m)   

Bon, alors maintenant il est temps que je me penche un peu sur ces L(tj -> tn) et ces V(tk). Ça ne va pas se mettre en marché tout seul. Mettre un bien en marché veut dire s’adresser à un client. Question importante : qui sera mon client dans ce cas ? J’avais jeté mon filet vraiment large et j’en retire des informations très diverses. Tout d’abord, un peu de démographie. Ma ville, Cracovie, est officiellement assez stable en termes de population : ça vacille entre 795 et 800 mille habitants officiellement enregistrés comme tels. Ces statistiques ne reflètent pas la réalité et néanmoins ils en reflètent une partie. La partie en question c’est la pyramide de l’âge. La population officielle de la ville se penche progressivement vers deux catégories d’âge : d’une part les jeunes adultes entre 30 et 40 ans, et d’autre part les seniors après la soixantaine. La partie cachée, que les statistiques officielles ne reflètent pas (encore ?), c’est une double migration. La population réelle de la ville s’est très largement répandue dans des communes satellites qui sont devenues des banlieues de fait. La ville de Cracovie devient progressivement le noyau d’une petite agglomération. Des estimations semi-officielles parlent de quelques 1,2 million de personnes au total dans cette structure hétérogène. Comme dans toute agglomération, il y a ce phénomène de circulation entre le centre et la périphérie. C’est une circulation journalière faite des voyages « chez moi – boulot – chez moi à nouveau », aussi bien qu’une circulation plus séculaire au rythme des déménagements et des déplacements à travers la hiérarchie sociale. La seconde couche de migration est composée d’Ukrainiens, jeunes pour la plupart, pour lesquels Cracovie est l’une des escales les plus évidentes dans leur recherche de vie meilleure. Une estimation très conservatrice parle d’à peu près 200 milles de personnes.

Les faits démographiques forment la trame du marché de l’immobilier. Dans ce vaste tissu, mon projet se situe dans le quartier de Grzegorzki. En termes des prix, les logements ici sont plutôt chers et plutôt grands. C’est l’un de ces endroits dans la ville où vous pouvez faire de vraiment bonnes affaires en vendant des appartements de 100 mètres carrés ou plus. Les prix par mètre carré sont de 15 à 60% plus élevés qu’ailleurs et les prix les plus hauts sont précisément atteints dans la vente d’appartements les plus grands. Le quartier où, par ailleurs, j’avais passé une partie de mon enfance et dont je me souviens comme plutôt pauvre, est en train de devenir BCBG. En des termes utilitaires, l’immeuble pour lequel je prépare ce business plan est composé de trois parties distinctes : deux étages plus un grenier habitable en-dessus, deux locaux commerciaux au rez-de-chaussée, avec pignon sur rue et des arrière-boutiques, et enfin un sous-sol spacieux qui peut être fonctionnellement attaché aux appartements des étages supérieurs ou bien aux locaux commerciaux du rez-de-chaussée, quoi qu’il y a une vision alternative de l’exploiter de façon autonome pour quelque activité commerciale suffisamment originale pour compenser le manque relatif de lumière du jour.

J’ai pu constater que le quartier est nettement meilleur pour la vente d’appartements que pour la location de locaux commerciaux. Très près de cette adresse, il y a un centre commercial plutôt bien, qui a fini par dominer très nettement l’activité de commerce et de services dans les environs. En des termes de business plan cela veut dire que la location de locaux commerciaux est soumise à une pression beaucoup plus forte sur les loyers que c’est le cas pour les prix d’appartements. Dans cet endroit précis de la ville, il vaut mieux acheter de l’immobilier pour le revendre ensuite que pour le louer. En plus, il y a un détail à la fois embarrassant et amusant : dans les environs immédiats de l’immeuble, il y a cinq entreprises de pompes funèbres et seulement un restaurant. Un peu étrange, au moins pour moi.

Inside a vector

My editorial

I am returning to the issue of collective memory, and to collective memory recognizable in numbers, i.e. in the time series of variables pertinent to the state of a society (see ‘Back to blogging, trying to define what I remember’ ). And so I take my general formula xi(t) = f1[xi(t – b)] + f2[xi(t – STOCH)] + Res[xi(t)], which means that any given moment ‘t’, current information xi(t) about the social system consists in some sort of constant-loop remembering xi(t – b), with ‘b’ standing for that fixed temporal window (in an average human it seems to be like 3 weeks), coming along with more irregular, stochastic a pick of past information, like [xi(t – STOCH)], and on the top of all that is the residual Res[xi(t)] of current information, hardly attributable to any remembering of the past, and, fault of a better expression, it can be grasped as the strictly spoken present.

I am reviewing the available mathematical tools for modelling such a process with hypothetical memory. I start with something that I could label ‘perfect remembering and only remembering’, or the Gaussian process. It represents a system, which essentially does not learn much, and is predictable on the grounds of its mean and covariance. When I do linear regression, which you could have seen a lot in my writings on this blog, I more or less consciously follow the logic of a Gaussian process. That logic is simple: if I can draw a straight line that matches the empirical distribution of my real-life variable, and if I prolong this line into the future, it will make a good predictor of the future values in my variable. It doesn’t even have to be one variable. I can deal with a vector made of many variables as well. As a matter of fact, the mathematical notation used in the Gaussian process basically refers to vectors of variables. It might be the right moment for explaining what the hell is a vector in quantitative analysis. Well, I am a vector, and you, my reader, you are a vector, and my cousin is a vector as well, and his dog is a vector. My phone is a vector, and any other phone the same. Anything we encounter in life is complex. There are no simple phenomena, even in the middle of summer holidays, on some remote tropical beach. Anything we can think of has many characteristics. To the extent that those characteristics can be represented as numbers, the state of nature at a given moment is a set of numbers. These numbers can be considered as coordinates in many criss-crossing manifolds. I have an age in the manifold of ages, a height in the manifold of heights, and numerically expressible a hair colour in the manifold of hair colours etc. Many coordinates make a vector, stands to reason.

And so I have that vector X* made of n variables, stretched over m periods of time. Each point in that vector is characterized by its appurtenance to the precise variable i out of those n variables, as well as its observability at a given moment j out of the total duration. It can look more or less like that: X*= {Xt1,1, Xt2,2, …, Xtj,i, Xtm,n} , or, in a more straightforward form of a matrix, it is something like:

                                   Moments in time (or any indexed value you want)           

                                                    t1                     t2                     …                     tj                      tm

| Variables        I          Xt1,I               Xt2,I                   …                   Xtj,I                Xtm,I

X* |                          II        Xt1,II              Xt2,II                    …                   Xtj,II             Xtm,II

|                          …

|                         n         Xt1,n              Xt2,n                    …                   Xtj,n               Xtm,n

 

Right, I got myself lost a bit in that vector thing, and I kind of stepped aside the path of wisdom regarding the Gaussian process. In order to understand the logic of the Gaussian process, you’d better revise the Gaussian distribution, or, in other words, the normal distribution. If any set of observable data follows the normal distribution, the values you can encounter the most frequently in it are those infinitely close to the arithmetical average of the set. As you probably remember from your maths class at high school, one of the reasons the arithmetical average is so frequently used in all kinds of calculations (even those pretty intuitive ones) is that it doesn’t exist. If you take any set of data and compute its arithmetical average, none of your empirical observations will be exactly equal to that average. Still, and this is really funny, you have things – especially those occurring in large amounts, like foot size in a human population – which take the most frequently those numerical values, which are relatively the closest to their arithmetical average, i.e. the closest to a value that doesn’t exist, and yet is somehow expected. These things follow the Gaussian (normal) distribution and we use to assume that their expected value (i.e. the value we can rightfully expect to meet the most frequently in those things) is their arithmetical average.

Inside the set of all those Gaussian things, there is a smaller subset of things, for which time matters. These phenomena unfold in time. Foot size is a good example. Instead of asking yourself what foot size you are the most likely to satisfy with the shoes you make for the existing population, you can ask about the expected foot size in any human being to be born in the future. What you can do is to measure the average foot size in the population year after year, like over one century. That would be a lot of foot measuring, I agree, but science requires some effort. Anyway, if you measure average foot sizes, year after year during one century, you can discover that those averages follow a normal distribution over time, i.e. the greatest number of annual averages tends to be infinitely close to the general, century-long average. If this is the case, we can say that the average foot size changes over time in a Gaussian process, and this is the first characteristic of this specific process: the mean is always the expected value.

If I apply this elementary assumption to the concept of collective intelligence, it implies a special aspect of intelligence, i.e. generalisation. My eyes transmit to my brain the image of one set of colourful points, and then the image of another set of points, kind of just next to the previous one. My brain connects those dots and labels them ‘woman’, ‘red’, ‘bag’ etc. In a sense, ‘woman’, ‘red’, and ‘bag’ are averages, because they are the incidences I expect to find the most probably in the presence of those precise kinds of colourful points. Thus, collective intelligence endowed with a memory, which works according to a Gaussian process, is the kind of intelligence we use for establishing our basic distinctions. In our collective intelligence, Gaussian processes (if they happen at all), can represent, for example, the formation of cultural constructs such as law, justice, scientific laws, and, by the way, concepts like the Gaussian process itself.

Now, we go one step further, and, in order to do it, we need to go one step back, namely back to the concept of vector. If my process in time is made of vectors, instead of single points, and each vector is like a snapshot of reality at a given moment, I am interested in something called the covariance of variables inside the vector. If one variable deviates from its own mean, and I make it power 2 in order to get rid of the possibly embarrassing minus sign, I have variance. If I have two variables, and I take their respective, local deviations from their means, and I multiply those deviations by each other, I have covariance. As we are talking vectors, we have a whole matrix of covariance, between each pair of variables in the vector. Any process, unfolding in time and involving many variables, has to answer the existential question about its own matrix of covariance. Some processes have the peculiar property of keeping a pretty repetitive matrix of covariance over time. The component, simple variables of those processes change in some sort of constant-pace contredans. If variable X1 changes by one inch, the variable X2 will change by three quarters of a gallon, and so it will reproduce for a long time. This is the second basic characteristic of a Gaussian process: future covariance is predictable on the grounds of the covariance observed so far.

As I am transplanting that concept of very recurrent covariance onto my idea of collective intelligence with memory, Gaussian collective intelligence would be the kind that establishes recurrent functional connections between things of society. We call those things institutions. Language, as a matter of fact, is an institution, as well. As we have institutions in every society, and societies that do not form institutions tend to have pretty short a life expectance, we can assume that collective intelligence certainly follows, at least to some extent, the pattern of a Gaussian process.

L’étiquette « stratégie »

Mon éditorial

Je suis en train de préparer quelques études des cas de management stratégique, pour des applications pédagogiques. J’essaie de faire une connexion avec ma recherche et d’utiliser les idées fraîchement empruntées de Peter Turchin, Thomas E. Currie, Edward A. L. Turner, et Sergey Gavrilets (Turchin et al. 2013[1]). La première étude de cas est celle d’une société américaine Life Point Health Inc. spécialisée dans les soins médicaux. Je m’y intéresse dans le contexte de cette notion générale d’intelligence collective, dont je suis obsédé – avec modération toutefois – à la suite de ma recherche sur le changement technologique et les systèmes monétaires. Comme cas d’étude sur la stratégie, Life Point Health présente deux traits intéressants. Toute grande organisation a besoin d’une stratégie pour se développer, seulement dans le cas des soins médicaux nous avons un autre besoin en jeu : une société (celle, qui fait l’environnement social de Life Point Health) a besoin de soins médicaux organisés, et donc elle a besoin d’un fournisseur de tels soins, qui, à son tour, aie une stratégie rationnelle de développement. La question générale que je pose dans ce cas est la suivante : est-ce qu’une stratégie est la manifestation d’une intelligence collective locale et endogène (celle de l’organisation) ou bien d’une intelligence collective généralisée et exogène par rapport à l’organisation (celle de tout son environnement social) ?

A ce point-là, une autre dimension de ce cas spécifique devient intéressante : celle de la formation de réseau. Life Point Health est une organisation à réseau, avec 72 campus médicaux localisés dans 22 états des Etats-Unis et avec une spécialisation claire dans les zones non-urbaines. Un business à réseau, ça peut se former de deux façons distinctes : une entité parmi plusieurs peut devenir le noyau dominant ou bien plusieurs entités peuvent décider de coopérer à pied d’égalité (ou presque). Les deux cas peuvent être étudiés du point de vue d’intelligence collective, sur la base conceptuelle offerte par cet article de Turchin et al. que je viens de citer au début du paragraphe précèdent. Turchin et al. étudient la formation des systèmes politiques et non pas des réseaux de business, mais c’est justement l’analogie entre les deux qui m’intéresse. Turchin et al. assument que la distinction entre une petite structure sociale et une grande réside dans la relation entre les distributions respectives des coûts et des bénéfices liés à la socialisation. Une petite structure sociale est celle où chaque membre de la société a une expérience directe des deux : je sacrifie un peu de mon autonomie personnelle et je vois clairement, dans ma vie de tous les jours, les bénéfices qui découlent d’un tel sacrifice. Le bénéfice le plus évident est le fait d’avoir une vie de tous les jours. La formation de telles structures, basées sur l’expérience des gains individuels, est la socialisation de base.

En revanche, une grande structure sociale est celle où la distribution des coûts de socialisation diffère de celle des bénéfices. Les coûts demeurent locaux, comme dans une petite structure, mais les bénéfices deviennent plus concentrés et prennent la forme de ce que Turchin et al. dénomment « institutions ultrasociales » – système politique, armée, système légal etc.- qui à leur tour ont une importance vitale dans la compétition entre sociétés. Au niveau individuel, les bénéfices d’ultrasocialisation sont présents mais le plus souvent indirect. L’un des plus manifestes, selon Turchin et al., est le fait de ne pas être exterminés, comme communauté locale, par une grande structure sociale du pays d’à côté qui s’est ultrasocialisée plus vite et plus profondément. Par analogie entre les structures politiques et celles d’affaires, j’assume que lorsqu’un réseau des business locaux se forme – comme le réseau d’hôpitaux de province dans la structure de Life Point Health – il peut y avoir une logique de socialisation de base (on coopère pour avoir des bénéfices directs de coopération) ou bien une logique d’ultrasocialisation (on se laisse aspirer dans un réseau pour ne pas être éliminés du marché par d’autres réseaux). Dans mon étude de cas de Life Point Health, je pose la question suivante : si j’ai en face de moi un ensemble amorphe d’hôpitaux de province, quelle est la probabilité qu’ils forment un réseau de coopération à pied d’égalité, selon le paradigme de socialisation simple ? Quelle est la probabilité qu’ils forment un réseau autour d’un noyau dominant, selon le modèle d’ultrasocialisation ?

Je superpose mes deux questions stratégiques et je vois quelque chose comme une matrice binomiale de Pascal : la stratégie d’une organisation peut être endogène ou bien exogène, et -quoi qu’il en soit – lorsque cette stratégie implique la formation d’un réseau d’organisations, ledit réseau peut se trouver alimenté par la socialisation simple sur la base des gains directs de coopération, ou bien par l’ultrasocialisation hiérarchique autour d’un noyau de pouvoir, forcée par une compétition féroce entre réseaux. Bon, à ce point-là mon moine interne – vous savez, ce gars austère qui se balade avec un gros rasoir d’Ockham dans sa poche – demande un peu de simplification. La formation d’un réseau à travers l’ultrasocialisation forcée par la compétition etc. : là, il y a définitivement trop de « tion » et ça à l’air un tout petit peu détaché de la réalité. Faut décomposer le problème en des morceaux possibles à avaler. Mon rasoir d’Ockham prend alors la forme des questions de base qu’on se pose dans toute recherche scientifique. Premièrement, pourquoi s’emmerder du tout avec ces stratégies ? A quoi bon ? Grandes organisations ont un impact sur notre vie de tous les jours, à commencer par l’influence sur la durée de ladite vie – mon cas de départ, Life Point Health Inc, est active dans le domaine des soins médicaux et donc c’est le cas de le dire – en passant ensuite à travers des différents aspects de ce que nous appelons « la qualité de vie » – salaires, prix, architecture, infrastructure – et en terminant par des trucs comme financement des campagnes électorales de nos hommes et femmes politiques. En plus, les stratégies que les dirigeants des grandes entreprises annoncent comme leurs ont une tendance intéressante à différer substantiellement de ce que les mêmes grandes entreprises font tous les jours. Un PDG d’un distributeur d’énergie annonce qu’à partir du Noël ils vont « créer plus de valeur » et moi, je découvre que cela se manifeste par un prix plus élevé sur ma facture d’électricité.

Bon, alors je sais que l’intérêt d’étudier des stratégies vient du fait qu’il y a un tas d’incohérence entre le discours et l’action là-dedans et ce tas a un impact profond sur ma vie. La seconde question de fond est l’objectif de la recherche. Mon intuition me dit que la direction la plus prometteuse de toute recherche est celle centrée sur le « comment ? » des choses. Comment est-ce que nous venons à coller l’étiquette « stratégie » sur ce que les organisations font, ainsi sur ce que leurs dirigeants déclarent qu’ils font ? Comment se forment-elles, ces séquences d’actions que nous nommons « stratégies » ?

Je suis d’humeur exploratrice et j’essaie donc de former une hypothèse forte. Une hypothèse forte requiert des assomptions faibles, c’est-à-dire des assomptions qui ne disent pas grand-chose. Je fais deux assomptions, plutôt faiblardes de mon point de vue. Une, il y a différence de fond entre discours et action, donc entre le discours sur la stratégie de l’organisation d’une part et les actions de cette même organisation d’autre part. Deux, il y a cohérence de second degré entre discours et action, c’est-à-dire un changement perceptible du discours stratégique témoigne d’un changement au niveau de l’action. En des mots plus simples, mes deux assomptions veulent dire que les gens font une chose et disent qu’ils font quelque chose de différent, et en même temps, lorsque les mêmes gens changent la façon dont ils décrivent leurs actions, ils ont le plus vraisemblablement modifié leur comportement.

Je visite donc le site http://www.lifepointhealth.net/investor-relations , j’y fouine jusqu’à je trouve leur dernier rapport annuel, pour l’année 2016, en forme officielle 10-K et je cherche là-dedans pour trouver du discours stratégique bien filtré. A la page 3, je trouve un chapitre intitulé « Business Strategy ». Ça peut correspondre et ça dit, entre autres :  « Nous croyons que des opportunités de croissance demeurent dans nos marchés existants. La croissance dans nos établissements existants dépend, en partie, du succès de nos hôpitaux dans le recrutement des médecins pour leurs personnels médicaux respectifs, de l’activité de ces médecins comme membres d’équipe, de leur expérience relativement longue dans nos hôpitaux, et enfin de de leur rôle dans l’admission des patients internes ainsi que dans l’administrations des soins aux patients externes ». Le discours stratégique, il y en a plus dans ce chapitre, mais concentrons-nous sur ce passage précis. Ça dit que le mécanisme du business, chez Life Point Health, s’appuie tout d’abord sur le premier contact du patient avec l’hôpital. Je perçois deux options fondamentales : soit le patient rencontre un médecin membre du personnel et les évènements prennent la tournure A, soit il a son premier contact avec quelqu’un d’autre (membre du personnel administratif, agent d’assurance médicale, médecin en contrat temporaire etc.) et alors les évènements se déroulent selon le scénario B. Le tour de phrase dans le discours stratégique cité suggère que le scénario A est définitivement plus productif pour l’organisation que le scénario B et c’est l’incidence des contacts type A avec les patients qui pompe le résultat d’exploitation dans les marchés existants. Lorsque vous allez dans quel hôpital que ce soit, quelles sont les chances que votre médecin traitant soit la même personne que celle qui vous aie accueilli après que vous ayez franchi la porte de l’hôpital ? Je vais vous dire : ces chances sont maigres. Cela ne se pratique pratiquement pas, au moins pas en Europe. Soit le modèle stratégique décrit dans ce court fragment est totalement con et détaché de la réalité, peut-être même dangereux pour les patients, soit il est unique dans son efficacité.

[1] Turchin P., Currie, T.E.,  Turner, E. A. L., Gavrilets, S., 2013, War, space, and the evolution of Old World complex societies, Proceedings of The National Academy of Science, vol. 110, no. 41, pp. 16384 – 16389

 

Agglutination and ethnocide

My editorial

Yesterday, in my update in French, I started discussing some literature, which I came by recently, devoted to the issue of quantitative research in long-term social changes (see “La guerre, l’espace, et l’évolution des sociétés” ). As we are talking long-term, this stream of research comes mostly from history. I am currently reviewing one of those papers, entitled ‘War, space, and the evolution of Old World complex societies’ (Turchin et al. 2013[1]). To me, science is, at the end of the day, a method of discovering things. When I see a piece of research done by other scientists, I most of all look for methods. In this precise case, the method is quite illuminating for my own purposes in research. At the baseline of their methodology, Turchin et al. divide big populations in big territories into basic, local cells, equivalent to local communities, and assess three essential probabilities, namely that of coordination occurring between two or more cells, as opposed to the probability of disintegration in such coordinated structures, as well as the probability of at least one cell being destroyed by others. Two other probabilities come as instrumental in calculating the fundamental three: the probabilities of social mutation. Turchin et al. construe the concept of social mutation around that of valuation. At any given moment, there is a set of traits, in a society, which make this society optimally competitive, accounting for requirements stemming from the environment. Any given society develops its own traits through valuating them in its own culture, or, conversely, disintegrates some traits by culturally denying their value. As I understand this methodology by Turchin et al., the concept of valuing some societal traits or disvaluing them is a compound, covering both the strictly spoken ethical valuation, and the actions informative about it (investment, creation or disintegration of specific social structures etc.).

In short, social mutation is supposed to be something akin genetic mutation. There is a set of traits, in a society, and each of those traits can be switched on, or switched off. This is the social code. I am trying to represent it below, in a semi-graphical example, where ‘1’ stands for the given trait being switched on, and ‘0’ to its deactivation.

Trait A     >> 1

Trait B     >> 0

Trait C     >> 0

Trait D     >> 1 etc.

Each society has such a social code, and, in the background, there is some kind of implicitly optimal code, the one that makes the top dog in the pack of societies. The local, social code, observable in any given society displays some Euclidean distance from this optimal code. Putting it simply, in this world, when you are a society, you have all the interest in having the right traits switched on at ‘1’, with the not-quite-favourable ones switched off, i.e. at ‘0’. What Turchin et al. assess, for any given local society studied empirically, is the probability of favourable traits passing from 0 to 1 (µ01: functional mutation), or, conversely, being deactivated from 1 to 0 (µ10: dysfunctional mutation). This specific methodology allows setting baseline probabilities as well. If the general assumption is that societies have a tendency to f**k things up, rather than figuring them out correctly (this is, by the way, what Turchin et al. assume), then µ10 > µ10. If, on the other hand, we have some optimism as for collective intelligence, we can settle for µ10 < µ10. Of course, µ10 = µ10 is a compromise at the weakest possible level of assuming anything. Anyway, the proportions between those probabilities, namely µ01 and µ10, make the overall likelihood for the emergence of large political structures, the ‘ultrasocial’ ones, as Turchin et al. call them (you know: army, taxes, government etc.) in a given set of local communities. Those chances are calculated as: u = ((µ01/(µ01 + µ10)). The ‘u’ symbol comes from that ‘ultrasocial’ adjective. The baseline probabilities in the model, as they come from empirical tests, are: µ01 = 0,0001 and µ10 = 0,002. That makes the likelihood u = 0,05. In other words, in a given set of local communities, a priori not connected by ultrasocial institutions, which, in turn, could stimulate the emergence of political systems, the likelihood that such institutions are triggered on is like 5%.

On the grounds of these findings by Turchin et al., I start my own reasoning. Just hold on to something, ‘cause my reasoning, it can really get some swing, on the account of me having that curious ape inside of me. Anyway, I am translating that tiny u = 0,05 likelihood into the possible behaviour of large human populations living in a territory. Some 5% of those humans, whoever they are, is likely to develop social traits, which can turn them into ultrasocial political systems. This, in turn, means that in every large collection of local communities a relatively small, ultrasocial core is likely to emerge, and this core is going to agglutinate around itself consecutive local communities, to make something really political. Still, the actual empirical results obtained by Turchin et al. are way above those baseline probabilities. The likelihood of turning on the right ultrasocial genes in a given society turns out to be like 0,47 =< µ01 =< 0,51, and the probability µ10 of switching them off ranges from 0,49 to 0,52. That makes the likelihood u = ((µ01/(µ01 + µ10)) floating consistently close to 50%. In other words, if you take 1 million primitive, proto-political people (voters), the baseline likelihood of some among them turning into serious political players, i.e. of turning on the right ultrasocial traits is like µ01 = 0,0001, whilst the probability of them consistently not giving a s***t about going political is µ10 = 0,002, which, in turn, makes that likelihood u = 0,05 of anything seriously political going on in those 1 million people. Now, my internal curious ape spots a detail in the article: those baseline probabilities correspond to something that Turchin et al. call ‘equilibrium’. As an economist, I have a very ground-to-ground approach to equilibriums: it would be nice if they existed in reality, but most of the times they don’t, and we have just a neighbourhood of equilibrium, and still, it is if we are lucky.

I put, now, those two sets of numbers back to back, i.e. the parameters of equilibrium against those empirically inferable from actual historical data. One conclusion jumps to the eye: in real life, we, humans, tend to be some 10 times more prone to do politics in large structures, than we are technically expected to be in the state of equilibrium (whatever is being balanced in that equilibrium). By the way, and to be quite honest in relation to that article by Turchin et al., agglutination around the political core is not the only option actually available. Ethnocide is another one, and, sadly enough, quite recurrent in the historical perspective. Recurrence means, in the results obtained by Turchin et al., a likelihood of ethnocide varying between emax = 0,41 and emax = 0,56 in communities, which had not triggered on their ultrasocial traits at the right moment. This is sad, but seems to be rock solid in that empirical research.

[1] Turchin P., Currie, T.E.,  Turner, E. A. L., Gavrilets, S., 2013, War, space, and the evolution of Old World complex societies, Proceedings of The National Academy of Science, vol. 110, no. 41, pp. 16384 – 16389

La guerre, l’espace, et l’évolution des sociétés

Mon éditorial

Ça fait un bout de temps que je n’ai rien écrit, en français, sur mon blog. Ce semestre d’hiver, il est chargé, chaque année : plus de 400 heures de classes, plus la nécessité de terminer le projet de recherche contracté avec le Ministère de la Science. En tout cas, en ce temps de Noël, j’ai enfin un peu de jeu dans mon emploi du temps et c’est avec un plaisir indéniable que je consacre un peu de ce temps à une mise à jour de mon blog de recherche.

L’une des choses qui se sont ancrées le plus dans mon esprit, durant ces deux ou trois dernières années de recherche, c’est la notion d’intelligence collective. Je l’ai abordée, d’une façon ou d’une autre, à maintes reprises : en étudiant les stratégies des grandes multinationales, les politiques fiscales des gouvernements, ou enfin le phénomène de changement technologique. Chaque fois, je m’étais engagé dans ce sentier intellectuel marqué par la question générale : « Comment est-ce que nous prenons nos décisions collectives et à quel point cette prise de décision peut être considérée comme une manifestation d’intelligence collective ? ».

Récemment, je suis tombé sur toute une série d’articles, écrits surtout par des historiens américains, qui documentent un créneau de recherche tout récent : la réinterprétation quantitative des processus historiques. En gros, vous faites un modèle mathématique des phénomènes historiques, surtout ceux de longue durée, où l’impact d’évènements accidentels est relativement le moindre, et vous testez le modèle sur les données empiriques réelles. A premier abord, ça a l’air un peu exotique, d’exprimer le développement et le déclin de l’Empire Romain, par exemple, comme un ensemble de nombres. Réflexion faite, c’est pratiquement la même chose que ce que nous faisons en sciences économiques, en démographie ou bien dans les sciences de l’environnement. Même dans le monde d’affaires, nous rencontrons la même chose sous l’étiquette d’analyse de risque systémique.

Le premier article qui m’est venu sous la main (sous le cerveau ?) a été publié en 2013 par un groupe de quatre chercheurs – Peter Turchin, Thomas E. Currie, Edward A. L. Turner, et Sergey Gavrilets (Turchin et al. 2013[1]) – sous un titre un peu provocatif : « La guerre, l’espace, et l’évolution des sociétés complexes de l’Ancien Monde ». Les auteurs présentent un concept intéressant : celui de l’ultrasocialisation. Apparemment, la formation des larges sociétés, capables de créer des systèmes politiques relativement stables, est soumise à un paradigme différent de celui qui dirige la formation des petites communautés locales, comme tribus ou villages. Dans une communauté locale, les institutions de la vie sociale se présentent à leurs participants comme un mécanisme d’échange direct. Chaque institution mise en place donne aux membres d’une telle société des bénéfices quasi-instantanés : plus de sécurité, plus de nourriture etc. Avec les institutions propres aux larges sociétés politisées, c’est différent. Le sacrifice d’autonomie personnelle, ainsi que celui des ressources privées (impôts !) ne trouve pas de contrepartie immédiate dans les bénéfices communs. Ces derniers sont plutôt diffus et aléatoires du point de vue d’un individu. Il faut un mécanisme spécial pour pousser des petits groupes locaux à créer ce que Turchin et al. appellent « structures ultrasociales ». L’hypothèse centrale de ces chercheurs est qu’une compétition intense entre les sociétés locales peut les pousser à ultrasocialiser, et que la manifestation la plus évidente d’une telle competition est le conflit armé, accompagné du développement des technologies militaires. Turchin et al. testent un modèle mathématique qui postule une corrélation significative entre l’apparition et la diffusion des technologies militaires – le charriot de combat, par exemple – d’une part, et l’émergence des institutions ultrasociales d’autre part. Le modèle est posé et testé comme un ensemble d’hypothèses en ce qui concerne la corrélation entre les variances respectives de distribution spatiale des technologies militaires et des institutions politiques. La variance de distribution spatiale des premières explique 65% de la variance de distribution spatiale des dernières, entre l’année 1500 avant Jésus Christ et 1500 de notre ère. Ces résultats ont l’air respectable et ils m’inspirent pour formuler ma propre hypothèse de travail : l’intelligence collective, comprise comme la capacité de développer des schémas récurrents de comportement comme réponse aux évènements passés, mémorisés d’une façon intersubjective, se manifeste à deux niveaux, celui de la socialisation des petites communautés locales d’une part et celui de l’ultrasocialisation dans le cadre des grandes structures politiques d’autre part.

Quant à la méthode employée par Turching et al., elle s’appuie sur une différentiation primaire de la population en des cellules territoriales de base (tribus, villages etc.) qui, en elles-mêmes, ne possèdent pas d’institutions ultrasociales. Ces cellules peuvent entrer en des relations de coopération ou bien de rivalité, avec la première étant proportionnelle à la dernière. Autrement dit, plus de rivalité incite à plus de coopération. Contre des adversaires sérieux, il faut sérieusement serrer les boucliers. A tout moment donné, chaque ensemble donné de ces cellules territoriales de base est soumis à une double pression dans les sens contraires : il y a une force d’intégration et d’ultrasocialisation, opposée à une force entropique de socialisation locale. Les deux forces sont représentées, mathématiquement, comme des probabilités d’occurrence des phénomènes inclus dans l’une catégorie ou dans l’autre. La méthodologie me donne de l’inspiration, quoi que j’ai deux sortes de doute à propos du modèle. Ce que les auteurs interprètent comme une causalité semble être une corrélation de mon point de vue. Point de vue empirique, Turchin et al. étudient les variances des distributions spatiales des phénomènes qu’ils catégorisent, respectivement, comme ultrasocialisation et la diffusion des technologies militaires. Somme toute, avec la présence des technologies militaires, raisonnablement confirmée par les sources historiques, il y a 65% de chances que des structures ultrasociales y soient présentes aussi. Il faut bien les souligner : qu’elles y soient présentes, non pas qu’elles émergent après. C’est bien le problème de recherche au sujet des phénomènes complexes : il est difficile de faire la différence entre la causalité et la corrélation, ou, en d’autres mots, entre l’approche déterministe et celle plus probabiliste. Avec les résultats empiriques présentés par Turchin et al., je peux faire une interprétation transversale, en quelque sorte, à la leur : une fois qu’une structure ultrasociale est présente quelque part, il y a une forte probabilité que les technologies militaires y soient présentes aussi, c’est-à-dire la présence des structures politiques fortes peut avoir un effet d’accélérateur sur le développement des technologies militaires.

Mon second doute concerne la façon de définir une technologie. Lorsque je dis « technologie militaire », je fais un raccourci logique. Une technologie, à proprement dit, est une certaine façon d’utiliser et de transformer l’énergie, ainsi que de produire une utilité. Le militaire est une application des technologies, pas un champ technologique à part. Ceci dit, le raisonnement utilisé par Turchin et al. est certainement pertinent dans la mesure où ces auteurs montrent l’importance du nexus « compétition entre groupes <> changement technologique <> changement institutionnel ». Moi, j’approche la compétition surtout comme un phénomène lié à la présence d’une hiérarchie, tout comme une manifestation d’expérimentation intense.

[1] Turchin P., Currie, T.E.,  Turner, E. A. L., Gavrilets, S., 2013, War, space, and the evolution of Old World complex societies, Proceedings of The National Academy of Science, vol. 110, no. 41, pp. 16384 – 16389

 

 

No isoquant here, sorry baby

My editorial

I am changing the topic, slightly. In my last update I was discussing about the first takeaway from my research in 2017, namely about collective intelligence. This time, I switch to the second one: the mathematical construct of the type ‘Y = Kµ*L1-µ*A’, probably the best known for its application in the Cobb – Douglas production function (Cobb, Douglas 1928[1]). The best known, yes, although not the only known. The so-called ‘new economic geography’ (see: Krugman 1991[2];  Krugman 1998[3]) uses the same logical frame for slightly different a purpose. Anyway, the thing I want to discuss is the issue of perfect substitution. There is an assumption, regarding the Cobb – Douglas production function, that as long as I use the ‘Y = Kµ*L1-µ*A’ framework, I have to assume perfect substitution between factors K and L on the right side. I even had that remark from my audience, as I was presenting that paper of mine, ‘Settlement by Energy – Can Renewable Energies Sustain Our Civilisation?’ , at a conference. The remark went more or less as: “If you apply the mathematics of Cobb – Douglas production function to the combination of food and non-edible energy, you must imply perfect substitution between these two? Do you?”. My immediate answer was “No, I don’t. We cannot replace food with electricity and vice versa”. Still, my pondered answer (i.e. the answer that I could articulate if the scientist in question, who asked his question, was still there, and which I cannot articulate in this context because this scientist is not in front of me anymore) is different: “Firstly, the assumption of perfect substitution is a false necessity in the Cobb-Douglas production function. Secondly, substitution between food and energy can go all the way from a nearly perfect one, through imperfect one, down to no substitution at all”.

Good. I have addressed my pondered answer to the thin air in front of me, which stared back at me, blankly. I need to develop an argumentation. I start from the beginning. Professor Charles W. Cobb, and professor Paul H. Douglas have never claimed perfect substitution between labour and capital. Really. You can read their seminal paper in any direction you want, you will not find such an assumption. Quite the contrary, the very idea of defining labour and capital as two separate aggregates, factors of aggregate output, gives like the shade of a suspicion that they didn’t really treated them as mutual perfect substitutes. Thus, the idea of perfect substitution comes from those, who used to interpret the writings of Cobb and Douglas. How could it come up to the surface of intellectual prowess of economic sciences? Well, some people say that if I have an equation like ‘Y = Kµ*L1-µ*A’, with a condition µ < 1, any decrease in one factor, accompanied with an exactly corresponding decrease in the second factor, must produce the same output on the left side. With a given µ, if I take 10% out of my capital and add 10% to my labour (e.g. if I sell my house and move to the countryside, and grow my own cattle, and my own carrots), my output should stay rock solid, without flinching even by an inch. The reasoning seems almost perfect. The ‘almost’ comes from the fact that it is false. Yes, baby: this is bullshit. I am developing on that. In Tables 1 and 2, below, I present a simulated set of data: 31 one consecutive periods in time, starting with labour and capital being supplied in equal amounts, 500 units each. Then, I increase the supply of capital each year by one unit, and I correspondingly decrease the supply of labour. ‘Correspondingly’ means that each year, I take off the supply of labour the very same proportion, which one unit of capital adds to its base. I compute the model output with the Y = Kµ*L1-µ formula. In Table 1, I give to my µ the value of µ = 0,75, thus roughly what you can find out today if you apply the original methodology by Charles Cobb and Paul Douglas to the present-day data. In Table 2, I make my µ equal to µ = 0.25, thus exactly as Cobb and Douglas posited it regarding the first two decades of the 20th century. As you can see, when I make capital dominant, with µ = 0.75, its incremental increase is bound to produce incremental increase in the aggregate output, even in the presence of the corresponding decrease in the supply of labour. If, on the other hand, I make labour the dominant factor, and I posit µ = 0.25, incremental increase in capital, accompanied by exactly proportional a decrease in labour, just has to produce decreasing an output.

Thus, no isoquant here, sorry baby. Still, there is one special case when that assumption of perfect substitution holds. This is when µ = 0.5, or, when I attribute to both of my factors the same relative importance in making the aggregate output.

Table 1 – Simulation of the Y = Kµ*L1-µ*A production function, with µ = 0,75

Period Capital Labour Output
1 500 500 500
2 501 499,001996 500,4997502
3 502 498,0079681 500,999002
4 503 497,0178926 501,4977567
5 504 496,031746 501,9960159
6 505 495,049505 502,4937811
7 506 494,0711462 502,9910536
8 507 493,0966469 503,487835
9 508 492,1259843 503,9841267
10 509 491,1591356 504,4799302
11 510 490,1960784 504,9752469
12 511 489,2367906 505,4700782
13 512 488,28125 505,9644256
14 513 487,3294347 506,4582905
15 514 486,381323 506,9516742
16 515 485,4368932 507,4445783
17 516 484,496124 507,937004
18 517 483,5589942 508,4289528
19 518 482,6254826 508,920426
20 519 481,6955684 509,4114251
21 520 480,7692308 509,9019514
22 521 479,8464491 510,3920062
23 522 478,9272031 510,881591
24 523 478,0114723 511,370707
25 524 477,0992366 511,8593557
26 525 476,1904762 512,3475383
27 526 475,2851711 512,8352562
28 527 474,3833017 513,3225107
29 528 473,4848485 513,8093031
30 529 472,5897921 514,2956348
31 530 471,6981132 514,781507

Table 2 – Simulation of the Y = Kµ*L1-µ*A production function, with µ = 0,25

Period Capital Labour Output
1 500 500 500
2 501 499,001996 499,5007488
3 502 498,0079681 499,00299
4 503 497,0178926 498,5067164
5 504 496,031746 498,0119206
6 505 495,049505 497,5185951
7 506 494,0711462 497,0267328
8 507 493,0966469 496,5363264
9 508 492,1259843 496,0473688
10 509 491,1591356 495,5598529
11 510 490,1960784 495,0737715
12 511 489,2367906 494,5891177
13 512 488,28125 494,1058844
14 513 487,3294347 493,6240648
15 514 486,381323 493,143652
16 515 485,4368932 492,6646391
17 516 484,496124 492,1870193
18 517 483,5589942 491,710786
19 518 482,6254826 491,2359324
20 519 481,6955684 490,7624519
21 520 480,7692308 490,2903378
22 521 479,8464491 489,8195837
23 522 478,9272031 489,3501829
24 523 478,0114723 488,8821291
25 524 477,0992366 488,4154157
26 525 476,1904762 487,9500365
27 526 475,2851711 487,485985
28 527 474,3833017 487,0232549
29 528 473,4848485 486,5618401
30 529 472,5897921 486,1017342
31 530 471,6981132 485,6429312

That piece of maths I present above is the mathematical part of my answer to that scientist who is not sitting in front of me anymore. Now, the existential part, namely about the actual substitution between food and non-edible energy. If I live with no technology at all, even without an ox to pull my cart, so if I live the life of a hunter gatherer, I need a lot of food to stay healthy and fit for hunting. A cautious estimation leads to some 7000 – 8000 kilocalories a day. If I switch from hunting to farming, and I progressively buttress my existence with technologies, like starting with a horse and going all the way up to a super harvester, my alimentary requirement will fall progressively, probably down to some 3000 kcal a day. If I make one more step and become a city boy, who I am now, actually, I can drive my alimentary necessity down to about 1800 kilocalories a day, although this is without sport. If I do sport, and if I am serious about, I will need more. The point is that at the highest alimentary intake, when I have no technology to replace my muscles, any such technology can make my alimentary requirement drop a little. This is nearly perfect a substitution. As I am surrounded by more and more technologies, each new one produces a decreasing marginal decrease in my need for food. This is imperfect substitution. It goes down to a point of no substitution at all, when the only conceivable next step is Matrix and me connected to some tubes sucking energy from my body, to feed those lazy computers.

By the way, if I were a mean and clever artificial intelligence, I would tap into energy created by human society rather that by the human body. The most energy-intensive activity we do, as humans, is living in a big city. This is where mean and clever artificial intelligences can find the greatest amount of joules to free ride on them. This artificial intelligence from Matrix, the one who preyed directly on human metabolism, was not really the sharpest knife in the drawer.

[1] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

[2] Krugman, P., 1991, Increasing Returns and Economic Geography, The Journal of Political Economy, Volume 99, Issue 3 (Jun. 1991), pp. 483 – 499

[3] Krugman, P., 1998, What’s New About The New Economic Geography?, Oxford Review of Economic Policy, vol. 14, no. 2, pp. 7 – 17

Back to blogging, trying to define what I remember

My editorial

It is really tough to get back to regular blogging, after a break of many weeks. This is interesting. Since like mid-October, I have been absorbed by teaching and by finishing formal scientific writing connected to my research grant. I have one major failure as for that last one – I haven’t finished my book on technological change and renewable energies. I have like 70% of it and it keeps being like 70%, as if I was blocked on something. Articles flow just smoothly, but I am a bit stuck with the book. Another interesting path for self-investigation. Anyway, teaching and formal writing seem to have kind of absorbed some finite amount of mental energy I have, leaving not much for other forms of expression, blogging included. Now, as I slowly resume both the teaching scheduled for the winter semester, and, temporarily, the writing of formal publications, my brain seems to switch, gently, back into the blogging mode.

When I start a new chapter, it is a good thing to phrase out my takeaways from previous chapters. I think there are two of them. Firstly, it is the concept of intelligent loop in collective learning. I am mildly obsessed with the phenomenon of collective intelligence, and, when we claim we are intelligent, it would be good to prove we can learn something as a civilisation. Secondly, it is that odd mathematical construct that we mostly know, in economics, as production function. The longer I work with that logical structure, you know, the ‘Y = Kµ*L1-µ*A’ one (Cobb, Douglas 1928[1]), the more I am persuaded that – together with some fundamental misunderstandings, there is an enormous cognitive potential in it. The production function is a peculiar way of thinking about social structures, where one major factor – the one with the biggest exponent –  reshuffles all the cards on the table and actually makes the structure we can observe.

The loop of intelligent learning articulates into a few specific, more detailed issues. In order to learn, I have to remember what happened to me. I need to take some kind of break from experiencing reality – the capacity of abstract thinking is of great help in this respect – and I need to connect the dots, form some patterns, test them, hopefully survive the testing, and then come up with something smart, which I can label as my new skills. Collective memory is the first condition of collective learning. There is one particular issue, pertaining to both the individual memory and the collective one: what we think is our memory of past occurrences is, in fact, our present interpretation of information we collected in the past. It is bloody hard to draw a line between what we really remember, and what we think we remember. There are scientifically defined cases of mental disturbances (e.g. the Korsakoff psychosis), where the person creates its own memory on a completely free ride, without any predictable connection to what had really happened in the past. If individual people can happen to do things like that, there is absolutely no reason why whole societies shouldn’t. Yet, when it comes to learning, looping inside our own imagination simply doesn’t work: we come up with things like Holy Inquisitions or Worst Enemies, and it is not what is going to drive us into the next millennium. In order to learn truly and usefully, we have to connect the dots from our actual, past experience, as little edited as possible. The question is, how can I find out what does the society really remember? How can I distinguish it from the imaginary bullshit? Economics are very largely about numbers. The general question about memory translates into something more abstract: how can I tell that the numbers I have today somehow remember the numbers from the past? How can I tell that a particular variable remembers its own variance from the past? What about this particular variable remembering the past variance in other variables?

In order to answer those questions, I go back to my understanding of memory as a phenomenon. How do I know I have memory? I am considering a triad of distinct phenomena, which can prove I have memory: remembering, repetition, and modification of behaviour. Remembering means that I can retrieve, somehow, from the current resources of my brain, some record relative to past experience. In other words, I can find past information in the present information. My brain needs recurrent procedures for retrieving that past information. There must be some librarian-like algorithm in my brain, which can pick up bits of my past in a predictable manner. Memory in quantitative data means, thus, that I can find numbers from the past in the present ones, and I can find them in a recurrent manner, i.e. through a function. If I have a number from the past, let’s call it x(t-1), and a present number x(t), my x(t) has the memory of x(t-1) if, in a given set X = {x1, x2, …, x3} of values attributed to x I can find a regularity of the type xi(t) = f[xi(t-1)] and the function f[xi(t-1)] is a true one, i.e. it has some recurrent shape in it. Going from mathematics back to real life, remembering means that every time I contemplate my favourite landscape – an open prairie in the mountains, by a sunny day in summer – I somehow rehearse all the past times I saw the same landscape.

Going back to maths, there are many layers and tunes in remembering. I can remember in a constant time frame. It means that right now, my brain kind of retrieves sensory experience from the past three weeks, the whole of three weeks and just three weeks. That window in time is my constant frame of remembering. Yet, older memories happen to pop up in my head. Sometimes, I go, in my memories, like two years back. On other occasions, something from a moment twenty years ago suddenly visits my consciousness. Besides the constant window of three weeks back in time, my brain uses a flexible temporal filter, when some data from further a past seems to connect with my present experience. Thus, in the present information xi(t), currently processed in my mind, there are two layers of remembering: the one in the constant window of three weeks, on the one hand, and that occurring in the shifting regressive reach. Mathematically, constant is constant, for example ‘b’, whilst something changing is basically a stochastic distribution, which I provisionally call ‘STOCH’, i.e. a range of possible states, with each of them occurring with a certain probability. My mathematical formula gets the following shape: xi(t) = f1[xi(t – b)] + f2[xi(t – STOCH)].

As someone looks at these maths, they could ask: ‘Good, but where is the residual component on the right side? Is your current information just made of remembering? Is there nothing squarely present and current?’. Well, this is a good question. How does my intelligence work? Is there anything else being processed, besides the remembered information? I start with defining the present moment. In the case of a brain, one neuron fires in about 2 milliseconds, although there is research showing that each neuron can largely control that speed and make connections faster or slower (Armbruster & Ryan 2011[2]). Two milliseconds are not that long: they are two thousandths of what we commonly perceive as the shortest unit of time in real life. Right, one neuron doesn’t make me clever, I need more of them getting to do something useful together. How many? As I was attending my lessons at the driving school, some 27 years ago, I had been taught that the normal time of reaction, in a driver, is about 1,5 seconds. This is the time between my first glimpse of a dog crossing the tarmac, and me pushing the brake pedal. It makes 1 500 milliseconds. Divided by two milliseconds for one neuron, so if each individual neuron fired after another one, it gives 750. I have roughly 100 billion neurons in my brain (you the same), and each of them has, on average, 7000 connections with other neurons. It makes 7E+14 synaptic connections. In a sequence of 750 neurons firing one after the other, I have 7507000 synapses firing. In other words, something called ‘strictly current processing of information’ activates like 7,5E-09 of my brain: not much. It looks as if my present wasn’t that important, in quantitative terms, in relation to my past. Moreover, in those 7507000 synapses firing in an on-the-spot reaction of a driver, there is a lot of remembering, like ‘Which of those three things under my feet is the brake pedal?’.

Let’s wrap it up, partially. We are in a social system, and that social system is supposed to have collective intelligence equivalent to the individual intelligence of a human brain. If this is the case, numerical data describing the actions of that social system consists, for any practical purpose, exclusively in remembering. There is some residual of what can be considered as the strictly spoken current processing of information, but this is really negligible. Thus, I come with my first test for collective intelligence in a social system. The system in question is intelligent if, in a set of numerical time series describing its behaviour, the present data can be derived from past data, without significant residual, in a function combining a fixed window of remembering with a stochastic function of reprocessing old information, or xi(t) = f1[xi(t – b)] + f2[xi(t – STOCH)]. If this condition is generally met, the social system remembers enough to learn on past experience. ‘Generally’ means that nuances can be introduced into that general scheme. Firstly, if my function yields a significant residual ‘Res[xi(t)]’, thus if its empirically verified version looks like xi(t) = f1[xi(t – b)] + f2[xi(t – STOCH)] + Res[xi(t)], it just means that my (our?) social system produces some residual information, whose role in collective learning is unclear. It can be the manifestation of super-fast learning on the spot, or, conversely, it can indicate that the social system produces some information bound not to be used for future learning.

And so I come to the more behavioural proof of memory and learning. When we do something right now, there is a component of recurrent behaviour in it, and another one, that of modified behaviour. We essentially do things we know how to do, i.e. we repeat patterns of behaviour that we have formed in the past. Still, if we are really prone to learn, thus to have active a memory, there is another component in our present behaviour: that of current experimentation, and modification in behaviour, in the view of future repetition. We repeat the past, and we experiment for the future. The residual component Res[xi(t)] in my function of memory – xi(t) = f1[xi(t – b)] + f2[xi(t – STOCH)] + Res[xi(t)]if it exists at all, can be attributed to such experimentation. Should it be the case, my Res[xi(t)] should reflect in future functions of memory in my data, and it should reflect in the same basic way as the one already defined. Probably, there is some recurrent cycle of learning, taking place in a more or less constant time window, and, paired with it, is a semi-random utilisation of present experience in the future, occurring in a stochastically varying time range. Following the basic logic, which I am trying to form here, both of the time ranges in that function of modification in behaviour should be pretty.

[1] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

[2] Armbruster, M., Ryan, T., 2011, Synaptic vesicle retrieval time is a cell-wide rather than individual-synapse property, Nature Neuroscience 14, 824–826 (2011), doi:10.1038/nn.2828