Primitive, male satisfaction with bigger a size

Short introduction via You Tube

I have a nice structure for that book about innovation and technological change, viewed mostly in evolutionary terms. For the moment, I want to focus on two metrics, which progressively came out of the research and writing that I did over the last two days. In my update entitled ‘Evolutionary games’ , I identified the ratio of capital per one patent application as some sort of velocity of capital across units of scientific invention. On the other hand, yesterday, in my update in French, namely ‘Des trucs marrants qui nous passent à côté du nez, ou quelques réflexions évolutionnistes’ , I started to nail down another one, the ratio of money supplied per unit of fixed capital. All that in the framework of a model, where investors are female organisms, able to create substance and recombine genetic information, whilst research and development is made of male organisms, unable to reproduce or mix genes, but able to communicate their own genetic code in the form of patentable inventions. As I am a bit obsessed about monetary systems, those last months, I added money supplied from the financial sector as the conveyor of genetic information in my model. Each unit of money is informative about the temporary, local, market value of something, and in that sense it can be considered analogously to a biological marker in an evolutionary framework.

Now, I am returning to one of the cornerstones of a decent evolutionary model, namely to the selection function. Female investors select male inventions for reproduction and recombination of genetic code. Characteristics of the most frequently chosen inventions are being remembered and used as guidelines for creating future inventions: this is the component of adaptation in my model. In entitled ‘Evolutionary games’, I started to nail down my selection function, from two angles. I studied the distribution of a coefficient, namely the ratio of physical capital per one resident patent application, in my database made of Penn Tables 9.0 (Feenstra et al. 2015[1]) and additional data from the World Bank. The first results that I got suggest a strong geographical disparity, and a progressive change over time in a complex set of local averages. In general, combined with the disparity of that ration across different classes of food deficit in local populations, my working assumption is that the ratio of physical capital per one patent application, should it have any relevance, characterises the way that the selection function works locally.

The second angle of approach is linear regression. I tested econometrically the hypothesis that the number of patent applications depends on the amount of physical capital available locally. In evolutionary terms, it means that the number of male inventions depends on the amount of substance available in the female set of capital holders. I started with nailing down a logarithmic equation in my dataset, namely: ln(Patent Applications) = 0,825*ln(ck) + residual ln -4,204, in a sample of 2 623 valid observations in my database, where ‘ck’ stands for the amount of physical capital available (that’s the original acronym from Penn Tables 9.0). That equation yields a coefficient of determination R2 = 0,478, regarding the variance of empirical distribution in the number of patent applications.

This time, today, I want to meddle a little bit more with that linear regression. First of all, a quick update and interpretation of what I have. The full regression, described kind of by the book, looks like that:

variable coefficient std. error t-statistic p-value
ln(ck) 0,825 0,019 43,19 0,000
constant -4,204 0,259 -16,239 0,000

The low values of p – significance mean that the probability of the null hypothesis is below 0,001. In other words, it is very low a probability that for a given value of capital I can have any observable number of patent applications. Analogously, the probability that for the average value of physical capital the residual, unexplained number of patent applications is different from e-4,204 = 0,014935714 is also below 0,001.

The amount of physical capital available locally explains some 47% of the overall variance, observable in the distribution of resident patent applications. This is quite substantial an explanatory power, and it confirms the basic intuition of my whole evolutionary reasoning that the amount of genetic information communicated in the system (number of patent applications) is significantly proportional to the amount of organic substance (physical capital) available for recombination with the help of said genetic information. Still, I have that more than 52% of variance, left unexplained.

In econometrics, as in many other instances of existence, size matters. The size of a model is measured with its explanatory power, or its coefficient of determination R2. My equation, as I have it now, is medium in size. If I want it to be bigger in explanatory power, I can add variables on the right side. In my database, I have that variable called ‘delta’ in the original notation of Penn Tables 9.0, and it stands for the rate of depreciation in fixed assets. The greater that rate, the shorter the lifecycle of my physical assets. A few words of explanation for the mildly initiated. If my rate of depreciation is delta = 20%, it means that one fifth of book value in my assets goes out of the window every year, due to both physical wear and tear (physical depreciation), and to obsolescence in comparison to more modern assets (moral depreciation). If my delta = 20%, it basically means that I should replace the corresponding assets with new ones every five years. If my delta = 15%, that lifecycle climbs to 1/15% = 6,66 years, and with delta = 40%, it accelerates to 1/40% = 2,5 years.

In my evolutionary framework, ‘delta’ is the opposite of average life expectancy, observable in those technologies, which female capital is supposed to breed when fecundated by male inventions. I am positing a working hypothesis, that the amount of male inventions, serving to fecundate female capital, is inversely proportional to the life expectancy of my average technology. The longer one average technology lives, the less fun is required between male inventions and female capital, and vice versa: the shorter that lifecycle, the more conception has to go on between the two sides of my equation (capital and patent applications). In other words, I am hypothesising that the number of patent applications is straight proportional to the rate of depreciation ‘delta’. Let’s check. I am dropping the natural logarithm of ‘delta’, or ln(Depreciation), into my model, and I am running that linear regression ln(Patent Applications) = a1*ln(ck) + a2*ln(delta) + residual ln by Ordinary Least Squares. In return, I have R2 = 0,492, and the coefficients, together with their descriptive statistics (standard error and significance test) are as shown in the table below:

variable coefficient std. error t-statistic p-value
ln(ck) 0,843 0,019 43,587 0,000
ln(delta) 1,371 0,172 7,986 0,000
constant -0,203 0,561 -0,362 0,718

My hypothesis has been confirmed: there is a significant, positive correlation between the rate of depreciation in technologies, and the amount of patent applications. In other words, the shorter the lifecycle of technologies in a given country and year, the greater the number of those male inventions ready to conceive new baby technologies. Interestingly, my residual constant in the model has gone feral and uncorrelated with explanatory variables. For a given amount of physical capital, and a given rate of depreciation, the probability that I have a completely random residual number of patent applications is p = 71,8%.

At this point, I can try a different technique of empirical research. I compute that residual component for each of the 2 623 observations separately, and thus I get a statistical distribution of residuals. Then, I look for variables in my database, which are significantly correlated with those residuals from the model. In other words, I am looking for pegs, which I can possibly attach that rebel, residual tail to. In general, that logarithmic tail is truly feral: there is very little correlation with any other variable, excepted with the left side of the equation (number of patent applications). Still, two, moderately strong correlations come forth. The natural logarithm of energy use per capita, in kilograms of oil equivalent, comes as correlated with my logarithmic residual at r = 0,509, where ‘r’ stands for the Pearson coefficient of correlation in moments. The second correlation is that with the share of labour compensation in the GDP, or ‘labsh’ in the original notation of Penn Tables 9.0.  Here, the coefficient of correlation is r = 0,491.

You don’t argue with significant correlations, if you want to stay serious in econometric research, and so I drop those two additional, natural logarithms into my equation. I am testing now the validity of the proposition that ln(Patent Applications) = a1*ln(ck) + a2*ln(delta) + a3*ln(labsh) + a4*ln(Energy use) + residual ln. I get n = 2 338 valid observations, and my explanatory power, i.e. the size of my explanation, grows bigger, up to R2 = 0,701. I will be honest with you: I feel a primitive, male satisfaction with that bigger size in my explanatory power. Back to the nice and polite framework of empirical investigation, I have that table of coefficients, below:

variable coefficient std. error t-statistic p-value
ln(ck) 0,847 0,017 49,012 0,000
ln(delta) 2,256 0,16 14,089 0,000
ln(labsh) 2,782 0,157 17,693 0,000
ln(Energy use (kg of oil equivalent per capita)) 0,643 0,036 17,901 0,000
constant -0,854 0,561 -1,522 0,128

I can observe, first of all, that adding those two variables to the game pumped some size in the coefficient ascribed to depreciation, and left the coefficient attached to the amount of physical capital almost unchanged. It could suggest that the way those two additional variables work is somehow correlated with the lifecycle of technologies. Secondly, I have no clear and unequivocal clue, for the moment at least, how to interpret the significant presence of those two additional variables in the model. Maybe the selection function, in my evolutionary model, favours inventions with greater share of labour compensation in their production functions, as well as with more energy intensity? Maybe… It is something to dismantle into small pieces carefully. Anyway, it looks interesting.

The third thing is that new residual in the new, enriched model. It still has pretty low a significance (the null hypothesis as for this residual is significant at p = 12,8%), and so I repeated the same procedure: I computed local residuals from this model, and then I checked the correlation of thus obtained distribution of residuals, with other variables in my database. Nope. Nothing. Rien. Nada. This constant residual is really lonely and sociopathic. Better leave it alone.

[1] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at

Des trucs marrants qui nous passent à côté du nez, ou quelques réflexions évolutionnistes

Quelques mots sur You Tube

J’aime bien la piste de recherche que j’ai réussi à ouvrir hier (voir  “Evolutionary games” ). Je trouve que l’application de la théorie de l’évolution, en particulier la fonction de sélection, possède cette propriété merveilleuse de simplifier les problèmes complexes. Bien sûr, si je simplifie, je peux perdre de vue des détails importants, néanmoins, avec de la rigueur élémentaire, on peut contourner ce piège. J’ai donc un mécanisme de sélection, ou les détenteurs de capital choisissent dans un ensemble d’inventions applicables pour installer dans leurs entreprises des technologies nouvelles. Ce choix marche de façon similaire à la sélection sexuelle : il a pour résultat le développement systématique de nouvelles inventions portant les caractéristiques le plus souvent choisies, ainsi que la disparition graduelle d’autres types d’idées.

Vous pourriez demander ce qu’il y a de tellement révolutionnaire dans ce train d’idées. Eh bien, rien de révolutionnaire du tout, à vrai dire. C’est l’un de ces outils intellectuels simples et efficaces, bien dans l’esprit méthodologique de Milton Friedman, dont l’utilité réside dans la capacité de créer des hypothèses pertinentes plutôt que des réponses toutes faites. La question la plus fondamentale, du point de vue d’un économiste comme moi, est la suivante. Les changements technologiques dans l’économie mondiale s’accompagnent d’une baisse systématique de productivité, ainsi que d’une croissance spectaculaire d’inégalités dans l’appropriation de capital. Néanmoins nous continuons, comme civilisation, de remplacer nos technologies de plus en plus vite. Nous répétons donc, encore et encore, un mécanisme qui semble créer des tensions sociales dangereuses. Pourquoi diable ? Avons-nous une tendance suicidaire collective ou bien y-a-t-il une sorte de conspiration massive à l’échelle globale ?

L’approche évolutionniste est l’un de ces trucs simples et ingénieux qui permettent de pousser la connerie de côté et de se concentrer sur les faits empiriques. Empiriquement, nous pouvons constater un remplacement de plus en plus accéléré de technologies (mesuré par la part croissante d’amortissement agrégé dans le PIB), ainsi qu’une production accélérée d’inventions applicables dans l’industrie (observable comme un ratio croissant de demandes de brevet par un million de personnes). La logique évolutive suggère l’existence d’un processus d’adaptation, qui se déploie comme une rotation accélérée des générations consécutives. Nous savons que les espèces vivantes tournent vers ce type de comportement lorsqu’elles doivent s’adapter sous la pression du temps. Ce à quoi nous sommes en train de nous adapter est une question à part. Très certainement, il y a le facteur de surpopulation et celui du réchauffement climatique. Peut-être il y a d’autres facteurs de stress environnemental dont nous ne nous rendons même pas compte. Quant à moi, je me concentre sur le processus d’adaptation en tant que tel.

L’expérimentation est la seule façon de développer les trucs qui marchent. Il faut tester avant l’utilisation massive : tout ingénieur digne de ce nom le sait. Alors, si j’assume que notre espèce est en train d’expérimenter pour s’adapter, des question simples et embarrassantes surgissent. Qui et comment décide de la façon dont l’expérimentation est effectuée ? Qui, et comment fait la sélection des résultats ? Bien sûr, je peux pointer sur les gouvernements et les grandes sociétés multinationales comme acteurs principaux dans ce processus, mais cette idée à tendance à se mordre la queue : ce sont des structures collectives, pas des personnes, donc comment se passe la décision à l’intérieur de ces collectivités ?  Je retourne donc à la question de base : comment une espèce entière, comme nous, peut s’organiser pour expérimenter avec les trucs essentiels à sa survie ? C’est précisément là que la logique évolutionnister vient en rescousse avec le mécanisme de sélection et reproduction sexuée.

Avant d’aller plus loin, il sera peut-être bon de définir les concepts fondamentaux. Les sexes – féminin et masculin – sont dans une large mesure un produit culturel, qui a néanmoins une base biologique. Dans toute espèce sexuée – donc partout au-dessus des vers de terre – il y a deux types d’organismes. L’organisme du type féminin est capable de donner la vie à une génération nouvelle et de mélanger les codes génétiques, mais il ne sait pas comment transmettre l’information génétique et il a besoin de conception de la part de l’organisme du type masculin. Ce dernier est infécond en lui-même et ne sait pas recombiner les gènes, mais il a la capacité de produire en série des portions communicables de son propre code génétique. Deux fonctions différentes – recombinaison et développement d’une part, ainsi que dissémination et communication d’autre part – sont exprimées dans deux types différents d’organismes à l’intérieur d’une même espèce. Est-ce un mécanisme parfait ? Certainement pas. Il a des limites très claires, surtout quant à sa vitesse de réaction : il a besoin de changement générationnel pour sélectionner parmi toutes les expériences possibles et là, on bute contre le cycle des générations. Il est utile de remarquer que dans le monde végétal, une approche légèrement différente s’est développée : à l’intérieur d’un même organisme, deux parts se forment, une féminine et une masculine, qui par la suite peuvent interagir aussi bien entre elles qu’avec d’autres organismes de la même espèce. Les conifères sont peut-être l’exemple le plus facile à trouver autour de nous.

Appliquée aux sciences sociales, la logique évolutionniste trouve son application surtout dans ces contextes spécifiques, où un grand effort collectif semble être engagé dans un processus de changement qui, à son tour, semble se dérouler comme à tâtons, avec beaucoup d’essais et beaucoup d’erreurs sur le chemin. Cette logique assume donc que nous pouvons identifier dans un système social donné deux types d’entités : féminines (reproduction de substance et recombinaison d’information) et masculines (standardisation et communication d’information), qui interagissent pour produire des générations consécutives du même organisme.

Tout comme dans la biologie, le moment délicat est celui quand nous définissons ce qu’est une entité. La logique évolutionniste tient débout seulement quand elle est accompagnée d’une telle définition. Supposons que nous représentons notre propre espèce comme faite d’organismes continentaux et non pas de ce que nous appelons « personnes individuelles ». Si c’est la population continentale qui est un organisme à part, et pas une personne, le changement générationnel pratiquement disparaît de l’horizon : chacune des populations continentales vît sans interruption, seule sa forme change. Il est bon de retenir que, paradoxalement, même dans les sciences de la vie la logique évolutionniste n’est pas la seule possible. On peut imaginer d’autres approches, puisque pour tout état de nature nous pouvons formuler un répertoire indéfiniment large d’hypothèses. La logique évolutionniste est simplement celle qui, parmi toutes les hypothèses possibles, nous permet d’avancer notre connaissance de façon pratique, c’est-à-dire d’inventer des trucs qui marchent, comme les vaccins ou bien la sélection rationnelle de variétés des plantes dans l’agriculture. Oui, c’est bien ça : les premiers agriculteurs dans l’histoire de l’humanité étaient aussi les premiers évolutionnistes, puisqu’ils utilisaient, à dessein, le mécanisme d’adaptation dans le cycle générationnel chez les plantes.

Le choix d’échelle dans la définition de l’entité peut se faire d’une manière rationnelle. Lorsque je vois quelque chose de grand, comme une civilisation entière, et je n’arrive pas à comprendre comment elle marche, je peux tester de façon réitérée l’hypothèse de reproduction sexuée et essayer voir si je tombe sur deux types distincts d’entités, respectivement du type féminin (reproduction et recombinaison d’information) et masculin (standardisation et communication). Si, en plus, je trouve quelque chose comme code génétique, donc un système standardisé de communication d’information vitale à la structure et fonction de chacune de ces entités, je suis peinard. Plus qu’à s’asseoir et observer tout le bazar, ou presque. Le problème pratique avec la logique évolutionniste c’est son intelligibilité. C’est une approche qui puise des fondements de la vie, en quelque sorte, et elle a tendance à éveiller des émotions extrêmement fortes chez les interlocuteurs. Tenez, par exemple hier. J’ai commencé à modeler le progrès technologique comme un processus de reproduction sexuée de technologies, où les demandes de brevet sont de l’information génétique mâle, disséminée parmi les investisseurs femelles, qui, à leur tour, la recombinent et reproduisent des entités de nouvelle génération. J’ai même trouvé une variable d’équilibre économique – le ratio de capital physique investi par une demande de brevet – qui démontre une distribution statistique intéressante. J’en ai rapidement parlé à un ami, juste pour tester le concept. Doux Jésus !  Sa réaction était incroyable, comme s’il était question d’un match de foot, perdu par son équipe favorite. « Comment peut-tu dire que les investisseurs sont femelles ? Je fais du business, moi et ai-je l’air d’une bonne femme ? » Bon, ce serait tout. Si on parlait du dernier épisode de « Game of Thrones » ?

Bon, si j’ai identifié les mâles et les femelles, il serait utile de définir le système de transmission d’information génétique. Je suppose que si les médias rapporteraient un mouvement massif de petites formes blanches avec des queues, qui se déplacent extrêmement vite dans les quartiers chics de business, en des flots plutôt substantiels, président Trump aurait tout de suite un nouveau prétexte pour promettre « feu et fureur » à quelqu’un. Faute de spermatozoïdes, il faut donc trouver quelque chose d’autre. Je pense à l’argent. Historiquement, le pognon, ça a toujours été plutôt du pognon qui n’existe pas que celui qui existe. Je veux dire, depuis des siècles, l’argent a été surtout une unité comptable. Seule une petite partie de ces soldes comptables était physiquement présente dans la vie quotidienne comme monnaie d’échange, et c’en est resté de même jusqu’aujourd’hui. L’argent, c’est surtout de l’information.

Imaginons, maintenant, que cette information sous forme d’argent s’attache à des petits blocs de ressources précieuses – et à ce point-là il est utile de se souvenir que dans les systèmes sociaux la confiance et la volonté de coopérer sont des ressources précieuses aussi – et ensuite ces petits blocs peuvent être transmis dans l’espace et le temps à travers le mouvement de l’argent, donc à travers les transactions de marché, chacune avec une valeur comptable déterminée. Dans un tel cas, le système monétaire pourrait être, dans l’économie, l’équivalent d’activités sexuelles en biologie. Pas étonnant, alors, qu’autant de gens veulent faire carrière dans la finance. Ça pourrait bien expliquer, aussi, pourquoi la rotation accélérée de technologies est accompagnée par une vélocité décroissante de l’argent dans l’économie mondiale : adaptation rapide requiert une transmission rapide du matériel génétique. La diminution de la vélocité de l’argent la plus marquée survient dans les marchés émergents et dans les pays en voie de développement. Logique, ça aussi : ces pays-là ont besoin de plus d’expérimentation avec le code génétique de leur business que les pays développés.

En fait, j’en viens à une conclusion générale que ce n’est pas intéressant du tout d’être pleinement développé. C’est confortable, bien sûr, mais pas intéressant. On ne s’adapte plus, puisqu’il n’y a pas grand-chose à quoi on pourrait s’adapter, et tout un tas de trucs marrants nous passent à côté du nez.

Evolutionary games

My editorial for today

My mind is wandering a bit, this morning. I am experiencing that peculiar state of creative lack in my focus, as if my brain was hesitating which compound parcel of information to treat. I am having a quick glance at ‘Théorie de la spéculation’ by Louis Bachelier (Bachelier 1900[1]), as I am almost always interested in practical applications of uncertainty. That, in turn, suggests me to add some data about stock markets to my database anchored in Penn Tables 9.0 (Feenstra et al. 2015[2]). On the other hand, I would like to continue on the path that I have been developing for a few days, about innovation and technological change understood as a game of adaptation in a complex social structure. As I am trying to connect those two dots, I end up reading papers like that by Frederic Scherer (Scherer 1996[3]) on the probability of big, fat profits from an invention . Finally, I have that idea of reconciling the game-theoretic approach with the evolutionary one, in modelling processes of adaptation under uncertainty.

Maybe if I start from the end and advance towards the beginning, as I love doing in my research, I will come to some interesting results? Good, let’s waltz. So I am studying evolution. Evolution of anything is about breeding, i.e. about having fun, first, and being a responsible parent in subsequent periods. At a given time ‘t’ , in a place (market) MR, we have a set N of n inventions, N = {N1, N2, …, Nn}, and each of those inventions can give rise to some fun on the spot, and to responsible parenthood next, or, in other words, it can be implemented as a technology, and maintained in exploitation for a given period of time. Right, so I need a set of established technologies, as well. I call this set TC = {TC1, TC2, …, TCm}, and this long name with curly brackets in it means that my set of established technologies contains ‘m’ of them.

Let’s suppose that inventions are male and established technologies are children. We need females, if we want to be serious about evolution. A female organism is what gets fecundated by some seed coming from the male. Logically, in this specific process, investment capital is female. Thus, I imagine a set CH = {CH1, CH2, …, CHk} of ‘k’ capital holders, who are logically female but who, in fact, can be male by physicality, or even be kind of transgender if they are corporations or governments. Anyway, the set N of inventions is having fun with the set CH of capital holders, which subsequently gives rise to responsible parenthood regarding the set TC. Some inventions stay out of the evolutionary game fault of proper mating, just as some capital holders remain infecund fault of catching the right opportunity. I know, it sounds cruel, but this is not the first time I learn how far from conventional decency are the actual ways of the world.

What is interesting, is the process of selection. As we are in the world of technological change, lipstick, short skirts, six-pack abs and Ferraris are being replaced by rules of selection, which give systematic preference to some matches between i-th invention and j-th capital holder, to the detriment of others. As I read some recent evolutionary literature (see for example Young 2001[4]), there is some inclination, in the theory, to considering the female mechanisms of selection, i.e. those applied by females regarding males, as dominant in importance. In the logic I have just developed, it generally holds: I can safely assume that capital holders select inventions to finance, rather than inventions picking up their investors. Yes, it is a simplification, and so is a cafe Americano, but it works (when you order an espresso, a good barista should serve it with a glass of cold, still water in accompaniment; still, when the barista can suspect you are not really a gourmet in coffee, they basically heat up that water, mix it with a slightly thinned espresso, and you get cafe Americano).

Anyway, we have j-th capital holder CHj picking up the i-th invention Ni, to give birth to o-th established technology TCo. Evolutionary theory assumes, in general, that this process is far from being random. It has an inherent function of selection, and this function is basically the stuff that makes hierarchy in the social structure of the corresponding species. The function of selection defines the requirements that a successful match should have. In this case, it means that a hierarchy of inventions is being formed, with the top inventions being the most likely to be selected, and subsequent levels of hierarchy being populated with inventions displaying decreasing f****ability. As usually in such cases, spell: ‘f-asterisk-asterisk-asterisk-asterisk-ability’.

As I am a scientist, I am keen on understanding the mating mechanism, and so I take my compound database made of Penn Tables 9.0, glued together with data from the World Bank about patent applications. I hypothesise something very basic, namely that the number of resident patent applications per year, in a given country, significantly depends on the amount of capital being invested in fixed assets. Patent applications stand for inventions, and capital stands for itself. Now, I can do two types of tests for this hypothesis. I can go linear, or I can follow Milton Friedman. Being linear means that I posit my selection function as something in the lines of:

n = a*k + residual

Of course, we keep in mind that ‘n’ is the number of inventions (patent applications in this case), and ‘k’ stands for the number of capital holders, which I approximate with the aggregate amount of capital (variable ‘ck’ in Penn Tables 9.0). Now, I squeeze it down to natural logarithms, in order to provide for non-stationarity in empirical data, and I test: ln(Patent Applications) = a1*ln(ck) + residual ln.  For the mildly initiated, non-stationarity means that data usually jumps up and down, sometimes even follows local trends. It generates some noise, and natural logarithms help to quiet it all down. Anyway, as I test this logarithmic equation in my dataset, I get a sample of 2 623 valid observations, and they yield a coefficient of determination R2 = 0,478. It means, once again for the mildly initiated, that my equation explains some 47,8% of variance observable in ln(Patent Applications), and more specifically, the whole things spells: ln(Patent Applications) = 0,825*ln(ck) + residual ln -4,204.

I am going to return to those linear results a bit later. Now, just to grasp that nice contrast between methodologies, I start following the intuitions of Milton Friedman. I mean the intuitions expressed in his equation of quantitative monetary equilibrium. Why do I follow this path? Well, I try to advance at the frontier of economics and evolutionary theory. In the latter, I have that concept of selection function. In the former, one of the central theoretical concepts is that of equilibrium. I mention Milton Friedman, because he used to maintain quite firmly that equilibriums in economic systems, if they are true equilibriums, are expressed by some kind of predictable proportion. In his equation of monetary equilibrium, it was expressed by the velocity of money, or the speed of circulation of money between different units of real output.

Here, I translate it as the velocity of capital regarding patent applications, or the speed of circulation in capital between patentable inventions. In short, it is the ratio of fixed capital ‘ck’ divided by the number of resident patent applications. Yes, I know that I labelled capital as female, and inventions as male, and I propose to drop the metaphor at this very point. Velocity of circulation in females between males is not something that decent scientists should discuss. Well, some scientists could, like biologists. Anyway, I hypothesise that if my selection function is really robust, it should be constant over space and time. In probabilistic terms, it means that the mean ratio of fixed capital per one patent application, in millions of 2011 US$ at current Purchasing Power Parities, should be fairly constant between countries and over time, as well as it should display relatively low and recurrent variability (standard deviation divided by mean) inside places and years. The more disparity will I be able to notice, like the more arithmetical distance between local means or the more local variability around them, the more confidently can I assume there are many selection functions in that evolutionary game.

So I computed the mean value of this ratio and its variance across countries (get it from this link), as well as over years (this is downloadable, too). On the whole, the thing is quite unstable. There is a lot of disparity between mean values, as well as around them. Still, geographical disparity seems to be stronger, in terms of magnitude, than changes observable over time. It allows me to formulate two, quite tentative, and still empirically verifiable hypotheses. Firstly, at a given time, there is a lot of different, local selection functions between capital holders and patentable inventions. Secondly, the geographical disparity in these selection functions is relatively recurrent over time. We have an internally differentiated structure, made of local evolutionary mechanisms, and this structure seems to reproduce itself in time. Returning to my linear model, I could go into nailing down linear functions of ln(Patent Applications) = a1*ln(ck) + residual ln for each country separately. Still, I have one more interesting path: I can connect that evolutionary game to the issue of food deficit, which I explored a bit in my previous posts, namely in ‘Cases of moderate deprivation’  and in ‘‘Un modèle mal nourri’ . I made a pivot out of my database and I calculated mean capital per patent application, as well as its variance across different depths of food deficit . Interesting results turn out, as usually with this cruel and unpleasant variable. Between different classes of food deficit, regarding the ratio of capital per one patent application, disparities are significant, and, what seems even more interesting, disparity around the local means, inside particular classes of food deficit, is strongly idiosyncratic. Different depths of food deficit are accompanied by completely different selection functions in my evolutionary game.

So far, I have come to more interesting results by applying the logic of economic equilibrium in my evolutionary game, than by using plain linear regression. This is the thing about correlations and regressions: if you want them to be really meaningful, you need to narrow down your hypotheses really tight, just as Milton Friedman used to say. By the way, you can see here, at work, the basic methodology of statistical analysis, as presented, for example, by a classic like Blalock[5]: first, you do your basic maths with descriptive statistics, and only in your next step you jump to correlations and whatnot.

[1] Bachelier, Louis. Théorie de la spéculation. Gauthier-Villars, 1900.

[2] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at

[3] Scherer, Frederic M. “The size distribution of profits from innovation.” The Economics and Econometrics of Innovation. Springer US, 2000. 473-494.

[4] Young, H. Peyton. Individual strategy and social structure: An evolutionary theory of institutions. Princeton University Press, 2001.

[5] Blalock, Hubert Morse. Social Statistics: 2d Ed. McGraw-Hill, 1972.

Un modèle mal nourri

Quelques mots sur You Tube

Je suis en train de ruminer les résultats de mes test empiriques d’hier, ceux que j’ai discutés abondement en anglais dans le post intitulé  “Cases of moderate deprivation” . J’avais pris un modèle économétrique que j’eus précédemment utilisé dans un  article sur le phénomène de monétisation dans la course technologique et j’ai introduit le déficit alimentaire, tel qu’il est publié par la Banque Mondiale, comme variable de contrôle. En termes de méthode de recherche cela veut dire que je testé le même modèle séparément dans les différentes classes d’économies nationales, caractérisées par des niveaux distincts de déficit alimentaire. Dans les cas les plus extrêmes dudit déficit, c’est-à-dire lorsque l’habitant moyen d’un pays manque plus de 250 kilocalories par jour, le modèle perd pratiquement toute sa cohérence et il la regagne de plus en plus à mesure que le déficit calorique décroît.

J’assume que si un modèle économétrique tient, en termes de son coefficient de détermination R2 et de la signification des corrélations individuelles entre variables, cela veut dire qu’il représente, d’une façon acceptablement fidèle, le fonctionnement d’une structure sociale. Lorsque le même modèle « marche », en termes économétriques, de façon différente dans des classes différentes de sociétés, j’interprète les différences au niveau des coefficients comme une différence réelle quant au fonctionnement des structures sociales étudiées. Il y a, par exemple, ce truc qui remonte à Adam Smith et à son traité « De la nature et des causes de la richesse des nations » : la densité de population. Adam Smith répétait souvent que le genre de développement qu’il avait l’habitude d’appeler « la division de travail » et que nous, aujourd’hui, on aurait appelé « développement structurel », avait besoin d’une certaine densité minimum de population, en-dessous de laquelle ça ne marche tout simplement pas.

Moi aussi, je crois que la densité de population a une importance fondamentale pour le fonctionnement de nos structures sociales. C’est une importance dont le plus fréquemment nous ne nous rendons pas compte, mais c’est un mécanisme puissant qui détermine la façon dont nous interagissons dans la société. En des termes un peu plus pratiques, la densité de population est une estimation très analytique de l’importance relative des structures urbaines et périurbaines – où ladite densité est la plus grande – dans le tissu socio-économique. J’ai inclus la densité de population dans ce modèle de monétisation de course technologique, comme variable structurelle. Lorsque je testais ce modèle dans mon échantillon entier, donc dans l’ensemble de n = 2 238 observations « pays – année », la densité de population apparaissait comme variable significative qui contribue à décroître la vélocité de l’argent. Néanmoins, lorsque l’environnement social du modèle est contrôlé quant au niveau de déficit alimentaire, il faut que ledit déficit n’excède pas 109 kcal par jour par personne, pour que la densité de population gagne une signification suffisante, dans sa corrélation avec la vélocité de l’argent, pour qu’on puisse l’accepter comme variable structurelle significative. Lorsque la privation calorique excède 109 kilocalories par jour par habitant, désolé, la densité de population, ça se balade tout seul.

J’ai essayé de donner une interprétation structurelle à cette variable de déficit alimentaire. Ici, il est peut-être bon que j’explique la différence entre l’interprétation structurelle et celle plus stochastique. Telle qu’il est donné par la Banque Mondiale, le déficit alimentaire est une moyenne stochastique. Si cette moyenne a une valeur non-nulle, cela veut dire que la population entière est en manque d’un montant d’énergie chimique, générée par le catabolisme du corps humain, dans la quantité égale au nombre d’habitants multiplié par le déficit calorique moyen par habitant. Par exemple : déficit moyen de 150 kcal par habitant dans une population de 20 millions de personnes veut dire que cette société, prise comme un ensemble organisé, manque 150*20000000 = 3 milliards de kilocalories par jour. Il se peut que ces 3 milliards kcal par jour soient ce qui manque pour que cette nation bâtisse, par exemple, un système routier efficace.

A ce point-là, une observation de la vie quotidienne s’impose : la France ou l’Allemagne n’ont pas de déficit alimentaire en termes stochastiques, mais je peux bien y rencontrer des personnes qui sont chroniquement mal nourries. De la même manière, en Zambie, qui est en déficit alimentaire aigu en des termes stochastiques (plus de 400 kcal par jour par personne), je peux bien rencontrer des gens qui mangent largement à leur faim. Dans ce petit film sur You Tube  vous pouvez constater qu’il y en a même, en Zambie, qui ont suffisamment d’alimentation pour pratiquer le culturisme (croyez-moi, ça demande un surplus calorique géant). En transformant le déficit alimentaire stochastique en variable structurelle, il est donc utile de penser en termes de valeur de référence.

Disons que nous sommes deux populations d’agriculteurs. Pour travailler dans les champs, il faut beaucoup d’énergie. Disons que la norme calorique est établie à 3000 kcal par jour. Dans l’une de ces deux populations, le déficit alimentaire est recensé, comme moyenne stochastique, au niveau de 160 kcal par jour par personne. La seconde de deux populations ne registre aucun déficit alimentaire. Celle avec 160 kcal en manque contient au moins 160/3000 = 5,3% de personnes qui n’ont pas de nutrition suffisante. Je dis « au moins », parce qu’il faudrait enrichir ce calcul par l’inclusion des gens qui absorbent plus de 3000 kcal par jour etc. De toute façon, même ce « au moins 5,3% » veut dire que dans chaque centaine de personnes il y en aura au moins 5 ou 6 qui ne seront pas capables de fournir l’effort nécessaire pour travailler dans les champs comme il faut.

C’est précisément là, l’interprétation structurelle de déficit alimentaire stochastique : cette moyenne se traduit, par des algorithmes qui dépendent du contexte, comme un certain nombre de gens qui ne peuvent pas, faute de nutrition suffisante, participer pleinement dans la vie économique de leur société. Je retourne à mon modèle de monétisation de course technologique et je raisonne en des termes suivants : si en présence de déficit alimentaire supérieur à 109 kilocalories par jour par personne la densité de population cesse d’avoir de l’importance structurelle, cela veut dire que si au moins « 109/ (valeur de référence) = X% de la population » ne mange pas à leur faim, l’urbanisation cesse de vouloir dire « plus ou moins de vélocité de l’argent » et devient une variable aléatoire dans son impact sur la monétisation.

Depuis un peu plus d’une semaine, je retourne systématiquement à la fonction de production, telle qu’elle a été formulée originellement par Charles W. Cobb et Paul H. Douglas[1]. Ce truc-là, ça ne cesse pas de m’étonner. La première source d’étonnement, c’est la façon dont le modèle original a été distordu dans sa signification. Professeur Cobb et professeur Douglas one écrit d’une façon explicite, dans la conclusion de leur article de 1928, que la plus grande faiblesse de leur modèle est sa capacité à capter des changements dans le temps et que l’idéal serait de l’appliquer comme vecteur structurel constant, sans une référence quelconque à la variable « temps ». Cependant, lorsque nous voyons les applications modernes de la fonction de production, c’est précisément pour étudier les changements dans le temps, donc exactement le contexte que les pères-fondateurs de cette théorie jugeaient le moins approprié.

De toute façon, quand j’étudie cet article originel par Charles W. Cobb et Paul H. Douglas, je suis étonné par quelque chose d’autre : leur méthode. J’explique. Dans l’introduction de leur article, Cobb et Douglas annoncent qu’ils veulent tracer une fonction d’accumulation de capital comme facteur de croissance économique et séparer l’accumulation comme facteur distinct du progrès technologique. Bon, c’est une direction valable. Ensuite, ces deux gentlemen introduisent tout à coup, sans aucune explication méthodologique préalable, une formule toute faite qui a la capacité irritante à prédire la production très exactement sur la base d’accumulation. Avec « P » symbolisant, dans leur notation originelle, la production agrégée, ou le PIB, « K » et « L » représentant, respectivement, capital physique et travail en nombre d’heures travaillées par an, ils introduisent un PIB normalisé, qu’ils notent comme « P’ », calculé avec la formule suivante :

P’ = 1,01*L3/4*K1/4

Comme je dis, cette formule, avec ses paramètres est servie toute chaude à la page 151 dans l’article d’origine, sans hors d’œuvre préalables. On a une discussion sur les données empiriques en jeu et tout à coup ‘paf !’, un modèle paramétrique atterrit au milieu du jardin. De plus, le modèle, il marche à la perfection avec les données que Charles W. Cobb et Paul H. Douglas introduisent comme leur référence empirique. Le P’ normalisé colle au P réel comme du Sparadrap.  Ce n’est que dans la suite de leur article que ces deux messieurs expliquent comment ils sont arrivés à ces paramètres précis. Les puissances – « ¾ » pour travail L et « ¼ » pour capital physique – avaient apparemment été calculées comme de premières dérivées des fonctions linéaires du produit final P régressé sur K et L respectivement.

J’ai essayé. Ça ne marche pas. J’ai essayé avec les données d’origine utilisées par Charles W. Cobb et Paul H. Douglas, j’ai essayé avec Penn Tables 9.0 (Feenstra et al. 2015[2]) et ça ne marche pas. Pendant que le coefficient du capital, calculé de cette façon, est bien gentil et tout à fait proche des estimations de 1928, le coefficient du travail se balade dans des eaux inconnues, entre -15 et 28. Si vous essayez d’élever quelle valeur économique que ce soit à la puissance – 15 ou à celle de 28, ça perd tout le sens : il y a trop de multiplication dans le modèle. Un polynôme de 28ème degré, ça a moins de stabilité que l’humeur d’un pitbull enragé.

En revanche, lorsque j’ai essayé de craquer la formule de Cobb et Douglas à ma propre façon, en passant par les logarithmes naturels, ça a marché bien. J’ai testé l’hypothèse que « ln(PIB) = a1*ln(K) + a2*ln(L) + constante résiduelle ». Avec R2 = 0,978, ça semble du solide. Ensuite, j’ai pris les coefficients a1 et a2 comme puissances pour K et L. En plus, j’ai fait un facteur constant avec le nombre d’Euler (environ 2,71828, mais on ne sait jamais, vous savez) élevée à la puissance égale à cette constante résiduelle. C’est là que les surprises commencent. La constante résiduelle de ce modèle s’avère être 0,076. Utilisée comme puissance de la constante e = 2,718649, ça donne 1,078962574, donc très près du paramètre original de Cobb et Douglas. Coïncidence ? Honnêtement, je n’en sais rien, mais ce n’est pas la fin des surprises. Mes puissances pour K et L étaient à peu près l’opposé de celles de Cobb et Douglas. J’ai eu 0,267 pour travail L et 0,728 pour capital K. Tout d’abord, 0,267 + 0,728 = 0,995, donc très près du « 1 » assumé dans la fonction originelle de Cobb et Douglas. Encore une fois : comment ? Je n’en sais rien. De toute façon, j’ai testé, dans Penn Tables 9.0, la validité du modèle:

PIB = (econstante résiduelle)*Ka1*La2

J’ai obtenu une fonction de production qui se comporte d’une façon très similaire à celle de Cobb et Douglas, avec R2 = 0,922. Ça, je peux comprendre. Seulement voilà, j’ai testé l’hypothèse logarithmique « ln(PIB) = a1*ln(K) + a2*ln(L) + constante résiduelle » avec le déficit alimentaire comme variable de contrôle. Dans la plupart de classes de déficit alimentaire, mes paramètres tombent comme dans la population générale, donc à l’opposé de ceux de Cobb et Douglas. La plupart, sauf une classe : entre 0 et 28 kcal par jour par personne de déficit alimentaire. Ici, les paramètres sont 0,724 pour travail L et 0,239 pour capital K : très près de « ¾ » pour travail L et « ¼ » pour capital physique dans la fonction originelle de Cobb et Douglas. En plus, 0,724 + 0,239 = 0,963. Encore, vraiment près de 1. Juste un petit détail qui cloche : quand j’essaie de reconstituer le paramètre général, celui que Cobb et Douglas ont estimé à 1,01, j’obtiens 10,97. Donc, les gens légèrement affamés produisent leur PIB presque exactement comme prédit par Cobb et Douglas, seulement ils en font dix fois plus avec la même quantité des moyens de production.

Alors, je résume. Je prends la fonction originelle de production de Charles W. Cobb et Paul H. Douglas. J’essaie de reconstituer leur preuve d’origine et ça ne marche pas. J’essaie ma propre méthode et cette fois ça marche. J’ai donc une théorie qui marche mais on ne sait pas comment elle fait. J’applique la même approche « leur modèle, leur méthode d’estimation des paramètres » aux données empiriques modernes et ça ne marche pas. J’essaie, en revanche, l’approche « leur modèle, ma méthode d’estimation » et ça marche, seulement ça marche à l’envers. Je contrôle mon univers de recherche avec la variable de déficit alimentaire et dans les populations qui sont légèrement mal nourries, avec un déficit de 0 – 28 kcal par jour par personne, je peux reconstituer presque exactement le modèle initial de de Charles W. Cobb et Paul H. Douglas, seulement c’est un modèle nourri avec des stéroïdes, qui rend dix fois plus qu’il ne devrait rendre. Plus de questions que de réponses. J’aime bien.

Un rappel de routine : je suis en train de jumeler deux versions identiques de mon blog dans deux environnements différents : Blogger ( ) et Word Press ( Mon objectif est de créer in site scientifique et éducatif complet dans l’environnement Word Press, donc je vous serai reconnaissant si vous migrez vers ce dernier et vous y abonniez. Sans vous presser, mollo.

[1] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

[2] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at

Cases of moderate deprivation

A few words from me via You Tube

I intend to continue my research with three strands of ideas. The first is the idea of innovation as collective experimentation and learning, rather than linear progress in terms of productivity. In that context, I would like return to the issue, which I had been developing for a few months, this spring, namely to the role of cryptocurrencies in technological change.  The second direction is that of the production function, as it was formulated, back in the day, by Prof Charles W. Cobb and Prof Paul H. Douglas, in their common work from 1928[1]. I keep reading and rereading their article, together with their source documents, and I can’t help being fascinated by the logical structure those two scientists came up with. The third path is that of innovation being done in two different environments: people wealthy enough not to have any food deficit, on the one hand, and those who starve, with various acuity, on the other hand.

As you might already know from the reading of my earlier posts, I like inverting orders. Thus, taking on the last item – the issue of food deficit in the context of innovation – and making it the first step in all the rest of my research is just fine. Still, continuing with those three strands of ideas means that I want to find connections between them, so as sort of make those three paths converge into one, big theory of whatever it will turn out to be. All this elaborate introduction means, at the bottom line, that I am continuing with the topic, which I already developed in my update from the 10th of August (see or ).

I am returning to a model I built and published this spring, namely that of technological change manifesting itself at the level of monetary systems. First, a few words of explanation and reminder. With the World Bank, you can fish out a statistic called ‘Supply of broad money as % of the GDP’. It is supply of broad money, or ‘M’, divided by the value of real output ‘Q’. Now, this ratio, namely M/Q, happens to be the reciprocal of what the godfather of monetarism, Milton Friedman, used to define as the velocity of money: Q/M. Milton Friedman claimed that the velocity of money is a deeply structural variable, it determines the demand for money in the given economy, and we can assume it to be basically constant. As we invert the statistic provided by the World Bank, and convert it into the velocity of money, it becomes embarrassing: at the scale of the whole global economy, it keeps falling since the 1960ies. That’s life: you invert the way of thinking about something, you convert people into something else, and it becomes embarrassing. Anyway, deeper exploration of data shows a consistent decrease in the velocity of money in emerging markets and developing economies, whilst it stays more or less stable (well, oscillating around a more or less horizontal trend) in the developed economies.

I had that idea that the increasing monetization of the global economy could result from increasingly fast a technological change: we are entrepreneurs, and the faster we have to amortize our productive assets, the thicker cushion of highly liquid, financial assets we tend to maintain in our balance sheets. I formalized that idea in an article, the full version of which you can find by clicking this link . I decided to get back to my quantitative model from that article and to insert food deficit as control variable, just to see what happens. That seeing what happens is basically consistent with my latest findings, namely that the functioning of the monetary system is important for alleviating the deficit of food.

That basic model I decided to get back to unfolds according to the following principles. The variable I am explaining is the velocity of money ‘V’, or output divided by the supply of money. I am testing the hypothesis that ‘V’ is being shaped by the pace of technological change, expressed as the ratio of aggregate depreciation in fixed assets, per million inhabitants, or ‘DeprPop’. Additionally, there is that variable of resident patent applications per million people, or ‘PatappPop’. To that, I add one factor of scale, namely the Gross Domestic Product (GDP), and one structural factor in the form of density in population (DensPop). In my scientific clemency, I allow the explained variable V to have some residual play, independent from explanatory variables. Anyway, I squeeze all that company down to their natural logarithms, and I get this model:

ln(V) = a1*ln(GDP) + a2*ln(DeprPop) + a3*ln(PatappPop) + a4*ln(DensPop) + Residual

Now, I take my compound database, essentially standing on Penn Tables 9.0 (Feenstra et al. 2015[2]), with additional variables stuck to it, and I test the model. In the whole sample of all valid observations, food deficit or not, I get n = 2 238 of those ‘country – year’ records, and a coefficient of determination is R2 = 0,409. The individual coefficients look like that:

variable coefficient std. error t-statistic p-value
ln(GDP) -0,077 0,008 -9,989 0,000
ln(DeprPop) -0,269 0,016 -16,917 0,000
ln(PatappPop) 0,015 0,007 2,044 0,041
ln(DensPop) -0,102 0,006 -16,299 0,000
Constant residual 3,939 0,122 32,202 0,000

OK, that was the reminder. Now, let’s drop the depth of food deficit into this sauce. First, I go to cases of the most severe food deficit, between 744 and 251 kilocalories a day per person. First remark that jumps to the eye immediately: those people do not have any patentable inventions on record. I have to remove the variable ‘PatappPop’ from the game and I land with n = 265 observations and virtually no determination: my R2 = 0,040. This is hardly worth to study coefficients in this context, but just for the sake of completeness I am giving it here, below:

variable coefficient std. error t-statistic p-value
ln(GDP) -0,099 0,035 -2,851 0,005
ln(DeprPop) -0,058 0,037 -1,567 0,118
ln(DensPop) 0,011 0,022 0,513 0,608
Constant residual 2,68 0,304 8,821 0,000

First provisional conclusion: the really poor people do not have enough scientific input to spin that wheel into motion. I climb one step up in the ladder of alimentary deprivation, to the category between 250 and 169 kilocalories a day per person. This one is quite cosy in terms of size: just n = 36 observations. Basically, it is at the limit between quantitative and qualitative, and still it yields a nice coefficient of determination: R2 = 0,489. The coefficients of regression come as shown in the table below:

variable coefficient std. error t-statistic p-value
ln(GDP) -0,225 0,072 -3,131 0,004
ln(DeprPop) -0,282 0,091 -3,094 0,004
ln(PatappPop) -0,045 0,069 -0,649 0,521
ln(DensPop) -0,088 0,11 -0,801 0,429
Constant residual 5,686 1,018 5,583 0,000

I keep scaling up that ladder of poverty, and I pass to the interval between 168 and 110 kcal a day missing in the food intake of an average person. I get n = 120 observations, and R2 = 0,767 terms of determination in the model. Remarkable jumps as for explanatory power. Interesting. I feel I will need some time to wrap my mind around it. Anyway, as I pass to the coefficients of regression, I get this:

variable coefficient std. error t-statistic p-value
ln(GDP) -0,283 0,021 -13,495 0,000
ln(DeprPop) -0,268 0,057 -4,722 0,000
ln(PatappPop) -0,038 0,019 -1,998 0,048
ln(DensPop) -0,018 0,037 -0,474 0,637
Constant residual 6,234 0,525 11,867 0,000

Second provisional conclusion: as I am scaling up the poverty ladder, the variable of patent applications per million people slowly gains in importance. For the moment, it manifests as increasing significance of its correlation with the explained variable (velocity of money). I keep climbing, and I pass to the category of food deficit between 109 and 61 kcal a day per person. My sample is made of n = 92 observations, and I hit quite a nice coefficient of determination: R2 = 0,786. The table of coefficients looks like that:

variable coefficient std. error t-statistic p-value
ln(GDP) -0,197 0,034 -5,789 0,000
ln(DeprPop) -0,302 0,073 -4,156 0,000
ln(PatappPop) -0,035 0,024 -1,439 0,154
ln(DensPop) -0,264 0,032 -8,302 0,000
Constant residual 6,538 0,547 11,963 0,000

The coefficients are basically similar, in this category, to those computed before. Nothing to write home about. One thing is really interesting, nonetheless: the importance of density of population. In the overall sample, density of population showed high significance in its correlation with the velocity of money. Yet, with those really food-deprived people in the previously studied classes of food deficit, that correlation remained hardly significant at all. Here, as we pass the threshold of 110 kcal a day per person in terms of food deficit, density of population starts to matter. It becomes truly a structural metric, as if the functioning of the social structure changed somewhere around this level of deprivation in food.

I climb up. The next class is between 60 and 28 kcal a day per person. I have n = 121 observations and R2 = 0,328. Interesting: in previous classes, the explanatory power of the model grew as the food deficit got shallower. Now, the pattern inverts: the model loses a lot of its power. The coefficients are to find in the table below:

variable coefficient std. error t-statistic p-value
ln(GDP) 0,159 0,046 3,445 0,001
ln(DeprPop) -0,78 0,116 -6,739 0,000
ln(PatappPop) 0,023 0,037 0,619 0,537
ln(DensPop) -0,166 0,064 -2,609 0,010
Constant residual 4,592 0,694 6,612 0,000

Another interesting observation to make: this particular class of food deficit seems to be the only one, where the scale factor, namely Gross Domestic Product, appears with a positive sign, i.e. it contributes to increasing the velocity of money. In all the other tests, it has a negative sign. Another puzzle to solve. Cool! I go up: between 28 and 0 kcal a day missing per person. Size: n = 140. The point of doing regression: questionable. The coefficient of determination is R2 = 0.209, and as for the significance to find in individual correlations, there is hardly any. You will see by yourselves in the table below:

variable coefficient std. error t-statistic p-value
ln(GDP) -0,013 0,087 -0,148 0,883
ln(DeprPop) -0,048 0,069 -0,705 0,482
ln(PatappPop) 0,022 0,043 0,51 0,611
ln(DensPop) -0,203 0,066 -3,079 0,003
Constant residual 1,837 0,998 1,841 0,068

I remember that in this particular class of food deprivation, I intuitively guessed a lot of internal disparity, as I measured the coefficient of variability in the ratio of patent applications per one million people. It seems to be confirmed here. This particular class of countries seems to contain a lot of local idiosyncrasies. Another cool puzzle to solve.

Now, I switch to the wealthy ones, among whom I have the luck to live and write those lines: no food deficit recorded. My sample is n = 1 726 observations, this time, and it lands with an acceptable determination in the model: R2 = 0,445. Correlations are straight as rain. All the explanatory variables hit a significance p < 0,001. Just as if getting rid of poor, undernourished people suddenly made science simpler to practice. See the table of coefficients:

variable coefficient std. error t-statistic p-value
ln(GDP) -0,043 0,008 -5,238 0,000
ln(DeprPop) -0,316 0,018 -17,229 0,000
ln(PatappPop) 0,035 0,01 3,524 0,000
ln(DensPop) -0,092 0,007 -13,776 0,000
Constant residual 3,737 0,134 27,874 0,000

Now, time to get to the general point. What I think I have demonstrated is that the level of food deprivation matters for the way that my model works. In other words: the economic system, and, logically, the whole social structure, work differently according to the relative place of the given population in the ladder of that most abject poverty, measured by hunger. Another general conclusion emerges: there is a certain level of poverty, where people seem to make the most out of technological change. Depending on the kind of test I am using, it is either below 28 kcal per person per day (my previous post on the topic), or between 169 and 61 kcal a day per person (this time). There is some kind of social force, which I will have to put a label on but it still has to wait and crystallize, and which appears in these particular cases of moderate deprivation. This force seems to disappear in wealthy populations, to the benefit of steel-hard coherence in the model.

[1] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

[2] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at

Un peu de parallélisme avec un organisme vivant

Mon éditorial d’aujourd’hui, sur You Tube

Dans les sciences sociales, beaucoup dépend du point de vue qu’on adopte. « Eh ben oui, c’est évident », dirait Milton Friedman, « Tu explores et tu conclus sur la base d’une hypothèse, toujours. Même si tu n’en as pas formulé une explicitement, t’en a une dans ta tête, quelque part. Tu cherches des trucs que tu sais tu devrais chercher, pour réduire la dissonance cognitive engendrée par la présence d’hypothèses dans ton esprit. Une hypothèse, c’est comme une question que tu as transformée en une énonciation avant de finir d’y répondre. C’est pour ça qu’il vaut mieux se rendre compte consciemment de nos hypothèses »

Ce que j’ai dans l’esprit, moi, c’est l’idée générale d’apprentissage collectif par l’expérimentation collective. Au sens plus large, quand je regarde les changements sociaux et technologiques dans l’économie mondiale, j’ai presque toujours une association d’idées avec le concept d’intelligence collective. Quand je lis les dernières nouvelles du front de combat que professeur Jordan Peterson, de l’université de Toronto, mène contre les postmodernistes ainsi que contre l’idée de pronoms transgenres, je me demande toujours : « Et si toute cette situation, apparemment idiote, était une manifestation d’intelligence collective qui s’est mise au travail pour trouver une solution ? Et si ce que cette intelligence collective essaie de faire était la solution d’un problème dont nous ne nous rendons même pas compte ? ». J’ai un peu les mêmes réflexions quand je regarde les combats épiques – et purement verbaux, heureusement – entre les trumpistes et les anti-trumpistes aux Etats-Unis ou entre la gauche globaliste et la droite nationaliste dans mon propre pays, la Pologne. J’ai l’impression que les comportements qui semblent franchement cons à première vue pourraient bien être une manifestation d’une expérimentation collective et d’un apprentissage collectif par une intelligence collective.

Bon, il serait peut-être bon que je clarifie mes idées un peu. Je procède par l’ordre de mes impressions, sans essayer, pour le moment, de créer une structure théorique solide. Je me souviens d’avoir lu, chez Orhan Pamuk, l’écrivain Turque honoré avec le Prix Nobel en littérature, que les gens de l’Occident souffrent d’une incompréhension fondamentale eu égard au jeu d’échecs. Dans l’Occident, nous interprétons les échecs comme une guerre simulée, pendant que l’idée originale de ce jeu – selon Orhan Pamuk – est de représenter le fonctionnement de l’esprit humain. Quoi qu’on n’essaie de faire, on a trois mouvements de base – droit devant, en diagonale ou bien en courbe du cavalier (trois pas en avant, un de côté) – plus une hiérarchie quant au pouvoir d’action : le roi, le pion et le cavalier ont une rangée limitée, pendant que la reine, le fou et la tour peuvent aller aussi loin qu’ils veulent. Quoi qui se passe, sur l’échiquier, il y a toujours deux ensembles qui font un choix répété, en séquence, entre ces trois mouvements, dans ces deux rangées d’action. Le talent du joueur d’échecs se voie par sa capacité à soumettre la séquence de ces mouvements simples à un objectif stratégique et à minimiser l’incidence des mouvements purement réactifs vis à vis ceux de l’adversaire ainsi que de mouvements illogiques, faits juste pour faire quelque chose, sans même une tactique momentanée pour les justifier.

Lorsque nous mettons en place de nouvelles institutions dans notre société – c’est-à-dire des nouvelles composantes de langage, des lois ou des coutumes nouvelles, des nouvelles hiérarchies ou de nouveaux réseaux – nous avons, comme collectivité, une gamme assez restreinte des moyens d’action. On peut redéfinir et redistribuer les rôles sociaux, on peut redéfinir les frontières entre les groupes sociaux et on peut se pencher sur les mécanismes d’appropriation de ressources. C’est à peu près tout. Si nous regardons la société comme une structure, les changements structurels de base sont ceux-ci : rôles, identité des groupes, accès aux ressources. Par-dessus l’arrangement courant de ces trois éléments, on crée une culture verbale qui a pour but de faire cet arrangement intelligible et communicable. Tout comme les mouvements de base du jeu d’échecs, les trois réarrangements de base dans la structure sociale – rôles, identité de groupes, accès aux ressources – peuvent être plus ou moins cohérents par rapport à une stratégie. Le « plus ou moins » peut s’étendre, en fait, d’une absence complète de cohérence stratégique, à travers des séquences cohérentes comme tactiques, sans qu’une logique de long terme soit visible, jusqu’aux réarrangements sociaux marqués par une cohérence stratégique profonde.

Le jeu d’échecs nous apprend encore une chose : dès qu’il y a plus d’un cerveau dans la combine, même une stratégie apparemment parfaite peut s’avérer inefficace, de même qu’une séquence aléatoire et peu cohérente peut mener à la victoire. A l’échelle de la société entière, cela peut se traduire comme une impossibilité de fait de construire une stratégie parfaitement cohérente : comme des séquences nouvelles des mouvements sont initialisées tout le temps, chaque stratégie perd en cohérence à mesure que des stratégies alternatives soient déployées par d’autres agents sociaux.

Bon, mais j’en étais au professeur Jordan Peterson de l’université de Toronto et sa croisade contre l’unicorne transgenre introduit dans les programmes éducatifs d’écoles de province d’Ontario. Professeur Peterson y voit un danger. Sincèrement, moi aussi je vois un danger dans une imposition, forcée par la loi, sous peine d’amende, d’utiliser certains pronoms (peu importe lesquels) au lieu d’autres. Néanmoins, quand le regarde toute cette situation au Canada dans une autre perspective, je vois une société qui expérimente avec l’un des outils fondamentaux de construction sociale, c’est-à-dire avec l’identité de groupe. Tout ce langage d’oppression et de la nécessité de la combattre, même si, parfois, il semble un peu schizophrène, est comme une sorte d’expérience collective, basée sur l’hypothèse générale que si on change quelque chose dans le système d’identités des groupes, on peut obtenir un ordre social différent et peut-être meilleur.

Il y a un phénomène intéressant dans le domaine que je suis en train d’étudier maintenant, dans le cadre de mon contrat de recherche pour cette année, c’est-à-dire l’innovation. Le phénomène consiste dans une disparité croissante de la génération d’idées, à travers l’économie mondiale. Dans l’étude économique sur l’innovation, l’une des mesures de base quant à l’intensité des changements technologiques est le coefficient du nombre des demandes de brevet par un million d’habitants. J’ai utilisé les données de la Banque Mondiale pour calculer la moyenne de cette variable, ainsi que sa variance, à travers les différents pays du monde, dans les années consécutives de la période 1960 – 2014. Le fichier Excel correspondant est à trouver sous ce lien hypertexte-ci. Ce que vous pourrez constater, c’est qu’à un certain moment, aux alentours de l’année 1990, la variabilité de la distribution géographique de ce coefficient avait commencée à croître visiblement, et ça continue de se diversifier. En d’autres mots : notre civilisation, à l’échelle globale, devient de plus en plus diversifiée dans la capacité locale de générer des inventions brevetables. Une invention brevetable c’est simplement une idée avec du capital à l’appui. Le monde se diversifie de plus en plus dans sa capacité de générer des idées qui, à leur tour, se gagnent le support capitaliste. Des pôles d’innovation se forment.

Il y a deux remarques importantes à faire quant à cette polarisation. Premièrement, les sciences physiques sont plutôt claires sur ce point-là : une polarisation croissante témoigne d’une accumulation d’énergie dans le système. C’est comme si de plus en plus d’énergie intellectuelle était présente dans la société humaine, et l’énergie, ça ne se dépense pas à la légère : il doit y avoir une bonne raison pour qu’une civilisation entière se remue les méninges. Précisément, quand on parle des raisons, il y a une deuxième remarque à propos de ce coefficient de demandes de brevet par un million d’habitants : sa disparité spatiale a commencé à croître, donc la polarisation du système a commencé à s’accentuer, donc l’énergie intellectuelle en jeu a commencé à s’accumuler, aux alentours de 1990, c’est-à-dire au moment-même quand la croissance de la population des migrants dans le monde a commencé à croître beaucoup plus vite que la population générale. Quant à cette dernière constatation, vous pouvez trouver du matériel empirique dans ce fichier Excel ici .

En d’autres mots, deux grand moteurs de changement structurel dans notre civilisation se sont mis en marche, à cadence accélérée, vers 1990 : les migrations et la génération du capital intellectuel. Comme civilisation, nous avons commencé à expérimenter avec notre propre structure. Hier, j’ai regardé une interview avec docteur Andy Galpin , un physiologiste de sport, qui fait une distinction intéressante dans les stratégies d’entrainement. Il distingue entre l’optimisation et l’adaptation. L’optimisation consiste à aligner toutes nos ressources physiologiques pour atteindre un objectif spécifique, par exemple une médaille olympique, tandis que l’adaptation est une exposition consciente à des conditions externes atypiques – comme un type radicalement différent d’effort physique, jeûne, climat différent – pour développer notre capacité d’adaptation en tant que telle. Docteur Galpin affirme que l’optimisation et l’adaptation sont les deux mécanismes fondamentaux d’apprentissage au niveau physiologique dans notre organisme. Comme matière vivante, nous suivons une séquence d’adaptation et d’optimisation, et les proportions entre les deux dépendent surtout des facteurs exogènes. Quand l’environnement est stable, notre organisme essaie d’optimiser ses fonctions. Lorsqu’il y a du nouveau, au niveau physiologique, notre corps passe en mode « adaptation » et les priorités changent : au lieu de développer des stratégies optimales, notre organisme essaie surtout de développer des stratégies alternatives.

Dans les sciences sociales, il y a cette trace très nette de parallélisme avec un organisme vivant. C’est pratiquement le fondement-même d’utilitarisme social qui, à son tour, est à la base des sciences économiques. Bien sûr, il faut se garder des parallèles trop faciles, néanmoins cette piste à sa logique qui tient le coup. On peut se demander si les changements sociaux que nous pouvons observer dans le monde, même s’ils semblent stupides et incohérents à première vue, ne sont pas, par hasard, la manifestation des tentatives intensifiées de mettre au point une civilisation nouvelle.

Everything even remotely economic

My editorial

Back to my work on innovation, I am exploring a new, interesting point of view. What if we perceived technological change and innovation as collective experimentation under uncertainty, an experimentation that we, as a species, are becoming more and more proficient at?  Interesting path to follow. It has many branches into various fields of research, like games theory, for example. The curious ape in me likes branches. They allow it to dangle over problems and having an aerial view. The view involves my internal happy bulldog rummaging in the maths of the question at hand, and my internal monk, the one with the Ockham’s razor, fending the bulldog away from the most vulnerable assumptions.

One of the branches that my ape can see almost immediately is that of incentives. Why do people figure out things, at all? First, because they can, and then because they’d better, under the penalty of landing waist deep in shit. I think that both incentives, namely ‘I can’ and ‘I need to’ sum up very much to the same, on the long run. We can do things that we learn how to do it, and we learn things that we’d better learn if we want our DNA to stay in the game, and if such is our desire, we’d better not starve to death. One of the most essential things that we have historically developed the capacity of learning about is how to get our food. There is that quite cruel statistic published by the World Bank, the depth of food deficit. It indicates the amount of calories needed to lift the undernourished from their status, everything else being constant. As the definition of that variable states: ‘The average intensity of food deprivation of the undernourished, estimated as the difference between the average dietary energy requirement and the average dietary energy consumption of the undernourished population (food-deprived), is multiplied by the number of undernourished to provide an estimate of the total food deficit in the country, which is then normalized by the total population’.

I have already made reference to this statistic in one of my recent updates (see ). This time, I am coming back with the whole apparatus. I attach this variable, as reported by the World Bank, to my compound database made of Penn Tables 9.0 (Feenstra et al. 2015[1]), as well as of other data from the World Bank. My curious ape swings on a further branch and asks: ‘What does innovation and technological progress look like in countries where people still starve? How different is it from those wealthy enough for not worrying so much about food?’. Right you are, ape. This is a good question to ask, on this Thursday morning. Let’s check.

I made a pivot out of my compound database, summarizing the distribution of key variables pertaining to innovation, across the intervals defined regarding the depth of food deficit. You can grab the Excel file at this link: . A few words of explanation are due as for the contents. The intervals in the depth of food deficit have been defined automatically by my statistical software, namely Wizard for MacOS, version 1.9.9 (222), created by Evan Miller. Those thresholds of food deficit look somehow like sextiles (spelled together!) of the distribution: there is approximately the same number of observations in each interval, namely about 400. The category labelled ‘Missing’ stands for all those country – year observations, where there is no recorded food deficit. In other words, the ‘Missing’ category actually represents those well present in the sample, just eating to their will.

I took three variables, which I consider really pertinent regarding innovation: Total Factor Productivity, the share of the GDP going to the depreciation in fixed assets, and the ratio of resident patent applications per one million people. I start with having a closer look at the latter. In general, people have much more patentable ideas when they starve just slightly, no more than 28 kilocalories per day per person. Those people score over 312 resident patent applications per million inhabitants. Interestingly, those who don’t starve at all score much lower: 168,9 on average. The overall distribution of that variable looks really interesting. Baby, it swings. It swings across the intervals of food deficit, and it swings even more inside those intervals. As the food deficit gets less and less severe, the average number of patent applications per one million people grows, and the distances between those averages tend to grow, too, as well as the variance. In the worst off cases, namely people living in the presence of food deficit above 251 kilocalories a day, on average, that generation of patentable ideas is really low and really predictable. As the situation ameliorates, more ideas get generated and more variability gets into the equation. This kind of input factor to the overall technological change looks really unstable structurally, and, in the same time, highly relevant regarding the possible impact of innovation on food deficit.

I want this blog to have educational value, and so I explain how am I evaluating relevance in this particular case. If you dig into the theory of statistics, and you really mean business, you are likely to dig out something called ‘the law of large numbers’. In short, that law states that the arithmetical difference between averages is highly informative about real differences between populations these averages have been computed in. More arithmetical difference between averages spells more real difference between populations and vice versa. As I am having a look at the distribution in the average number of resident patent applications per capita, distances between different classes of food deficit are really large. The super-high average in the ‘least starving’ category, the one between 28 kilocalories a day and no deficit at all, together with the really wild variance, suggest me that this category could be sliced even finer.

Across all the three factors of innovation, the same interesting pattern sticks out: average values are the highest in the ‘least starving’ category, and not in the not starving at all. Unless I have some bloody malicious imp in my dataset, it gives strong evidence to my general assertion that some light discomfort is next to none in boosting our propensity to figure things out. There is an interesting thing to notice about the intensity of depreciation. I use the ratio of aggregate depreciation as a measure for speed in technological change. It shows, how quickly the established technologies age and what economic effort it requires to provide for their ageing. Interestingly, this variable is maybe the least differentiated of the three, between the classes of food deficit as well as inside those classes. It looks as if the depth of food deficit hardly mattered as for the pace of technological change.

Another interesting remark comes as I look at the distribution of total factor productivity. You remember that on the whole, we have that TFP consistently decreasing, in the global economy, since 1979. You remember, do you? If not, just have a look at this Excel file, here: . Anyway, whilst productivity falls over time, it certainly climbs as more food is around. There is a clear progression of Total Factor Productivity across the different classes of food deficit. Once again, those starving just a little score better than those, who do not starve at all.

Now, my internal ape has spotted another branch to swing its weight on. How does innovation contribute to alleviate that most abject poverty, measured with the amount of food you don’t get? Let’s model, baby. I am stating my most general hypothesis, namely that innovation helps people out of hunger. Mathematically, it means that innovation acts as the opposite of food deficit, or:

Food deficit = a*Innovation     , a < 0

 I have my three measures of innovation: patent applications per one million people (PattApp), the share of aggregate depreciation in the GDP (DeprGDP), and total factor productivity (TFP). I can fit them under that general category ‘Innovation’ in my equation. The next step consists in reminding that anything that happens, happens in a context, and leaves some amount of doubt as for what exactly happened. The context is made of scale and structure. Scale is essentially made of population (Pop), as well as its production function, or: aggregate output (GDP), aggregate amount of fixed capital available (CK), aggregate input of labour (hours worked, or L). Structure is given by: density of population (DensPop), share of government expenditures in the capital stock (Gov_in_CK), the supply of money as % of GDP (Money_in_GDP, or the opposite of velocity in money), and by energy intensity measured in kilograms of oil equivalent consumed annually per capita (Energy Use). The doubt about things that happen is expressed as residual component in the equation. The whole is driven down to natural logarithms, just in order to make those numbers more docile.

In the quite substantial database I start with, only n = 296 observations match all the criteria. On the one hand, this is not much, and still, it could mean they are really well chosen observations. The coefficient of determination is R2 = 0.908, and this is a really good score. My model, as I am testing it here, in front of your eyes, explains almost 91% of the observable variance in food deficit. Now, one remark before we go further. Intuitively, we tend to interpret positive regression coefficients as kind of morally good, and the negative ones as the bad ones. Here, our explained variable is expressed in positive numbers, and the more positive they are, the more fucked are people living in the given time and place. Thus, we have to flip our thinking: in this model, positive coefficients are the bad guys, sort of a team of Famine riders, and the good guys just don’t leave home without their minuses on.

Anyway, the regressed model looks like that:

variable coefficient std. error t-statistic p-value
ln(GDP) -5,892 0,485 -12,146 0,000
ln(Pop) -2,135 0,186 -11,452 0,000
ln(L) 4,265 0,245 17,434 0,000
ln(CK) 3,504 0,332 10,543 0,000
ln(TFP) 1,766 0,335 5,277 0,000
ln(DeprGDP) -1,775 0,206 -8,618 0,000
ln(Gov_in_CK) 0,367 0,11 3,324 0,001
ln(PatApp) -0,147 0,02 -7,406 0,000
ln(Money_in_GDP) 0,253 0,06 4,212 0,000
ln(Energy use) 0,079 0,1 0,796 0,427
ln(DensPop) -0,045 0,031 -1,441 0,151
Constant residual -6,884 1,364 -5,048 0,000

I start the interpretation of my results with the core factors in the game, namely with innovation. What really helps, is the pace of technological change. The heavier the burden of depreciation on the GDP, the lower food deficit we have. Ideas help, too, although not as much. In fact, they help less than one tenth of what depreciation helps. Total Factor Productivity is a bad guy in the model: it is positively correlated with food deficit. Now, the context of the scale, or does size matter? Yes, it does, and, interestingly, it kind of matters in opposite directions. Being a big nation with a big GDP certainly helps in alleviating the deficit of food, but, strangely, having a lot of production factors – capital and labour – acts in the opposite direction. WTH?

Does structure matter? Well, kind of, not really something to inform the government about. Density of population and energy use are hardly relevant, given their high t-statistic. To me, it means that I can have many different cases of food deficit inside a given class of energy use etc. Those two variables can be useful if I want to map the working of other variables: I can use density of population and energy use as independent variables, to construe finer a slicing of my sample. Velocity of money and the share of government spending in the capital stock certainly matter. The higher the velocity of money, the lower the deficit of food. The more government weighs in relation to the available capital stock, the more malnutrition.

Those results are complex, and a bit puzzling. Partially, they confirm my earlier intuitions, namely that quick technological change and high efficiency in the monetary system generally help in everything even remotely economic. Still, other results, as for example that internal contradiction between scale factors, need elucidation. I need some time to wrap my mind around it.

[1] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at

Et si on diversifiait en présence d’une crise et simplifiait quand tout va bien ?

Mon éditorial d’aujourd’hui sur You Tube

Après une journée de balade du côté de l’histoire et des régulations issues par Louis XIV en 1673 à propos d’activité des marchands et négociants, je retourne bien sagement au sujet central de mon contrat de recherche cette année, c’est-à-dire à l’innovation, au progrès technologique ainsi qu’à l’entrepreneuriat. J’essaie de mettre de l’ordre dans les notes que j’ai faites jusqu’à maintenant et de répondre à une question fondamentale : qu’est-ce qu’il y a d’intéressant dans tout ce bazar ? Je recule donc jusqu’en printemps cette année, quand j’avais écrit mon premier article sérieux sur le sujet, en voie de publication dans Journal of Economics Library et que vous pouvez télécharger à cette adresse : . Lorsque je revoie cet article maintenant, avec du recul, l’intuition générale que j’en tire est qu’en vue des données macroéconomiques, dans l’économie mondiale on a plutôt affaire a du changement technologique accéléré qu’au progrès technique au sens strict du terme.

J’explique. Je représente tout changement technologique comme expérimentation sous incertitude. Si vous voulez, j’approche le problème plus du côté des sciences de management que du côté purement économique. Oui, je suis un économiste par doctorat et je devrais peut-être me tenir strictement à la méthodologie des sciences économiques, mais je n’y peux rien : j’y vois des lacunes. Dans les sciences économiques, l’explication la plus connue pour le mécanisme d’innovation est peut-être celle de Joseph Schumpeter : l’innovation, ça commence vraiment à jouer un rôle économique, lorsque ça conduit à la diffusion d’une fonction de production nouvelle, plus productive que celle utilisée avant[1]. Tout le cycle de destruction créative, imaginé par Joseph Schumpeter, réside sur cette assomption, qui, à son tour, est en fait à moitié chemin entre hypothèse et fait scientifique prouvé.

Je commence par examiner de près le chemin intellectuel qui avait conduit Joseph Schumpeter à formuler cette assomption. Il avait démarré avec une définition de la fonction de production, seulement le problème, c’est qu’il n’a pas fourni une définition claire de ce qu’il voulait dire par « fonction de production ». Selon ses propres mots (« Business Cycles », chapitre II), il avait dans l’esprit une « fonction qui lie les quantités de facteurs, comme travail, services d’agents naturels et des moyens de production qui ont été eux-mêmes produits (‘produits intermédiaires’ : matières premières, équipement etc.) à la quantité du produit qu’il est possible de produire à travers chacune parmi un nombre infini de combinaisons possible en vue de cette tâche productive, la pratique technologique et tout l’environnement étant ce qu’ils sont ». C’est bien joli, cette idée, seulement ce n’est pas du tout la fonction de production telle qu’on l’a admis dans la théorie économique après la publication des travaux de Charles W. Cobb et Paul H. Douglas[2]. Ces derniers ont construit, onze ans avant la publication de Schumpeter, une fonction sur la base du facteur travail ainsi que du facteur capital, un point, c’est tout. Pas de biens intermédiaires, pas de facteurs naturels, pas de combinaisons.

La fonction de production dont parle Joseph Schumpeter – avec les biens intermédiaires dans le jeu – trahit quelques similitudes à l’équilibre temporaire de John Maynard Keynes et à sa notion de demande totale, mais à vrai dire, je n’ai trouvé nulle part dans la littérature économique aucune formule quantitative stricte qui correspondrait à cette notion théorique chez Joseph Schumpeter. Schumpeter ne donne point de telle formule non plus. Dans ses « Business Cycles », lorsqu’il étudie le remplacement de technologies obsolètes par des technologies nouvelles (chapitres VII, VIII et IX), il essaie de démontrer que dans chacun des cas la technologie nouvelle était plus productive. Néanmoins, à chaque fois, c’est une sorte d’argumentation à facteurs multiples et si on gratte la surface, ça revient à la constatation que si la technologie nouvelle en question a eu du succès dans le remplacement de son aïeule, elle a dû être plus productive.

Voilà donc qu’on bâtit toute une théorie de progrès technologique sur la base d’une notion qui n’a ni de définition précise ni de représentation mathématique qui tienne. En revanche, les sciences de management nous disent que lorsqu’une entreprise essaie de trouver une application pratique pour une invention, que ce soit une technologie nouvelle tout entière ou simplement une petite modification, apportée à quelque chose de bien connu, il y a toujours une incertitude profonde. De plus, cette incertitude ne décroît pas vraiment avec le temps. Plus nous innovons, plus nos compétiteurs font de même et par conséquent la course technologique accélère, ce qui ajoute de nouveaux facteurs d’incertitude etc. Innovation, telle qu’elle est vécue par les entrepreneurs, est donc loin d’être un chemin bien planifié vers une productivité plus élevée. Bien sûr, parfois ça marche et les nouvelles technologies apportent une hausse de productivité mais l’élément central ici est que nous ne savons jamais d’avance si tel sera bien le résultat.

Voilà donc que j’ai imaginé que le phénomène entier d’innovation, à l’échelle macroéconomique, pourrait s’expliquer comme un apprentissage collectif de changement. Si on prend une perspective historique longue, voilà ce qui apparaît. La mise en place des systèmes d’agriculture et d’alimentation plus ou moins viables, ça nous a pris plus ou moins 9000 ans, à l’échelle de l’espèce humaine entière. Je prends la seconde moitié du Xème siècle comme point de mise en place d’un tel système en Europe. Ensuite, on a eu besoin d’à peu près 600 ans pour atteindre une maîtrise décente d’énergie hydraulique ainsi que celle du vent. Là, on a buté contre l’obstacle de pénurie en matière première de base : le bois. On a donc fait un virage rapide vers l’énergie des carburants fossiles – pétrole, charbon et gaz naturel – et ce virage-là, il a duré moins d’un siècle. Maintenant, nous sommes en train de revenir vers les énergies renouvelables avec une nouvelle base de matières premières, et ça a l’air de brûler les pneus : en cinq ans, le prix des modules photovoltaïques a chuté de 80%. Chaque grande vague de changement technologique a l’air de se passer à peu près huit fois plus vite que la précédente. Ça tombe bien, en fait, parce que voilà, on a un changement climatique à magner, accompagné par une population croissante à nourrir.

De toute façon, mon intuition à moi est que l’innovation dans les méthodes de fabrication de biens c’est quelque chose que nous, bipèdes sans plumes, aimons bien faire et apprenons, comme espèce, à faire de plus en plus vite. Les changements de productivité agrégée pourraient être, en fait, un résultat complétement accidentel de ce jeu. J’ai une piste empirique à suivre, là : durant les 30 dernières années, la descente de productivité s’est accompagnée d’une croissance indéniable dans l’intensité d’invention technologique (toujours plus de demandes de brevet par 1 million de personnes), ainsi que dans le rythme d’amortissement d’actifs productifs. Nous inventons de plus en plus, nous changeons nos technologies de plus en plus vite et apparemment, nous nous fichons éperdument de ce que tout ça donne au niveau de la productivité agrégée.

J’ai aussi une association d’idées beaucoup plus distante, un peu inspirée par ma mise à jour d’hier ( regardez ou bien ). Eh bien hier, j’avais fait une petite fugue hors sujet et je me suis amusé à analyser une ordonnance de Louis XIV de 1673. L’idée qui me vient maintenant, comme un écho distant, est que dans la perspective historique, au moins en Europe, on a eu tendance à diversifier nos hiérarchies sociales lorsque nos grands changements technologiques étaient bien lancés et de simplifier la structure sociale lorsque nos technologies de base, donc celles d’alimentation et de transformation d’énergie, commençaient à s’embourber. Juste par curiosité (peut-être malsaine) je me demande ce qui se passerait si on faisait l’inverse : si on diversifiait nos hiérarchies sociales au temps de crise technologique et les simplifiait quand tout va bien.

[1] Schumpeter, J.A. (1939). Business Cycles. A Theoretical, Historical and Statistical Analysis of the Capitalist Process. McGraw-Hill Book Company

[2] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

Judges and Consuls


My today’s editorial on You Tube

I feel like giving a bit of rest to all that stuff about innovation and production function. Just for a short while. During that short while I am returning to one of my favourite interlocutors, Jacques Savary. In 1675, he published his book, entitled ‘The Perfect Merchant or General Instructions as Regards Commerce’, with Louis Billaine’s publishing house (Second Pillar of the Grand Salle of the Palace, at Grand Cesar), and with the privilege of the King. In his book, Master Savary discusses at length a recent law: the Ordinance of 1673 or Edict of the King Serving as Regulation For The Business of Negociants And Merchants In Retail as well As In Wholesale. This is my own, English translation of the original title in French, namely “ORDONNANCE DE 1673 Édit du roi servant de règlement pour le commerce des négociants et marchands tant en gros qu’en détail”. You can have the full original text of that law at this link:

I am discussing this ordinance in connection with Jacques Savary’s writings because he was reputed to be its co-author. In his book, he boasts about having been asked by the King (Louis the XIV Bourbon) to participate in a panel of experts in charge of preparing a reform of business law.

I like understanding how things work. By education, I am both a lawyer and an economist, so I like understanding how does the business work, as well as the law. I have discovered that looking at things in the opposite order, i.e. opposite to the officially presented one, helps my understanding and my ability to find hidden levers and catches in the officially presented logic. When applied to a legal act, this approach of mine sumps up, quite simply, to reading the document in the opposite order: I start with the last section and I advance, progressively, towards the beginning. I found out that things left for being discussed at the end of a legal act are usually the most pivotal patterns of social action in the whole legal structure under discussion. It looks almost as if most legislators were leaving the best bits for the dessert.

In this precise case, the dessert consists in Section XII, or ‘Of The Jurisdiction of Consuls’. In this section, the prerogatives of Judges and Consuls are discussed. The interesting thing here is that the title of the section refers to Consults, but each particular provision uses exactly this expression: ‘Judges and Consuls’. It looks as if there were two distinct categories of officers, and as if the ordinance in question attempted to bring their actions and jurisdictions over a common denominator. Interestingly, in some provisions of section XII, those Judges and Consuls are opposed to a category called ‘ordinary judges’. A quick glance at the contents of the section informs me that those guys, Judges and Consuls, were already in office at the moment of enacting the ordinance. The law I am discussing attempts to put order in their activity, without creating the institution as such.

Now, I am reviewing the list of prerogatives those Judges and Consuls were supposed to have. As I started with the last section of the legal act, I am starting from the last disposition of the last section. This is article 18, which refers to subpoena and summonses issued by Judges and Consuls. That means those guys were entitled to force people to come to court. This is not modern business arbitrage: we are talking about regular judicial power. That ordinance of 23rd of March, 1673, puts order in much more than commercial activities: it makes part of a larger attempt to put order in adjudication. I can only guess, by that categorization into ‘Judges’, ‘Consuls’, and ‘ordinary judges’ that at the time, many parallel structures of adjudication were coexisting, maybe even competing against each other as for their prerogatives. Judges and Consuls seem to have been victorious in at least some of this general competition for judicial power. Article 15, in the same section XII, says ‘We declare null all ordinances, commissions, mandates for summoning, and summonses issued by consequence in front of our judges and those of lords, which would revoke those issued in front of Judges and Consuls. We forbid, under the sanction of nullity, to overrule or suspend procedures and prosecutions undertaken in the execution of their verdicts, as well as to bar the way to proceeding in front of them. We want that, on the grounds of the present ordinance, they are executed, and that parties who will have presented their requests to overrule, revoke, suspend or defend the execution of their judgments, the prosecutors who will have signed such requests, the bailiffs or sergeants who will have notify about such requests, be sentenced each to fifty livres of penalty, half to the benefit of the party, half to the benefit of the poor, and those penalties will not be subject to markdown nor rebate; regarding the payment of which the party, the prosecutors and the sergeants are constrained in solidarity’.

That article 15 is a real treat, for institutional analysis. Following my upside down way of thinking, once again, I can see that at the moment of issuing this ordinance, the legal system in France must have been like tons of fun. If anyone was fined, they could argue for marking down the penalty or at least for having a rebate on it. They could claim they are liable to pay just a part of the fine (I did not do it as such; I was just watching them doing!). If a fine was adjudicated, the adjudicating body had to precise, whose benefit will this money contribute to. You could talk and cheat your way through the legal system by playing various categories of officers – bailiffs, sergeants, prosecutors, lord’s judges, royal judges, Judges and Consuls – against each other. At least some of them had the capacity to overrule, revoke, or suspend the decisions of others. This is why we, the King of France, had to put some order in that mess.

Francois Braudel, in his wonderful book entitled ‘Civilisation and Capitalism’, stated that the end of the 17th century – so the grand theatre where this ordinance happens – was precisely the moment when the judicial branch of government, in the more or less modern sense of the term, started to emerge. A whole class of professional lawyers was already established, at the time. An interesting mechanism of inverted entropy put itself in motion. The large class of professional lawyers emerged in dynamic loop with the creation of various tribunals, arbiters, sheriffs and whatnot. At the time, the concept of ‘jurisdiction’ apparently meant something like ‘as much adjudicating power you can grab and get away with it’. The more fun in the system, the greater need for professionals to handle it. The more professionals in the game, the greater market for their services they need etc. Overlapping jurisdictions were far from being as embarrassing as they are seen today: overlapping my judicial power with someone else’s was all the juice and all the fun of doing justice.

That was a general trait of the social order, which today we call ‘feudal’: lots of fun as various hierarchies overlapped and competed against each other. Right, those lots of fun could mean, quite frequently, paid assassins disguised in regular soldiers and pretending to fend off the King’s mousquetaires disguised in paid assassins. This is why that strange chaos, emerging out of a frantic push towards creating rivalling orders, had to be simplified. Absolute monarchy came as such a simplification. This is interesting to study how that absolute monarchy, so vilified in the propaganda by early revolutionaries, laid the actual foundations of what we know as modern constitutional state. Constitutional states work because constitutional orders work, and constitutional orders are based, in turn, on a very rigorously observed, institutional hierarchy, monopolistic in its prerogatives. If we put democratic institutions, like parliamentary vote, in the context of overlapping hierarchies and jurisdictions practiced in the feudal world, it would simply not work. Parliamentary votes have power because, and just as long as there is a monopolistic hierarchy of enforcement, created under absolute monarchies.

Anyway, the Sun King (yes, it was Louis the XIV) seems to have had great trust in the institution of Judges and Consuls. He seems to have been willing to give them a lot of powers regarding business law, and thus to forward his plan of putting some order in the chaos of the judicial system. Articles 13 and 14, in the same section XII, give an interesting picture of that royal will. Article 13 says that Judges and Consuls, on the request from the office of the King or from its palace, have the power to adjudicate on any request or procedure contesting the jurisdiction of other officers, ordinary judges included, even if said request regards an earlier privilege from the King. It seems that those Judges and Consuls are being promoted to the position of super-arbiters in the legal system.

Still, Article 14 is even more interesting, and it is so intriguing in its phrasing that I am copying here its original wording in French, for you to judge if I grasped well the meaning: ‘Seront tenus néanmoins, si la connaissance ne leur appartient pas de déférer au déclinatoire, à l’appel d’incompétence, à la prise à partie et au renvoi’. I tried to interpret this article with the help of modern legal doctrine in French, and I can tell you, it is bloody hard. It looks like a 17th century version of Catch 22. As far as I can understand it, the meaning of article 14 is the following: if a Judge or Consul does not have the jurisdiction to overrule a procedure against their jurisdiction, they will be subject to judgment on their competence to adjudicate. More questions than answers, really. Who decides whether the given Judge or Consul has the power to overrule a procedure against their authority? How this power is being evaluated? What we have here is an interesting piece of nothingness, right where we could expect granite-hard rules of competence. Obviously, the Sun King wanted to put some order in the judicial system, but he left some security valves in the new structure, just to allow the releasing of extra pressure, inevitably created by that new order.

Other interesting limitations to the powers of Judges and Consuls come in articles 3 and 6 of the same section XII. Article 3, in connection with article 2, states the jurisdiction of Judges and Consuls over the bills of exchange. Before I go further, a bit of commentary. Bills of exchange, at the time, made a monetary system equivalent to what today we know as account money, together with a big part of the stock market, as well as the market of futures contracts. At the end of the 17th century, bills of exchange were a universal instrument for transferring capital and settling the accounts. Circulation in bills of exchange was commonly made through recognition and endorsement, which, in practice, amounted to signing your name on the bill that passed through your hands (your business), and, subsequently, admitting (or not) that said signature is legitimate and valid. The practical problem with endorsement was that with many signatures on the same bill, together with accompanying remarks in the lines of ‘recognise up to the amount of…’, it was bloody complicated to reconstruct the chain of claims. For example, if you wanted to kind of sneak through the system, it came quite handy to endorse by signature, whilst writing the date of your signature kind of a few inches away, so as it looks signed before someone else. This detail alone provoked disputes about the timeline of endorsement.

Now, in that general context, article 2 of section XII, in the royal ordinance of March 23rd, 1673, states that Judges and Consuls have jurisdiction over bills of exchange between merchants and negociants, or those, in which merchants or negociants are the obliged party, as well as the letters of exchange and transfers of money between places. Article 3, in this general context, comes with an interesting limitation: ‘We forbid them, nevertheless, to adjudicate on bills of exchange between private individuals, other than merchants or negociants, or where a merchant or negociant is not obliged whatsoever. We want the parties to refer to ordinary judges, just as regarding simple promises’.

We, the King of France, want those Judges and Consuls to be busy just with the type of matters they are entitled to meddle with, and we don’t want their schedules to be filled with other types of cases. This is clear and sensible. Still, one tiny little Catch 22 pokes its head out of that wording. There visibly was a whole class of bills of exchange, where merchants or negociants were just the obliged party, the passive one, without having any corresponding claims on other classes of people. Bills of exchange with obliged merchants and negociants involved entered into the jurisdiction of Judges and Consuls, and, in the absence of such involvement, Judges and Consuls were basically off the case. Still, I saw examples of those bills of exchange, and I can tell you one thing: in all that jungle of endorsements, remarks and clauses to endorsements and whatnot written on those bills, there was a whole investigation to carry out just in order to establish the persons involved as obligators. Question: who assessed, whether a merchant or negociant is involved in the chain of endorsement regarding a specific bill? How was it being assessed?

One final remark. As for the term ‘negociant’, if it sounds strange, you can refer to one of my earlier posts, the one you can find at .

Significatif et logique et néanmoins différent des rêves


Mon éditorial sur You Tube

Mon esprit navigue entre les rochers de la théorie de production et de productivité. Je veux comprendre, je veux dire : vraiment COMPRENDRE, le phénomène de productivité décroissante dans l’économie mondiale. Comme je regarde les choses maintenant, j’ai deux pistes intéressantes à suivre. Les deux premières réfèrent à la distinction fondamentale faite à la source-même de la théorie que nous appelons aujourd’hui « la fonction de production de Cobb – Douglas ». Cette fonction est quelque chose que tous les manuels d’économie servent comme hors d’œuvre, avant de passer plus loin. Dans ma mise à jour d’hier, en anglais, j’ai déjà commencé à étudier le contenu de cette théorie à sa source-même, dans l’article original publié en 1928 par les professeurs : Charles W. Cobb et Paul H. Douglas[1]. Vous pouvez suivre mes réflexions initiales sur cet article ici ou bien à travers . Une des distinctions fondamentales que Charles W. Cobb et Paul H. Douglas introduisent au tout début de leur article est celle entre la croissance de production due à la croissance de productivité – donc au progrès technologique – d’une part, et celle due à un apport accru des facteurs de production. Ça, c’est ma première piste. La deuxième réfère à ma propre recherche sur l’intensité d’amortissement d’actifs fixes considérée comme mesure de vitesse de changement technologique.

Commençons par le début, donc par les distinctions initiales faites par Charles W. Cobb et Paul H. Douglas. Tout d’abord, pour pouvoir passer rapidement entre la théorie et les tests empiriques, je transforme l’équation de base de la fonction de production. Dans sa version théorique, la fonction de production de Cobb – Douglas est exprimée par l’équation suivante :

Q = Ka*Lß*A

où « Q » est, bien sûr, le produit final, « K » est l’apport de capital physique, « a » est son coefficient de rendement, « L » veut dire l’apport de travail, « ß » est le rendement du travail, et le « A » est tout ce que vous voulez d’autre et c’est appelé élégamment « facteur de coordination ».

Pour faciliter des vérifications empiriques rapides, je transforme cette fonction en un problème linéaire, en utilisant les logarithmes naturels :

ln(Q) = c1*ln(K) + c2*ln(L) + Composante résiduelle

Dans cette équation transformée, je sépare l’apport des facteurs de production du tout le reste. Je leur attribue des coefficients linéaires « c1 » et « c2 » et tous les facteurs de productivité à proprement dite sont groupés dans la « composante résiduelle » de l’équation. Comme vous pouvez le constater, dans les sciences économiques, c’est comme dans une famille respectable : lorsque quelqu’un se comporte d’une façon pas vraiment compréhensible, on l’isole. C’est le cas de la productivité dans mon problème : je ne comprends pas vraiment sa mécanique, donc je la mets dans une camisole de force, bien isolée du reste de l’équation par le signe confortable d’addition.

J’utilise la base de données Penn Tables 9.0 (Feenstra et al. 2015[2]) comme source principale d’informations. Elle contient deux mesures alternatives du Produit Intérieur Brut (PIB) : côté production, appelée ‘rgdpo’, et côté consommation finale, servi sous l’acronyme ‘rgdpe’. Intuitivement, je sens que pour parler production et productivité il vaut mieux utiliser le PIB estimé côté production. Quant au côté droit de l’équation, j’ai deux mesures toute faite de capital physique. L’une, appelée « rkna », mesure le stock de capital physique en dollars US, aux prix constants 2011. La deuxième, désignée comme « ck », corrige la première avec la parité courante du pouvoir d’achat. J’avais déjà testé les deux mesures dans ma recherche et la deuxième, celle corrigée avec le pouvoir d’achat courant, semble être moins exposée aux fluctuations des prix. Je peux risquer une assomption que la mesure « ck » est plus proche de ce que je pourrais appeler l’utilité objective d’actifs fixes. Je décide donc, pour le moment, de me concentrer sur « ck » comme ma mesure de capital. Par la suite, je pourrais revenir à cette distinction particulière et tester mes équations avec « rkna ».

Quant à la contribution du facteur travail, Penn Tables 9.0 fournissent deux mesures : le nombre des personnes employées, ou « emp », ainsi que le nombre moyen d’heures travaillées par une personne, ou « avh ». Logiquement, L = emp*avh. Finalement, je teste donc empiriquement le modèle suivant :

ln(rgdpo) = c1*ln(ck) + c2*ln(emp) + c3*ln(avh) + Composante résiduelle

Bon, je teste. J’ai n = 3 319 observations « pays – année », et un coefficient de détermination égal à R2 = 0,979. C’est bien respectable, comme exactitude te prédiction. Allons voir le côté droit de l’équation. Le voilà :

ln(rgdpo) = 0,687*ln(ck), erreur standard (0,007), p-valeur < 0,001


           0,306*ln(emp), erreur standard (0,006), p-valeur < 0,001


-0,241*ln(avh), erreur standard (0,049), p-valeur < 0,001


Composante résiduelle = 4,395, erreur standard (0,426), p-valeur < 0,001

Maintenant, pour être cent pour cent sage et prévoyant comme scientifique, j’explore les alentours de cette équation. Les alentours en question, ils consistent, d’une part, en une hypothèse nulle par rapport à la productivité. Je teste donc une équation sans composante résiduelle, ou toute différence temporelle ou spatiale entre les cas individuels de PIB est expliquée uniquement par des différences correspondantes d’apport des moyens de production, sans se casser la tête avec la composante résiduelle, ainsi qu’avec la productivité cachée dedans. D’autre part, mes alentours sont faits de la stabilité (ou instabilité) structurelle de mes variables. J’ai une façon un peu rudimentaire d’appréhender la stabilité structurelle. Je suis un gars simple, quoi. C’est peut-être ça qui me fait faire de la science. Si j’ai deux dimensions dans ma base de données – temps et espace – j’étends mes données sur l’axe du temps et j’étudie la variabilité de leur distribution entre pays, chaque année séparément, en divisant la racine carrée de variance entre pays par la valeur moyenne pour tous les pays. La structure dont la stabilité je teste de cette façon c’est la structure géographie. Structure géographique n’est pas tout, vous direz. Tout à fait, encore que l’histoire nous apprend que quand la géographie change, tout un tas d’autres choses peut changer.

Bon, l’hypothèse nulle d’abord. Je me débarrasse de la composante résiduelle dans l’équation. Avec le même nombre d’observations, donc n = 3 319, j’obtiens un coefficient de détermination égal à R2 = 1,000. C’est un peu louche, ça, parce que ça indique que mon équation est en fait une identité comptable et ça ne devrait pas arriver si les variables ont de l’autonomie. Enfin, regardons ça de plus près :

 ln(rgdpo) = 0,731*ln(ck), erreur standard (0,004), p-valeur < 0,001


                      0,267*ln(emp), erreur standard (0,004), p-valeur < 0,001


              0,271*ln(avh), erreur standard (0,007), p-valeur < 0,001

Au premier coup d’œil, la composante résiduelle dans mon équation de base, ça couvrait surtout des déviations vraiment résiduelles, apparemment causées par des anomalies dans l’influence de rendement individuel par travailleur, donc du nombre d’heures travaillées, en moyenne et par personne. En fait, on pourrait se passer du tout ce bazar de productivité : les différences dans l’apport des moyens de production peuvent expliquer 100% de la variance observée dans le PIB. La mesure de productivité apparaît donc comme une explication de rendement anormalement bas de la part du capital et du travail. Je fais un pivot de la base de données, où je calcule les moyennes et les variances annuelles pour chaque variable, ainsi que pour les composantes résiduelles du PIB, possibles à calculer sur la base de ma première équation linéaire. Je passe tout ça dans un fichier Excel et je place le fichier sur mon disque Google. Voilà ! Vous pouvez le trouver à cette adresse-ci : .

Je peux faire quelques observations à faire à propos de cette stabilité structurelle. En fait, c’est une observation de base, que je pourrais ensuite décomposer à souhait : la chose fondamentale à propos de cette stabilité structurelle, c’est qu’il n’y en a pas. Peut-être, à la rigueur, on pourrait parler de stabilité dans la géographie du PIB, mais dès qu’on passe sur le côté droit de l’équation, tout change. Comme on pouvait l’attendre, c’est la composante résiduelle du PIB qui a le plus de swing. J’ai l’impression qu’il y a des périodes, comme le début des années 1960, ou des 1980, quand la géographie inexpliquée du PIB devenait vraiment importante. Ensuite, la variable d’heures travaillées par personne varie dans un intervalle au moins un ordre de grandeur plus étroit que les autres variables, mais c’est aussi la seule qui démontre une tendance claire à croître dans le temps. De décade en décade, les disparités géographiques quant au temps passé au boulot s’agrandissent.

Bon, temps de résumer. La fonction de production de Cobb – Douglas, comme je l’ai testée dans une forme linéaire assez rudimentaire, est loin d’accomplir les rêves de par Charles W. Cobb et Paul H. Douglas. Si vous prenez la peine de lire leur article, ils voulaient une séparation claire entre la croissance de production à espérer par la suite d’investissement, et celle due aux changements technologiques. Pas vraiment évident, ça, d’après ces calculs que je viens de faire. Ces deux chercheurs, dans la conclusion de leur article, parlent aussi de la nécessité de créer un modèle sans facteur « temps » dedans. Eh bien, ça serait dur, vu l’instabilité structurelle des variables et de la composante résiduelle.

Je fais un dernier test, celui de corrélation entre la composante résiduelle que j’ai obtenue avec mon équation linéaire de base, et la productivité totale des moyens de production, comme données dans Penn Tables 9.0. Le coefficient de corrélation de Pearson entre ces deux-là est de r = 0,644. Significatif et logique et néanmoins différent de 1,00, ce qui est intéressant à suivre.

Je rappelle que je suis en train de jumeler deux blogs dans deux environnements différents : Blogger et Word Press. Vous pouvez donc trouver les mêmes mises à jour sur ainsi que sur .

[1] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

[2] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at