Money essentially doesn’t give a s***

My editorial

I am interpreting my empirical findings about that evolutionary model of technological change. So far, it seems to make a logical structure, all those econometric tests. Yesterday, as I was presenting a research update in French ( see  “L’invention mâle de modèles”), I wanted to test the hypothesis that different social structures yield different selection functions, with different equilibriums between the number of patent applications and the capital invested in fixed assets. I added to my initial model two more variables, which I consider as informative about social structure: the density of population, and the depth of food deficit. In turned out quite interesting, although with no surprises. Higher density of population favours greater a number of patent applications, whilst the food deficit works in the opposite way. In the first case, the corresponding correlation seems to be rock-solid, regarding the significance of the null hypothesis ( p < 0,001). The second structural variable, the depth of food deficit, seems a bit wobbly in its correlation, though. With a significance level p = 0.124, the null hypothesis is dangerously close.

You probably already know that I have three inside of me: the curious ape, the austere monk, and the happy bulldog. Those last days, the bulldog could really have had some fun, with all that quantitative data to rummage through and test. The ape and the monk are sitting now, observing the bulldog running after sparse pieces of data, and they are having a conversation. ‘You know what, ape?’ the monk opens up, ‘I am thinking about how far is the obvious from the truth. Catching my drift, somehow, are you?’. ‘Ooookh’, answers the ape. ‘Sure, you are absolutely right’, continues the monk, ‘When I have cut off the bullshit, with that Ockham’s razor, there is still plenty of knowable things left. Take this case: the model looks nice, on the whole, and still I have some doubts. Aren’t we leaving some truth behind?’. ‘Ooookh, oookh!’, the ape is definitely developing a theoretical stance here, which inspires the monk. ‘Right you are, once again, ape. That significant role of labour compensation, in our evolutionary model, suggests that we could consider labour, not capital, as the set of female organisms, which recombine the genetic code of technologies, transmitted in male patent applications. Good! So we take away capital, put the supply of labour instead, in the model, and we see what happens’.

The monk gets on his feet, eager to start. The ape smiles, taps him gently on the shoulder, and forces him to fold his razor (the Ockham’s razor) back into his pocket. Safety first. The ape points at the bulldog. The monk nods. This is going to be bulldog’s task, too. A bit of play with the data, again. So I start, me with those three in me. I reformulate my basic hypothesis: evolutionary selection of new technologies works as an interaction between a set of female organizations of labour force, and a set of male organisms generating intelligible blueprints of new technologies. First, just as I studied the velocity of capital across patentable inventions, I study now the velocity of labour. I take my database made of Penn Tables 9.0 (Feenstra et al. 2015[1]) and additional data from the World Bank. In the database, I select two variables: ‘emp’ and ‘avh’.  The first one stands for the number of jobs in the economy, the second for the number of hours worked, on average, by one employee in one year. As I multiply those two, so as I compute ‘emp’*’avh’, I get the total supply of labour in one year.

Now, I make a ratio: supply of labour per one resident patent application. This is my velocity of labour across the units of patentable invention. I compute the mean and the variance of this variable, for each year separately. I put it back to back with the mean and the variance of capital ‘ck’ per one patent application. Right here you can download the corresponding Excel spreadsheet from my Google Disc. Interesting things appear. The mean values of those two ratios are significantly correlated: their mutual coefficient of Pearson correlation in moments is r = 0,557779846. Their respective variabilities, or the thing that happens when I divide the square root of variance by the mean, are even more significantly correlated: r = 0,748282791. Those two ratios seem to represent two, inter-correlated equilibriums, which share a common structure in space (variability for each year is variability between countries).  Thus, it would be interesting to follow the logic of the production function, in that evolutionary modelling of mine.

The next thing I do is to play the surgeon. I remove carefully the natural logarithm of physical capital, or ln(ck), from my model, and I put the natural logarithm of labour supply, or ln(emp*avh) instead. I do ceteris paribus, meaning that I leave everything else intact. Like a transplantation. Well, almost ceteris paribus. I have to remove one redundancy, too. The share of labour compensation, in the model I had so far, is clearly correlated with the supply of labour. Stands to reason: the compensation of labour is made of total hours worked multiplied by the average wage per hour. Cool! Organ transplanted, redundancy removed, and the patient seems to be still alive, which is a good thing in the surgery profession. It kicks nicely, with n = 317 valid observations (food deficit sifts away a lot of observations from my database; this is quite a sparse variable), and it yields a nice determination, with R2 = 0,806. Well, well, well, with that new variable instead of the old one, the patient seems even more alive than before. Somehow leaner, though. It happens. Let’s have a look at the parameters:

variable coefficient std. error t-statistic p-value
ln(delta) -1,398 0,433 -3,229 0,001
ln(Energy use (kg of oil equivalent per capita)) 2,133 0,108 19,79 0,000
ln(Density of population (people per sq km)) 0,481 0,077 6,243 0,000
ln(Depth of the food deficit (kilocalories per person per day)) -0,42 0,055 -7,646 0,000
ln(emp × avh) 1,01 0,069 14,649 0,000
constant -24,416 2,091 -11,677 0,000

Interestingly, the supply of labour seems to have jumped in the seat previously occupied by physical capital with almost the same coefficient of regression. Structural variables (i.e. those describing the social structure) keep their bearings, and even seem to gain some gravitas. The depth of food deficit has lost its previous wobbliness in correlation, and displays a proud p < 0,001 in terms of significance. Oh, I forgot to remove this one: energy intensity. It had its place in the previous model, with capital as peg variable, because at one moment in time, the residual constant from an early version of the model displayed a significant correlation with energy intensity. I just sort of left it, as it did not seem to be aggressive towards the new peg value, labour. Still, it was basically an omission, from my part, not to have removed it. Still, mistakes bring interesting results. When left in the model, energy intensity keeps its importance and its sign, whatever the peg variable, capital or labour.

Is it possible that we, humans, have a general tendency to favour technologies with high energy intensity? From the engineering point of view, it sounds stupid. Any decent engineer would look for minimizing energy intensity. Still, a species, understood as a biological mass with no official graduation in engineering, could be looking for appropriating as much energy from its environment as possible. So could we. That could mean, in turn, that all the policies aiming at minimizing the consumption of energy go essentially against the basic selection functions, which, in turn, animate our technological change. Systematically trying to minimize energy consumption means carving a completely new selection function.

The coefficient attached to the natural logarithm of ‘delta’, or the rate of depreciation in fixed assets, has undergone an interesting personal transformation in that new model. It has changed its sign: in the model with capital as peg variable, its sign was positive, now it is negative. When I assumed that capital chooses inventions, the selection function seemed to favour technologies with shorter a life (higher depreciation). Now, as I assume that labour chooses technologies, the selection process favours technologies with longer a life, or lower rate of depreciation. We have two opposing forces, though: the push to rotate technologies faster, in the selection function based on capital, and the strive to keep those technologies alive as long as possible, in the selection process based on labour. The respective velocities of the two production factors across the units of patentable invention are closely correlated, so I have some kind of economic equilibrium, here. That would be the equilibrium between investors wanting new technologies to pop all the time, and organizations (groups of workers) desiring technological standstill.

Ok, it had to happen. This is what happens when you let the bulldog play with data, unattended. It sniffed the money. I mean, the supply of money. I explain. In my evolutionary models, capital and labour, so the production factors, play the role of some primal substance of life, which gets shaped by technological innovation. Logically, a sexual model of reproduction needs a device for transmitting DNA from male organisms to the female ones, for further treatment. In biological reality, that device consists in semen for animals, pollen and seeds for plants. I could not figure out exactly, how to represent a spermatozoid in economic terms, and so I assumed that in economic evolution, money is the transmitting device. Each dollar is a marker, attached to a small piece of valuable resources. What if the transmitting mechanism had brains of its own? What if it was a smart transmitting mechanism? Well, for what I know about our transmitting mechanism, it is not very smart. I mean, it takes one billion spermatozoids to make one zygote. It is a bit as if it took one billion humans to make one new technology. We would be still struggling with the wheel. Yet, plants seem to be smarter in that respect. The vegetal pollen, and especially vegetal seeds, display amazing intelligence: they choose other organisms as conveyors, they choose the right place to fall off the conveyor etc.

So, what if money was a smart mechanism of transmission in my evolutionary model? What if there was a selection function from the part of money? The problem with ‘whatifs’ is that there is an indefinite multitude of them for each actual state of nature. Still, nobody forbids me to check at least one, right? So I take that model ln(Patent Applications) = a1*ln(Supply of broad money) + a2*ln(delta) + a3*ln(Energy use) + a4*ln(Density of population) + a5*ln(Depth of food deficit) + residual ln, and I test. Sample size: n = 494 observations. Could have been worse. Explanatory power: R2 = 0,615.  Nothing to inform the government about, but respectable. Parameters: in the table below.

variable coefficient std. error t-statistic p-value
ln(delta) 0,24 0,421 0,57 0,569
ln(Energy use (kg of oil equivalent per capita)) 0,834 0,134 6,222 0,000
ln(Density of population (people per sq km)) 0,406 0,1 4,041 0,000
ln(Depth of the food deficit (kilocalories per person per day)) -0,218 0,063 -3,469 0,001
ln(Supply of broad money, % of GDP / 100 × rgdpo) 0,791 0,06 13,102 0,000
constant -9,529 1,875 -5,081 0,000

It is getting really interesting. The supply of broad money takes the place of capital, or that of labour, as smoothly as if it had been practicing for years. Same sign, very similar magnitude in the coefficient, rock-solid correlation. Other variables basically stand still, even the structural ones. One thing changes: ‘delta’, or the rate of depreciation, seems to have lost the north. A significance at p = 0,569 is no significance at all. It means that with other variables constant, money could choose any life expectancy in technologies available for development, with a probability of such random choice reaching 56,9%. So, wrapping it up: There are three selection functions (probably, there is very nearly an infinity of them, but those three just look cool, to an economist), which share a common core – dependence on social structure, preference for energy maximization – and differ as for their preference for the duration of life-cycle in technologies. Capital likes short-lived, quick technologies. Labour goes for those more perennial and long-lasting. Money essentially doesn’t give a s*** (pronounce: s-asterisk-asterisk-asterisk). Whatever aggregate I take as the primal living substance of my model, the remaining part of the selection function remains more or less the same.

[1] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at

L’invention mâle de modèles

Mon éditorial d’aujourd’hui

Ainsi donc, j’ai formulé, hier, une fonction de sélection dans mon modèle évolutionniste de changements technologiques ( consultez “Primitive, male satisfaction with bigger a size” ). Le nombre de demandes de brevet dans un endroit et en un moment donné dépend, d’une façon significative, de quatre facteurs : de la quantité de capital physique investi dans cet endroit et en ce moment précis, du taux d’amortissement d’actifs fixes (donc du rythme de replacement des technologies), de la part de rémunération de la main d’œuvre dans le PIB, et finalement de la consommation moyenne d’énergie par tête d’habitant. Tout ça, ça explique 70% de la variance totale du nombre de demandes de brevet. En termes économétriques, c’est une fonction logarithmique linéaire, ou ln(Nombre de demandes de brevet) = a1*ln(Capital physique) + a2*ln(Taux d’amortissement) + a3*ln(Part des salaires dans le PIB) + a4*ln(Consommation d’énergie par tête d’habitant) + constante résiduelle. Le test économétrique de cette équation dans ma base de données (Penn Tables 9.0 plus données de la Banque Mondiale) a rendu n = 2 338 observation valables et un coefficient de détermination R2 = 0,701, ainsi que les coefficients rapportés dans le tableau ci-dessous :

variable coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,847 0,017 49,012 0,000
ln(Taux d’amortissement) 2,256 0,16 14,089 0,000
ln(Part des salaires dans le PIB) 2,782 0,157 17,693 0,000
ln(Consommation d’énergie par tête d’habitant 0,643 0,036 17,901 0,000
constante résiduelle -0,854 0,561 -1,522 0,128

  J’ai testé la constante résiduelle de ce modèle pour sa corrélation avec d’autres variables de ma base de données et aucune corrélation significative n’est apparue. Je peux donc assumer que la valeur de cette composante résiduelle est un pur accident statistique, probablement dû à des co-intégrations entre les variables explicatives du modèle.

Bon, si je veux rendre intelligible la signification de cette fonction, il est bon de résumer un peu le chemin qui m’a mené à la définir. Le lien fonctionnel entre le nombre des demandes de brevet et la quantité de capital physique était une hypothèse de base de ma part. La théorie évolutionniste que j’ai commencé à développer propose que le processus de changement technologique soit une interaction entre des organismes mâles, qui communiquent de l’information sur les innovations possibles à faire, et les organismes femelles – les investisseurs – capables de recombiner cette information et de reproduire la substance de capital. Si j’avais posé une telle hypothèse, il était logique que je cherche une corrélation entre le nombre d’idées distinctes sur les changements à faire (demandes de brevet) et la quantité de capital physique présente dans un endroit et en un moment donné. J’ai étudié cette corrélation en testant une fonction linéaire logarithmique, quant à son pouvoir explicatif général, mesuré à travers le coefficient de détermination R2, ainsi qu’à travers la signification de la corrélation, testée avec la statistique « p ». Cette dernière exprime la probabilité d’hypothèse nulle, donc la probabilité qu’en fait, il n’y a pas de corrélation.

Après ce premier test, j’ai obtenu une équation dont le coefficient de détermination était de R2 = 0,478 et dont la statistique p était en-dessous de 0,001, donc du béton. Seulement, c’était du béton amorphe de point de vue théorique. Il n’y a rien de particulièrement évolutionniste dans l’assertion qu’il y a un lien significatif entre le nombre des demandes de brevet et la quantité de capital physique en place. C’est du cours élémentaire en microéconomie ou en gestion : plus de capital rend possible plus de recherche et développement et vice versa, plus de recherche et développement donne plus de chances de multiplier le capital investi. A ce point-là, j’avais juste prouvé que des données empiriques solides forment une base, sur laquelle il est possible de bâtir une approche évolutionniste, mais pas seulement évolutionniste. Les théories scientifiques sont un peu comme des bâtiments. Le plus stable, c’est une pyramide, avec une base large et les étages consécutifs bâtis chaque fois plus petits en superficie que ce qui se trouve en-dessous. Oui, je sais qu’une pyramide c’est le plus souvent une tombe. J’espère bien que je n’ai aucun cadavre caché sous la mienne.

J’avais donc une base, sur laquelle je pouvais bâtir. J’ai utilisé le fait que mon équation initiale, quoi que solide, laissait une marge d’indétermination assez large. Un coefficient de détermination de R2 = 0,478 veut dire qu’on a 47,8% de variance bien expliqué, seulement ça laisse 52,2% à expliquer. En plus, mon équation initiale laissait une résiduelle tout à fait substantielle. J’ai donc essayé de formuler une autre hypothèse, qui me rapprocherait du contexte évolutionniste strictement parlé. J’ai assumé que dans un cadre de reproduction sexuée, la fréquence des contacts sexuels a de l’importance pour la vitesse de reproduction. Cette dernière est imposée en grande partie par la durée moyenne de vie. Plus vite on meurt, plus fréquemment on a besoin de reproduire, donc de faire l’amour. La durée de vie d’une technologie est l’inverse de son taux d’amortissement. Un taux de 20% par an fixe la durée de vie de la technologie en question à plus ou moins 5 ans ; un taux de 10% étendrait cette durée à 10 ans etc.

Je sais, j’ai été opportuniste à ce point-là. Je savais que la base Penn Tables 9.0 contient les données sur le taux d’amortissement moyen, pays par pays et année par année. Il faut faire avec ce qu’on a, quoi. J’avais donc introduit le taux d’amortissement dans mon équation et j’ai testé. Le test, ça ne s’est pas passé trop mal. Mon coefficient de détermination a gagné en ambition un tout petit peu et il est monté jusqu’à R2 = 0,492. Les résultats de la régression se présentent comme ci-dessous :

variable Coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,843 0,019 43,587 0,000
ln(Taux d’amortissement) 1,371 0,172 7,986 0,000
constante résiduelle -0,203 0,561 -0,362 0,718

Ces résultats m’ont suggéré que j’avance dans la bonne direction. L’ajout du taux d’amortissement dans l’équation a donné du pouvoir explicatif et la direction de la corrélation obtenue est conforme à mon hypothèse : plus élevé est le taux d’amortissement, donc plus courte est la durée moyenne de vie d’une technologie, plus de demandes de brevets est déposé dans un pays donné en un moment donné. Là, je suis comme à mi-chemin dans l’évolutionnisme. Encore qu’il pourrait bien y avoir des sceptiques qui diraient quelque chose comme :  « Bon, c’est bien joli, ça, mais ce n’est pas nécessairement de l’évolutionnisme, tout ça. Plus vite nos technologies vieillissent, plus vite il faut les remplacer. C’est du bon sens commercial, ça ». Seulement voilà, il est aussi possible que le rythme accéléré d’amortissement décourage les investisseurs et qu’ils montrent une préférence systématique pour les technologies à durée de vie plutôt longue, auquel cas cette corrélation positive entre le nombre des demandes de brevet et taux d’amortissement n’est plus évidente du tout. Si je vois un coefficient de régression qui est positif et plutôt élevé pour une équation logarithmique, cela veut dire que les investisseurs montrent une préférence systématique pour des technologies qui périssent vite. Les organismes femelles de mon espèce capitaliste et débrouillarde font un effort pour se reproduire à une cadence accélérée, comme si l’espèce tout entière cherchait à s’adapter à quelque chose. Voilà, j’ai lui ai montré, à ce sceptique imaginaire dans ma tête.

Sur la base large que j’avais posé précédemment, je viens de poser un deuxième étage. Ou peut-être c’est le premier étage si on assume qu’une pyramide a un rez-de-chaussée. De toute façon, c’est un pas de plus. Après l’avoir fait, ce pas, hier, j’étais un peu à court d’idées. Je revoyais les variables dans ma base de données et j’essayais d’en trouver une pertinemment évolutionniste et je vais vous dire, ça n’avait pas l’air facile. J’avais donc décidé de faire confiance aux données elles-mêmes, sans idées préconçues. Dans mon équation telle que je l’avais à ce moment-là, j’avais toujours plus de 50% de la variance totale du nombre des demandes de brevet inexpliquée et en plus j’avais cette composante résiduelle avec p-valeur égale à 0,718. Cela voulait dire qu’une fois que j’ai expliqué 49,2% de la variance avec le capital physique et le taux d’amortissement, il reste 50,8% de variance résiduelle et cette variance résiduelle à 71,8% de chances d’être absolument aléatoire. C’est comme si j’étais un inspecteur de police et comme si des témoins différents me disaient que mon suspect (double meurtre, pas de plaisanterie) était bien grand, mais à part ça il pouvait être homme ou femme, blanc, noir ou asiatique, moustache ou pas etc. Irritant. J’ai vu un polar chinois où ça se déroulait exactement de cette façon.

J’avais donc décidé de faire confiance aux données. Techniquement, ça consistait à calculer cette résiduelle de régression pour chaque observation « pays – année » séparément et ensuite vérifier si la distribution des valeurs résiduelles ainsi obtenues était significativement corrélée avec d’autres variables de ma base de données. Par analogie à l’enquête policière, c’est comme si j’acceptais cette disparité folle dans les dépositions des témoins et comme si j’essayais d’établir si mon suspect avait plus de chances d’être un asiatique barbu ou bien une femme blanche à cheveux aile de corbeau, avec un foulard noir. J’ai trouvé deux corrélations significatives de cette résiduelle : l’une avec la part de rémunération du travail dans le PIB (corrélation Pearson r = 0,491), l’autre avec la consommation d’énergie par tête d’habitant (corrélation r = 0,509). Cette résiduelle de régression, qui semblait tellement aléatoire, semblait néanmoins avoir des préférences claires. J’ai donc ajouté ces deux variables à la version précédente de mon équation et c’est ainsi que je suis arrivé au modèle présenté au tout début de cette mise à jour d’aujourd’hui.

Bon, ça c’est l’histoire de mes crimes, maintenant le temps est venu d’interpréter. Dans trois versions différentes de mon modèle, le coefficient de régression assigné au capital physique restait bien tranquille, entre 0,82 et 0,85, en fonction du contexte. Je pense que j’ai donc ici un équilibre économique : celui entre le capital physique et le nombre de demandes de brevet. Trois préférences dans ma fonction de sélection se superposent ensuite à ce point d’équilibre : préférence pour une rotation rapide des technologies, préférence pour des technologies à forte rémunération de main d’œuvre, ainsi que la préférence, relativement moins forte, pour les technologies à consommation élevée d’énergie. La préférence pour des technologies à forte rémunération de main d’œuvre semble être particulièrement intéressante. Plus de rémunération pour la main d’œuvre veut dire plus de personnes employées ou bien des salaires plus élevés, avec peut-être une préférence pour de la main d’œuvre hautement qualifiée. Cela pourrait expliquer le phénomène de productivité décroissante dans l’économie mondiale (plus de travail fourni donc productivité décroissante du travail) ainsi que la disparité croissante entre les salaires d’employés hautement qualifiés et ceux avec juste des qualifications élémentaires.

Le coefficient positif assigné à la consommation d’énergie par tête d’habitant est aussi intéressant. Elle pourrait même fournir une réponse anthropologique à une question fondamentale : pourquoi, avec tout le talent que nous avons, comme civilisation, à inventer des trucs toujours nouveaux, on montre une tendance obstinée à consommer de plus en plus d’énergie par personne. Du point de vue d’un ingénieur, ce coefficient assigné à la consommation d’énergie est contre-intuitif. Tour ingénieur tend à développer des technologies aussi économes en énergie que possible. Néanmoins, il se peut qu’à un niveau vraiment très, très biologique, comme espèce vivante, nous avons une préférence viscérale pour approprier autant d’énergie que possible de notre environnement.

Par ailleurs, si vous sautez au début de cette mise à jour, vous verrez dans la forme la plus élaborée de mon modèle un coefficient de détermination égal à R2 = 0,701. Ça me laisse toujours avec plus de 29% de variance sans explication. Ce n’est pas bien grave : trop de détermination n’est pas nécessairement ce qu’on souhaite. Encore, ça m’a donné un prétexte pour réitérer la même procédure analytique : mapper les résiduelles et chercher des corrélations. Seulement cette fois, ça n’a rien donné. Cette résiduelle-là semble bien aliénée. Je la laisse pour le moment. Ce qui m’intéresse en ce moment précis, c’est la structure. Je pose et je vérifie l’hypothèse suivante : des structures sociales différentes produisent des fonctions de sélection différentes et des équilibres différents entre la quantité de capital physique et le nombre de demandes de brevet.

Dans ma base de données, j’ai deux variables différentes : la densité de population et le déficit alimentaire. Le nombre de personnes par kilomètre carré est un facteur essentiel de relations sociales, aussi bien coopératives que conflictuelles. Le déficit alimentaire semble avoir de l’importance pour le ratio de capital physique par une demande de brevet. J’ai déjà exploré ce sujet précis, un tout petit peu, dans la mise à jour intitulée “Evolutionary games”. J’inclus donc les logarithmes naturels de ces deux variables dans mon modèle, ce qui me donne l’équation suivante : ln(Nombre de demandes de brevet) = a1*ln(Capital physique) + a2*ln(Taux d’amortissement) + a3*ln(Part des salaires dans le PIB) + a4*ln(Consommation d’énergie par tête d’habitant) + a5*ln(Densité de population) + a6*ln(Déficit alimentaire) + constante résiduelle. Je teste cette équation dans un ensemble d’observations réduit, faute de données complètes. J’ai n = 469 observations valides, qui rendent, néanmoins, un joli pouvoir explicatif avec R2 = 0,729. Quant aux paramètres détaillés du modèle, vous pouvez les trouver dans le tableau ci-dessous :

variable Coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,799 0,043 18,49 0,000
ln(Taux d’amortissement) 1,496 0,365 4,096 0,000
ln(Part des salaires dans le PIB) 2,338 0,269 8,676 0,000
ln(Consommation d’énergie par tête d’habitant 1,233 0,102 12,035 0,000
ln(Densité de population) 0,646 0,063 10,219 0,000
ln(Déficit alimentaire) -0,106 0,069 -1,541 0,124
constante résiduelle -9,522 1,618 -5,885 0,000

La densité de population semble avoir deux mots à dire quant à l’équilibre « capital – demandes de brevet » et c’est du solide en termes de corrélation : plus on a du monde par kilomètre carré, plus on génère d’inventions brevetables. Dans le cas du déficit alimentaire, celui-ci semble avoir quelque chose à dire, seulement il est dur de définir qu’est-ce que c’est exactement qu’il veut dire. La p – valeur de cette corrélation particulière est plutôt élevée. Il semble que le déficit alimentaire marche mieux comme variable de contrôle, à l’extérieur du modèle plutôt qu’à l’intérieur.

Primitive, male satisfaction with bigger a size

Short introduction via You Tube

I have a nice structure for that book about innovation and technological change, viewed mostly in evolutionary terms. For the moment, I want to focus on two metrics, which progressively came out of the research and writing that I did over the last two days. In my update entitled ‘Evolutionary games’ , I identified the ratio of capital per one patent application as some sort of velocity of capital across units of scientific invention. On the other hand, yesterday, in my update in French, namely ‘Des trucs marrants qui nous passent à côté du nez, ou quelques réflexions évolutionnistes’ , I started to nail down another one, the ratio of money supplied per unit of fixed capital. All that in the framework of a model, where investors are female organisms, able to create substance and recombine genetic information, whilst research and development is made of male organisms, unable to reproduce or mix genes, but able to communicate their own genetic code in the form of patentable inventions. As I am a bit obsessed about monetary systems, those last months, I added money supplied from the financial sector as the conveyor of genetic information in my model. Each unit of money is informative about the temporary, local, market value of something, and in that sense it can be considered analogously to a biological marker in an evolutionary framework.

Now, I am returning to one of the cornerstones of a decent evolutionary model, namely to the selection function. Female investors select male inventions for reproduction and recombination of genetic code. Characteristics of the most frequently chosen inventions are being remembered and used as guidelines for creating future inventions: this is the component of adaptation in my model. In entitled ‘Evolutionary games’, I started to nail down my selection function, from two angles. I studied the distribution of a coefficient, namely the ratio of physical capital per one resident patent application, in my database made of Penn Tables 9.0 (Feenstra et al. 2015[1]) and additional data from the World Bank. The first results that I got suggest a strong geographical disparity, and a progressive change over time in a complex set of local averages. In general, combined with the disparity of that ration across different classes of food deficit in local populations, my working assumption is that the ratio of physical capital per one patent application, should it have any relevance, characterises the way that the selection function works locally.

The second angle of approach is linear regression. I tested econometrically the hypothesis that the number of patent applications depends on the amount of physical capital available locally. In evolutionary terms, it means that the number of male inventions depends on the amount of substance available in the female set of capital holders. I started with nailing down a logarithmic equation in my dataset, namely: ln(Patent Applications) = 0,825*ln(ck) + residual ln -4,204, in a sample of 2 623 valid observations in my database, where ‘ck’ stands for the amount of physical capital available (that’s the original acronym from Penn Tables 9.0). That equation yields a coefficient of determination R2 = 0,478, regarding the variance of empirical distribution in the number of patent applications.

This time, today, I want to meddle a little bit more with that linear regression. First of all, a quick update and interpretation of what I have. The full regression, described kind of by the book, looks like that:

variable coefficient std. error t-statistic p-value
ln(ck) 0,825 0,019 43,19 0,000
constant -4,204 0,259 -16,239 0,000

The low values of p – significance mean that the probability of the null hypothesis is below 0,001. In other words, it is very low a probability that for a given value of capital I can have any observable number of patent applications. Analogously, the probability that for the average value of physical capital the residual, unexplained number of patent applications is different from e-4,204 = 0,014935714 is also below 0,001.

The amount of physical capital available locally explains some 47% of the overall variance, observable in the distribution of resident patent applications. This is quite substantial an explanatory power, and it confirms the basic intuition of my whole evolutionary reasoning that the amount of genetic information communicated in the system (number of patent applications) is significantly proportional to the amount of organic substance (physical capital) available for recombination with the help of said genetic information. Still, I have that more than 52% of variance, left unexplained.

In econometrics, as in many other instances of existence, size matters. The size of a model is measured with its explanatory power, or its coefficient of determination R2. My equation, as I have it now, is medium in size. If I want it to be bigger in explanatory power, I can add variables on the right side. In my database, I have that variable called ‘delta’ in the original notation of Penn Tables 9.0, and it stands for the rate of depreciation in fixed assets. The greater that rate, the shorter the lifecycle of my physical assets. A few words of explanation for the mildly initiated. If my rate of depreciation is delta = 20%, it means that one fifth of book value in my assets goes out of the window every year, due to both physical wear and tear (physical depreciation), and to obsolescence in comparison to more modern assets (moral depreciation). If my delta = 20%, it basically means that I should replace the corresponding assets with new ones every five years. If my delta = 15%, that lifecycle climbs to 1/15% = 6,66 years, and with delta = 40%, it accelerates to 1/40% = 2,5 years.

In my evolutionary framework, ‘delta’ is the opposite of average life expectancy, observable in those technologies, which female capital is supposed to breed when fecundated by male inventions. I am positing a working hypothesis, that the amount of male inventions, serving to fecundate female capital, is inversely proportional to the life expectancy of my average technology. The longer one average technology lives, the less fun is required between male inventions and female capital, and vice versa: the shorter that lifecycle, the more conception has to go on between the two sides of my equation (capital and patent applications). In other words, I am hypothesising that the number of patent applications is straight proportional to the rate of depreciation ‘delta’. Let’s check. I am dropping the natural logarithm of ‘delta’, or ln(Depreciation), into my model, and I am running that linear regression ln(Patent Applications) = a1*ln(ck) + a2*ln(delta) + residual ln by Ordinary Least Squares. In return, I have R2 = 0,492, and the coefficients, together with their descriptive statistics (standard error and significance test) are as shown in the table below:

variable coefficient std. error t-statistic p-value
ln(ck) 0,843 0,019 43,587 0,000
ln(delta) 1,371 0,172 7,986 0,000
constant -0,203 0,561 -0,362 0,718

My hypothesis has been confirmed: there is a significant, positive correlation between the rate of depreciation in technologies, and the amount of patent applications. In other words, the shorter the lifecycle of technologies in a given country and year, the greater the number of those male inventions ready to conceive new baby technologies. Interestingly, my residual constant in the model has gone feral and uncorrelated with explanatory variables. For a given amount of physical capital, and a given rate of depreciation, the probability that I have a completely random residual number of patent applications is p = 71,8%.

At this point, I can try a different technique of empirical research. I compute that residual component for each of the 2 623 observations separately, and thus I get a statistical distribution of residuals. Then, I look for variables in my database, which are significantly correlated with those residuals from the model. In other words, I am looking for pegs, which I can possibly attach that rebel, residual tail to. In general, that logarithmic tail is truly feral: there is very little correlation with any other variable, excepted with the left side of the equation (number of patent applications). Still, two, moderately strong correlations come forth. The natural logarithm of energy use per capita, in kilograms of oil equivalent, comes as correlated with my logarithmic residual at r = 0,509, where ‘r’ stands for the Pearson coefficient of correlation in moments. The second correlation is that with the share of labour compensation in the GDP, or ‘labsh’ in the original notation of Penn Tables 9.0.  Here, the coefficient of correlation is r = 0,491.

You don’t argue with significant correlations, if you want to stay serious in econometric research, and so I drop those two additional, natural logarithms into my equation. I am testing now the validity of the proposition that ln(Patent Applications) = a1*ln(ck) + a2*ln(delta) + a3*ln(labsh) + a4*ln(Energy use) + residual ln. I get n = 2 338 valid observations, and my explanatory power, i.e. the size of my explanation, grows bigger, up to R2 = 0,701. I will be honest with you: I feel a primitive, male satisfaction with that bigger size in my explanatory power. Back to the nice and polite framework of empirical investigation, I have that table of coefficients, below:

variable coefficient std. error t-statistic p-value
ln(ck) 0,847 0,017 49,012 0,000
ln(delta) 2,256 0,16 14,089 0,000
ln(labsh) 2,782 0,157 17,693 0,000
ln(Energy use (kg of oil equivalent per capita)) 0,643 0,036 17,901 0,000
constant -0,854 0,561 -1,522 0,128

I can observe, first of all, that adding those two variables to the game pumped some size in the coefficient ascribed to depreciation, and left the coefficient attached to the amount of physical capital almost unchanged. It could suggest that the way those two additional variables work is somehow correlated with the lifecycle of technologies. Secondly, I have no clear and unequivocal clue, for the moment at least, how to interpret the significant presence of those two additional variables in the model. Maybe the selection function, in my evolutionary model, favours inventions with greater share of labour compensation in their production functions, as well as with more energy intensity? Maybe… It is something to dismantle into small pieces carefully. Anyway, it looks interesting.

The third thing is that new residual in the new, enriched model. It still has pretty low a significance (the null hypothesis as for this residual is significant at p = 12,8%), and so I repeated the same procedure: I computed local residuals from this model, and then I checked the correlation of thus obtained distribution of residuals, with other variables in my database. Nope. Nothing. Rien. Nada. This constant residual is really lonely and sociopathic. Better leave it alone.

[1] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at

Des trucs marrants qui nous passent à côté du nez, ou quelques réflexions évolutionnistes

Quelques mots sur You Tube

J’aime bien la piste de recherche que j’ai réussi à ouvrir hier (voir  “Evolutionary games” ). Je trouve que l’application de la théorie de l’évolution, en particulier la fonction de sélection, possède cette propriété merveilleuse de simplifier les problèmes complexes. Bien sûr, si je simplifie, je peux perdre de vue des détails importants, néanmoins, avec de la rigueur élémentaire, on peut contourner ce piège. J’ai donc un mécanisme de sélection, ou les détenteurs de capital choisissent dans un ensemble d’inventions applicables pour installer dans leurs entreprises des technologies nouvelles. Ce choix marche de façon similaire à la sélection sexuelle : il a pour résultat le développement systématique de nouvelles inventions portant les caractéristiques le plus souvent choisies, ainsi que la disparition graduelle d’autres types d’idées.

Vous pourriez demander ce qu’il y a de tellement révolutionnaire dans ce train d’idées. Eh bien, rien de révolutionnaire du tout, à vrai dire. C’est l’un de ces outils intellectuels simples et efficaces, bien dans l’esprit méthodologique de Milton Friedman, dont l’utilité réside dans la capacité de créer des hypothèses pertinentes plutôt que des réponses toutes faites. La question la plus fondamentale, du point de vue d’un économiste comme moi, est la suivante. Les changements technologiques dans l’économie mondiale s’accompagnent d’une baisse systématique de productivité, ainsi que d’une croissance spectaculaire d’inégalités dans l’appropriation de capital. Néanmoins nous continuons, comme civilisation, de remplacer nos technologies de plus en plus vite. Nous répétons donc, encore et encore, un mécanisme qui semble créer des tensions sociales dangereuses. Pourquoi diable ? Avons-nous une tendance suicidaire collective ou bien y-a-t-il une sorte de conspiration massive à l’échelle globale ?

L’approche évolutionniste est l’un de ces trucs simples et ingénieux qui permettent de pousser la connerie de côté et de se concentrer sur les faits empiriques. Empiriquement, nous pouvons constater un remplacement de plus en plus accéléré de technologies (mesuré par la part croissante d’amortissement agrégé dans le PIB), ainsi qu’une production accélérée d’inventions applicables dans l’industrie (observable comme un ratio croissant de demandes de brevet par un million de personnes). La logique évolutive suggère l’existence d’un processus d’adaptation, qui se déploie comme une rotation accélérée des générations consécutives. Nous savons que les espèces vivantes tournent vers ce type de comportement lorsqu’elles doivent s’adapter sous la pression du temps. Ce à quoi nous sommes en train de nous adapter est une question à part. Très certainement, il y a le facteur de surpopulation et celui du réchauffement climatique. Peut-être il y a d’autres facteurs de stress environnemental dont nous ne nous rendons même pas compte. Quant à moi, je me concentre sur le processus d’adaptation en tant que tel.

L’expérimentation est la seule façon de développer les trucs qui marchent. Il faut tester avant l’utilisation massive : tout ingénieur digne de ce nom le sait. Alors, si j’assume que notre espèce est en train d’expérimenter pour s’adapter, des question simples et embarrassantes surgissent. Qui et comment décide de la façon dont l’expérimentation est effectuée ? Qui, et comment fait la sélection des résultats ? Bien sûr, je peux pointer sur les gouvernements et les grandes sociétés multinationales comme acteurs principaux dans ce processus, mais cette idée à tendance à se mordre la queue : ce sont des structures collectives, pas des personnes, donc comment se passe la décision à l’intérieur de ces collectivités ?  Je retourne donc à la question de base : comment une espèce entière, comme nous, peut s’organiser pour expérimenter avec les trucs essentiels à sa survie ? C’est précisément là que la logique évolutionnister vient en rescousse avec le mécanisme de sélection et reproduction sexuée.

Avant d’aller plus loin, il sera peut-être bon de définir les concepts fondamentaux. Les sexes – féminin et masculin – sont dans une large mesure un produit culturel, qui a néanmoins une base biologique. Dans toute espèce sexuée – donc partout au-dessus des vers de terre – il y a deux types d’organismes. L’organisme du type féminin est capable de donner la vie à une génération nouvelle et de mélanger les codes génétiques, mais il ne sait pas comment transmettre l’information génétique et il a besoin de conception de la part de l’organisme du type masculin. Ce dernier est infécond en lui-même et ne sait pas recombiner les gènes, mais il a la capacité de produire en série des portions communicables de son propre code génétique. Deux fonctions différentes – recombinaison et développement d’une part, ainsi que dissémination et communication d’autre part – sont exprimées dans deux types différents d’organismes à l’intérieur d’une même espèce. Est-ce un mécanisme parfait ? Certainement pas. Il a des limites très claires, surtout quant à sa vitesse de réaction : il a besoin de changement générationnel pour sélectionner parmi toutes les expériences possibles et là, on bute contre le cycle des générations. Il est utile de remarquer que dans le monde végétal, une approche légèrement différente s’est développée : à l’intérieur d’un même organisme, deux parts se forment, une féminine et une masculine, qui par la suite peuvent interagir aussi bien entre elles qu’avec d’autres organismes de la même espèce. Les conifères sont peut-être l’exemple le plus facile à trouver autour de nous.

Appliquée aux sciences sociales, la logique évolutionniste trouve son application surtout dans ces contextes spécifiques, où un grand effort collectif semble être engagé dans un processus de changement qui, à son tour, semble se dérouler comme à tâtons, avec beaucoup d’essais et beaucoup d’erreurs sur le chemin. Cette logique assume donc que nous pouvons identifier dans un système social donné deux types d’entités : féminines (reproduction de substance et recombinaison d’information) et masculines (standardisation et communication d’information), qui interagissent pour produire des générations consécutives du même organisme.

Tout comme dans la biologie, le moment délicat est celui quand nous définissons ce qu’est une entité. La logique évolutionniste tient débout seulement quand elle est accompagnée d’une telle définition. Supposons que nous représentons notre propre espèce comme faite d’organismes continentaux et non pas de ce que nous appelons « personnes individuelles ». Si c’est la population continentale qui est un organisme à part, et pas une personne, le changement générationnel pratiquement disparaît de l’horizon : chacune des populations continentales vît sans interruption, seule sa forme change. Il est bon de retenir que, paradoxalement, même dans les sciences de la vie la logique évolutionniste n’est pas la seule possible. On peut imaginer d’autres approches, puisque pour tout état de nature nous pouvons formuler un répertoire indéfiniment large d’hypothèses. La logique évolutionniste est simplement celle qui, parmi toutes les hypothèses possibles, nous permet d’avancer notre connaissance de façon pratique, c’est-à-dire d’inventer des trucs qui marchent, comme les vaccins ou bien la sélection rationnelle de variétés des plantes dans l’agriculture. Oui, c’est bien ça : les premiers agriculteurs dans l’histoire de l’humanité étaient aussi les premiers évolutionnistes, puisqu’ils utilisaient, à dessein, le mécanisme d’adaptation dans le cycle générationnel chez les plantes.

Le choix d’échelle dans la définition de l’entité peut se faire d’une manière rationnelle. Lorsque je vois quelque chose de grand, comme une civilisation entière, et je n’arrive pas à comprendre comment elle marche, je peux tester de façon réitérée l’hypothèse de reproduction sexuée et essayer voir si je tombe sur deux types distincts d’entités, respectivement du type féminin (reproduction et recombinaison d’information) et masculin (standardisation et communication). Si, en plus, je trouve quelque chose comme code génétique, donc un système standardisé de communication d’information vitale à la structure et fonction de chacune de ces entités, je suis peinard. Plus qu’à s’asseoir et observer tout le bazar, ou presque. Le problème pratique avec la logique évolutionniste c’est son intelligibilité. C’est une approche qui puise des fondements de la vie, en quelque sorte, et elle a tendance à éveiller des émotions extrêmement fortes chez les interlocuteurs. Tenez, par exemple hier. J’ai commencé à modeler le progrès technologique comme un processus de reproduction sexuée de technologies, où les demandes de brevet sont de l’information génétique mâle, disséminée parmi les investisseurs femelles, qui, à leur tour, la recombinent et reproduisent des entités de nouvelle génération. J’ai même trouvé une variable d’équilibre économique – le ratio de capital physique investi par une demande de brevet – qui démontre une distribution statistique intéressante. J’en ai rapidement parlé à un ami, juste pour tester le concept. Doux Jésus !  Sa réaction était incroyable, comme s’il était question d’un match de foot, perdu par son équipe favorite. « Comment peut-tu dire que les investisseurs sont femelles ? Je fais du business, moi et ai-je l’air d’une bonne femme ? » Bon, ce serait tout. Si on parlait du dernier épisode de « Game of Thrones » ?

Bon, si j’ai identifié les mâles et les femelles, il serait utile de définir le système de transmission d’information génétique. Je suppose que si les médias rapporteraient un mouvement massif de petites formes blanches avec des queues, qui se déplacent extrêmement vite dans les quartiers chics de business, en des flots plutôt substantiels, président Trump aurait tout de suite un nouveau prétexte pour promettre « feu et fureur » à quelqu’un. Faute de spermatozoïdes, il faut donc trouver quelque chose d’autre. Je pense à l’argent. Historiquement, le pognon, ça a toujours été plutôt du pognon qui n’existe pas que celui qui existe. Je veux dire, depuis des siècles, l’argent a été surtout une unité comptable. Seule une petite partie de ces soldes comptables était physiquement présente dans la vie quotidienne comme monnaie d’échange, et c’en est resté de même jusqu’aujourd’hui. L’argent, c’est surtout de l’information.

Imaginons, maintenant, que cette information sous forme d’argent s’attache à des petits blocs de ressources précieuses – et à ce point-là il est utile de se souvenir que dans les systèmes sociaux la confiance et la volonté de coopérer sont des ressources précieuses aussi – et ensuite ces petits blocs peuvent être transmis dans l’espace et le temps à travers le mouvement de l’argent, donc à travers les transactions de marché, chacune avec une valeur comptable déterminée. Dans un tel cas, le système monétaire pourrait être, dans l’économie, l’équivalent d’activités sexuelles en biologie. Pas étonnant, alors, qu’autant de gens veulent faire carrière dans la finance. Ça pourrait bien expliquer, aussi, pourquoi la rotation accélérée de technologies est accompagnée par une vélocité décroissante de l’argent dans l’économie mondiale : adaptation rapide requiert une transmission rapide du matériel génétique. La diminution de la vélocité de l’argent la plus marquée survient dans les marchés émergents et dans les pays en voie de développement. Logique, ça aussi : ces pays-là ont besoin de plus d’expérimentation avec le code génétique de leur business que les pays développés.

En fait, j’en viens à une conclusion générale que ce n’est pas intéressant du tout d’être pleinement développé. C’est confortable, bien sûr, mais pas intéressant. On ne s’adapte plus, puisqu’il n’y a pas grand-chose à quoi on pourrait s’adapter, et tout un tas de trucs marrants nous passent à côté du nez.

Evolutionary games

My editorial for today

My mind is wandering a bit, this morning. I am experiencing that peculiar state of creative lack in my focus, as if my brain was hesitating which compound parcel of information to treat. I am having a quick glance at ‘Théorie de la spéculation’ by Louis Bachelier (Bachelier 1900[1]), as I am almost always interested in practical applications of uncertainty. That, in turn, suggests me to add some data about stock markets to my database anchored in Penn Tables 9.0 (Feenstra et al. 2015[2]). On the other hand, I would like to continue on the path that I have been developing for a few days, about innovation and technological change understood as a game of adaptation in a complex social structure. As I am trying to connect those two dots, I end up reading papers like that by Frederic Scherer (Scherer 1996[3]) on the probability of big, fat profits from an invention . Finally, I have that idea of reconciling the game-theoretic approach with the evolutionary one, in modelling processes of adaptation under uncertainty.

Maybe if I start from the end and advance towards the beginning, as I love doing in my research, I will come to some interesting results? Good, let’s waltz. So I am studying evolution. Evolution of anything is about breeding, i.e. about having fun, first, and being a responsible parent in subsequent periods. At a given time ‘t’ , in a place (market) MR, we have a set N of n inventions, N = {N1, N2, …, Nn}, and each of those inventions can give rise to some fun on the spot, and to responsible parenthood next, or, in other words, it can be implemented as a technology, and maintained in exploitation for a given period of time. Right, so I need a set of established technologies, as well. I call this set TC = {TC1, TC2, …, TCm}, and this long name with curly brackets in it means that my set of established technologies contains ‘m’ of them.

Let’s suppose that inventions are male and established technologies are children. We need females, if we want to be serious about evolution. A female organism is what gets fecundated by some seed coming from the male. Logically, in this specific process, investment capital is female. Thus, I imagine a set CH = {CH1, CH2, …, CHk} of ‘k’ capital holders, who are logically female but who, in fact, can be male by physicality, or even be kind of transgender if they are corporations or governments. Anyway, the set N of inventions is having fun with the set CH of capital holders, which subsequently gives rise to responsible parenthood regarding the set TC. Some inventions stay out of the evolutionary game fault of proper mating, just as some capital holders remain infecund fault of catching the right opportunity. I know, it sounds cruel, but this is not the first time I learn how far from conventional decency are the actual ways of the world.

What is interesting, is the process of selection. As we are in the world of technological change, lipstick, short skirts, six-pack abs and Ferraris are being replaced by rules of selection, which give systematic preference to some matches between i-th invention and j-th capital holder, to the detriment of others. As I read some recent evolutionary literature (see for example Young 2001[4]), there is some inclination, in the theory, to considering the female mechanisms of selection, i.e. those applied by females regarding males, as dominant in importance. In the logic I have just developed, it generally holds: I can safely assume that capital holders select inventions to finance, rather than inventions picking up their investors. Yes, it is a simplification, and so is a cafe Americano, but it works (when you order an espresso, a good barista should serve it with a glass of cold, still water in accompaniment; still, when the barista can suspect you are not really a gourmet in coffee, they basically heat up that water, mix it with a slightly thinned espresso, and you get cafe Americano).

Anyway, we have j-th capital holder CHj picking up the i-th invention Ni, to give birth to o-th established technology TCo. Evolutionary theory assumes, in general, that this process is far from being random. It has an inherent function of selection, and this function is basically the stuff that makes hierarchy in the social structure of the corresponding species. The function of selection defines the requirements that a successful match should have. In this case, it means that a hierarchy of inventions is being formed, with the top inventions being the most likely to be selected, and subsequent levels of hierarchy being populated with inventions displaying decreasing f****ability. As usually in such cases, spell: ‘f-asterisk-asterisk-asterisk-asterisk-ability’.

As I am a scientist, I am keen on understanding the mating mechanism, and so I take my compound database made of Penn Tables 9.0, glued together with data from the World Bank about patent applications. I hypothesise something very basic, namely that the number of resident patent applications per year, in a given country, significantly depends on the amount of capital being invested in fixed assets. Patent applications stand for inventions, and capital stands for itself. Now, I can do two types of tests for this hypothesis. I can go linear, or I can follow Milton Friedman. Being linear means that I posit my selection function as something in the lines of:

n = a*k + residual

Of course, we keep in mind that ‘n’ is the number of inventions (patent applications in this case), and ‘k’ stands for the number of capital holders, which I approximate with the aggregate amount of capital (variable ‘ck’ in Penn Tables 9.0). Now, I squeeze it down to natural logarithms, in order to provide for non-stationarity in empirical data, and I test: ln(Patent Applications) = a1*ln(ck) + residual ln.  For the mildly initiated, non-stationarity means that data usually jumps up and down, sometimes even follows local trends. It generates some noise, and natural logarithms help to quiet it all down. Anyway, as I test this logarithmic equation in my dataset, I get a sample of 2 623 valid observations, and they yield a coefficient of determination R2 = 0,478. It means, once again for the mildly initiated, that my equation explains some 47,8% of variance observable in ln(Patent Applications), and more specifically, the whole things spells: ln(Patent Applications) = 0,825*ln(ck) + residual ln -4,204.

I am going to return to those linear results a bit later. Now, just to grasp that nice contrast between methodologies, I start following the intuitions of Milton Friedman. I mean the intuitions expressed in his equation of quantitative monetary equilibrium. Why do I follow this path? Well, I try to advance at the frontier of economics and evolutionary theory. In the latter, I have that concept of selection function. In the former, one of the central theoretical concepts is that of equilibrium. I mention Milton Friedman, because he used to maintain quite firmly that equilibriums in economic systems, if they are true equilibriums, are expressed by some kind of predictable proportion. In his equation of monetary equilibrium, it was expressed by the velocity of money, or the speed of circulation of money between different units of real output.

Here, I translate it as the velocity of capital regarding patent applications, or the speed of circulation in capital between patentable inventions. In short, it is the ratio of fixed capital ‘ck’ divided by the number of resident patent applications. Yes, I know that I labelled capital as female, and inventions as male, and I propose to drop the metaphor at this very point. Velocity of circulation in females between males is not something that decent scientists should discuss. Well, some scientists could, like biologists. Anyway, I hypothesise that if my selection function is really robust, it should be constant over space and time. In probabilistic terms, it means that the mean ratio of fixed capital per one patent application, in millions of 2011 US$ at current Purchasing Power Parities, should be fairly constant between countries and over time, as well as it should display relatively low and recurrent variability (standard deviation divided by mean) inside places and years. The more disparity will I be able to notice, like the more arithmetical distance between local means or the more local variability around them, the more confidently can I assume there are many selection functions in that evolutionary game.

So I computed the mean value of this ratio and its variance across countries (get it from this link), as well as over years (this is downloadable, too). On the whole, the thing is quite unstable. There is a lot of disparity between mean values, as well as around them. Still, geographical disparity seems to be stronger, in terms of magnitude, than changes observable over time. It allows me to formulate two, quite tentative, and still empirically verifiable hypotheses. Firstly, at a given time, there is a lot of different, local selection functions between capital holders and patentable inventions. Secondly, the geographical disparity in these selection functions is relatively recurrent over time. We have an internally differentiated structure, made of local evolutionary mechanisms, and this structure seems to reproduce itself in time. Returning to my linear model, I could go into nailing down linear functions of ln(Patent Applications) = a1*ln(ck) + residual ln for each country separately. Still, I have one more interesting path: I can connect that evolutionary game to the issue of food deficit, which I explored a bit in my previous posts, namely in ‘Cases of moderate deprivation’  and in ‘‘Un modèle mal nourri’ . I made a pivot out of my database and I calculated mean capital per patent application, as well as its variance across different depths of food deficit . Interesting results turn out, as usually with this cruel and unpleasant variable. Between different classes of food deficit, regarding the ratio of capital per one patent application, disparities are significant, and, what seems even more interesting, disparity around the local means, inside particular classes of food deficit, is strongly idiosyncratic. Different depths of food deficit are accompanied by completely different selection functions in my evolutionary game.

So far, I have come to more interesting results by applying the logic of economic equilibrium in my evolutionary game, than by using plain linear regression. This is the thing about correlations and regressions: if you want them to be really meaningful, you need to narrow down your hypotheses really tight, just as Milton Friedman used to say. By the way, you can see here, at work, the basic methodology of statistical analysis, as presented, for example, by a classic like Blalock[5]: first, you do your basic maths with descriptive statistics, and only in your next step you jump to correlations and whatnot.

[1] Bachelier, Louis. Théorie de la spéculation. Gauthier-Villars, 1900.

[2] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at

[3] Scherer, Frederic M. “The size distribution of profits from innovation.” The Economics and Econometrics of Innovation. Springer US, 2000. 473-494.

[4] Young, H. Peyton. Individual strategy and social structure: An evolutionary theory of institutions. Princeton University Press, 2001.

[5] Blalock, Hubert Morse. Social Statistics: 2d Ed. McGraw-Hill, 1972.

Un modèle mal nourri

Quelques mots sur You Tube

Je suis en train de ruminer les résultats de mes test empiriques d’hier, ceux que j’ai discutés abondement en anglais dans le post intitulé  “Cases of moderate deprivation” . J’avais pris un modèle économétrique que j’eus précédemment utilisé dans un  article sur le phénomène de monétisation dans la course technologique et j’ai introduit le déficit alimentaire, tel qu’il est publié par la Banque Mondiale, comme variable de contrôle. En termes de méthode de recherche cela veut dire que je testé le même modèle séparément dans les différentes classes d’économies nationales, caractérisées par des niveaux distincts de déficit alimentaire. Dans les cas les plus extrêmes dudit déficit, c’est-à-dire lorsque l’habitant moyen d’un pays manque plus de 250 kilocalories par jour, le modèle perd pratiquement toute sa cohérence et il la regagne de plus en plus à mesure que le déficit calorique décroît.

J’assume que si un modèle économétrique tient, en termes de son coefficient de détermination R2 et de la signification des corrélations individuelles entre variables, cela veut dire qu’il représente, d’une façon acceptablement fidèle, le fonctionnement d’une structure sociale. Lorsque le même modèle « marche », en termes économétriques, de façon différente dans des classes différentes de sociétés, j’interprète les différences au niveau des coefficients comme une différence réelle quant au fonctionnement des structures sociales étudiées. Il y a, par exemple, ce truc qui remonte à Adam Smith et à son traité « De la nature et des causes de la richesse des nations » : la densité de population. Adam Smith répétait souvent que le genre de développement qu’il avait l’habitude d’appeler « la division de travail » et que nous, aujourd’hui, on aurait appelé « développement structurel », avait besoin d’une certaine densité minimum de population, en-dessous de laquelle ça ne marche tout simplement pas.

Moi aussi, je crois que la densité de population a une importance fondamentale pour le fonctionnement de nos structures sociales. C’est une importance dont le plus fréquemment nous ne nous rendons pas compte, mais c’est un mécanisme puissant qui détermine la façon dont nous interagissons dans la société. En des termes un peu plus pratiques, la densité de population est une estimation très analytique de l’importance relative des structures urbaines et périurbaines – où ladite densité est la plus grande – dans le tissu socio-économique. J’ai inclus la densité de population dans ce modèle de monétisation de course technologique, comme variable structurelle. Lorsque je testais ce modèle dans mon échantillon entier, donc dans l’ensemble de n = 2 238 observations « pays – année », la densité de population apparaissait comme variable significative qui contribue à décroître la vélocité de l’argent. Néanmoins, lorsque l’environnement social du modèle est contrôlé quant au niveau de déficit alimentaire, il faut que ledit déficit n’excède pas 109 kcal par jour par personne, pour que la densité de population gagne une signification suffisante, dans sa corrélation avec la vélocité de l’argent, pour qu’on puisse l’accepter comme variable structurelle significative. Lorsque la privation calorique excède 109 kilocalories par jour par habitant, désolé, la densité de population, ça se balade tout seul.

J’ai essayé de donner une interprétation structurelle à cette variable de déficit alimentaire. Ici, il est peut-être bon que j’explique la différence entre l’interprétation structurelle et celle plus stochastique. Telle qu’il est donné par la Banque Mondiale, le déficit alimentaire est une moyenne stochastique. Si cette moyenne a une valeur non-nulle, cela veut dire que la population entière est en manque d’un montant d’énergie chimique, générée par le catabolisme du corps humain, dans la quantité égale au nombre d’habitants multiplié par le déficit calorique moyen par habitant. Par exemple : déficit moyen de 150 kcal par habitant dans une population de 20 millions de personnes veut dire que cette société, prise comme un ensemble organisé, manque 150*20000000 = 3 milliards de kilocalories par jour. Il se peut que ces 3 milliards kcal par jour soient ce qui manque pour que cette nation bâtisse, par exemple, un système routier efficace.

A ce point-là, une observation de la vie quotidienne s’impose : la France ou l’Allemagne n’ont pas de déficit alimentaire en termes stochastiques, mais je peux bien y rencontrer des personnes qui sont chroniquement mal nourries. De la même manière, en Zambie, qui est en déficit alimentaire aigu en des termes stochastiques (plus de 400 kcal par jour par personne), je peux bien rencontrer des gens qui mangent largement à leur faim. Dans ce petit film sur You Tube  vous pouvez constater qu’il y en a même, en Zambie, qui ont suffisamment d’alimentation pour pratiquer le culturisme (croyez-moi, ça demande un surplus calorique géant). En transformant le déficit alimentaire stochastique en variable structurelle, il est donc utile de penser en termes de valeur de référence.

Disons que nous sommes deux populations d’agriculteurs. Pour travailler dans les champs, il faut beaucoup d’énergie. Disons que la norme calorique est établie à 3000 kcal par jour. Dans l’une de ces deux populations, le déficit alimentaire est recensé, comme moyenne stochastique, au niveau de 160 kcal par jour par personne. La seconde de deux populations ne registre aucun déficit alimentaire. Celle avec 160 kcal en manque contient au moins 160/3000 = 5,3% de personnes qui n’ont pas de nutrition suffisante. Je dis « au moins », parce qu’il faudrait enrichir ce calcul par l’inclusion des gens qui absorbent plus de 3000 kcal par jour etc. De toute façon, même ce « au moins 5,3% » veut dire que dans chaque centaine de personnes il y en aura au moins 5 ou 6 qui ne seront pas capables de fournir l’effort nécessaire pour travailler dans les champs comme il faut.

C’est précisément là, l’interprétation structurelle de déficit alimentaire stochastique : cette moyenne se traduit, par des algorithmes qui dépendent du contexte, comme un certain nombre de gens qui ne peuvent pas, faute de nutrition suffisante, participer pleinement dans la vie économique de leur société. Je retourne à mon modèle de monétisation de course technologique et je raisonne en des termes suivants : si en présence de déficit alimentaire supérieur à 109 kilocalories par jour par personne la densité de population cesse d’avoir de l’importance structurelle, cela veut dire que si au moins « 109/ (valeur de référence) = X% de la population » ne mange pas à leur faim, l’urbanisation cesse de vouloir dire « plus ou moins de vélocité de l’argent » et devient une variable aléatoire dans son impact sur la monétisation.

Depuis un peu plus d’une semaine, je retourne systématiquement à la fonction de production, telle qu’elle a été formulée originellement par Charles W. Cobb et Paul H. Douglas[1]. Ce truc-là, ça ne cesse pas de m’étonner. La première source d’étonnement, c’est la façon dont le modèle original a été distordu dans sa signification. Professeur Cobb et professeur Douglas one écrit d’une façon explicite, dans la conclusion de leur article de 1928, que la plus grande faiblesse de leur modèle est sa capacité à capter des changements dans le temps et que l’idéal serait de l’appliquer comme vecteur structurel constant, sans une référence quelconque à la variable « temps ». Cependant, lorsque nous voyons les applications modernes de la fonction de production, c’est précisément pour étudier les changements dans le temps, donc exactement le contexte que les pères-fondateurs de cette théorie jugeaient le moins approprié.

De toute façon, quand j’étudie cet article originel par Charles W. Cobb et Paul H. Douglas, je suis étonné par quelque chose d’autre : leur méthode. J’explique. Dans l’introduction de leur article, Cobb et Douglas annoncent qu’ils veulent tracer une fonction d’accumulation de capital comme facteur de croissance économique et séparer l’accumulation comme facteur distinct du progrès technologique. Bon, c’est une direction valable. Ensuite, ces deux gentlemen introduisent tout à coup, sans aucune explication méthodologique préalable, une formule toute faite qui a la capacité irritante à prédire la production très exactement sur la base d’accumulation. Avec « P » symbolisant, dans leur notation originelle, la production agrégée, ou le PIB, « K » et « L » représentant, respectivement, capital physique et travail en nombre d’heures travaillées par an, ils introduisent un PIB normalisé, qu’ils notent comme « P’ », calculé avec la formule suivante :

P’ = 1,01*L3/4*K1/4

Comme je dis, cette formule, avec ses paramètres est servie toute chaude à la page 151 dans l’article d’origine, sans hors d’œuvre préalables. On a une discussion sur les données empiriques en jeu et tout à coup ‘paf !’, un modèle paramétrique atterrit au milieu du jardin. De plus, le modèle, il marche à la perfection avec les données que Charles W. Cobb et Paul H. Douglas introduisent comme leur référence empirique. Le P’ normalisé colle au P réel comme du Sparadrap.  Ce n’est que dans la suite de leur article que ces deux messieurs expliquent comment ils sont arrivés à ces paramètres précis. Les puissances – « ¾ » pour travail L et « ¼ » pour capital physique – avaient apparemment été calculées comme de premières dérivées des fonctions linéaires du produit final P régressé sur K et L respectivement.

J’ai essayé. Ça ne marche pas. J’ai essayé avec les données d’origine utilisées par Charles W. Cobb et Paul H. Douglas, j’ai essayé avec Penn Tables 9.0 (Feenstra et al. 2015[2]) et ça ne marche pas. Pendant que le coefficient du capital, calculé de cette façon, est bien gentil et tout à fait proche des estimations de 1928, le coefficient du travail se balade dans des eaux inconnues, entre -15 et 28. Si vous essayez d’élever quelle valeur économique que ce soit à la puissance – 15 ou à celle de 28, ça perd tout le sens : il y a trop de multiplication dans le modèle. Un polynôme de 28ème degré, ça a moins de stabilité que l’humeur d’un pitbull enragé.

En revanche, lorsque j’ai essayé de craquer la formule de Cobb et Douglas à ma propre façon, en passant par les logarithmes naturels, ça a marché bien. J’ai testé l’hypothèse que « ln(PIB) = a1*ln(K) + a2*ln(L) + constante résiduelle ». Avec R2 = 0,978, ça semble du solide. Ensuite, j’ai pris les coefficients a1 et a2 comme puissances pour K et L. En plus, j’ai fait un facteur constant avec le nombre d’Euler (environ 2,71828, mais on ne sait jamais, vous savez) élevée à la puissance égale à cette constante résiduelle. C’est là que les surprises commencent. La constante résiduelle de ce modèle s’avère être 0,076. Utilisée comme puissance de la constante e = 2,718649, ça donne 1,078962574, donc très près du paramètre original de Cobb et Douglas. Coïncidence ? Honnêtement, je n’en sais rien, mais ce n’est pas la fin des surprises. Mes puissances pour K et L étaient à peu près l’opposé de celles de Cobb et Douglas. J’ai eu 0,267 pour travail L et 0,728 pour capital K. Tout d’abord, 0,267 + 0,728 = 0,995, donc très près du « 1 » assumé dans la fonction originelle de Cobb et Douglas. Encore une fois : comment ? Je n’en sais rien. De toute façon, j’ai testé, dans Penn Tables 9.0, la validité du modèle:

PIB = (econstante résiduelle)*Ka1*La2

J’ai obtenu une fonction de production qui se comporte d’une façon très similaire à celle de Cobb et Douglas, avec R2 = 0,922. Ça, je peux comprendre. Seulement voilà, j’ai testé l’hypothèse logarithmique « ln(PIB) = a1*ln(K) + a2*ln(L) + constante résiduelle » avec le déficit alimentaire comme variable de contrôle. Dans la plupart de classes de déficit alimentaire, mes paramètres tombent comme dans la population générale, donc à l’opposé de ceux de Cobb et Douglas. La plupart, sauf une classe : entre 0 et 28 kcal par jour par personne de déficit alimentaire. Ici, les paramètres sont 0,724 pour travail L et 0,239 pour capital K : très près de « ¾ » pour travail L et « ¼ » pour capital physique dans la fonction originelle de Cobb et Douglas. En plus, 0,724 + 0,239 = 0,963. Encore, vraiment près de 1. Juste un petit détail qui cloche : quand j’essaie de reconstituer le paramètre général, celui que Cobb et Douglas ont estimé à 1,01, j’obtiens 10,97. Donc, les gens légèrement affamés produisent leur PIB presque exactement comme prédit par Cobb et Douglas, seulement ils en font dix fois plus avec la même quantité des moyens de production.

Alors, je résume. Je prends la fonction originelle de production de Charles W. Cobb et Paul H. Douglas. J’essaie de reconstituer leur preuve d’origine et ça ne marche pas. J’essaie ma propre méthode et cette fois ça marche. J’ai donc une théorie qui marche mais on ne sait pas comment elle fait. J’applique la même approche « leur modèle, leur méthode d’estimation des paramètres » aux données empiriques modernes et ça ne marche pas. J’essaie, en revanche, l’approche « leur modèle, ma méthode d’estimation » et ça marche, seulement ça marche à l’envers. Je contrôle mon univers de recherche avec la variable de déficit alimentaire et dans les populations qui sont légèrement mal nourries, avec un déficit de 0 – 28 kcal par jour par personne, je peux reconstituer presque exactement le modèle initial de de Charles W. Cobb et Paul H. Douglas, seulement c’est un modèle nourri avec des stéroïdes, qui rend dix fois plus qu’il ne devrait rendre. Plus de questions que de réponses. J’aime bien.

Un rappel de routine : je suis en train de jumeler deux versions identiques de mon blog dans deux environnements différents : Blogger ( ) et Word Press ( Mon objectif est de créer in site scientifique et éducatif complet dans l’environnement Word Press, donc je vous serai reconnaissant si vous migrez vers ce dernier et vous y abonniez. Sans vous presser, mollo.

[1] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

[2] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at

Cases of moderate deprivation

A few words from me via You Tube

I intend to continue my research with three strands of ideas. The first is the idea of innovation as collective experimentation and learning, rather than linear progress in terms of productivity. In that context, I would like return to the issue, which I had been developing for a few months, this spring, namely to the role of cryptocurrencies in technological change.  The second direction is that of the production function, as it was formulated, back in the day, by Prof Charles W. Cobb and Prof Paul H. Douglas, in their common work from 1928[1]. I keep reading and rereading their article, together with their source documents, and I can’t help being fascinated by the logical structure those two scientists came up with. The third path is that of innovation being done in two different environments: people wealthy enough not to have any food deficit, on the one hand, and those who starve, with various acuity, on the other hand.

As you might already know from the reading of my earlier posts, I like inverting orders. Thus, taking on the last item – the issue of food deficit in the context of innovation – and making it the first step in all the rest of my research is just fine. Still, continuing with those three strands of ideas means that I want to find connections between them, so as sort of make those three paths converge into one, big theory of whatever it will turn out to be. All this elaborate introduction means, at the bottom line, that I am continuing with the topic, which I already developed in my update from the 10th of August (see or ).

I am returning to a model I built and published this spring, namely that of technological change manifesting itself at the level of monetary systems. First, a few words of explanation and reminder. With the World Bank, you can fish out a statistic called ‘Supply of broad money as % of the GDP’. It is supply of broad money, or ‘M’, divided by the value of real output ‘Q’. Now, this ratio, namely M/Q, happens to be the reciprocal of what the godfather of monetarism, Milton Friedman, used to define as the velocity of money: Q/M. Milton Friedman claimed that the velocity of money is a deeply structural variable, it determines the demand for money in the given economy, and we can assume it to be basically constant. As we invert the statistic provided by the World Bank, and convert it into the velocity of money, it becomes embarrassing: at the scale of the whole global economy, it keeps falling since the 1960ies. That’s life: you invert the way of thinking about something, you convert people into something else, and it becomes embarrassing. Anyway, deeper exploration of data shows a consistent decrease in the velocity of money in emerging markets and developing economies, whilst it stays more or less stable (well, oscillating around a more or less horizontal trend) in the developed economies.

I had that idea that the increasing monetization of the global economy could result from increasingly fast a technological change: we are entrepreneurs, and the faster we have to amortize our productive assets, the thicker cushion of highly liquid, financial assets we tend to maintain in our balance sheets. I formalized that idea in an article, the full version of which you can find by clicking this link . I decided to get back to my quantitative model from that article and to insert food deficit as control variable, just to see what happens. That seeing what happens is basically consistent with my latest findings, namely that the functioning of the monetary system is important for alleviating the deficit of food.

That basic model I decided to get back to unfolds according to the following principles. The variable I am explaining is the velocity of money ‘V’, or output divided by the supply of money. I am testing the hypothesis that ‘V’ is being shaped by the pace of technological change, expressed as the ratio of aggregate depreciation in fixed assets, per million inhabitants, or ‘DeprPop’. Additionally, there is that variable of resident patent applications per million people, or ‘PatappPop’. To that, I add one factor of scale, namely the Gross Domestic Product (GDP), and one structural factor in the form of density in population (DensPop). In my scientific clemency, I allow the explained variable V to have some residual play, independent from explanatory variables. Anyway, I squeeze all that company down to their natural logarithms, and I get this model:

ln(V) = a1*ln(GDP) + a2*ln(DeprPop) + a3*ln(PatappPop) + a4*ln(DensPop) + Residual

Now, I take my compound database, essentially standing on Penn Tables 9.0 (Feenstra et al. 2015[2]), with additional variables stuck to it, and I test the model. In the whole sample of all valid observations, food deficit or not, I get n = 2 238 of those ‘country – year’ records, and a coefficient of determination is R2 = 0,409. The individual coefficients look like that:

variable coefficient std. error t-statistic p-value
ln(GDP) -0,077 0,008 -9,989 0,000
ln(DeprPop) -0,269 0,016 -16,917 0,000
ln(PatappPop) 0,015 0,007 2,044 0,041
ln(DensPop) -0,102 0,006 -16,299 0,000
Constant residual 3,939 0,122 32,202 0,000

OK, that was the reminder. Now, let’s drop the depth of food deficit into this sauce. First, I go to cases of the most severe food deficit, between 744 and 251 kilocalories a day per person. First remark that jumps to the eye immediately: those people do not have any patentable inventions on record. I have to remove the variable ‘PatappPop’ from the game and I land with n = 265 observations and virtually no determination: my R2 = 0,040. This is hardly worth to study coefficients in this context, but just for the sake of completeness I am giving it here, below:

variable coefficient std. error t-statistic p-value
ln(GDP) -0,099 0,035 -2,851 0,005
ln(DeprPop) -0,058 0,037 -1,567 0,118
ln(DensPop) 0,011 0,022 0,513 0,608
Constant residual 2,68 0,304 8,821 0,000

First provisional conclusion: the really poor people do not have enough scientific input to spin that wheel into motion. I climb one step up in the ladder of alimentary deprivation, to the category between 250 and 169 kilocalories a day per person. This one is quite cosy in terms of size: just n = 36 observations. Basically, it is at the limit between quantitative and qualitative, and still it yields a nice coefficient of determination: R2 = 0,489. The coefficients of regression come as shown in the table below:

variable coefficient std. error t-statistic p-value
ln(GDP) -0,225 0,072 -3,131 0,004
ln(DeprPop) -0,282 0,091 -3,094 0,004
ln(PatappPop) -0,045 0,069 -0,649 0,521
ln(DensPop) -0,088 0,11 -0,801 0,429
Constant residual 5,686 1,018 5,583 0,000

I keep scaling up that ladder of poverty, and I pass to the interval between 168 and 110 kcal a day missing in the food intake of an average person. I get n = 120 observations, and R2 = 0,767 terms of determination in the model. Remarkable jumps as for explanatory power. Interesting. I feel I will need some time to wrap my mind around it. Anyway, as I pass to the coefficients of regression, I get this:

variable coefficient std. error t-statistic p-value
ln(GDP) -0,283 0,021 -13,495 0,000
ln(DeprPop) -0,268 0,057 -4,722 0,000
ln(PatappPop) -0,038 0,019 -1,998 0,048
ln(DensPop) -0,018 0,037 -0,474 0,637
Constant residual 6,234 0,525 11,867 0,000

Second provisional conclusion: as I am scaling up the poverty ladder, the variable of patent applications per million people slowly gains in importance. For the moment, it manifests as increasing significance of its correlation with the explained variable (velocity of money). I keep climbing, and I pass to the category of food deficit between 109 and 61 kcal a day per person. My sample is made of n = 92 observations, and I hit quite a nice coefficient of determination: R2 = 0,786. The table of coefficients looks like that:

variable coefficient std. error t-statistic p-value
ln(GDP) -0,197 0,034 -5,789 0,000
ln(DeprPop) -0,302 0,073 -4,156 0,000
ln(PatappPop) -0,035 0,024 -1,439 0,154
ln(DensPop) -0,264 0,032 -8,302 0,000
Constant residual 6,538 0,547 11,963 0,000

The coefficients are basically similar, in this category, to those computed before. Nothing to write home about. One thing is really interesting, nonetheless: the importance of density of population. In the overall sample, density of population showed high significance in its correlation with the velocity of money. Yet, with those really food-deprived people in the previously studied classes of food deficit, that correlation remained hardly significant at all. Here, as we pass the threshold of 110 kcal a day per person in terms of food deficit, density of population starts to matter. It becomes truly a structural metric, as if the functioning of the social structure changed somewhere around this level of deprivation in food.

I climb up. The next class is between 60 and 28 kcal a day per person. I have n = 121 observations and R2 = 0,328. Interesting: in previous classes, the explanatory power of the model grew as the food deficit got shallower. Now, the pattern inverts: the model loses a lot of its power. The coefficients are to find in the table below:

variable coefficient std. error t-statistic p-value
ln(GDP) 0,159 0,046 3,445 0,001
ln(DeprPop) -0,78 0,116 -6,739 0,000
ln(PatappPop) 0,023 0,037 0,619 0,537
ln(DensPop) -0,166 0,064 -2,609 0,010
Constant residual 4,592 0,694 6,612 0,000

Another interesting observation to make: this particular class of food deficit seems to be the only one, where the scale factor, namely Gross Domestic Product, appears with a positive sign, i.e. it contributes to increasing the velocity of money. In all the other tests, it has a negative sign. Another puzzle to solve. Cool! I go up: between 28 and 0 kcal a day missing per person. Size: n = 140. The point of doing regression: questionable. The coefficient of determination is R2 = 0.209, and as for the significance to find in individual correlations, there is hardly any. You will see by yourselves in the table below:

variable coefficient std. error t-statistic p-value
ln(GDP) -0,013 0,087 -0,148 0,883
ln(DeprPop) -0,048 0,069 -0,705 0,482
ln(PatappPop) 0,022 0,043 0,51 0,611
ln(DensPop) -0,203 0,066 -3,079 0,003
Constant residual 1,837 0,998 1,841 0,068

I remember that in this particular class of food deprivation, I intuitively guessed a lot of internal disparity, as I measured the coefficient of variability in the ratio of patent applications per one million people. It seems to be confirmed here. This particular class of countries seems to contain a lot of local idiosyncrasies. Another cool puzzle to solve.

Now, I switch to the wealthy ones, among whom I have the luck to live and write those lines: no food deficit recorded. My sample is n = 1 726 observations, this time, and it lands with an acceptable determination in the model: R2 = 0,445. Correlations are straight as rain. All the explanatory variables hit a significance p < 0,001. Just as if getting rid of poor, undernourished people suddenly made science simpler to practice. See the table of coefficients:

variable coefficient std. error t-statistic p-value
ln(GDP) -0,043 0,008 -5,238 0,000
ln(DeprPop) -0,316 0,018 -17,229 0,000
ln(PatappPop) 0,035 0,01 3,524 0,000
ln(DensPop) -0,092 0,007 -13,776 0,000
Constant residual 3,737 0,134 27,874 0,000

Now, time to get to the general point. What I think I have demonstrated is that the level of food deprivation matters for the way that my model works. In other words: the economic system, and, logically, the whole social structure, work differently according to the relative place of the given population in the ladder of that most abject poverty, measured by hunger. Another general conclusion emerges: there is a certain level of poverty, where people seem to make the most out of technological change. Depending on the kind of test I am using, it is either below 28 kcal per person per day (my previous post on the topic), or between 169 and 61 kcal a day per person (this time). There is some kind of social force, which I will have to put a label on but it still has to wait and crystallize, and which appears in these particular cases of moderate deprivation. This force seems to disappear in wealthy populations, to the benefit of steel-hard coherence in the model.

[1] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

[2] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at

Un peu de parallélisme avec un organisme vivant

Mon éditorial d’aujourd’hui, sur You Tube

Dans les sciences sociales, beaucoup dépend du point de vue qu’on adopte. « Eh ben oui, c’est évident », dirait Milton Friedman, « Tu explores et tu conclus sur la base d’une hypothèse, toujours. Même si tu n’en as pas formulé une explicitement, t’en a une dans ta tête, quelque part. Tu cherches des trucs que tu sais tu devrais chercher, pour réduire la dissonance cognitive engendrée par la présence d’hypothèses dans ton esprit. Une hypothèse, c’est comme une question que tu as transformée en une énonciation avant de finir d’y répondre. C’est pour ça qu’il vaut mieux se rendre compte consciemment de nos hypothèses »

Ce que j’ai dans l’esprit, moi, c’est l’idée générale d’apprentissage collectif par l’expérimentation collective. Au sens plus large, quand je regarde les changements sociaux et technologiques dans l’économie mondiale, j’ai presque toujours une association d’idées avec le concept d’intelligence collective. Quand je lis les dernières nouvelles du front de combat que professeur Jordan Peterson, de l’université de Toronto, mène contre les postmodernistes ainsi que contre l’idée de pronoms transgenres, je me demande toujours : « Et si toute cette situation, apparemment idiote, était une manifestation d’intelligence collective qui s’est mise au travail pour trouver une solution ? Et si ce que cette intelligence collective essaie de faire était la solution d’un problème dont nous ne nous rendons même pas compte ? ». J’ai un peu les mêmes réflexions quand je regarde les combats épiques – et purement verbaux, heureusement – entre les trumpistes et les anti-trumpistes aux Etats-Unis ou entre la gauche globaliste et la droite nationaliste dans mon propre pays, la Pologne. J’ai l’impression que les comportements qui semblent franchement cons à première vue pourraient bien être une manifestation d’une expérimentation collective et d’un apprentissage collectif par une intelligence collective.

Bon, il serait peut-être bon que je clarifie mes idées un peu. Je procède par l’ordre de mes impressions, sans essayer, pour le moment, de créer une structure théorique solide. Je me souviens d’avoir lu, chez Orhan Pamuk, l’écrivain Turque honoré avec le Prix Nobel en littérature, que les gens de l’Occident souffrent d’une incompréhension fondamentale eu égard au jeu d’échecs. Dans l’Occident, nous interprétons les échecs comme une guerre simulée, pendant que l’idée originale de ce jeu – selon Orhan Pamuk – est de représenter le fonctionnement de l’esprit humain. Quoi qu’on n’essaie de faire, on a trois mouvements de base – droit devant, en diagonale ou bien en courbe du cavalier (trois pas en avant, un de côté) – plus une hiérarchie quant au pouvoir d’action : le roi, le pion et le cavalier ont une rangée limitée, pendant que la reine, le fou et la tour peuvent aller aussi loin qu’ils veulent. Quoi qui se passe, sur l’échiquier, il y a toujours deux ensembles qui font un choix répété, en séquence, entre ces trois mouvements, dans ces deux rangées d’action. Le talent du joueur d’échecs se voie par sa capacité à soumettre la séquence de ces mouvements simples à un objectif stratégique et à minimiser l’incidence des mouvements purement réactifs vis à vis ceux de l’adversaire ainsi que de mouvements illogiques, faits juste pour faire quelque chose, sans même une tactique momentanée pour les justifier.

Lorsque nous mettons en place de nouvelles institutions dans notre société – c’est-à-dire des nouvelles composantes de langage, des lois ou des coutumes nouvelles, des nouvelles hiérarchies ou de nouveaux réseaux – nous avons, comme collectivité, une gamme assez restreinte des moyens d’action. On peut redéfinir et redistribuer les rôles sociaux, on peut redéfinir les frontières entre les groupes sociaux et on peut se pencher sur les mécanismes d’appropriation de ressources. C’est à peu près tout. Si nous regardons la société comme une structure, les changements structurels de base sont ceux-ci : rôles, identité des groupes, accès aux ressources. Par-dessus l’arrangement courant de ces trois éléments, on crée une culture verbale qui a pour but de faire cet arrangement intelligible et communicable. Tout comme les mouvements de base du jeu d’échecs, les trois réarrangements de base dans la structure sociale – rôles, identité de groupes, accès aux ressources – peuvent être plus ou moins cohérents par rapport à une stratégie. Le « plus ou moins » peut s’étendre, en fait, d’une absence complète de cohérence stratégique, à travers des séquences cohérentes comme tactiques, sans qu’une logique de long terme soit visible, jusqu’aux réarrangements sociaux marqués par une cohérence stratégique profonde.

Le jeu d’échecs nous apprend encore une chose : dès qu’il y a plus d’un cerveau dans la combine, même une stratégie apparemment parfaite peut s’avérer inefficace, de même qu’une séquence aléatoire et peu cohérente peut mener à la victoire. A l’échelle de la société entière, cela peut se traduire comme une impossibilité de fait de construire une stratégie parfaitement cohérente : comme des séquences nouvelles des mouvements sont initialisées tout le temps, chaque stratégie perd en cohérence à mesure que des stratégies alternatives soient déployées par d’autres agents sociaux.

Bon, mais j’en étais au professeur Jordan Peterson de l’université de Toronto et sa croisade contre l’unicorne transgenre introduit dans les programmes éducatifs d’écoles de province d’Ontario. Professeur Peterson y voit un danger. Sincèrement, moi aussi je vois un danger dans une imposition, forcée par la loi, sous peine d’amende, d’utiliser certains pronoms (peu importe lesquels) au lieu d’autres. Néanmoins, quand le regarde toute cette situation au Canada dans une autre perspective, je vois une société qui expérimente avec l’un des outils fondamentaux de construction sociale, c’est-à-dire avec l’identité de groupe. Tout ce langage d’oppression et de la nécessité de la combattre, même si, parfois, il semble un peu schizophrène, est comme une sorte d’expérience collective, basée sur l’hypothèse générale que si on change quelque chose dans le système d’identités des groupes, on peut obtenir un ordre social différent et peut-être meilleur.

Il y a un phénomène intéressant dans le domaine que je suis en train d’étudier maintenant, dans le cadre de mon contrat de recherche pour cette année, c’est-à-dire l’innovation. Le phénomène consiste dans une disparité croissante de la génération d’idées, à travers l’économie mondiale. Dans l’étude économique sur l’innovation, l’une des mesures de base quant à l’intensité des changements technologiques est le coefficient du nombre des demandes de brevet par un million d’habitants. J’ai utilisé les données de la Banque Mondiale pour calculer la moyenne de cette variable, ainsi que sa variance, à travers les différents pays du monde, dans les années consécutives de la période 1960 – 2014. Le fichier Excel correspondant est à trouver sous ce lien hypertexte-ci. Ce que vous pourrez constater, c’est qu’à un certain moment, aux alentours de l’année 1990, la variabilité de la distribution géographique de ce coefficient avait commencée à croître visiblement, et ça continue de se diversifier. En d’autres mots : notre civilisation, à l’échelle globale, devient de plus en plus diversifiée dans la capacité locale de générer des inventions brevetables. Une invention brevetable c’est simplement une idée avec du capital à l’appui. Le monde se diversifie de plus en plus dans sa capacité de générer des idées qui, à leur tour, se gagnent le support capitaliste. Des pôles d’innovation se forment.

Il y a deux remarques importantes à faire quant à cette polarisation. Premièrement, les sciences physiques sont plutôt claires sur ce point-là : une polarisation croissante témoigne d’une accumulation d’énergie dans le système. C’est comme si de plus en plus d’énergie intellectuelle était présente dans la société humaine, et l’énergie, ça ne se dépense pas à la légère : il doit y avoir une bonne raison pour qu’une civilisation entière se remue les méninges. Précisément, quand on parle des raisons, il y a une deuxième remarque à propos de ce coefficient de demandes de brevet par un million d’habitants : sa disparité spatiale a commencé à croître, donc la polarisation du système a commencé à s’accentuer, donc l’énergie intellectuelle en jeu a commencé à s’accumuler, aux alentours de 1990, c’est-à-dire au moment-même quand la croissance de la population des migrants dans le monde a commencé à croître beaucoup plus vite que la population générale. Quant à cette dernière constatation, vous pouvez trouver du matériel empirique dans ce fichier Excel ici .

En d’autres mots, deux grand moteurs de changement structurel dans notre civilisation se sont mis en marche, à cadence accélérée, vers 1990 : les migrations et la génération du capital intellectuel. Comme civilisation, nous avons commencé à expérimenter avec notre propre structure. Hier, j’ai regardé une interview avec docteur Andy Galpin , un physiologiste de sport, qui fait une distinction intéressante dans les stratégies d’entrainement. Il distingue entre l’optimisation et l’adaptation. L’optimisation consiste à aligner toutes nos ressources physiologiques pour atteindre un objectif spécifique, par exemple une médaille olympique, tandis que l’adaptation est une exposition consciente à des conditions externes atypiques – comme un type radicalement différent d’effort physique, jeûne, climat différent – pour développer notre capacité d’adaptation en tant que telle. Docteur Galpin affirme que l’optimisation et l’adaptation sont les deux mécanismes fondamentaux d’apprentissage au niveau physiologique dans notre organisme. Comme matière vivante, nous suivons une séquence d’adaptation et d’optimisation, et les proportions entre les deux dépendent surtout des facteurs exogènes. Quand l’environnement est stable, notre organisme essaie d’optimiser ses fonctions. Lorsqu’il y a du nouveau, au niveau physiologique, notre corps passe en mode « adaptation » et les priorités changent : au lieu de développer des stratégies optimales, notre organisme essaie surtout de développer des stratégies alternatives.

Dans les sciences sociales, il y a cette trace très nette de parallélisme avec un organisme vivant. C’est pratiquement le fondement-même d’utilitarisme social qui, à son tour, est à la base des sciences économiques. Bien sûr, il faut se garder des parallèles trop faciles, néanmoins cette piste à sa logique qui tient le coup. On peut se demander si les changements sociaux que nous pouvons observer dans le monde, même s’ils semblent stupides et incohérents à première vue, ne sont pas, par hasard, la manifestation des tentatives intensifiées de mettre au point une civilisation nouvelle.

Everything even remotely economic

My editorial

Back to my work on innovation, I am exploring a new, interesting point of view. What if we perceived technological change and innovation as collective experimentation under uncertainty, an experimentation that we, as a species, are becoming more and more proficient at?  Interesting path to follow. It has many branches into various fields of research, like games theory, for example. The curious ape in me likes branches. They allow it to dangle over problems and having an aerial view. The view involves my internal happy bulldog rummaging in the maths of the question at hand, and my internal monk, the one with the Ockham’s razor, fending the bulldog away from the most vulnerable assumptions.

One of the branches that my ape can see almost immediately is that of incentives. Why do people figure out things, at all? First, because they can, and then because they’d better, under the penalty of landing waist deep in shit. I think that both incentives, namely ‘I can’ and ‘I need to’ sum up very much to the same, on the long run. We can do things that we learn how to do it, and we learn things that we’d better learn if we want our DNA to stay in the game, and if such is our desire, we’d better not starve to death. One of the most essential things that we have historically developed the capacity of learning about is how to get our food. There is that quite cruel statistic published by the World Bank, the depth of food deficit. It indicates the amount of calories needed to lift the undernourished from their status, everything else being constant. As the definition of that variable states: ‘The average intensity of food deprivation of the undernourished, estimated as the difference between the average dietary energy requirement and the average dietary energy consumption of the undernourished population (food-deprived), is multiplied by the number of undernourished to provide an estimate of the total food deficit in the country, which is then normalized by the total population’.

I have already made reference to this statistic in one of my recent updates (see ). This time, I am coming back with the whole apparatus. I attach this variable, as reported by the World Bank, to my compound database made of Penn Tables 9.0 (Feenstra et al. 2015[1]), as well as of other data from the World Bank. My curious ape swings on a further branch and asks: ‘What does innovation and technological progress look like in countries where people still starve? How different is it from those wealthy enough for not worrying so much about food?’. Right you are, ape. This is a good question to ask, on this Thursday morning. Let’s check.

I made a pivot out of my compound database, summarizing the distribution of key variables pertaining to innovation, across the intervals defined regarding the depth of food deficit. You can grab the Excel file at this link: . A few words of explanation are due as for the contents. The intervals in the depth of food deficit have been defined automatically by my statistical software, namely Wizard for MacOS, version 1.9.9 (222), created by Evan Miller. Those thresholds of food deficit look somehow like sextiles (spelled together!) of the distribution: there is approximately the same number of observations in each interval, namely about 400. The category labelled ‘Missing’ stands for all those country – year observations, where there is no recorded food deficit. In other words, the ‘Missing’ category actually represents those well present in the sample, just eating to their will.

I took three variables, which I consider really pertinent regarding innovation: Total Factor Productivity, the share of the GDP going to the depreciation in fixed assets, and the ratio of resident patent applications per one million people. I start with having a closer look at the latter. In general, people have much more patentable ideas when they starve just slightly, no more than 28 kilocalories per day per person. Those people score over 312 resident patent applications per million inhabitants. Interestingly, those who don’t starve at all score much lower: 168,9 on average. The overall distribution of that variable looks really interesting. Baby, it swings. It swings across the intervals of food deficit, and it swings even more inside those intervals. As the food deficit gets less and less severe, the average number of patent applications per one million people grows, and the distances between those averages tend to grow, too, as well as the variance. In the worst off cases, namely people living in the presence of food deficit above 251 kilocalories a day, on average, that generation of patentable ideas is really low and really predictable. As the situation ameliorates, more ideas get generated and more variability gets into the equation. This kind of input factor to the overall technological change looks really unstable structurally, and, in the same time, highly relevant regarding the possible impact of innovation on food deficit.

I want this blog to have educational value, and so I explain how am I evaluating relevance in this particular case. If you dig into the theory of statistics, and you really mean business, you are likely to dig out something called ‘the law of large numbers’. In short, that law states that the arithmetical difference between averages is highly informative about real differences between populations these averages have been computed in. More arithmetical difference between averages spells more real difference between populations and vice versa. As I am having a look at the distribution in the average number of resident patent applications per capita, distances between different classes of food deficit are really large. The super-high average in the ‘least starving’ category, the one between 28 kilocalories a day and no deficit at all, together with the really wild variance, suggest me that this category could be sliced even finer.

Across all the three factors of innovation, the same interesting pattern sticks out: average values are the highest in the ‘least starving’ category, and not in the not starving at all. Unless I have some bloody malicious imp in my dataset, it gives strong evidence to my general assertion that some light discomfort is next to none in boosting our propensity to figure things out. There is an interesting thing to notice about the intensity of depreciation. I use the ratio of aggregate depreciation as a measure for speed in technological change. It shows, how quickly the established technologies age and what economic effort it requires to provide for their ageing. Interestingly, this variable is maybe the least differentiated of the three, between the classes of food deficit as well as inside those classes. It looks as if the depth of food deficit hardly mattered as for the pace of technological change.

Another interesting remark comes as I look at the distribution of total factor productivity. You remember that on the whole, we have that TFP consistently decreasing, in the global economy, since 1979. You remember, do you? If not, just have a look at this Excel file, here: . Anyway, whilst productivity falls over time, it certainly climbs as more food is around. There is a clear progression of Total Factor Productivity across the different classes of food deficit. Once again, those starving just a little score better than those, who do not starve at all.

Now, my internal ape has spotted another branch to swing its weight on. How does innovation contribute to alleviate that most abject poverty, measured with the amount of food you don’t get? Let’s model, baby. I am stating my most general hypothesis, namely that innovation helps people out of hunger. Mathematically, it means that innovation acts as the opposite of food deficit, or:

Food deficit = a*Innovation     , a < 0

 I have my three measures of innovation: patent applications per one million people (PattApp), the share of aggregate depreciation in the GDP (DeprGDP), and total factor productivity (TFP). I can fit them under that general category ‘Innovation’ in my equation. The next step consists in reminding that anything that happens, happens in a context, and leaves some amount of doubt as for what exactly happened. The context is made of scale and structure. Scale is essentially made of population (Pop), as well as its production function, or: aggregate output (GDP), aggregate amount of fixed capital available (CK), aggregate input of labour (hours worked, or L). Structure is given by: density of population (DensPop), share of government expenditures in the capital stock (Gov_in_CK), the supply of money as % of GDP (Money_in_GDP, or the opposite of velocity in money), and by energy intensity measured in kilograms of oil equivalent consumed annually per capita (Energy Use). The doubt about things that happen is expressed as residual component in the equation. The whole is driven down to natural logarithms, just in order to make those numbers more docile.

In the quite substantial database I start with, only n = 296 observations match all the criteria. On the one hand, this is not much, and still, it could mean they are really well chosen observations. The coefficient of determination is R2 = 0.908, and this is a really good score. My model, as I am testing it here, in front of your eyes, explains almost 91% of the observable variance in food deficit. Now, one remark before we go further. Intuitively, we tend to interpret positive regression coefficients as kind of morally good, and the negative ones as the bad ones. Here, our explained variable is expressed in positive numbers, and the more positive they are, the more fucked are people living in the given time and place. Thus, we have to flip our thinking: in this model, positive coefficients are the bad guys, sort of a team of Famine riders, and the good guys just don’t leave home without their minuses on.

Anyway, the regressed model looks like that:

variable coefficient std. error t-statistic p-value
ln(GDP) -5,892 0,485 -12,146 0,000
ln(Pop) -2,135 0,186 -11,452 0,000
ln(L) 4,265 0,245 17,434 0,000
ln(CK) 3,504 0,332 10,543 0,000
ln(TFP) 1,766 0,335 5,277 0,000
ln(DeprGDP) -1,775 0,206 -8,618 0,000
ln(Gov_in_CK) 0,367 0,11 3,324 0,001
ln(PatApp) -0,147 0,02 -7,406 0,000
ln(Money_in_GDP) 0,253 0,06 4,212 0,000
ln(Energy use) 0,079 0,1 0,796 0,427
ln(DensPop) -0,045 0,031 -1,441 0,151
Constant residual -6,884 1,364 -5,048 0,000

I start the interpretation of my results with the core factors in the game, namely with innovation. What really helps, is the pace of technological change. The heavier the burden of depreciation on the GDP, the lower food deficit we have. Ideas help, too, although not as much. In fact, they help less than one tenth of what depreciation helps. Total Factor Productivity is a bad guy in the model: it is positively correlated with food deficit. Now, the context of the scale, or does size matter? Yes, it does, and, interestingly, it kind of matters in opposite directions. Being a big nation with a big GDP certainly helps in alleviating the deficit of food, but, strangely, having a lot of production factors – capital and labour – acts in the opposite direction. WTH?

Does structure matter? Well, kind of, not really something to inform the government about. Density of population and energy use are hardly relevant, given their high t-statistic. To me, it means that I can have many different cases of food deficit inside a given class of energy use etc. Those two variables can be useful if I want to map the working of other variables: I can use density of population and energy use as independent variables, to construe finer a slicing of my sample. Velocity of money and the share of government spending in the capital stock certainly matter. The higher the velocity of money, the lower the deficit of food. The more government weighs in relation to the available capital stock, the more malnutrition.

Those results are complex, and a bit puzzling. Partially, they confirm my earlier intuitions, namely that quick technological change and high efficiency in the monetary system generally help in everything even remotely economic. Still, other results, as for example that internal contradiction between scale factors, need elucidation. I need some time to wrap my mind around it.

[1] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at

Et si on diversifiait en présence d’une crise et simplifiait quand tout va bien ?

Mon éditorial d’aujourd’hui sur You Tube

Après une journée de balade du côté de l’histoire et des régulations issues par Louis XIV en 1673 à propos d’activité des marchands et négociants, je retourne bien sagement au sujet central de mon contrat de recherche cette année, c’est-à-dire à l’innovation, au progrès technologique ainsi qu’à l’entrepreneuriat. J’essaie de mettre de l’ordre dans les notes que j’ai faites jusqu’à maintenant et de répondre à une question fondamentale : qu’est-ce qu’il y a d’intéressant dans tout ce bazar ? Je recule donc jusqu’en printemps cette année, quand j’avais écrit mon premier article sérieux sur le sujet, en voie de publication dans Journal of Economics Library et que vous pouvez télécharger à cette adresse : . Lorsque je revoie cet article maintenant, avec du recul, l’intuition générale que j’en tire est qu’en vue des données macroéconomiques, dans l’économie mondiale on a plutôt affaire a du changement technologique accéléré qu’au progrès technique au sens strict du terme.

J’explique. Je représente tout changement technologique comme expérimentation sous incertitude. Si vous voulez, j’approche le problème plus du côté des sciences de management que du côté purement économique. Oui, je suis un économiste par doctorat et je devrais peut-être me tenir strictement à la méthodologie des sciences économiques, mais je n’y peux rien : j’y vois des lacunes. Dans les sciences économiques, l’explication la plus connue pour le mécanisme d’innovation est peut-être celle de Joseph Schumpeter : l’innovation, ça commence vraiment à jouer un rôle économique, lorsque ça conduit à la diffusion d’une fonction de production nouvelle, plus productive que celle utilisée avant[1]. Tout le cycle de destruction créative, imaginé par Joseph Schumpeter, réside sur cette assomption, qui, à son tour, est en fait à moitié chemin entre hypothèse et fait scientifique prouvé.

Je commence par examiner de près le chemin intellectuel qui avait conduit Joseph Schumpeter à formuler cette assomption. Il avait démarré avec une définition de la fonction de production, seulement le problème, c’est qu’il n’a pas fourni une définition claire de ce qu’il voulait dire par « fonction de production ». Selon ses propres mots (« Business Cycles », chapitre II), il avait dans l’esprit une « fonction qui lie les quantités de facteurs, comme travail, services d’agents naturels et des moyens de production qui ont été eux-mêmes produits (‘produits intermédiaires’ : matières premières, équipement etc.) à la quantité du produit qu’il est possible de produire à travers chacune parmi un nombre infini de combinaisons possible en vue de cette tâche productive, la pratique technologique et tout l’environnement étant ce qu’ils sont ». C’est bien joli, cette idée, seulement ce n’est pas du tout la fonction de production telle qu’on l’a admis dans la théorie économique après la publication des travaux de Charles W. Cobb et Paul H. Douglas[2]. Ces derniers ont construit, onze ans avant la publication de Schumpeter, une fonction sur la base du facteur travail ainsi que du facteur capital, un point, c’est tout. Pas de biens intermédiaires, pas de facteurs naturels, pas de combinaisons.

La fonction de production dont parle Joseph Schumpeter – avec les biens intermédiaires dans le jeu – trahit quelques similitudes à l’équilibre temporaire de John Maynard Keynes et à sa notion de demande totale, mais à vrai dire, je n’ai trouvé nulle part dans la littérature économique aucune formule quantitative stricte qui correspondrait à cette notion théorique chez Joseph Schumpeter. Schumpeter ne donne point de telle formule non plus. Dans ses « Business Cycles », lorsqu’il étudie le remplacement de technologies obsolètes par des technologies nouvelles (chapitres VII, VIII et IX), il essaie de démontrer que dans chacun des cas la technologie nouvelle était plus productive. Néanmoins, à chaque fois, c’est une sorte d’argumentation à facteurs multiples et si on gratte la surface, ça revient à la constatation que si la technologie nouvelle en question a eu du succès dans le remplacement de son aïeule, elle a dû être plus productive.

Voilà donc qu’on bâtit toute une théorie de progrès technologique sur la base d’une notion qui n’a ni de définition précise ni de représentation mathématique qui tienne. En revanche, les sciences de management nous disent que lorsqu’une entreprise essaie de trouver une application pratique pour une invention, que ce soit une technologie nouvelle tout entière ou simplement une petite modification, apportée à quelque chose de bien connu, il y a toujours une incertitude profonde. De plus, cette incertitude ne décroît pas vraiment avec le temps. Plus nous innovons, plus nos compétiteurs font de même et par conséquent la course technologique accélère, ce qui ajoute de nouveaux facteurs d’incertitude etc. Innovation, telle qu’elle est vécue par les entrepreneurs, est donc loin d’être un chemin bien planifié vers une productivité plus élevée. Bien sûr, parfois ça marche et les nouvelles technologies apportent une hausse de productivité mais l’élément central ici est que nous ne savons jamais d’avance si tel sera bien le résultat.

Voilà donc que j’ai imaginé que le phénomène entier d’innovation, à l’échelle macroéconomique, pourrait s’expliquer comme un apprentissage collectif de changement. Si on prend une perspective historique longue, voilà ce qui apparaît. La mise en place des systèmes d’agriculture et d’alimentation plus ou moins viables, ça nous a pris plus ou moins 9000 ans, à l’échelle de l’espèce humaine entière. Je prends la seconde moitié du Xème siècle comme point de mise en place d’un tel système en Europe. Ensuite, on a eu besoin d’à peu près 600 ans pour atteindre une maîtrise décente d’énergie hydraulique ainsi que celle du vent. Là, on a buté contre l’obstacle de pénurie en matière première de base : le bois. On a donc fait un virage rapide vers l’énergie des carburants fossiles – pétrole, charbon et gaz naturel – et ce virage-là, il a duré moins d’un siècle. Maintenant, nous sommes en train de revenir vers les énergies renouvelables avec une nouvelle base de matières premières, et ça a l’air de brûler les pneus : en cinq ans, le prix des modules photovoltaïques a chuté de 80%. Chaque grande vague de changement technologique a l’air de se passer à peu près huit fois plus vite que la précédente. Ça tombe bien, en fait, parce que voilà, on a un changement climatique à magner, accompagné par une population croissante à nourrir.

De toute façon, mon intuition à moi est que l’innovation dans les méthodes de fabrication de biens c’est quelque chose que nous, bipèdes sans plumes, aimons bien faire et apprenons, comme espèce, à faire de plus en plus vite. Les changements de productivité agrégée pourraient être, en fait, un résultat complétement accidentel de ce jeu. J’ai une piste empirique à suivre, là : durant les 30 dernières années, la descente de productivité s’est accompagnée d’une croissance indéniable dans l’intensité d’invention technologique (toujours plus de demandes de brevet par 1 million de personnes), ainsi que dans le rythme d’amortissement d’actifs productifs. Nous inventons de plus en plus, nous changeons nos technologies de plus en plus vite et apparemment, nous nous fichons éperdument de ce que tout ça donne au niveau de la productivité agrégée.

J’ai aussi une association d’idées beaucoup plus distante, un peu inspirée par ma mise à jour d’hier ( regardez ou bien ). Eh bien hier, j’avais fait une petite fugue hors sujet et je me suis amusé à analyser une ordonnance de Louis XIV de 1673. L’idée qui me vient maintenant, comme un écho distant, est que dans la perspective historique, au moins en Europe, on a eu tendance à diversifier nos hiérarchies sociales lorsque nos grands changements technologiques étaient bien lancés et de simplifier la structure sociale lorsque nos technologies de base, donc celles d’alimentation et de transformation d’énergie, commençaient à s’embourber. Juste par curiosité (peut-être malsaine) je me demande ce qui se passerait si on faisait l’inverse : si on diversifiait nos hiérarchies sociales au temps de crise technologique et les simplifiait quand tout va bien.

[1] Schumpeter, J.A. (1939). Business Cycles. A Theoretical, Historical and Statistical Analysis of the Capitalist Process. McGraw-Hill Book Company

[2] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165