Deux ans après la mort

Un petit éditorial de ma part

Je crois qu’hier, dans ma mise à jour en anglais ( “Lazy Sunday, watching the clouds” ), j’ai enfin cerné les hypothèses que je voudrais développer et prouver dans mon article sur l’application des modèles évolutionnistes à l’étude des changements technologiques. Les hypothèses, ce n’est pas facile à formuler, au moins si j’ai l’intention de les vérifier. Alors, je peux formuler trois hypothèses, que je trouve à la fois possibles à vérifier et liées à ce truc d’évolutionnisme. Hypothèse no. 1 : L’innovation contribue à réduire le déficit alimentaire. Hypothèse no. 2 : Le nombre des demandes de brevet est significativement déterminé par la quantité de facteurs de production – capital et travail – couramment engagés. Hypothèse no. 3 : des sociétés distinctes se caractérisent par une proportion distincte entre le nombre des demandes de brevet et la quantité des facteurs de production – capital et travail – couramment engagés.

En comparaison de mes réflexions passées, ces hypothèses peuvent sembler bien sèches, même simplistes. Eh bien, c’est le rasoir d’Ockham au boulot. J’ai revu les faits empiriques que je peux citer comme preuve de ce que j’avance, j’ai essayé de formuler une signification commune de ces faits et voilà ce que j’ai obtenu. Vous pouvez vous demander qu’est-ce que j’ai fait de toute cette réflexion évolutionniste. Alors, tout ce chemin de raisonnement était justement un chemin de raisonnement, une expression plus ou moins intelligible de mes intuitions. Dans le langage strict de Milton Friedman, que j’apprécie beaucoup par ailleurs, ce sont des hypothèses spéculatives. J’ai comme une petite intuition que le changement technologique observable dans l’économie mondiale est un processus évolutionniste. Si je décide de publier cette idée, à la fois les critiques et les enthousiastes de cette idée viendront tôt ou tard à ce moment du haussement des épaules : « Ouais, c’est chouette. Génial, même. Alors, qu’est-ce que ça prouve, exactement ? Si, par exemple, nous sommes au Kenya, quelle serait la différence dans leur politique d’investissement en technologies nouvelles, du point de vue de votre modèle ?». C’est précisément dans un désir de devancer une telle question que je me suis concentré sur les hypothèses énumérées ci-dessus. L’avantage réside dans l’ampleur du champ d’applications possibles. Si je présente une preuve convaincante de ces hypothèses, et si j’équipe ma preuve empirique avec une version élégante du raisonnement que vous avez pu suivre sur mon blog durant ces dernières semaines, je démontrerai que le raisonnement évolutionniste est apte à générer un outil de prédiction, qui peut aider à comprendre comment l’innovation peut aider à sortir de la pauvreté.

Comme je suis cette piste de distinction entre la spéculation intellectuelle et les preuves empiriques, je suis retourné à un classique : le révérend Thomas Bayes et son essai posthume sur le calcul de probabilité (Bayes, Price 1763[1]). Voilà une histoire intéressante, lourde en conséquences. En Décembre 1763, monsieur Richard Price adresse une lettre à John Canton qui était alors, selon toute vraisemblance, le rédacteur en chef ou le rédacteur adjoint d’une revue prestigieuse intitulée « Philosophical Transactions of the Royal Society ». Dans cette lettre, Richard Price communique qu’en classant les notes de son ami Thomas Bayes, après la mort de celui-ci, il eut trouvé un essai extrêmement intéressant. Richard Price en lui-même était un personnage extrêmement intéressant (lisez plus, par exemple, ici : https://www.york.ac.uk/depts/maths/histstat/price.pdf ) et il était aussi intéressant de constater qu’il a soumis cet essai de Thomas Bayes à la Royal Society deux ans après la mort de son ami. Qu’était-il de si important dans cette œuvre ? Essayons de reconstruire le chemin de raisonnement qui a donné naissance à ce qu’on appelle aujourd’hui la statistique Bayésienne.

Je procède donc de ma manière préférée et je saute jusqu’à la fin dudit essai. Voilà ce qu’écrit Thomas Bayes dans la conclusion : « Ce qui recommande le plus la solution contenue dans cet essai est qu’elle est complète dans ces cas où l’information est la plus voulue et où la solution de Mr de Moivre du problème inverse peut donner peu ou pas de direction du tout ; je veux dire dans tous les cas où p ainsi que q n’ont pas de magnitude considérable. Dans d’autres cas, lorsque p ainsi que q sont très considérables, il n’est pas difficile de percevoir la véracité de ce qui a été démontré, donc qu’il y a des raisons de croire en général que les chances de l’occurrence d’un évènement sont aux chances de sa défaillance dans le même ratio que celui de p au q. Néanmoins nous serons grandement dupes si nous jugeons de cette manière lorsque p ou q sont petits. Et ainsi dans de tels cas les Données ne sont pas suffisantes pour découvrir la probabilité exacte d’un évènement, quoi qu’il est plausiblement possible de découvrir les limites entre lesquelles il est raisonnable de penser qu’il se trouve, ainsi qu’il est possible de déterminer le degré d’assentiment dû à toute conclusion ou assertion relative à ces limites ».

 Voilà donc que le révérend Thomas Bayes expose sa manière d’explorer les évènements à occurrence peu fréquente. Voulait-il établir une preuve éclairée de l’existence de du Dieu ? Possible. Voyons donc comment il s’y prend. Je passe directement au contenu de l’essai lui-même et je n’entre pas, pour le moment, dans les détails de la préface écrite par Richard Price dans sa lettre. Juste une remarque en passant. A l’école, on a été habitués à voir p et q comme des probabilités. Ici, dans la notation originale de Thomas Bayes, ce sont des nombres d’essais, pas des probas. Nous parlons donc des cas, ou le nombre d’essais est tellement faible qu’il est dur de calculer les probabilités classiques, comme P/N.

Thomas Bayes pose un problème simple : « Etant donné le nombre des fois quand un évènement inconnu s’est passé ou a failli de se passer ; ayant comme requis que la probabilité de son occurrence dans un essai unique se trouve quelque part parmi deux degrés de probabilité qui peuvent être nommés ». Ce qui intrigue tout de suite dans ce problème est la notion d’évènement inconnu. Normalement, dans le calcul de probabilité, un pas prérequis est de définir exactement les évènements observés. Ici, Bayes pose l’hypothèse d’un évènement que nous ne pouvons pas définir. Après, ça commence mollo : presque toute la Section I sonne exactement comme le contenu standard des manuels de maths aujourd’hui. Ça commence à être vraiment intéressant avec Proposition no. 2 dans cette section : « Si une personne a une espérance qui dépend sur l’occurrence d’un évènement, la probabilité de l’évènement est à la probabilité de sa défaillance comme sa perte en cas de défaillance à son gain en cas de l’occurrence ». Voilà que Thomas Bayes annonce sa couleur pour la première fois : dans la vie réelle, nous n’avons pas l’occasion, d’habitude, de calculer les probabilités de succès ou de perte. Nous avons des informations générales et catégoriques du genre : « si votre ceinture de sécurité n’est pas bouclée, la chance que vous soyez atteint par une météorite est X ». On veut savoir comment utiliser ces règles générales dans la vie de tous les jours et Thomas Bayes conseille : établissez des scénarios du genre « si X alors Y » et puis calculez les probabilités conditionnelles.

Exemple : je choisis entre plusieurs investissements alternatifs en des technologies distinctes. Je sais que je n’aurai pas l’occasion de tester chaque technologie l’une après l’autre et que personne ne peut me garantir le succès avec un choix donné. Néanmoins je veux pondérer mes risques. Thomas Bayes dit : d’abord, définissez ce qu’est un succès pour vous dans cette situation. Pour chaque technologie alternative, faites une estimation raisonnable de remplir ces critères de succès. Après ce pas initial, vous aurez donc une probabilité de succès égale à « a » et une probabilité d’échec égale à « b ». Remarquez : échec ne veut pas nécessairement dire faillite complète. Là, j’ai un peu de flexibilité, suivant mes critères de succès. Maintenant, je construis in portefeuille de sept compagnies. Je suis préparé à en sacrifier deux sur l’autel de mon expérience en affaires, mais cinq d’entre eux doivent marcher, suivant ma définition préalable de ce que « marcher » veut dire pour moi. Je veux donc savoir quelle est la probabilité cumulative que 5 investissements sur 7 soient un succès et que 2 sur 7 soient des échecs.

Thomas Bayes postule que ma probabilité cumulative sera égale à E*ap*bq = E*a5*b2. Cela veut dire, dans le raisonnement original de Bayes, que mes 5 succès et 2 échecs peuvent survenir d’E façons différentes et mutuellement incohérentes. Il est utile de se souvenir, à ce point-ci, que les probabilités sont, par définition, des fractions plus petites que 1. Plus grande est l’exposante à laquelle j’élève une telle fraction, plus petite sera la puissance obtenue. Donc, même si mes chances de succès soient égales à celles de l’échec, donc si a = b = 0,5, 0,5 puissance 5 sera plus petit que 0,5 puissance 2. Plus je veux de succès sur un nombre total d’essais, plus petite sera la probabilité de les obtenir, et c’est alors que le facteur E prend de l’importance.  Plus de combinaisons différentes ai-je d’avoir 5 succès et 2 échecs sur un total de 7 investissements, plus grandes sont mes chances d’atteindre mes objectifs.

La théorie que Thomas Bayes exposa dans son essai est vraiment complexe. Là, je ne viens que survoler ses hypothèses initiales. La leçon à tirer est très proche de ce que je suis en train de développer dans mes modèles évolutionnistes : la flexibilité et le choix ont une importance primordiale pour l’issue finale d’un ensemble complexe d’actions entreprises par une société humaine. Nous pouvons dire que les probabilités simples, comme « a » et « b » dans l’exemple de Bayes, sont données par la Nature : elles sont largement exogènes. Largement, mais pas complètement. Beaucoup dépend de la façon de définir mon succès et mon échec. En revanche, le nombre requis de succès, le nombre tolérable d’échecs, ainsi que le nombre de façons possibles de les combiner sont principalement des décisions de ma part. Dans cet aspect particulier, la théorie de Bayes montre que la possibilité de multiplier les formes différentes de faire la même chose accroît mes chances de succès d’une façon capitale. C’est alors que le raisonnement évolutionniste revient en scène : l’évolution c’est une série d’expériences avec une série de mutations. Plus on invente de mutations pour une fonction donnée, plus on a de chances de survivre.

J’ai fait tout ce détour par l’essai fameux de Bayes pour montrer que l’approche évolutionniste n’est pas la même chose que le Darwinisme originel. L’évolutionnisme est une façon d’appréhender tout processus de changement qui implique une série de choix complexes.

[1] Mr. Bayes, and Mr Price. “An essay towards solving a problem in the doctrine of chances. by the late rev. mr. bayes, frs communicated by mr. price, in a letter to john canton, amfrs.” Philosophical Transactions (1683-1775) (1763): 370-418

Le patient zéro

Mon éditorial

J’ai trouvé quelques trucs intéressants dans la littérature sur les modèles évolutionnistes en sciences économiques. Andrew W. Lo, en 2005[1], a publié cet article que j’ai déjà commencé à discuter hier, dans ma mise à jour en anglais (regardez “Equilibrium in high esteem” ), où il développe la soi-disant hypothèse de marchés adaptatifs, ou Adaptive Markets Hypothesis (AMH) en anglais. Le truc intéressant en ce qui concerne cette hypothèse, et je ne m’en suis rendu compte que tard dans la soirée d’hier, est qu’elle ressemble beaucoup à ce que Thomas Malthus avait avancé, il y a plus de deux siècles, dans son « Essai sur le principe de la population » (1798 – 1998[2]). Thomas Malthus n’avait pas la moindre idée de la théorie de l’évolution – il était un homme d’église et il vivait presque un siècle avant Darwin. Néanmoins, il est arrivé à une vision très similaire à celle d’Andrew Lo : une population accroît son nombre en présence de ressources qui ne croissent pas à une cadence aussi rapide (ou dont la quantité d’accroît pas du tout) ; chaque génération fait donc face à une compétition de plus en plus intense et à une possibilité décroissante d’approprier les ressources en question ; à un certain moment, la situation devient critique, la population est décimée, son nombre décroit rapidement et la quantité de ressources accessible en moyenne par un membre de ladite population revient à un niveau plus ou moins confortable.

Ensuite, ça recommence en cycle. On peut tracer des scenarios de catastrophe où ce n’est pas seulement la population qui soit décimée, mais aussi son environnement de ressources qui croule. C’était la vision de Thomas Malthus et Andrew W. Lo l’a essentiellement reproduite, tout en la testant comme une hypothèse de changement dans un marché, avec les profits agrégés, possibles à gagner dans un marché donné, jouant le rôle de ressources sujets à la compétition. Remarquez : je n’ai pas la moindre idée si Andrew Lo savait qu’il reproduit le concept de « population check » formulé par Thomas Malthus. En tout cas, il ne le cite pas comme référence théorique.

En parcourant la littérature économique sous l’angle d’approche évolutionniste, j’ai trouvé un auteur, Herbert A. Simon, et son article de 1955, qui semble être le patient zéro de tout ce courant de recherche (Simon 1955[3]). J’ai retrouvé une copie de cet article. Herbert Simon semble avoir été orienté sur la théorie de choix économiques plus que sur la théorie évolutionniste strictement dite. Il pose son problème initial d’une façon intéressante : on sait que nos choix économiques sont loin d’être aussi parfaitement pondérés que l’assume l’école classique en sciences économiques. Simon démontre brièvement que dans la grande majorité de situations le décideur humain ne peut pleinement appliquer aucuns des modèles principaux de choix rationnel : il ne peut ni maximaliser, ni former une certitude, ni même formuler des probabilités plausibles. Dans nos décisions économiques on fait tout comme si on appliquait ces procédures, mais c’est juste tout comme, pas du vrai choix rationnel. Vous allez à Shanghai, vous visitez un marché aux puces très spécial placé dans un souterrain spacieux en-dessous du Musée de L’Art, et vous pouvez avoir une expérience directe de toutes les nuances subtiles entre, par exemple, un vrai sac Vuitton et un « tout comme ». Ces marchands-là, ils sont des fins théoriciens, croyez-moi.

Nous sommes imparfaitement rationnels dans nos décisions, ne serait-ce qu’en raison d’information incomplète. C’est un fait aisément vérifiable par expérience. Néanmoins, la psychologie sait très peu sur le mécanisme exact de ces choix imparfaitement rationnels. Nous faisons donc face à un paradoxe : nous savons qu’il faut incorporer la rationalité incomplète dans les modèles économiques mais nous savons très peu sur le « comment » de cette rationalité incomplète. L’article de Herbert Simon représente le type d’exercice intellectuel très proche à mon cœur : c’est le rasoir d’Ockham en action. Après avoir coupé et séparé la connerie, avec l’aide dudit rasoir, Herbert A. Simon vient à la conclusion que quoi qu’on fasse, on reproduit, dans notre tête, le mécanisme de choix rationnels dans la version « tout comme ». Si in individu a donc un répertoire A des comportements possibles, son choix véritable prend lieu dans un ensemble Ar, qui est une représentation imparfaite de A. Par analogie, en présence d’un ensemble réel S des situations futures possibles, le décideur produit dans son esprit un ensemble Sr qui, encore une fois, est une représentation imparfaite de S. De même, les récompenses futures associées avec les comportements à choisir et leurs implications futures produisent une copie imparfaite d’elles-mêmes dans l’esprit du décideur.

La conclusion qui vient tout droit de ce raisonnement, mais qu’Herbert Simon formule très, très prudemment est qu’en présence d’une réalité donnée, dans un marché ou dans un système social complexe, le chemin pris par les décisions économiques est conditionné en premier lieu par ces représentations de choix réels et non pas par la réalité elle-même. Information accessible au sujet de l’environnement est aussi importante que l’environnement lui-même. Par exemple, la différence entre A et Ar (donc entre les alternatives réelles d’une part et ce qui nous semble être le répertoire de nos alternatives) peut avoir un impact beaucoup plus significatif sur un marché que l’ensemble A en tant que tel. Imaginons une situation, où un grand nombre d’entrepreneurs espèrent, à tort, qu’une nouvelle technologie est possible à mettre en marche en moins d’un an. Ils sont donc convaincus, à tort, que la stratégie du type « on démarre en janvier et on a des premières pièces vendues en novembre » est une alternative accessible de comportement. Ça ne marche pas, bien évidemment, parce que ça n’avait aucune chance de marcher. La fausse conclusion que les entrepreneurs peuvent en tirer est que cette technologie en tant que telle vaut rien – et non pas que c’était le timing irréaliste qui ne valait rien – et cette fausse conclusion influencera le choix futur entre des technologies possibles.

L’article de Herbert Simon semble être une passerelle entre la théorie des jeux et l’évolutionnisme. En fait, il me semble être une sorte de discussion avec toute la série d’articles que John Nash a publié dans les années 1950 et qui lui ont valu le prix Nobel en économie en 1994 (Nash 1950a[4] ; Nash 1950b[5] ; Nash 1951[6] ; Nash 1953[7]). Dans sa théorie d’équilibre dynamique dans un jeu, John Nash utilisait la notion de « stratégie dominante » ou stratégie attachée à la plus haute récompense entre toutes les récompenses possibles. Nash postulait que l’équilibre dynamique dans un jeu peut émerger seulement sur la base des stratégies dominantes de la part de tous les joueurs. Seulement voilà, il a fait comme des esprits vraiment fins le font souvent : il a formulé une idée intéressante mais ambigüe et il a laissé les autres se démordre avec les ambigüités. Doit-ce être une stratégie dominante objectivement ou suffit-il, pour former un équilibre dynamique, que les joueurs pensent qu’ils ont des stratégies dominantes ? Si quatre joueurs sur cinq ont leurs stratégies dominantes et le cinquième pas vraiment, ce cinquième participera-t-il à l’équilibre dynamique dans ce jeu ou pas ? C’est juste un échantillon de questions que John Nash a élégamment laissé sans réponses et c’est probablement la raison pour ce prix Nobel qu’il a finalement obtenu. Il a obligé un sacré monde à penser dans les lignes de sa théorie et c’est l’un des critères principaux pour le prix Nobel. Par ailleurs, Herbert A. Simon a eu son prix Nobel à lui en 1978, seize ans avant John Nash.

Si je considère Herbert Simon comme le patient zéro de l’approche évolutionniste, c’est donc la piste générale de la rationalité limitée à laquelle je dois attacher ma propre recherche. Mon modèle de changement technologique comme adaptation intelligente par sélection dans une population sexuée devrait être donc généralisé comme un cas de rationalité limitée et de ses conséquences macroéconomiques. Bon, pigé.

[1] Lo, A.,W., 2005, Reconciling Efficient Markets with Behavioral Finance: The Adaptive Markets Hypothesis, The Journal of Investment Consulting, Volume 7, no. 2, pp. 1 – 24

[2] Malthus Thomas, 1798, An Essay on the Principle of Population. An Essay on the Principle of Population, as it Affects the Future Improvement of Society with Remarks on the Speculations of Mr. Godwin, M. Condorcet, and Other Writers, London

Printed for J. Johnson, in St. Paul’s Church-Yard, 1998, Electronic Scholarly Publishing Project, http://www.esp.org

[3] Simon A.,H., A Behavioral Model of Rational Choice, The Quarterly Journal of Economics, Vol. 69, No. 1 (Feb., 1955), pp. 99-118

[4] Nash, J.F., 1950, Equilibrium Points in n – Person Games – Proceedings of the National Academy of Sciences of the United States of America, vol. 36, no.1, pp. 48 – 49

[5] Nash, J.F., 1950, The Bargaining Problem, Econometrica, vol. 18, no.2, pp. 155 – 162

[6] Nash, J.F., 1951, Non – Cooperative Games, The Annals of Mathematics, Second Series, vol. 54, issue 2, pp. 286 – 295

[7] Nash, J.F., 1953, Two – Person Cooperative Games – Econometrica, vol. 21, issue 1, pp. 128 – 140

Deux lions de montagne, un bison mort et moi

Mon éditorial

Je suis en train de bâtir les fondements théoriques de mon article sur l’approche évolutionniste du changement technologique. Dans tout article scientifique bien formé point de vue style, au moins en sciences économiques, il y a ce passage où l’auteur explique pourquoi il a pris le chemin qu’il ait pris. Cette explication bifurque, en fait, en deux questions distinctes : pourquoi est-ce le sujet important et qu’est-ce qui donne de la pertinence à la méthode employée par l’auteur ? Ici, quelques mots d’explication sur les finesses d’écriture scientifique en sciences économiques. Nous, les économistes, un peu comme les juristes, on assume, en général, que ça dépend. Toute question peut être approchée sous des angles différents : classique, néoclassique, institutionnel ancien, institutionnel nouveau, keynésien, postkeynésien, monétariste, théorie des jeux, évolutionniste, behavioriste, NCM etc. en encore, j’en passe quant aux mésalliances. L’exercice de style, dans une publication en sciences économiques, consiste très largement à annoncer quelle approche méthodologique ou bien quelle combinaison d’approches ai-je choisi pour la recherche empirique présentée dans l’article, ainsi qu’à expliquer pourquoi juge-je cette approche pertinente.

D’abord, donc, pourquoi est-ce que tout ce truc de changement technologique est-il important ? Ben voilà : on assume que nous formons une civilisation technologique avancée. Comme nous ne connaissons vraiment aucune autre civilisation technologique – les dernières tentatives de contact effectuées par Thor n’étaient pas vraiment prometteuses point de vue échange culturel – il est difficile de dire avec certitude comment avancés sommes-nous. En revanche, on peut étudier la manière dont on avance. Toujours ça de gagné. Les données empiriques en ce qui concerne l’effort d’innovation d’une part (inventions, cadence d’amortissement des technologies établies etc.) et ses résultats d’autre part (productivité, consommation d’énergie etc.) suggèrent qu’on ne peut pas être tout à fait sûr si on avance du tout. Je veux dire, oui, je sais qu’il y a du nouveau, seulement toutes ces nouveautés, ça semble ne pas apporter grand-chose en termes de progrès. Bon, je sais que le déficit alimentaire moyen dans l’économie mondiale s’est rétréci de presque 172 kilocalories par jour par personne en 1992 jusqu’à peine plus de 88 kilocalories en 2016. Oui, d’accord, couper le déficit alimentaire moyen par deux tout en doublant la population est quelque chose d’intéressant. Néanmoins, ce n’est pas vraiment ce qu’un économiste respectable traiterait de progrès technologique comme il faut.

A partir de là, ça devient clair et logique : peut-être bien qu’il faut réviser ce qu’un économiste respectable peut espérer d’un changement technologique décent. Ça, ça pourrait bien être l’importance scientifique de mon article : montrer une façon alternative d’appréhender le comment du changement technologique. Ici, je sens que je devrais retourner à la fonction de production, telle qu’elle a été formulée originellement par Charles W. Cobb et Paul H. Douglas en 1928[1]. Ces deux chercheurs ont construit in modèle, appelé plus tard « la fonction de production », où ils ont dérivé un produit intérieur brut modèle de l’accumulation des facteurs de production, capital et travail. Ce PIB modèle a montré une capacité étonnante à tenir le pas au PIB réel, et c’en est resté comme ça : le modèle est robuste, donc on le garde. Un modèle théorique, vous savez, on le traite parfois un peu comme un chien égaré : il suffit qu’il ne pisse pas dans la chambre à coucher et qu’il ne vous morde pas (tout de suite) pour que vous cédiez aux supplications de vos enfants (ou bien de votre subconscient) et que vous le gardiez. J’ai déjà développé une analyse de la fonction de production ( jetez un coup d’œil sur “Un modèle mal nourri” ) donc maintenant je vais me concentrer sur les intentions déclarées par Charles W. Cobb et Paul H. Douglas. Dans la partie finale de leur article ils soulignent très fort qu’ils considèrent leur modèle comme pas tout à fait apte à mesurer le progrès technologique en tant que tel et que ce qu’ils avaient construit est, dans leur dessein, plutôt un modèle structurel, fixe dans le temps. En d’autres mots, prendre les coefficients de leur modèle, donc les exposantes de capital et de travail, plus le coefficient commun « 1,01 » du début de l’équation, et les grouper tous sous la même enseigne de « productivité » porte toutes les marques d’un malentendu scientifique. Remarquez : les malentendus, ça débouche parfois sur des trucs beaucoup plus intéressants que ce que nous avions initialement à l’esprit. Néanmoins, l’usage que fait Joseph Schumpeter du concept théorique de fonction de production, dans ses « Business Cycles », dix ans après l’article de Charles W. Cobb et Paul H. Douglas, fut du freelance théorique complet, sans aucun lien vraiment solide avec le modèle initial.

Ce que j’essaie si laborieusement de dire est qu’il est peut-être erroné d’espérer la productivité totale des facteurs, ou TFP pour ses amis anglophones, de croître tout le temps, d’année en année, comme la technologie change. Donc, il pourrait bien être erroné, aussi, de modeler le changement technologique comme action prise en vue d’un accroissement de productivité. Il se peut que le résultat essentiel à espérer de la part du changement technologique soit l’adaptation et que l’innovation définie en termes behavioristes soit une adaptation intelligente. Remarquez, s’il vous plaît, que je n’ai pas utilisé l’expression « action en vue d’adaptation » mais bien « adaptation intelligente ». Il y a une nuance à explorer, ici. Si je dis « action en vue d’adaptation », j’assume qu’il y ait une vue, un horizon glorieux avec les objectifs à long terme qui se dessinent comme une chaîne montagneuse sur ledit horizon. Seulement voilà, tous ceux qui sont ne serait-ce qu’un peu familiers avec la pratique de changement technologique sur le terrain savent que cet horizon bien net est l’une de dernières choses qu’on voit. En fait, d’habitude, cet horizon, on le voit dans le rétroviseur, quand tout a été fait et accompli. La perspective dominante au cours d’un changement technologique réel est l’incertitude.

C’est bien là que j’aborde la question d’adaptation intelligente. J’ai appris que j’utilise mon intelligence de la façon la plus intense et la plus efficace en présence d’incertitude. Les pires conneries dans ma vie, je les ai commises lorsque j’avais une certitude de fer sur un sujet. Peu importe le sujet, en fait, c’est la présence de la certitude qui a tendance à me pousser dans la stupidité. J’ai une base évolutionniste forte, là. Nous, les humains, fallait qu’on soit vraiment futés lorsqu’on voyait ce lion de montagne, de l’autre côté du bison fraichement tué et on devait remuer les méninges pour prendre la situation en main. Adaptation intelligente veut dire qu’on recombine des informations diverses et distinctes, et on teste des idées ainsi obtenues dans une séquence d’essais à issue incertaine. Plus grand est le challenge (deux lions de montagne au lieu d’un, par exemple) plus d’essais nous avons besoin de faire pour arriver à une solution viable (survie). Il en faut encore plus pour maximaliser le résultat (survie plus bison plus peau du lion de montagne).

Adaptation intelligente implique donc une séquence d’essais. Dans le monde des technologies cela veut dire l’impératif d’expérimenter avec plusieurs technologies. Là, une autre nuance apparaît. Je peux bien expérimenter avec plusieurs technologies à la fois, mais ma capacité de conduire des essais simultanés est presque toujours limitée. Elle est limitée par les ressources à portée de main, ainsi que par l’utilité que je peux dériver d’une séquence d’essais. Essais simultanés veulent dire résultats simultanés (ou presque). Je ne peux donc pas utiliser le résultat d’un essai dans un autre essai simultané. En revanche, lorsque je fais des expériences en séquence, je peux utiliser la boucle de feedback pour optimiser l’efficacité marginale du dernier essai courant. Je fais face à ces deux lions de montagne. Si je pouvais faire toute une séquence d’essais du type « si je fais un pas vers la gauche, où est-ce que tu vas aller, chaton ? », ça ma placerait dans une situation singulièrement plus avantageuse que la vie réelle, ou j’ai juste une leçon avant l’examen final.

Il est donc possible que nous, je veux dire la civilisation humaine, nous effectuons tout ce truc de changement technologique comme un séquencement délibéré d’un processus d’adaptation sans objectif fixe, juste avec un impératif, celui de manger à notre faim. Une chose qu’on accomplit, pas à pas, comme civilisation, est la réduction de notre déficit alimentaire. Comme c’est un déficit moyen par capita, il peut être traduit dans la vie réelle comme une fraction de la population qui est tellement mal nourrie qu’elle est incapable de prendre pleinement part dans la vie collective. Lorsque j’étudiais la corrélation entre le déficit alimentaire et les indicateurs de cadence dans le changement technologique (demandes de brevet par million d’habitants, amortissement agrégé par tête d’habitant), nos technologies semblent changer le plus vite dans les pays avec un déficit alimentaire vraiment modéré, moins de 88 kilocalories par jour par personne. Le truc intéressant est qu’à l’échelle globale, notre déficit alimentaire moyen commence à entrer précisément dans cette intervalle. Il se peut que comme civilisation, nous sommes maintenant à l’apogée du changement technologique.

C’est donc ça, la relevance scientifique de mon modèle évolutionniste : tracer l’esquisse d’un chemin de recherche (je n’aurais pas l’arrogance de tracer un chemin définitif) ou les changements technologiques dans l’économie mondiale peuvent être représentés comme une adaptation intelligente de notre espèce à l’impératif de nous nourrir, tout simplement.

[1] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

Je n’en ai pas fini avec ce truc d’évolution

Mon éditorial pour aujourd’hui

Je pense au contexte de mon modèle évolutionniste de changement technologique. Je peux représenter les changements technologiques dans l’économie mondiale comme trois évolutions parallèles, en quelque sorte : celle du capital, celle du travail, ainsi que celle de l’argent (voyez “Money, essentially doesn’t give a s*** “  pour une explication détaillée). A chaque fois, la logique de l’hypothèse de base est similaire : chaque structure sociale distincte produit du changement technologique comme sélection faite par un élément femelle (capital physique, travail, ou argent liquide), dans un ensemble d’inventions possibles, et par la suite de cette sélection, des technologies nouvelles naissent. Ce qui évolue donc, c’est soit le capital physique, soit le marché et l’organisation du travail, soit le système monétaire.

En fait, j’ai tenté de mettre tous les trois organismes-mères dans le même modèle économétrique, pour voir leur poids relatif. C’est une procédure analytique qui est en fait à la limite de l’acceptable en statistique. Je sais que capital, travail et argent liquide sont corrélés dans leur incidence à l’intérieur du même système économique. C’est l’une des raisons pour qu’on appelle cette structure un système. Si je fourre ces trois valeurs agrégées dans la même équation, j’aurai, à coup sûr, ce qu’on appelle la cointégration entre variables explicatives. En principe, c’est une chose qu’on devrait éviter. Néanmoins, si je fais ça, je peux voir si l’un de ces facteurs est définitivement plus fort que les autres dans son influence sur la variable expliquée, qui est, en l’occurrence, le nombre de demandes de brevet dans un pays donné, en une année donnée.

Alors, j’avance, pas à pas, le long de cette frontière de l’acceptable, et je pose l’hypothèse que le changement technologique est une évolution conjointe des structures capitalistes, organisations d’emploi et systèmes monétaires, sous l’impulsion de sélection que ces trois types de structures sociales font dans l’ensemble de technologies nouvelles, possibles à développer sur la base d’idées scientifiques. Bien sûr, le lecteur attentif voit déjà la grosse lacune dans ce raisonnement : comment évoluent les structures qui génèrent les inventions, donc toute la sphère de recherche et développement ? Eh bien, l’idée un peu simpliste que j’ai est que toute organisation scientifique est une combinaison de capital physique (labos), travail (les gens vêtus de blanc) et argent liquide (comptes bancaires de ces gens vêtus de blanc). C’est simpliste, je l’admets, et néanmoins je reste bien dans le cadre de la théorie évolutionniste, là : les organismes mâles, qui génèrent le flot de l’information génétique indispensable à la reproduction, sont de la même espèce que les organismes femelles, donc ils ont la même substance génétique. Les organismes mâles ont juste une fonction différente.

De toute façon, si je veux faire ce test économétrique à la limite de l’acceptable, je reformule l’hypothèse ci-dessus comme une looongue équation :  ln(Nombre de demandes de brevet) = a1*ln(Capital physique) + a2*ln(Offre agrégée de travail, en heures travaillées) + a3*ln(Offre agrégée d’argent) + a4*ln(Taux d’amortissement) + a5*ln(Consommation d’énergie par tête d’habitant) + a6*ln(Densité de population) + a7*ln(Déficit alimentaire) + constante résiduelle. Une remarque, avant que je passe au test économétrique. Vous pouvez vous souvenir qu’à un moment donné j’ai ajouté la part de rémunération agrégée de travail dans le PIB, comme variable explicative à côté du capital physique, car elle s’est avérée significativement corrélée avec la constante résiduelle de l’un des modèles transitoires que j’avais utilisé. Ceci est vrai, mais cette fois, j’ajoute l’offre agrégée de travail dans l’équation et cette variable-là est inévitablement corrélée avec la part des salaires dans le PIB : cette dernière résulte soit du nombre d’heures travaillées (offre de travail), soit du niveau de salaire horaire moyen. J’ai donc deux valeurs agrégées qui sont évidemment liées l’une à l’autre et qui, en même temps, décrivent largement la même chose. C’est une redondance statistique qui, d’autre part, n’apporte aucune distinction qualitative, comme celle entre le capital et le travail. J’ai donc éliminé la part des salaires dans le PIB et je laissé le travail agrégé, comme nombre total d’heures travaillées en une année dans l’économie du pays donné.

De toute façon, je teste cette équation dans ma base des données composite, faite de Penn Tables 9.0 (Feenstra et al. 2015[1]) et de données additionnelles de la Banque Mondiale. Et comme je m’apprête à tester, vlam !, y a u truc qui me cogne droit entre les yeux :  dans les pays développés, le déficit alimentaire est zéro et comme le logarithme naturel de zéro, ça n’existe pas. Je ne peux pas appliquer cette équation, avec le déficit alimentaire dedans, aux pays qui génèrent, à première vue, deux tiers du nombre total de demandes de brevet dans ma base de données. En plus, comme j’avais déjà inclus le déficit alimentaire dans d’autres modèles étudiés plus tôt, il faudra que je revienne sur mes pas. J’avais en fait testé ma fonction évolutive de sélection dans un échantillon restreint des pays, où toutes les variables sont bien répertoriées et le déficit alimentaire est non-nul : Argentine, Brésil, Chile, Colombie, Equateur, Inde, Indonésie, Mexique, Pakistan, Pérou, Philippines, Corée du Sud, République Sud-Africaine, Thaïlande, Turquie. Zut ! Je déteste ces moments quand je découvre que je suis décalé de la réalité.

Bon, on se calme. Je me calme. D’abord, il faut évaluer l’échelle des dégâts. Sans faire de retours hâtifs en arrière, je prends mon modèle général, celui dont l’équation est présentée ci-dessus, deux paragraphes en arrière, et je la fais évoluer. Je la mute. La mutation richarde englobe les pays sans déficit alimentaire répertorié est donc sans déficit alimentaire dans le modèle. Taille d’échantillon : n = 1 404 observations, responsables pour 14 206 819 demandes de brevet au total. Le modèle explique R2 = 0,734 de la variance observée dans ce même nombre des demandes de brevet, d’année en année et de pays au pays. La mutation malnutrie de mon équation raconte le sort des pays avec déficit alimentaire officiel et officiellement inclus dans le modèle. Ces pays-là ont généré quelques 6 550 000 demandes de brevets, dans un échantillon de n = 317 observations valides, qui explique R2 = 0,812 de variance du nombre de demandes de brevets.

Malgré la taille très disparate de deux échantillons, les deux rendent une capacité explicative très similaire. Ça promet. Allons voir les paramètres. Alors, le modèle valide pour les pays sans déficit alimentaire répertorié, est détaillé ci-dessous :

Variable Coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,532 0,093 5,688 0,000
ln(Taux d’amortissement) 1, 0,244 4,092 0,000
ln(Consommation d’énergie par tête d’habitant) 1,425 0,08 17,728 0,000
ln(Densité de population) 0,049 0,023 2,126 0,034
ln(Offre agrégée de travail, en heures travaillées) 0,654 0,059 11,131 0,000
ln(Offre agrégée d’argent) -0,223 0,055 -4,097 0,000
constante résiduelle -11,818 0,874 -13,528 0,000

En revanche, le modèle appliqué aux pays avec déficit alimentaire officiel se présente comme dans le tableau suivant :

Variable Coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,176 0,252 0,7 0,484
ln(Taux d’amortissement) -1,539 0,566 -2,721 0,007
ln(Consommation d’énergie par tête d’habitant) 1,755 0,142 12,339 0,000
ln(Densité de population) 0,497 0,078 6,354 0,000
ln(Déficit alimentaire) -0,349 0,067 -5,19 0,000
ln(Offre agrégée de travail, en heures travaillées) 0,537 0,16 3,369 0,001
ln(Offre agrégée d’argent) 0,308 0,197 1,563 0,119
constante résiduelle -23,754 2,053 -11,568 0,000

Bon, maintenant je suis bien sage et j’applique la méthode de John Stuart Mill : similitudes d’une part, différences de l’autre. La similitude la plus frappante est l’importance de la consommation d’énergie par tête d’habitant. Plus exactement, ce sont deux variables – la consommation d’énergie par tête d’habitant et le taux d’amortissement – qui, de façon un peu surprenante, deviennent les musiciens de front de l’ensemble. Leurs coefficients de régression, combinés avec leurs p-valeurs respectives (qui mesurent la solidité de la corrélation), leur donnent une dominance très visible sur d’autres variables. Si je considère cette équation économétrique comme un modèle économique, c’est un modèle basé sur deux équilibres relatifs au nombre des demandes de brevet : l’équilibre énergétique et celui du cycle de vie des technologies. Là, une fois de plus, je me sens obligé à faire ce petit échange d’idées avec moi-même : comment est-ce possible, avec toute cette pression sur l’économie d’énergie, que le système économique tende, en fait, vers la maximisation de consommation d’énergie ?

Oui, je sais, ça pourrait être un de ces trucs purement statistiques, un concours d’accidents numériques sans signification véritable. J’admets que c’est possible, seulement ça arrive dans chaque modèle que j’ai testé durant la semaine dernière. Quelle que soit le cocktail des variables explicatives pour déterminer la variance du nombre des demandes de brevet, la consommation d’énergie toujours vient avec un coefficient positif et une p-valeur hautement significative. Plus on consomme d’énergie par tête d’habitant, plus on invente. Il y a un truc qui me vient à l’esprit, maintenant, une sorte d’observation sociologique approximative : il est bien vrai que pratiquement chaque technologie nouvelle inventée de nos jours est plus économe en énergie que ses prédécesseurs mais en même temps nous accumulons de plus en plus de ces technologies. A un moment donné, le ménage moyen avait un frigo, une télé et une machine à laver. Un frigo plus économe est arrivé, tout comme une machine à laver avec une classe énergétique meilleure. Seulement, entretemps, il y a eu le sèche-linge, le climatiseur et deux ordinateurs qui viennent en scène etc. Plus économe, chacune de ces bestioles prise séparément, mais leur compilation en un même endroit pompe en haut la consommation totale des ménages.

Plus on consomme d’énergie par tête d’habitant, plus on invente de technologies nouvelles. Même s’il y a l’impératif d’économiser l’énergie, moins d’énergie consommée pourrait bien vouloir dire moins d’inventions. Ça a tout l’air d’un cercle vicieux. Maintenant, je passe au cycle de vie des technologies, qui semble jouer des rôles opposés dans mes deux échantillons. Lorsque l’habitant moyen est repu, la fonction évolutive de sélection génère d’autant plus d’inventions brevetables que le cycle de vie des technologies en place est court. Plus vite ça vieillit, plus on invente du nouveau. C’est logique et c’est comment les deux tiers d’inventions brevetables ont l’air de naître. En revanche, lorsque l’habitant statistique (qui n’existe pas, bien sûr) pourrait bien profiter d’un repas de plus dans la journée, ça fonctionne à l’envers : plus vite les technologies en place vieillissent, moins on en invente de nouvelles. La seule explication logique que je vois est que dans les pays avec déficit alimentaire, la dépréciation des technologies en place prend littéralement le pain de la bouche des chercheurs et limite la capacité de générer des inventions. Un mâle malnutri, qui en plus doit tenir le pas à un stress social prononcé, produit moins de spermatozoïdes : fait scientifique prouvé.

Il y a une deux autres différences intéressantes. La majorité d’inventions brevetables, celles générées dans les pays sans déficit alimentaire, s’associe avec un équilibre prévisible du ratio « capital par demande de brevet » et n’aime pas trop l’offre d’argent. Comme s’il y avait une contradiction entre la création de crédit et celle d’inventions brevetables. En revanche, dans l’échantillon des pays avec déficit alimentaire, la création de technologies nouvelles, exprimées comme demandes de brevet, s’accompagne d’un équilibre plutôt aléatoire du ratio « capital par demande de brevet » et semble aller bien avec la création de crédit.

Ouff, je vois que je n’en ai pas fini avec ce truc d’évolution.

[1] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at http://www.ggdc.net/pwt

L’invention mâle de modèles

Mon éditorial d’aujourd’hui

Ainsi donc, j’ai formulé, hier, une fonction de sélection dans mon modèle évolutionniste de changements technologiques ( consultez “Primitive, male satisfaction with bigger a size” ). Le nombre de demandes de brevet dans un endroit et en un moment donné dépend, d’une façon significative, de quatre facteurs : de la quantité de capital physique investi dans cet endroit et en ce moment précis, du taux d’amortissement d’actifs fixes (donc du rythme de replacement des technologies), de la part de rémunération de la main d’œuvre dans le PIB, et finalement de la consommation moyenne d’énergie par tête d’habitant. Tout ça, ça explique 70% de la variance totale du nombre de demandes de brevet. En termes économétriques, c’est une fonction logarithmique linéaire, ou ln(Nombre de demandes de brevet) = a1*ln(Capital physique) + a2*ln(Taux d’amortissement) + a3*ln(Part des salaires dans le PIB) + a4*ln(Consommation d’énergie par tête d’habitant) + constante résiduelle. Le test économétrique de cette équation dans ma base de données (Penn Tables 9.0 plus données de la Banque Mondiale) a rendu n = 2 338 observation valables et un coefficient de détermination R2 = 0,701, ainsi que les coefficients rapportés dans le tableau ci-dessous :

variable coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,847 0,017 49,012 0,000
ln(Taux d’amortissement) 2,256 0,16 14,089 0,000
ln(Part des salaires dans le PIB) 2,782 0,157 17,693 0,000
ln(Consommation d’énergie par tête d’habitant 0,643 0,036 17,901 0,000
constante résiduelle -0,854 0,561 -1,522 0,128

  J’ai testé la constante résiduelle de ce modèle pour sa corrélation avec d’autres variables de ma base de données et aucune corrélation significative n’est apparue. Je peux donc assumer que la valeur de cette composante résiduelle est un pur accident statistique, probablement dû à des co-intégrations entre les variables explicatives du modèle.

Bon, si je veux rendre intelligible la signification de cette fonction, il est bon de résumer un peu le chemin qui m’a mené à la définir. Le lien fonctionnel entre le nombre des demandes de brevet et la quantité de capital physique était une hypothèse de base de ma part. La théorie évolutionniste que j’ai commencé à développer propose que le processus de changement technologique soit une interaction entre des organismes mâles, qui communiquent de l’information sur les innovations possibles à faire, et les organismes femelles – les investisseurs – capables de recombiner cette information et de reproduire la substance de capital. Si j’avais posé une telle hypothèse, il était logique que je cherche une corrélation entre le nombre d’idées distinctes sur les changements à faire (demandes de brevet) et la quantité de capital physique présente dans un endroit et en un moment donné. J’ai étudié cette corrélation en testant une fonction linéaire logarithmique, quant à son pouvoir explicatif général, mesuré à travers le coefficient de détermination R2, ainsi qu’à travers la signification de la corrélation, testée avec la statistique « p ». Cette dernière exprime la probabilité d’hypothèse nulle, donc la probabilité qu’en fait, il n’y a pas de corrélation.

Après ce premier test, j’ai obtenu une équation dont le coefficient de détermination était de R2 = 0,478 et dont la statistique p était en-dessous de 0,001, donc du béton. Seulement, c’était du béton amorphe de point de vue théorique. Il n’y a rien de particulièrement évolutionniste dans l’assertion qu’il y a un lien significatif entre le nombre des demandes de brevet et la quantité de capital physique en place. C’est du cours élémentaire en microéconomie ou en gestion : plus de capital rend possible plus de recherche et développement et vice versa, plus de recherche et développement donne plus de chances de multiplier le capital investi. A ce point-là, j’avais juste prouvé que des données empiriques solides forment une base, sur laquelle il est possible de bâtir une approche évolutionniste, mais pas seulement évolutionniste. Les théories scientifiques sont un peu comme des bâtiments. Le plus stable, c’est une pyramide, avec une base large et les étages consécutifs bâtis chaque fois plus petits en superficie que ce qui se trouve en-dessous. Oui, je sais qu’une pyramide c’est le plus souvent une tombe. J’espère bien que je n’ai aucun cadavre caché sous la mienne.

J’avais donc une base, sur laquelle je pouvais bâtir. J’ai utilisé le fait que mon équation initiale, quoi que solide, laissait une marge d’indétermination assez large. Un coefficient de détermination de R2 = 0,478 veut dire qu’on a 47,8% de variance bien expliqué, seulement ça laisse 52,2% à expliquer. En plus, mon équation initiale laissait une résiduelle tout à fait substantielle. J’ai donc essayé de formuler une autre hypothèse, qui me rapprocherait du contexte évolutionniste strictement parlé. J’ai assumé que dans un cadre de reproduction sexuée, la fréquence des contacts sexuels a de l’importance pour la vitesse de reproduction. Cette dernière est imposée en grande partie par la durée moyenne de vie. Plus vite on meurt, plus fréquemment on a besoin de reproduire, donc de faire l’amour. La durée de vie d’une technologie est l’inverse de son taux d’amortissement. Un taux de 20% par an fixe la durée de vie de la technologie en question à plus ou moins 5 ans ; un taux de 10% étendrait cette durée à 10 ans etc.

Je sais, j’ai été opportuniste à ce point-là. Je savais que la base Penn Tables 9.0 contient les données sur le taux d’amortissement moyen, pays par pays et année par année. Il faut faire avec ce qu’on a, quoi. J’avais donc introduit le taux d’amortissement dans mon équation et j’ai testé. Le test, ça ne s’est pas passé trop mal. Mon coefficient de détermination a gagné en ambition un tout petit peu et il est monté jusqu’à R2 = 0,492. Les résultats de la régression se présentent comme ci-dessous :

variable Coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,843 0,019 43,587 0,000
ln(Taux d’amortissement) 1,371 0,172 7,986 0,000
constante résiduelle -0,203 0,561 -0,362 0,718

Ces résultats m’ont suggéré que j’avance dans la bonne direction. L’ajout du taux d’amortissement dans l’équation a donné du pouvoir explicatif et la direction de la corrélation obtenue est conforme à mon hypothèse : plus élevé est le taux d’amortissement, donc plus courte est la durée moyenne de vie d’une technologie, plus de demandes de brevets est déposé dans un pays donné en un moment donné. Là, je suis comme à mi-chemin dans l’évolutionnisme. Encore qu’il pourrait bien y avoir des sceptiques qui diraient quelque chose comme :  « Bon, c’est bien joli, ça, mais ce n’est pas nécessairement de l’évolutionnisme, tout ça. Plus vite nos technologies vieillissent, plus vite il faut les remplacer. C’est du bon sens commercial, ça ». Seulement voilà, il est aussi possible que le rythme accéléré d’amortissement décourage les investisseurs et qu’ils montrent une préférence systématique pour les technologies à durée de vie plutôt longue, auquel cas cette corrélation positive entre le nombre des demandes de brevet et taux d’amortissement n’est plus évidente du tout. Si je vois un coefficient de régression qui est positif et plutôt élevé pour une équation logarithmique, cela veut dire que les investisseurs montrent une préférence systématique pour des technologies qui périssent vite. Les organismes femelles de mon espèce capitaliste et débrouillarde font un effort pour se reproduire à une cadence accélérée, comme si l’espèce tout entière cherchait à s’adapter à quelque chose. Voilà, j’ai lui ai montré, à ce sceptique imaginaire dans ma tête.

Sur la base large que j’avais posé précédemment, je viens de poser un deuxième étage. Ou peut-être c’est le premier étage si on assume qu’une pyramide a un rez-de-chaussée. De toute façon, c’est un pas de plus. Après l’avoir fait, ce pas, hier, j’étais un peu à court d’idées. Je revoyais les variables dans ma base de données et j’essayais d’en trouver une pertinemment évolutionniste et je vais vous dire, ça n’avait pas l’air facile. J’avais donc décidé de faire confiance aux données elles-mêmes, sans idées préconçues. Dans mon équation telle que je l’avais à ce moment-là, j’avais toujours plus de 50% de la variance totale du nombre des demandes de brevet inexpliquée et en plus j’avais cette composante résiduelle avec p-valeur égale à 0,718. Cela voulait dire qu’une fois que j’ai expliqué 49,2% de la variance avec le capital physique et le taux d’amortissement, il reste 50,8% de variance résiduelle et cette variance résiduelle à 71,8% de chances d’être absolument aléatoire. C’est comme si j’étais un inspecteur de police et comme si des témoins différents me disaient que mon suspect (double meurtre, pas de plaisanterie) était bien grand, mais à part ça il pouvait être homme ou femme, blanc, noir ou asiatique, moustache ou pas etc. Irritant. J’ai vu un polar chinois où ça se déroulait exactement de cette façon.

J’avais donc décidé de faire confiance aux données. Techniquement, ça consistait à calculer cette résiduelle de régression pour chaque observation « pays – année » séparément et ensuite vérifier si la distribution des valeurs résiduelles ainsi obtenues était significativement corrélée avec d’autres variables de ma base de données. Par analogie à l’enquête policière, c’est comme si j’acceptais cette disparité folle dans les dépositions des témoins et comme si j’essayais d’établir si mon suspect avait plus de chances d’être un asiatique barbu ou bien une femme blanche à cheveux aile de corbeau, avec un foulard noir. J’ai trouvé deux corrélations significatives de cette résiduelle : l’une avec la part de rémunération du travail dans le PIB (corrélation Pearson r = 0,491), l’autre avec la consommation d’énergie par tête d’habitant (corrélation r = 0,509). Cette résiduelle de régression, qui semblait tellement aléatoire, semblait néanmoins avoir des préférences claires. J’ai donc ajouté ces deux variables à la version précédente de mon équation et c’est ainsi que je suis arrivé au modèle présenté au tout début de cette mise à jour d’aujourd’hui.

Bon, ça c’est l’histoire de mes crimes, maintenant le temps est venu d’interpréter. Dans trois versions différentes de mon modèle, le coefficient de régression assigné au capital physique restait bien tranquille, entre 0,82 et 0,85, en fonction du contexte. Je pense que j’ai donc ici un équilibre économique : celui entre le capital physique et le nombre de demandes de brevet. Trois préférences dans ma fonction de sélection se superposent ensuite à ce point d’équilibre : préférence pour une rotation rapide des technologies, préférence pour des technologies à forte rémunération de main d’œuvre, ainsi que la préférence, relativement moins forte, pour les technologies à consommation élevée d’énergie. La préférence pour des technologies à forte rémunération de main d’œuvre semble être particulièrement intéressante. Plus de rémunération pour la main d’œuvre veut dire plus de personnes employées ou bien des salaires plus élevés, avec peut-être une préférence pour de la main d’œuvre hautement qualifiée. Cela pourrait expliquer le phénomène de productivité décroissante dans l’économie mondiale (plus de travail fourni donc productivité décroissante du travail) ainsi que la disparité croissante entre les salaires d’employés hautement qualifiés et ceux avec juste des qualifications élémentaires.

Le coefficient positif assigné à la consommation d’énergie par tête d’habitant est aussi intéressant. Elle pourrait même fournir une réponse anthropologique à une question fondamentale : pourquoi, avec tout le talent que nous avons, comme civilisation, à inventer des trucs toujours nouveaux, on montre une tendance obstinée à consommer de plus en plus d’énergie par personne. Du point de vue d’un ingénieur, ce coefficient assigné à la consommation d’énergie est contre-intuitif. Tour ingénieur tend à développer des technologies aussi économes en énergie que possible. Néanmoins, il se peut qu’à un niveau vraiment très, très biologique, comme espèce vivante, nous avons une préférence viscérale pour approprier autant d’énergie que possible de notre environnement.

Par ailleurs, si vous sautez au début de cette mise à jour, vous verrez dans la forme la plus élaborée de mon modèle un coefficient de détermination égal à R2 = 0,701. Ça me laisse toujours avec plus de 29% de variance sans explication. Ce n’est pas bien grave : trop de détermination n’est pas nécessairement ce qu’on souhaite. Encore, ça m’a donné un prétexte pour réitérer la même procédure analytique : mapper les résiduelles et chercher des corrélations. Seulement cette fois, ça n’a rien donné. Cette résiduelle-là semble bien aliénée. Je la laisse pour le moment. Ce qui m’intéresse en ce moment précis, c’est la structure. Je pose et je vérifie l’hypothèse suivante : des structures sociales différentes produisent des fonctions de sélection différentes et des équilibres différents entre la quantité de capital physique et le nombre de demandes de brevet.

Dans ma base de données, j’ai deux variables différentes : la densité de population et le déficit alimentaire. Le nombre de personnes par kilomètre carré est un facteur essentiel de relations sociales, aussi bien coopératives que conflictuelles. Le déficit alimentaire semble avoir de l’importance pour le ratio de capital physique par une demande de brevet. J’ai déjà exploré ce sujet précis, un tout petit peu, dans la mise à jour intitulée “Evolutionary games”. J’inclus donc les logarithmes naturels de ces deux variables dans mon modèle, ce qui me donne l’équation suivante : ln(Nombre de demandes de brevet) = a1*ln(Capital physique) + a2*ln(Taux d’amortissement) + a3*ln(Part des salaires dans le PIB) + a4*ln(Consommation d’énergie par tête d’habitant) + a5*ln(Densité de population) + a6*ln(Déficit alimentaire) + constante résiduelle. Je teste cette équation dans un ensemble d’observations réduit, faute de données complètes. J’ai n = 469 observations valides, qui rendent, néanmoins, un joli pouvoir explicatif avec R2 = 0,729. Quant aux paramètres détaillés du modèle, vous pouvez les trouver dans le tableau ci-dessous :

variable Coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,799 0,043 18,49 0,000
ln(Taux d’amortissement) 1,496 0,365 4,096 0,000
ln(Part des salaires dans le PIB) 2,338 0,269 8,676 0,000
ln(Consommation d’énergie par tête d’habitant 1,233 0,102 12,035 0,000
ln(Densité de population) 0,646 0,063 10,219 0,000
ln(Déficit alimentaire) -0,106 0,069 -1,541 0,124
constante résiduelle -9,522 1,618 -5,885 0,000

La densité de population semble avoir deux mots à dire quant à l’équilibre « capital – demandes de brevet » et c’est du solide en termes de corrélation : plus on a du monde par kilomètre carré, plus on génère d’inventions brevetables. Dans le cas du déficit alimentaire, celui-ci semble avoir quelque chose à dire, seulement il est dur de définir qu’est-ce que c’est exactement qu’il veut dire. La p – valeur de cette corrélation particulière est plutôt élevée. Il semble que le déficit alimentaire marche mieux comme variable de contrôle, à l’extérieur du modèle plutôt qu’à l’intérieur.

Des trucs marrants qui nous passent à côté du nez, ou quelques réflexions évolutionnistes

Quelques mots sur You Tube

J’aime bien la piste de recherche que j’ai réussi à ouvrir hier (voir  “Evolutionary games” ). Je trouve que l’application de la théorie de l’évolution, en particulier la fonction de sélection, possède cette propriété merveilleuse de simplifier les problèmes complexes. Bien sûr, si je simplifie, je peux perdre de vue des détails importants, néanmoins, avec de la rigueur élémentaire, on peut contourner ce piège. J’ai donc un mécanisme de sélection, ou les détenteurs de capital choisissent dans un ensemble d’inventions applicables pour installer dans leurs entreprises des technologies nouvelles. Ce choix marche de façon similaire à la sélection sexuelle : il a pour résultat le développement systématique de nouvelles inventions portant les caractéristiques le plus souvent choisies, ainsi que la disparition graduelle d’autres types d’idées.

Vous pourriez demander ce qu’il y a de tellement révolutionnaire dans ce train d’idées. Eh bien, rien de révolutionnaire du tout, à vrai dire. C’est l’un de ces outils intellectuels simples et efficaces, bien dans l’esprit méthodologique de Milton Friedman, dont l’utilité réside dans la capacité de créer des hypothèses pertinentes plutôt que des réponses toutes faites. La question la plus fondamentale, du point de vue d’un économiste comme moi, est la suivante. Les changements technologiques dans l’économie mondiale s’accompagnent d’une baisse systématique de productivité, ainsi que d’une croissance spectaculaire d’inégalités dans l’appropriation de capital. Néanmoins nous continuons, comme civilisation, de remplacer nos technologies de plus en plus vite. Nous répétons donc, encore et encore, un mécanisme qui semble créer des tensions sociales dangereuses. Pourquoi diable ? Avons-nous une tendance suicidaire collective ou bien y-a-t-il une sorte de conspiration massive à l’échelle globale ?

L’approche évolutionniste est l’un de ces trucs simples et ingénieux qui permettent de pousser la connerie de côté et de se concentrer sur les faits empiriques. Empiriquement, nous pouvons constater un remplacement de plus en plus accéléré de technologies (mesuré par la part croissante d’amortissement agrégé dans le PIB), ainsi qu’une production accélérée d’inventions applicables dans l’industrie (observable comme un ratio croissant de demandes de brevet par un million de personnes). La logique évolutive suggère l’existence d’un processus d’adaptation, qui se déploie comme une rotation accélérée des générations consécutives. Nous savons que les espèces vivantes tournent vers ce type de comportement lorsqu’elles doivent s’adapter sous la pression du temps. Ce à quoi nous sommes en train de nous adapter est une question à part. Très certainement, il y a le facteur de surpopulation et celui du réchauffement climatique. Peut-être il y a d’autres facteurs de stress environnemental dont nous ne nous rendons même pas compte. Quant à moi, je me concentre sur le processus d’adaptation en tant que tel.

L’expérimentation est la seule façon de développer les trucs qui marchent. Il faut tester avant l’utilisation massive : tout ingénieur digne de ce nom le sait. Alors, si j’assume que notre espèce est en train d’expérimenter pour s’adapter, des question simples et embarrassantes surgissent. Qui et comment décide de la façon dont l’expérimentation est effectuée ? Qui, et comment fait la sélection des résultats ? Bien sûr, je peux pointer sur les gouvernements et les grandes sociétés multinationales comme acteurs principaux dans ce processus, mais cette idée à tendance à se mordre la queue : ce sont des structures collectives, pas des personnes, donc comment se passe la décision à l’intérieur de ces collectivités ?  Je retourne donc à la question de base : comment une espèce entière, comme nous, peut s’organiser pour expérimenter avec les trucs essentiels à sa survie ? C’est précisément là que la logique évolutionnister vient en rescousse avec le mécanisme de sélection et reproduction sexuée.

Avant d’aller plus loin, il sera peut-être bon de définir les concepts fondamentaux. Les sexes – féminin et masculin – sont dans une large mesure un produit culturel, qui a néanmoins une base biologique. Dans toute espèce sexuée – donc partout au-dessus des vers de terre – il y a deux types d’organismes. L’organisme du type féminin est capable de donner la vie à une génération nouvelle et de mélanger les codes génétiques, mais il ne sait pas comment transmettre l’information génétique et il a besoin de conception de la part de l’organisme du type masculin. Ce dernier est infécond en lui-même et ne sait pas recombiner les gènes, mais il a la capacité de produire en série des portions communicables de son propre code génétique. Deux fonctions différentes – recombinaison et développement d’une part, ainsi que dissémination et communication d’autre part – sont exprimées dans deux types différents d’organismes à l’intérieur d’une même espèce. Est-ce un mécanisme parfait ? Certainement pas. Il a des limites très claires, surtout quant à sa vitesse de réaction : il a besoin de changement générationnel pour sélectionner parmi toutes les expériences possibles et là, on bute contre le cycle des générations. Il est utile de remarquer que dans le monde végétal, une approche légèrement différente s’est développée : à l’intérieur d’un même organisme, deux parts se forment, une féminine et une masculine, qui par la suite peuvent interagir aussi bien entre elles qu’avec d’autres organismes de la même espèce. Les conifères sont peut-être l’exemple le plus facile à trouver autour de nous.

Appliquée aux sciences sociales, la logique évolutionniste trouve son application surtout dans ces contextes spécifiques, où un grand effort collectif semble être engagé dans un processus de changement qui, à son tour, semble se dérouler comme à tâtons, avec beaucoup d’essais et beaucoup d’erreurs sur le chemin. Cette logique assume donc que nous pouvons identifier dans un système social donné deux types d’entités : féminines (reproduction de substance et recombinaison d’information) et masculines (standardisation et communication d’information), qui interagissent pour produire des générations consécutives du même organisme.

Tout comme dans la biologie, le moment délicat est celui quand nous définissons ce qu’est une entité. La logique évolutionniste tient débout seulement quand elle est accompagnée d’une telle définition. Supposons que nous représentons notre propre espèce comme faite d’organismes continentaux et non pas de ce que nous appelons « personnes individuelles ». Si c’est la population continentale qui est un organisme à part, et pas une personne, le changement générationnel pratiquement disparaît de l’horizon : chacune des populations continentales vît sans interruption, seule sa forme change. Il est bon de retenir que, paradoxalement, même dans les sciences de la vie la logique évolutionniste n’est pas la seule possible. On peut imaginer d’autres approches, puisque pour tout état de nature nous pouvons formuler un répertoire indéfiniment large d’hypothèses. La logique évolutionniste est simplement celle qui, parmi toutes les hypothèses possibles, nous permet d’avancer notre connaissance de façon pratique, c’est-à-dire d’inventer des trucs qui marchent, comme les vaccins ou bien la sélection rationnelle de variétés des plantes dans l’agriculture. Oui, c’est bien ça : les premiers agriculteurs dans l’histoire de l’humanité étaient aussi les premiers évolutionnistes, puisqu’ils utilisaient, à dessein, le mécanisme d’adaptation dans le cycle générationnel chez les plantes.

Le choix d’échelle dans la définition de l’entité peut se faire d’une manière rationnelle. Lorsque je vois quelque chose de grand, comme une civilisation entière, et je n’arrive pas à comprendre comment elle marche, je peux tester de façon réitérée l’hypothèse de reproduction sexuée et essayer voir si je tombe sur deux types distincts d’entités, respectivement du type féminin (reproduction et recombinaison d’information) et masculin (standardisation et communication). Si, en plus, je trouve quelque chose comme code génétique, donc un système standardisé de communication d’information vitale à la structure et fonction de chacune de ces entités, je suis peinard. Plus qu’à s’asseoir et observer tout le bazar, ou presque. Le problème pratique avec la logique évolutionniste c’est son intelligibilité. C’est une approche qui puise des fondements de la vie, en quelque sorte, et elle a tendance à éveiller des émotions extrêmement fortes chez les interlocuteurs. Tenez, par exemple hier. J’ai commencé à modeler le progrès technologique comme un processus de reproduction sexuée de technologies, où les demandes de brevet sont de l’information génétique mâle, disséminée parmi les investisseurs femelles, qui, à leur tour, la recombinent et reproduisent des entités de nouvelle génération. J’ai même trouvé une variable d’équilibre économique – le ratio de capital physique investi par une demande de brevet – qui démontre une distribution statistique intéressante. J’en ai rapidement parlé à un ami, juste pour tester le concept. Doux Jésus !  Sa réaction était incroyable, comme s’il était question d’un match de foot, perdu par son équipe favorite. « Comment peut-tu dire que les investisseurs sont femelles ? Je fais du business, moi et ai-je l’air d’une bonne femme ? » Bon, ce serait tout. Si on parlait du dernier épisode de « Game of Thrones » ?

Bon, si j’ai identifié les mâles et les femelles, il serait utile de définir le système de transmission d’information génétique. Je suppose que si les médias rapporteraient un mouvement massif de petites formes blanches avec des queues, qui se déplacent extrêmement vite dans les quartiers chics de business, en des flots plutôt substantiels, président Trump aurait tout de suite un nouveau prétexte pour promettre « feu et fureur » à quelqu’un. Faute de spermatozoïdes, il faut donc trouver quelque chose d’autre. Je pense à l’argent. Historiquement, le pognon, ça a toujours été plutôt du pognon qui n’existe pas que celui qui existe. Je veux dire, depuis des siècles, l’argent a été surtout une unité comptable. Seule une petite partie de ces soldes comptables était physiquement présente dans la vie quotidienne comme monnaie d’échange, et c’en est resté de même jusqu’aujourd’hui. L’argent, c’est surtout de l’information.

Imaginons, maintenant, que cette information sous forme d’argent s’attache à des petits blocs de ressources précieuses – et à ce point-là il est utile de se souvenir que dans les systèmes sociaux la confiance et la volonté de coopérer sont des ressources précieuses aussi – et ensuite ces petits blocs peuvent être transmis dans l’espace et le temps à travers le mouvement de l’argent, donc à travers les transactions de marché, chacune avec une valeur comptable déterminée. Dans un tel cas, le système monétaire pourrait être, dans l’économie, l’équivalent d’activités sexuelles en biologie. Pas étonnant, alors, qu’autant de gens veulent faire carrière dans la finance. Ça pourrait bien expliquer, aussi, pourquoi la rotation accélérée de technologies est accompagnée par une vélocité décroissante de l’argent dans l’économie mondiale : adaptation rapide requiert une transmission rapide du matériel génétique. La diminution de la vélocité de l’argent la plus marquée survient dans les marchés émergents et dans les pays en voie de développement. Logique, ça aussi : ces pays-là ont besoin de plus d’expérimentation avec le code génétique de leur business que les pays développés.

En fait, j’en viens à une conclusion générale que ce n’est pas intéressant du tout d’être pleinement développé. C’est confortable, bien sûr, mais pas intéressant. On ne s’adapte plus, puisqu’il n’y a pas grand-chose à quoi on pourrait s’adapter, et tout un tas de trucs marrants nous passent à côté du nez.