Deux lions de montagne, un bison mort et moi

Mon éditorial

Je suis en train de bâtir les fondements théoriques de mon article sur l’approche évolutionniste du changement technologique. Dans tout article scientifique bien formé point de vue style, au moins en sciences économiques, il y a ce passage où l’auteur explique pourquoi il a pris le chemin qu’il ait pris. Cette explication bifurque, en fait, en deux questions distinctes : pourquoi est-ce le sujet important et qu’est-ce qui donne de la pertinence à la méthode employée par l’auteur ? Ici, quelques mots d’explication sur les finesses d’écriture scientifique en sciences économiques. Nous, les économistes, un peu comme les juristes, on assume, en général, que ça dépend. Toute question peut être approchée sous des angles différents : classique, néoclassique, institutionnel ancien, institutionnel nouveau, keynésien, postkeynésien, monétariste, théorie des jeux, évolutionniste, behavioriste, NCM etc. en encore, j’en passe quant aux mésalliances. L’exercice de style, dans une publication en sciences économiques, consiste très largement à annoncer quelle approche méthodologique ou bien quelle combinaison d’approches ai-je choisi pour la recherche empirique présentée dans l’article, ainsi qu’à expliquer pourquoi juge-je cette approche pertinente.

D’abord, donc, pourquoi est-ce que tout ce truc de changement technologique est-il important ? Ben voilà : on assume que nous formons une civilisation technologique avancée. Comme nous ne connaissons vraiment aucune autre civilisation technologique – les dernières tentatives de contact effectuées par Thor n’étaient pas vraiment prometteuses point de vue échange culturel – il est difficile de dire avec certitude comment avancés sommes-nous. En revanche, on peut étudier la manière dont on avance. Toujours ça de gagné. Les données empiriques en ce qui concerne l’effort d’innovation d’une part (inventions, cadence d’amortissement des technologies établies etc.) et ses résultats d’autre part (productivité, consommation d’énergie etc.) suggèrent qu’on ne peut pas être tout à fait sûr si on avance du tout. Je veux dire, oui, je sais qu’il y a du nouveau, seulement toutes ces nouveautés, ça semble ne pas apporter grand-chose en termes de progrès. Bon, je sais que le déficit alimentaire moyen dans l’économie mondiale s’est rétréci de presque 172 kilocalories par jour par personne en 1992 jusqu’à peine plus de 88 kilocalories en 2016. Oui, d’accord, couper le déficit alimentaire moyen par deux tout en doublant la population est quelque chose d’intéressant. Néanmoins, ce n’est pas vraiment ce qu’un économiste respectable traiterait de progrès technologique comme il faut.

A partir de là, ça devient clair et logique : peut-être bien qu’il faut réviser ce qu’un économiste respectable peut espérer d’un changement technologique décent. Ça, ça pourrait bien être l’importance scientifique de mon article : montrer une façon alternative d’appréhender le comment du changement technologique. Ici, je sens que je devrais retourner à la fonction de production, telle qu’elle a été formulée originellement par Charles W. Cobb et Paul H. Douglas en 1928[1]. Ces deux chercheurs ont construit in modèle, appelé plus tard « la fonction de production », où ils ont dérivé un produit intérieur brut modèle de l’accumulation des facteurs de production, capital et travail. Ce PIB modèle a montré une capacité étonnante à tenir le pas au PIB réel, et c’en est resté comme ça : le modèle est robuste, donc on le garde. Un modèle théorique, vous savez, on le traite parfois un peu comme un chien égaré : il suffit qu’il ne pisse pas dans la chambre à coucher et qu’il ne vous morde pas (tout de suite) pour que vous cédiez aux supplications de vos enfants (ou bien de votre subconscient) et que vous le gardiez. J’ai déjà développé une analyse de la fonction de production ( jetez un coup d’œil sur “Un modèle mal nourri” ) donc maintenant je vais me concentrer sur les intentions déclarées par Charles W. Cobb et Paul H. Douglas. Dans la partie finale de leur article ils soulignent très fort qu’ils considèrent leur modèle comme pas tout à fait apte à mesurer le progrès technologique en tant que tel et que ce qu’ils avaient construit est, dans leur dessein, plutôt un modèle structurel, fixe dans le temps. En d’autres mots, prendre les coefficients de leur modèle, donc les exposantes de capital et de travail, plus le coefficient commun « 1,01 » du début de l’équation, et les grouper tous sous la même enseigne de « productivité » porte toutes les marques d’un malentendu scientifique. Remarquez : les malentendus, ça débouche parfois sur des trucs beaucoup plus intéressants que ce que nous avions initialement à l’esprit. Néanmoins, l’usage que fait Joseph Schumpeter du concept théorique de fonction de production, dans ses « Business Cycles », dix ans après l’article de Charles W. Cobb et Paul H. Douglas, fut du freelance théorique complet, sans aucun lien vraiment solide avec le modèle initial.

Ce que j’essaie si laborieusement de dire est qu’il est peut-être erroné d’espérer la productivité totale des facteurs, ou TFP pour ses amis anglophones, de croître tout le temps, d’année en année, comme la technologie change. Donc, il pourrait bien être erroné, aussi, de modeler le changement technologique comme action prise en vue d’un accroissement de productivité. Il se peut que le résultat essentiel à espérer de la part du changement technologique soit l’adaptation et que l’innovation définie en termes behavioristes soit une adaptation intelligente. Remarquez, s’il vous plaît, que je n’ai pas utilisé l’expression « action en vue d’adaptation » mais bien « adaptation intelligente ». Il y a une nuance à explorer, ici. Si je dis « action en vue d’adaptation », j’assume qu’il y ait une vue, un horizon glorieux avec les objectifs à long terme qui se dessinent comme une chaîne montagneuse sur ledit horizon. Seulement voilà, tous ceux qui sont ne serait-ce qu’un peu familiers avec la pratique de changement technologique sur le terrain savent que cet horizon bien net est l’une de dernières choses qu’on voit. En fait, d’habitude, cet horizon, on le voit dans le rétroviseur, quand tout a été fait et accompli. La perspective dominante au cours d’un changement technologique réel est l’incertitude.

C’est bien là que j’aborde la question d’adaptation intelligente. J’ai appris que j’utilise mon intelligence de la façon la plus intense et la plus efficace en présence d’incertitude. Les pires conneries dans ma vie, je les ai commises lorsque j’avais une certitude de fer sur un sujet. Peu importe le sujet, en fait, c’est la présence de la certitude qui a tendance à me pousser dans la stupidité. J’ai une base évolutionniste forte, là. Nous, les humains, fallait qu’on soit vraiment futés lorsqu’on voyait ce lion de montagne, de l’autre côté du bison fraichement tué et on devait remuer les méninges pour prendre la situation en main. Adaptation intelligente veut dire qu’on recombine des informations diverses et distinctes, et on teste des idées ainsi obtenues dans une séquence d’essais à issue incertaine. Plus grand est le challenge (deux lions de montagne au lieu d’un, par exemple) plus d’essais nous avons besoin de faire pour arriver à une solution viable (survie). Il en faut encore plus pour maximaliser le résultat (survie plus bison plus peau du lion de montagne).

Adaptation intelligente implique donc une séquence d’essais. Dans le monde des technologies cela veut dire l’impératif d’expérimenter avec plusieurs technologies. Là, une autre nuance apparaît. Je peux bien expérimenter avec plusieurs technologies à la fois, mais ma capacité de conduire des essais simultanés est presque toujours limitée. Elle est limitée par les ressources à portée de main, ainsi que par l’utilité que je peux dériver d’une séquence d’essais. Essais simultanés veulent dire résultats simultanés (ou presque). Je ne peux donc pas utiliser le résultat d’un essai dans un autre essai simultané. En revanche, lorsque je fais des expériences en séquence, je peux utiliser la boucle de feedback pour optimiser l’efficacité marginale du dernier essai courant. Je fais face à ces deux lions de montagne. Si je pouvais faire toute une séquence d’essais du type « si je fais un pas vers la gauche, où est-ce que tu vas aller, chaton ? », ça ma placerait dans une situation singulièrement plus avantageuse que la vie réelle, ou j’ai juste une leçon avant l’examen final.

Il est donc possible que nous, je veux dire la civilisation humaine, nous effectuons tout ce truc de changement technologique comme un séquencement délibéré d’un processus d’adaptation sans objectif fixe, juste avec un impératif, celui de manger à notre faim. Une chose qu’on accomplit, pas à pas, comme civilisation, est la réduction de notre déficit alimentaire. Comme c’est un déficit moyen par capita, il peut être traduit dans la vie réelle comme une fraction de la population qui est tellement mal nourrie qu’elle est incapable de prendre pleinement part dans la vie collective. Lorsque j’étudiais la corrélation entre le déficit alimentaire et les indicateurs de cadence dans le changement technologique (demandes de brevet par million d’habitants, amortissement agrégé par tête d’habitant), nos technologies semblent changer le plus vite dans les pays avec un déficit alimentaire vraiment modéré, moins de 88 kilocalories par jour par personne. Le truc intéressant est qu’à l’échelle globale, notre déficit alimentaire moyen commence à entrer précisément dans cette intervalle. Il se peut que comme civilisation, nous sommes maintenant à l’apogée du changement technologique.

C’est donc ça, la relevance scientifique de mon modèle évolutionniste : tracer l’esquisse d’un chemin de recherche (je n’aurais pas l’arrogance de tracer un chemin définitif) ou les changements technologiques dans l’économie mondiale peuvent être représentés comme une adaptation intelligente de notre espèce à l’impératif de nous nourrir, tout simplement.

[1] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

Je n’en ai pas fini avec ce truc d’évolution

Mon éditorial pour aujourd’hui

Je pense au contexte de mon modèle évolutionniste de changement technologique. Je peux représenter les changements technologiques dans l’économie mondiale comme trois évolutions parallèles, en quelque sorte : celle du capital, celle du travail, ainsi que celle de l’argent (voyez “Money, essentially doesn’t give a s*** “  pour une explication détaillée). A chaque fois, la logique de l’hypothèse de base est similaire : chaque structure sociale distincte produit du changement technologique comme sélection faite par un élément femelle (capital physique, travail, ou argent liquide), dans un ensemble d’inventions possibles, et par la suite de cette sélection, des technologies nouvelles naissent. Ce qui évolue donc, c’est soit le capital physique, soit le marché et l’organisation du travail, soit le système monétaire.

En fait, j’ai tenté de mettre tous les trois organismes-mères dans le même modèle économétrique, pour voir leur poids relatif. C’est une procédure analytique qui est en fait à la limite de l’acceptable en statistique. Je sais que capital, travail et argent liquide sont corrélés dans leur incidence à l’intérieur du même système économique. C’est l’une des raisons pour qu’on appelle cette structure un système. Si je fourre ces trois valeurs agrégées dans la même équation, j’aurai, à coup sûr, ce qu’on appelle la cointégration entre variables explicatives. En principe, c’est une chose qu’on devrait éviter. Néanmoins, si je fais ça, je peux voir si l’un de ces facteurs est définitivement plus fort que les autres dans son influence sur la variable expliquée, qui est, en l’occurrence, le nombre de demandes de brevet dans un pays donné, en une année donnée.

Alors, j’avance, pas à pas, le long de cette frontière de l’acceptable, et je pose l’hypothèse que le changement technologique est une évolution conjointe des structures capitalistes, organisations d’emploi et systèmes monétaires, sous l’impulsion de sélection que ces trois types de structures sociales font dans l’ensemble de technologies nouvelles, possibles à développer sur la base d’idées scientifiques. Bien sûr, le lecteur attentif voit déjà la grosse lacune dans ce raisonnement : comment évoluent les structures qui génèrent les inventions, donc toute la sphère de recherche et développement ? Eh bien, l’idée un peu simpliste que j’ai est que toute organisation scientifique est une combinaison de capital physique (labos), travail (les gens vêtus de blanc) et argent liquide (comptes bancaires de ces gens vêtus de blanc). C’est simpliste, je l’admets, et néanmoins je reste bien dans le cadre de la théorie évolutionniste, là : les organismes mâles, qui génèrent le flot de l’information génétique indispensable à la reproduction, sont de la même espèce que les organismes femelles, donc ils ont la même substance génétique. Les organismes mâles ont juste une fonction différente.

De toute façon, si je veux faire ce test économétrique à la limite de l’acceptable, je reformule l’hypothèse ci-dessus comme une looongue équation :  ln(Nombre de demandes de brevet) = a1*ln(Capital physique) + a2*ln(Offre agrégée de travail, en heures travaillées) + a3*ln(Offre agrégée d’argent) + a4*ln(Taux d’amortissement) + a5*ln(Consommation d’énergie par tête d’habitant) + a6*ln(Densité de population) + a7*ln(Déficit alimentaire) + constante résiduelle. Une remarque, avant que je passe au test économétrique. Vous pouvez vous souvenir qu’à un moment donné j’ai ajouté la part de rémunération agrégée de travail dans le PIB, comme variable explicative à côté du capital physique, car elle s’est avérée significativement corrélée avec la constante résiduelle de l’un des modèles transitoires que j’avais utilisé. Ceci est vrai, mais cette fois, j’ajoute l’offre agrégée de travail dans l’équation et cette variable-là est inévitablement corrélée avec la part des salaires dans le PIB : cette dernière résulte soit du nombre d’heures travaillées (offre de travail), soit du niveau de salaire horaire moyen. J’ai donc deux valeurs agrégées qui sont évidemment liées l’une à l’autre et qui, en même temps, décrivent largement la même chose. C’est une redondance statistique qui, d’autre part, n’apporte aucune distinction qualitative, comme celle entre le capital et le travail. J’ai donc éliminé la part des salaires dans le PIB et je laissé le travail agrégé, comme nombre total d’heures travaillées en une année dans l’économie du pays donné.

De toute façon, je teste cette équation dans ma base des données composite, faite de Penn Tables 9.0 (Feenstra et al. 2015[1]) et de données additionnelles de la Banque Mondiale. Et comme je m’apprête à tester, vlam !, y a u truc qui me cogne droit entre les yeux :  dans les pays développés, le déficit alimentaire est zéro et comme le logarithme naturel de zéro, ça n’existe pas. Je ne peux pas appliquer cette équation, avec le déficit alimentaire dedans, aux pays qui génèrent, à première vue, deux tiers du nombre total de demandes de brevet dans ma base de données. En plus, comme j’avais déjà inclus le déficit alimentaire dans d’autres modèles étudiés plus tôt, il faudra que je revienne sur mes pas. J’avais en fait testé ma fonction évolutive de sélection dans un échantillon restreint des pays, où toutes les variables sont bien répertoriées et le déficit alimentaire est non-nul : Argentine, Brésil, Chile, Colombie, Equateur, Inde, Indonésie, Mexique, Pakistan, Pérou, Philippines, Corée du Sud, République Sud-Africaine, Thaïlande, Turquie. Zut ! Je déteste ces moments quand je découvre que je suis décalé de la réalité.

Bon, on se calme. Je me calme. D’abord, il faut évaluer l’échelle des dégâts. Sans faire de retours hâtifs en arrière, je prends mon modèle général, celui dont l’équation est présentée ci-dessus, deux paragraphes en arrière, et je la fais évoluer. Je la mute. La mutation richarde englobe les pays sans déficit alimentaire répertorié est donc sans déficit alimentaire dans le modèle. Taille d’échantillon : n = 1 404 observations, responsables pour 14 206 819 demandes de brevet au total. Le modèle explique R2 = 0,734 de la variance observée dans ce même nombre des demandes de brevet, d’année en année et de pays au pays. La mutation malnutrie de mon équation raconte le sort des pays avec déficit alimentaire officiel et officiellement inclus dans le modèle. Ces pays-là ont généré quelques 6 550 000 demandes de brevets, dans un échantillon de n = 317 observations valides, qui explique R2 = 0,812 de variance du nombre de demandes de brevets.

Malgré la taille très disparate de deux échantillons, les deux rendent une capacité explicative très similaire. Ça promet. Allons voir les paramètres. Alors, le modèle valide pour les pays sans déficit alimentaire répertorié, est détaillé ci-dessous :

Variable Coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,532 0,093 5,688 0,000
ln(Taux d’amortissement) 1, 0,244 4,092 0,000
ln(Consommation d’énergie par tête d’habitant) 1,425 0,08 17,728 0,000
ln(Densité de population) 0,049 0,023 2,126 0,034
ln(Offre agrégée de travail, en heures travaillées) 0,654 0,059 11,131 0,000
ln(Offre agrégée d’argent) -0,223 0,055 -4,097 0,000
constante résiduelle -11,818 0,874 -13,528 0,000

En revanche, le modèle appliqué aux pays avec déficit alimentaire officiel se présente comme dans le tableau suivant :

Variable Coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,176 0,252 0,7 0,484
ln(Taux d’amortissement) -1,539 0,566 -2,721 0,007
ln(Consommation d’énergie par tête d’habitant) 1,755 0,142 12,339 0,000
ln(Densité de population) 0,497 0,078 6,354 0,000
ln(Déficit alimentaire) -0,349 0,067 -5,19 0,000
ln(Offre agrégée de travail, en heures travaillées) 0,537 0,16 3,369 0,001
ln(Offre agrégée d’argent) 0,308 0,197 1,563 0,119
constante résiduelle -23,754 2,053 -11,568 0,000

Bon, maintenant je suis bien sage et j’applique la méthode de John Stuart Mill : similitudes d’une part, différences de l’autre. La similitude la plus frappante est l’importance de la consommation d’énergie par tête d’habitant. Plus exactement, ce sont deux variables – la consommation d’énergie par tête d’habitant et le taux d’amortissement – qui, de façon un peu surprenante, deviennent les musiciens de front de l’ensemble. Leurs coefficients de régression, combinés avec leurs p-valeurs respectives (qui mesurent la solidité de la corrélation), leur donnent une dominance très visible sur d’autres variables. Si je considère cette équation économétrique comme un modèle économique, c’est un modèle basé sur deux équilibres relatifs au nombre des demandes de brevet : l’équilibre énergétique et celui du cycle de vie des technologies. Là, une fois de plus, je me sens obligé à faire ce petit échange d’idées avec moi-même : comment est-ce possible, avec toute cette pression sur l’économie d’énergie, que le système économique tende, en fait, vers la maximisation de consommation d’énergie ?

Oui, je sais, ça pourrait être un de ces trucs purement statistiques, un concours d’accidents numériques sans signification véritable. J’admets que c’est possible, seulement ça arrive dans chaque modèle que j’ai testé durant la semaine dernière. Quelle que soit le cocktail des variables explicatives pour déterminer la variance du nombre des demandes de brevet, la consommation d’énergie toujours vient avec un coefficient positif et une p-valeur hautement significative. Plus on consomme d’énergie par tête d’habitant, plus on invente. Il y a un truc qui me vient à l’esprit, maintenant, une sorte d’observation sociologique approximative : il est bien vrai que pratiquement chaque technologie nouvelle inventée de nos jours est plus économe en énergie que ses prédécesseurs mais en même temps nous accumulons de plus en plus de ces technologies. A un moment donné, le ménage moyen avait un frigo, une télé et une machine à laver. Un frigo plus économe est arrivé, tout comme une machine à laver avec une classe énergétique meilleure. Seulement, entretemps, il y a eu le sèche-linge, le climatiseur et deux ordinateurs qui viennent en scène etc. Plus économe, chacune de ces bestioles prise séparément, mais leur compilation en un même endroit pompe en haut la consommation totale des ménages.

Plus on consomme d’énergie par tête d’habitant, plus on invente de technologies nouvelles. Même s’il y a l’impératif d’économiser l’énergie, moins d’énergie consommée pourrait bien vouloir dire moins d’inventions. Ça a tout l’air d’un cercle vicieux. Maintenant, je passe au cycle de vie des technologies, qui semble jouer des rôles opposés dans mes deux échantillons. Lorsque l’habitant moyen est repu, la fonction évolutive de sélection génère d’autant plus d’inventions brevetables que le cycle de vie des technologies en place est court. Plus vite ça vieillit, plus on invente du nouveau. C’est logique et c’est comment les deux tiers d’inventions brevetables ont l’air de naître. En revanche, lorsque l’habitant statistique (qui n’existe pas, bien sûr) pourrait bien profiter d’un repas de plus dans la journée, ça fonctionne à l’envers : plus vite les technologies en place vieillissent, moins on en invente de nouvelles. La seule explication logique que je vois est que dans les pays avec déficit alimentaire, la dépréciation des technologies en place prend littéralement le pain de la bouche des chercheurs et limite la capacité de générer des inventions. Un mâle malnutri, qui en plus doit tenir le pas à un stress social prononcé, produit moins de spermatozoïdes : fait scientifique prouvé.

Il y a une deux autres différences intéressantes. La majorité d’inventions brevetables, celles générées dans les pays sans déficit alimentaire, s’associe avec un équilibre prévisible du ratio « capital par demande de brevet » et n’aime pas trop l’offre d’argent. Comme s’il y avait une contradiction entre la création de crédit et celle d’inventions brevetables. En revanche, dans l’échantillon des pays avec déficit alimentaire, la création de technologies nouvelles, exprimées comme demandes de brevet, s’accompagne d’un équilibre plutôt aléatoire du ratio « capital par demande de brevet » et semble aller bien avec la création de crédit.

Ouff, je vois que je n’en ai pas fini avec ce truc d’évolution.

[1] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at www.ggdc.net/pwt

L’invention mâle de modèles

Mon éditorial d’aujourd’hui

Ainsi donc, j’ai formulé, hier, une fonction de sélection dans mon modèle évolutionniste de changements technologiques ( consultez “Primitive, male satisfaction with bigger a size” ). Le nombre de demandes de brevet dans un endroit et en un moment donné dépend, d’une façon significative, de quatre facteurs : de la quantité de capital physique investi dans cet endroit et en ce moment précis, du taux d’amortissement d’actifs fixes (donc du rythme de replacement des technologies), de la part de rémunération de la main d’œuvre dans le PIB, et finalement de la consommation moyenne d’énergie par tête d’habitant. Tout ça, ça explique 70% de la variance totale du nombre de demandes de brevet. En termes économétriques, c’est une fonction logarithmique linéaire, ou ln(Nombre de demandes de brevet) = a1*ln(Capital physique) + a2*ln(Taux d’amortissement) + a3*ln(Part des salaires dans le PIB) + a4*ln(Consommation d’énergie par tête d’habitant) + constante résiduelle. Le test économétrique de cette équation dans ma base de données (Penn Tables 9.0 plus données de la Banque Mondiale) a rendu n = 2 338 observation valables et un coefficient de détermination R2 = 0,701, ainsi que les coefficients rapportés dans le tableau ci-dessous :

variable coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,847 0,017 49,012 0,000
ln(Taux d’amortissement) 2,256 0,16 14,089 0,000
ln(Part des salaires dans le PIB) 2,782 0,157 17,693 0,000
ln(Consommation d’énergie par tête d’habitant 0,643 0,036 17,901 0,000
constante résiduelle -0,854 0,561 -1,522 0,128

  J’ai testé la constante résiduelle de ce modèle pour sa corrélation avec d’autres variables de ma base de données et aucune corrélation significative n’est apparue. Je peux donc assumer que la valeur de cette composante résiduelle est un pur accident statistique, probablement dû à des co-intégrations entre les variables explicatives du modèle.

Bon, si je veux rendre intelligible la signification de cette fonction, il est bon de résumer un peu le chemin qui m’a mené à la définir. Le lien fonctionnel entre le nombre des demandes de brevet et la quantité de capital physique était une hypothèse de base de ma part. La théorie évolutionniste que j’ai commencé à développer propose que le processus de changement technologique soit une interaction entre des organismes mâles, qui communiquent de l’information sur les innovations possibles à faire, et les organismes femelles – les investisseurs – capables de recombiner cette information et de reproduire la substance de capital. Si j’avais posé une telle hypothèse, il était logique que je cherche une corrélation entre le nombre d’idées distinctes sur les changements à faire (demandes de brevet) et la quantité de capital physique présente dans un endroit et en un moment donné. J’ai étudié cette corrélation en testant une fonction linéaire logarithmique, quant à son pouvoir explicatif général, mesuré à travers le coefficient de détermination R2, ainsi qu’à travers la signification de la corrélation, testée avec la statistique « p ». Cette dernière exprime la probabilité d’hypothèse nulle, donc la probabilité qu’en fait, il n’y a pas de corrélation.

Après ce premier test, j’ai obtenu une équation dont le coefficient de détermination était de R2 = 0,478 et dont la statistique p était en-dessous de 0,001, donc du béton. Seulement, c’était du béton amorphe de point de vue théorique. Il n’y a rien de particulièrement évolutionniste dans l’assertion qu’il y a un lien significatif entre le nombre des demandes de brevet et la quantité de capital physique en place. C’est du cours élémentaire en microéconomie ou en gestion : plus de capital rend possible plus de recherche et développement et vice versa, plus de recherche et développement donne plus de chances de multiplier le capital investi. A ce point-là, j’avais juste prouvé que des données empiriques solides forment une base, sur laquelle il est possible de bâtir une approche évolutionniste, mais pas seulement évolutionniste. Les théories scientifiques sont un peu comme des bâtiments. Le plus stable, c’est une pyramide, avec une base large et les étages consécutifs bâtis chaque fois plus petits en superficie que ce qui se trouve en-dessous. Oui, je sais qu’une pyramide c’est le plus souvent une tombe. J’espère bien que je n’ai aucun cadavre caché sous la mienne.

J’avais donc une base, sur laquelle je pouvais bâtir. J’ai utilisé le fait que mon équation initiale, quoi que solide, laissait une marge d’indétermination assez large. Un coefficient de détermination de R2 = 0,478 veut dire qu’on a 47,8% de variance bien expliqué, seulement ça laisse 52,2% à expliquer. En plus, mon équation initiale laissait une résiduelle tout à fait substantielle. J’ai donc essayé de formuler une autre hypothèse, qui me rapprocherait du contexte évolutionniste strictement parlé. J’ai assumé que dans un cadre de reproduction sexuée, la fréquence des contacts sexuels a de l’importance pour la vitesse de reproduction. Cette dernière est imposée en grande partie par la durée moyenne de vie. Plus vite on meurt, plus fréquemment on a besoin de reproduire, donc de faire l’amour. La durée de vie d’une technologie est l’inverse de son taux d’amortissement. Un taux de 20% par an fixe la durée de vie de la technologie en question à plus ou moins 5 ans ; un taux de 10% étendrait cette durée à 10 ans etc.

Je sais, j’ai été opportuniste à ce point-là. Je savais que la base Penn Tables 9.0 contient les données sur le taux d’amortissement moyen, pays par pays et année par année. Il faut faire avec ce qu’on a, quoi. J’avais donc introduit le taux d’amortissement dans mon équation et j’ai testé. Le test, ça ne s’est pas passé trop mal. Mon coefficient de détermination a gagné en ambition un tout petit peu et il est monté jusqu’à R2 = 0,492. Les résultats de la régression se présentent comme ci-dessous :

variable Coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,843 0,019 43,587 0,000
ln(Taux d’amortissement) 1,371 0,172 7,986 0,000
constante résiduelle -0,203 0,561 -0,362 0,718

Ces résultats m’ont suggéré que j’avance dans la bonne direction. L’ajout du taux d’amortissement dans l’équation a donné du pouvoir explicatif et la direction de la corrélation obtenue est conforme à mon hypothèse : plus élevé est le taux d’amortissement, donc plus courte est la durée moyenne de vie d’une technologie, plus de demandes de brevets est déposé dans un pays donné en un moment donné. Là, je suis comme à mi-chemin dans l’évolutionnisme. Encore qu’il pourrait bien y avoir des sceptiques qui diraient quelque chose comme :  « Bon, c’est bien joli, ça, mais ce n’est pas nécessairement de l’évolutionnisme, tout ça. Plus vite nos technologies vieillissent, plus vite il faut les remplacer. C’est du bon sens commercial, ça ». Seulement voilà, il est aussi possible que le rythme accéléré d’amortissement décourage les investisseurs et qu’ils montrent une préférence systématique pour les technologies à durée de vie plutôt longue, auquel cas cette corrélation positive entre le nombre des demandes de brevet et taux d’amortissement n’est plus évidente du tout. Si je vois un coefficient de régression qui est positif et plutôt élevé pour une équation logarithmique, cela veut dire que les investisseurs montrent une préférence systématique pour des technologies qui périssent vite. Les organismes femelles de mon espèce capitaliste et débrouillarde font un effort pour se reproduire à une cadence accélérée, comme si l’espèce tout entière cherchait à s’adapter à quelque chose. Voilà, j’ai lui ai montré, à ce sceptique imaginaire dans ma tête.

Sur la base large que j’avais posé précédemment, je viens de poser un deuxième étage. Ou peut-être c’est le premier étage si on assume qu’une pyramide a un rez-de-chaussée. De toute façon, c’est un pas de plus. Après l’avoir fait, ce pas, hier, j’étais un peu à court d’idées. Je revoyais les variables dans ma base de données et j’essayais d’en trouver une pertinemment évolutionniste et je vais vous dire, ça n’avait pas l’air facile. J’avais donc décidé de faire confiance aux données elles-mêmes, sans idées préconçues. Dans mon équation telle que je l’avais à ce moment-là, j’avais toujours plus de 50% de la variance totale du nombre des demandes de brevet inexpliquée et en plus j’avais cette composante résiduelle avec p-valeur égale à 0,718. Cela voulait dire qu’une fois que j’ai expliqué 49,2% de la variance avec le capital physique et le taux d’amortissement, il reste 50,8% de variance résiduelle et cette variance résiduelle à 71,8% de chances d’être absolument aléatoire. C’est comme si j’étais un inspecteur de police et comme si des témoins différents me disaient que mon suspect (double meurtre, pas de plaisanterie) était bien grand, mais à part ça il pouvait être homme ou femme, blanc, noir ou asiatique, moustache ou pas etc. Irritant. J’ai vu un polar chinois où ça se déroulait exactement de cette façon.

J’avais donc décidé de faire confiance aux données. Techniquement, ça consistait à calculer cette résiduelle de régression pour chaque observation « pays – année » séparément et ensuite vérifier si la distribution des valeurs résiduelles ainsi obtenues était significativement corrélée avec d’autres variables de ma base de données. Par analogie à l’enquête policière, c’est comme si j’acceptais cette disparité folle dans les dépositions des témoins et comme si j’essayais d’établir si mon suspect avait plus de chances d’être un asiatique barbu ou bien une femme blanche à cheveux aile de corbeau, avec un foulard noir. J’ai trouvé deux corrélations significatives de cette résiduelle : l’une avec la part de rémunération du travail dans le PIB (corrélation Pearson r = 0,491), l’autre avec la consommation d’énergie par tête d’habitant (corrélation r = 0,509). Cette résiduelle de régression, qui semblait tellement aléatoire, semblait néanmoins avoir des préférences claires. J’ai donc ajouté ces deux variables à la version précédente de mon équation et c’est ainsi que je suis arrivé au modèle présenté au tout début de cette mise à jour d’aujourd’hui.

Bon, ça c’est l’histoire de mes crimes, maintenant le temps est venu d’interpréter. Dans trois versions différentes de mon modèle, le coefficient de régression assigné au capital physique restait bien tranquille, entre 0,82 et 0,85, en fonction du contexte. Je pense que j’ai donc ici un équilibre économique : celui entre le capital physique et le nombre de demandes de brevet. Trois préférences dans ma fonction de sélection se superposent ensuite à ce point d’équilibre : préférence pour une rotation rapide des technologies, préférence pour des technologies à forte rémunération de main d’œuvre, ainsi que la préférence, relativement moins forte, pour les technologies à consommation élevée d’énergie. La préférence pour des technologies à forte rémunération de main d’œuvre semble être particulièrement intéressante. Plus de rémunération pour la main d’œuvre veut dire plus de personnes employées ou bien des salaires plus élevés, avec peut-être une préférence pour de la main d’œuvre hautement qualifiée. Cela pourrait expliquer le phénomène de productivité décroissante dans l’économie mondiale (plus de travail fourni donc productivité décroissante du travail) ainsi que la disparité croissante entre les salaires d’employés hautement qualifiés et ceux avec juste des qualifications élémentaires.

Le coefficient positif assigné à la consommation d’énergie par tête d’habitant est aussi intéressant. Elle pourrait même fournir une réponse anthropologique à une question fondamentale : pourquoi, avec tout le talent que nous avons, comme civilisation, à inventer des trucs toujours nouveaux, on montre une tendance obstinée à consommer de plus en plus d’énergie par personne. Du point de vue d’un ingénieur, ce coefficient assigné à la consommation d’énergie est contre-intuitif. Tour ingénieur tend à développer des technologies aussi économes en énergie que possible. Néanmoins, il se peut qu’à un niveau vraiment très, très biologique, comme espèce vivante, nous avons une préférence viscérale pour approprier autant d’énergie que possible de notre environnement.

Par ailleurs, si vous sautez au début de cette mise à jour, vous verrez dans la forme la plus élaborée de mon modèle un coefficient de détermination égal à R2 = 0,701. Ça me laisse toujours avec plus de 29% de variance sans explication. Ce n’est pas bien grave : trop de détermination n’est pas nécessairement ce qu’on souhaite. Encore, ça m’a donné un prétexte pour réitérer la même procédure analytique : mapper les résiduelles et chercher des corrélations. Seulement cette fois, ça n’a rien donné. Cette résiduelle-là semble bien aliénée. Je la laisse pour le moment. Ce qui m’intéresse en ce moment précis, c’est la structure. Je pose et je vérifie l’hypothèse suivante : des structures sociales différentes produisent des fonctions de sélection différentes et des équilibres différents entre la quantité de capital physique et le nombre de demandes de brevet.

Dans ma base de données, j’ai deux variables différentes : la densité de population et le déficit alimentaire. Le nombre de personnes par kilomètre carré est un facteur essentiel de relations sociales, aussi bien coopératives que conflictuelles. Le déficit alimentaire semble avoir de l’importance pour le ratio de capital physique par une demande de brevet. J’ai déjà exploré ce sujet précis, un tout petit peu, dans la mise à jour intitulée “Evolutionary games”. J’inclus donc les logarithmes naturels de ces deux variables dans mon modèle, ce qui me donne l’équation suivante : ln(Nombre de demandes de brevet) = a1*ln(Capital physique) + a2*ln(Taux d’amortissement) + a3*ln(Part des salaires dans le PIB) + a4*ln(Consommation d’énergie par tête d’habitant) + a5*ln(Densité de population) + a6*ln(Déficit alimentaire) + constante résiduelle. Je teste cette équation dans un ensemble d’observations réduit, faute de données complètes. J’ai n = 469 observations valides, qui rendent, néanmoins, un joli pouvoir explicatif avec R2 = 0,729. Quant aux paramètres détaillés du modèle, vous pouvez les trouver dans le tableau ci-dessous :

variable Coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,799 0,043 18,49 0,000
ln(Taux d’amortissement) 1,496 0,365 4,096 0,000
ln(Part des salaires dans le PIB) 2,338 0,269 8,676 0,000
ln(Consommation d’énergie par tête d’habitant 1,233 0,102 12,035 0,000
ln(Densité de population) 0,646 0,063 10,219 0,000
ln(Déficit alimentaire) -0,106 0,069 -1,541 0,124
constante résiduelle -9,522 1,618 -5,885 0,000

La densité de population semble avoir deux mots à dire quant à l’équilibre « capital – demandes de brevet » et c’est du solide en termes de corrélation : plus on a du monde par kilomètre carré, plus on génère d’inventions brevetables. Dans le cas du déficit alimentaire, celui-ci semble avoir quelque chose à dire, seulement il est dur de définir qu’est-ce que c’est exactement qu’il veut dire. La p – valeur de cette corrélation particulière est plutôt élevée. Il semble que le déficit alimentaire marche mieux comme variable de contrôle, à l’extérieur du modèle plutôt qu’à l’intérieur.

Un peu de parallélisme avec un organisme vivant

Mon éditorial d’aujourd’hui, sur You Tube

Dans les sciences sociales, beaucoup dépend du point de vue qu’on adopte. « Eh ben oui, c’est évident », dirait Milton Friedman, « Tu explores et tu conclus sur la base d’une hypothèse, toujours. Même si tu n’en as pas formulé une explicitement, t’en a une dans ta tête, quelque part. Tu cherches des trucs que tu sais tu devrais chercher, pour réduire la dissonance cognitive engendrée par la présence d’hypothèses dans ton esprit. Une hypothèse, c’est comme une question que tu as transformée en une énonciation avant de finir d’y répondre. C’est pour ça qu’il vaut mieux se rendre compte consciemment de nos hypothèses »

Ce que j’ai dans l’esprit, moi, c’est l’idée générale d’apprentissage collectif par l’expérimentation collective. Au sens plus large, quand je regarde les changements sociaux et technologiques dans l’économie mondiale, j’ai presque toujours une association d’idées avec le concept d’intelligence collective. Quand je lis les dernières nouvelles du front de combat que professeur Jordan Peterson, de l’université de Toronto, mène contre les postmodernistes ainsi que contre l’idée de pronoms transgenres, je me demande toujours : « Et si toute cette situation, apparemment idiote, était une manifestation d’intelligence collective qui s’est mise au travail pour trouver une solution ? Et si ce que cette intelligence collective essaie de faire était la solution d’un problème dont nous ne nous rendons même pas compte ? ». J’ai un peu les mêmes réflexions quand je regarde les combats épiques – et purement verbaux, heureusement – entre les trumpistes et les anti-trumpistes aux Etats-Unis ou entre la gauche globaliste et la droite nationaliste dans mon propre pays, la Pologne. J’ai l’impression que les comportements qui semblent franchement cons à première vue pourraient bien être une manifestation d’une expérimentation collective et d’un apprentissage collectif par une intelligence collective.

Bon, il serait peut-être bon que je clarifie mes idées un peu. Je procède par l’ordre de mes impressions, sans essayer, pour le moment, de créer une structure théorique solide. Je me souviens d’avoir lu, chez Orhan Pamuk, l’écrivain Turque honoré avec le Prix Nobel en littérature, que les gens de l’Occident souffrent d’une incompréhension fondamentale eu égard au jeu d’échecs. Dans l’Occident, nous interprétons les échecs comme une guerre simulée, pendant que l’idée originale de ce jeu – selon Orhan Pamuk – est de représenter le fonctionnement de l’esprit humain. Quoi qu’on n’essaie de faire, on a trois mouvements de base – droit devant, en diagonale ou bien en courbe du cavalier (trois pas en avant, un de côté) – plus une hiérarchie quant au pouvoir d’action : le roi, le pion et le cavalier ont une rangée limitée, pendant que la reine, le fou et la tour peuvent aller aussi loin qu’ils veulent. Quoi qui se passe, sur l’échiquier, il y a toujours deux ensembles qui font un choix répété, en séquence, entre ces trois mouvements, dans ces deux rangées d’action. Le talent du joueur d’échecs se voie par sa capacité à soumettre la séquence de ces mouvements simples à un objectif stratégique et à minimiser l’incidence des mouvements purement réactifs vis à vis ceux de l’adversaire ainsi que de mouvements illogiques, faits juste pour faire quelque chose, sans même une tactique momentanée pour les justifier.

Lorsque nous mettons en place de nouvelles institutions dans notre société – c’est-à-dire des nouvelles composantes de langage, des lois ou des coutumes nouvelles, des nouvelles hiérarchies ou de nouveaux réseaux – nous avons, comme collectivité, une gamme assez restreinte des moyens d’action. On peut redéfinir et redistribuer les rôles sociaux, on peut redéfinir les frontières entre les groupes sociaux et on peut se pencher sur les mécanismes d’appropriation de ressources. C’est à peu près tout. Si nous regardons la société comme une structure, les changements structurels de base sont ceux-ci : rôles, identité des groupes, accès aux ressources. Par-dessus l’arrangement courant de ces trois éléments, on crée une culture verbale qui a pour but de faire cet arrangement intelligible et communicable. Tout comme les mouvements de base du jeu d’échecs, les trois réarrangements de base dans la structure sociale – rôles, identité de groupes, accès aux ressources – peuvent être plus ou moins cohérents par rapport à une stratégie. Le « plus ou moins » peut s’étendre, en fait, d’une absence complète de cohérence stratégique, à travers des séquences cohérentes comme tactiques, sans qu’une logique de long terme soit visible, jusqu’aux réarrangements sociaux marqués par une cohérence stratégique profonde.

Le jeu d’échecs nous apprend encore une chose : dès qu’il y a plus d’un cerveau dans la combine, même une stratégie apparemment parfaite peut s’avérer inefficace, de même qu’une séquence aléatoire et peu cohérente peut mener à la victoire. A l’échelle de la société entière, cela peut se traduire comme une impossibilité de fait de construire une stratégie parfaitement cohérente : comme des séquences nouvelles des mouvements sont initialisées tout le temps, chaque stratégie perd en cohérence à mesure que des stratégies alternatives soient déployées par d’autres agents sociaux.

Bon, mais j’en étais au professeur Jordan Peterson de l’université de Toronto et sa croisade contre l’unicorne transgenre introduit dans les programmes éducatifs d’écoles de province d’Ontario. Professeur Peterson y voit un danger. Sincèrement, moi aussi je vois un danger dans une imposition, forcée par la loi, sous peine d’amende, d’utiliser certains pronoms (peu importe lesquels) au lieu d’autres. Néanmoins, quand le regarde toute cette situation au Canada dans une autre perspective, je vois une société qui expérimente avec l’un des outils fondamentaux de construction sociale, c’est-à-dire avec l’identité de groupe. Tout ce langage d’oppression et de la nécessité de la combattre, même si, parfois, il semble un peu schizophrène, est comme une sorte d’expérience collective, basée sur l’hypothèse générale que si on change quelque chose dans le système d’identités des groupes, on peut obtenir un ordre social différent et peut-être meilleur.

Il y a un phénomène intéressant dans le domaine que je suis en train d’étudier maintenant, dans le cadre de mon contrat de recherche pour cette année, c’est-à-dire l’innovation. Le phénomène consiste dans une disparité croissante de la génération d’idées, à travers l’économie mondiale. Dans l’étude économique sur l’innovation, l’une des mesures de base quant à l’intensité des changements technologiques est le coefficient du nombre des demandes de brevet par un million d’habitants. J’ai utilisé les données de la Banque Mondiale pour calculer la moyenne de cette variable, ainsi que sa variance, à travers les différents pays du monde, dans les années consécutives de la période 1960 – 2014. Le fichier Excel correspondant est à trouver sous ce lien hypertexte-ci. Ce que vous pourrez constater, c’est qu’à un certain moment, aux alentours de l’année 1990, la variabilité de la distribution géographique de ce coefficient avait commencée à croître visiblement, et ça continue de se diversifier. En d’autres mots : notre civilisation, à l’échelle globale, devient de plus en plus diversifiée dans la capacité locale de générer des inventions brevetables. Une invention brevetable c’est simplement une idée avec du capital à l’appui. Le monde se diversifie de plus en plus dans sa capacité de générer des idées qui, à leur tour, se gagnent le support capitaliste. Des pôles d’innovation se forment.

Il y a deux remarques importantes à faire quant à cette polarisation. Premièrement, les sciences physiques sont plutôt claires sur ce point-là : une polarisation croissante témoigne d’une accumulation d’énergie dans le système. C’est comme si de plus en plus d’énergie intellectuelle était présente dans la société humaine, et l’énergie, ça ne se dépense pas à la légère : il doit y avoir une bonne raison pour qu’une civilisation entière se remue les méninges. Précisément, quand on parle des raisons, il y a une deuxième remarque à propos de ce coefficient de demandes de brevet par un million d’habitants : sa disparité spatiale a commencé à croître, donc la polarisation du système a commencé à s’accentuer, donc l’énergie intellectuelle en jeu a commencé à s’accumuler, aux alentours de 1990, c’est-à-dire au moment-même quand la croissance de la population des migrants dans le monde a commencé à croître beaucoup plus vite que la population générale. Quant à cette dernière constatation, vous pouvez trouver du matériel empirique dans ce fichier Excel ici .

En d’autres mots, deux grand moteurs de changement structurel dans notre civilisation se sont mis en marche, à cadence accélérée, vers 1990 : les migrations et la génération du capital intellectuel. Comme civilisation, nous avons commencé à expérimenter avec notre propre structure. Hier, j’ai regardé une interview avec docteur Andy Galpin , un physiologiste de sport, qui fait une distinction intéressante dans les stratégies d’entrainement. Il distingue entre l’optimisation et l’adaptation. L’optimisation consiste à aligner toutes nos ressources physiologiques pour atteindre un objectif spécifique, par exemple une médaille olympique, tandis que l’adaptation est une exposition consciente à des conditions externes atypiques – comme un type radicalement différent d’effort physique, jeûne, climat différent – pour développer notre capacité d’adaptation en tant que telle. Docteur Galpin affirme que l’optimisation et l’adaptation sont les deux mécanismes fondamentaux d’apprentissage au niveau physiologique dans notre organisme. Comme matière vivante, nous suivons une séquence d’adaptation et d’optimisation, et les proportions entre les deux dépendent surtout des facteurs exogènes. Quand l’environnement est stable, notre organisme essaie d’optimiser ses fonctions. Lorsqu’il y a du nouveau, au niveau physiologique, notre corps passe en mode « adaptation » et les priorités changent : au lieu de développer des stratégies optimales, notre organisme essaie surtout de développer des stratégies alternatives.

Dans les sciences sociales, il y a cette trace très nette de parallélisme avec un organisme vivant. C’est pratiquement le fondement-même d’utilitarisme social qui, à son tour, est à la base des sciences économiques. Bien sûr, il faut se garder des parallèles trop faciles, néanmoins cette piste à sa logique qui tient le coup. On peut se demander si les changements sociaux que nous pouvons observer dans le monde, même s’ils semblent stupides et incohérents à première vue, ne sont pas, par hasard, la manifestation des tentatives intensifiées de mettre au point une civilisation nouvelle.