Carrément sidéré par mes propres résultats

Mon éditorial

Voilà ! Je reviens. Je me suis absenté de ce blog pour quelques jours mais que voulez-vous : la vie d’un prof d’université, surtout au début de l’année académique, c’est une vie bien abondante. Les cours commencent, donc je suis pris en classe, et la fin de l’année semble soudainement tellement plus proche, et il devient pressant de gérer ce qui reste de mes fonds de recherche. De toute façon, même si je le suis un peu déconnecté de mon blog pendant quelques jours, ça a été une déconnexion féconde. Non, ce n’est pas ce que vous pensez : j’ai tout simplement fini d’écrire un article où j’ai plus ou moins développé cette idée de corrélation entre la structure de la population humaine et l’accès à l’énergie, sous toutes ses formes, bouffe incluse. La version pré-éditoriale de l’article, en anglais, est accessible sous ce lien hypertexte-là . Du nouveau, là-dedans ? Certainement. Je viens de construire une preuve que la grande majorité des pays dans le monde pourraient virer à 180 degrés vers les énergies renouvelables et ce virage non seulement n’aurait pas compromis leur stabilité socio-économique, mais aussi il pourrait créer des conditions pour accommoder des populations plus grandes que maintenant. Dans tout cet optimisme, il y a des réserves. Les deux pays les plus peuplés du monde – la Chine et l’Inde – déteignent de ce fonds optimiste. Dans leurs cas, mon modèle semble ne pas marcher.

Bon, j’explique. C’est une fraîche tranche de science, bien chaude, droit du four, et je pense qu’une exposition de ma méthode et de mes résultats pourrait être bien utile comme du matériel éducatif. Alors voilà : je me suis concentré sur cette équation de base de Paul Krugman (Krugman 1991[1], équation no. 1) où la différentiation spatiale d’une économie se développe par la suite d’une une sorte de tension entre le secteur manufacturier de l’économie et le secteur agraire. J’ai essayé de comprendre vraiment le fond des fonds de cette équation et je suis venu à la conclusion qu’une telle tension se développe, en fait, à chaque fois que deux secteurs d’un même système socio-économique changent à des vitesses différentes. Celui qui change plus vite va inévitablement absorber la part de lion du capital et de la main d’œuvre et c’est ainsi qu’il créera une différentiation progressive de l’espace habité par les hominides intelligents (enfin, suffisamment intelligents pour créer des secteurs économiques) en un centre et une périphérie. A ce point-là, je me suis souvenu de mon intuition générale en ce qui concerne l’énergie : nous l’absorbons sous deux formes différentes, comme alimentation et comme technologie. Les habits alimentaires et leur contexte économique, ça change lentement. En revanche, les technologies qui nous permettent d’utiliser l’énergie plutôt que de la manger, ça change vite.

J’ai donc retourné à cette équation de base que je vous avais déjà présentée : « Population = a * (Energie, pouvoir µ) * (absorption alimentaire, pouvoir 1 – µ» (consultez : “Ma formule magique marche dans certains cas, et pas tout à fait dans des cas autres que certains” ), seulement maintenant, je voulais estimer les paramètres pour chaque pays bien dans l’esprit originel de la fonction de production de Charles W. Cobb et Paul H. Douglas[2]. Je voulais donc établir, pour chaque pays séparément, une fonction d’équilibre général entre la population, telle qu’elle est en l’endroit donné au moment donné, et l’agrégat de population potentiellement possible avec un régime alimentaire donné et une consommation donnée d’énergie. Comme vous voyez, il y a beaucoup de donné dans tout ça et c’est justement là toute la spécificité de la méthode de Cobb et Douglas. On travaille avec les valeurs absolues. Pas des logarithmes, pas des valeurs standardisées, mais bien avec les valeurs absolues. Dans un tel cas, il faut beaucoup d’expérimentation avec les unités de mesure avant que ça marche. C’est probablement pour ça que nous, les économistes, on n’aime pas vraiment travailler avec les magnitudes réellement observées des phénomènes mais bien plutôt avec quelque chose de transformé et bien calme.

Finalement, j’étais arrivé à quelque chose d’intelligible avec la population exprimée en millions, sur le côté gauche de l’équation, et sur le côté droit l’énergie consommée par an par tête d’habitant, en tonnes d’équivalent pétrole, ainsi que l’absorption alimentaire par an par tête d’habitant, en mégacalories (donc en milliers de ces kcal que vous pouvez voir sur les emballages des produits alimentaires).

Le truc que j’avais réussi à faire, alors, pour plus d’une centaine des pays du monde entier, chaque pays pris séparément, était de trouver un telle valeur du paramètre µ – dans « Energie par habitant pouvoir µ, multipliée par absorption alimentaire pouvoir 1 – µ » – qui conduisait à calculer la taille d’une population hypothétique à peine plus grande que la population réelle. A peine veut dire quelques pourcents. C’est un peu comme une fonction de création d’espace habitable pour les humains. Si vous connaissez donc des divinités à la recherche d’inspiration pour créer des réalités mythiques, donnez-leur l’adresse de ce blog : j’ai une fonction de création bien robuste. Robuste, dans ce cas, veut dire que la proportion entre cette population hypothétiquement calculée et la population réelle demeure bien stable dans le temps. Tout en jouant au Bon Dieu, je me suis aperçu que la création d’espace vital sur la base de l’énergie, ça ne se passe pas du tout de la même façon dans tous les 116 pays que j’ai testé. Il y a des pays où c’est bien l’utilisation d’énergie qui a le pouvoir dominant dans cette fonction, mais il y en a aussi où c’est exactement l’inverse : c’est le régime alimentaire qui a la main donnante dans la création d’espace habitable. Vous direz « Bien sûr ! Faut pas avoir un doctorat pour le savoir : il y a des gens affamés dans ce monde et leur espace habitable c’est surtout leur prochain repas, pas vraiment la prochaine Lexus hybride ». C’est partiellement vrai, mais il y a des grosses surprises. Tenez les Etats-Unis. Ils sont bien nourris, là-bas, de l’autre côté de l’Atlantique, n’est-ce pas ? Eh bien, aux Etats-Unis, le modèle marche seulement si la consommation d’énergie par tête d’habitant a un pouvoir de µ = 0,3 et pas plus. Naturellement, l’absorption alimentaire gagne un pouvoir 1 – µ = 0,7 dans la création d’équilibre démographique. Juste pour vous donner une idée : mon pays natal, la Pologne, ça se balance dans mon modèle (drôle de jeu de mots, par ailleurs) avec énergie pouvoir µ = 0,56 et la bouffe par habitant (donc ma bouffe à moi aussi) pouvoir 1 – µ = 0,44. Si donc nous, les Polonais, on se compare avec les Américains, notre changement démographique est basé plus sur l’utilisation de l’énergie à travers la technologie et moins sur l’absorption alimentaire. Comment ça marche ? Honnêtement, je ne comprends pas encore. Je viens de trouver et prouver la validité d’une fonction qui produit des populations à partir de la bouffe et de l’énergie à brûler, mais je suis comme un apprenti sorcier : j’ai jeté des ingrédients dans la marmite et j’ai obtenu une potion plus qu’intéressante mais je n’y comprends que dalle.

Le truc qui est même plus intéressant est que j’ai réussi à stabiliser mon modèle avec la même robustesse après avoir remplacé la consommation totale d’énergie par tête d’habitant avec juste la consommation d’énergies renouvelables. En termes de théorie économique cela veut dire que j’ai éliminé de la civilisation toutes les technologies basées sur les énergies non-renouvelables, en ne laissant que celles à 100% renouvelables et après ce petit remue-ménage j’ai encore réussi à stabiliser cette civilisation, dans plus de 100 pays différents. Etrange ? Eh ben oui. Je suis étonné par les résultats que j’ai obtenus. Honnêtement. Pas de conneries. Souvent, dans la science, on écrit des articles quand les résultats de la recherche ne sont plus un puzzle. Moi, dans ce cas précis, j’ai écrit cet article parce que j’étais carrément sidéré par mes propres résultats.

[1] Krugman, P., 1991, Increasing Returns and Economic Geography, The Journal of Political Economy, Volume 99, Issue 3 (Jun. 1991), pp. 483 – 499

[2] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

Un modèle mal nourri

Quelques mots sur You Tube

Je suis en train de ruminer les résultats de mes test empiriques d’hier, ceux que j’ai discutés abondement en anglais dans le post intitulé  “Cases of moderate deprivation” . J’avais pris un modèle économétrique que j’eus précédemment utilisé dans un  article sur le phénomène de monétisation dans la course technologique et j’ai introduit le déficit alimentaire, tel qu’il est publié par la Banque Mondiale, comme variable de contrôle. En termes de méthode de recherche cela veut dire que je testé le même modèle séparément dans les différentes classes d’économies nationales, caractérisées par des niveaux distincts de déficit alimentaire. Dans les cas les plus extrêmes dudit déficit, c’est-à-dire lorsque l’habitant moyen d’un pays manque plus de 250 kilocalories par jour, le modèle perd pratiquement toute sa cohérence et il la regagne de plus en plus à mesure que le déficit calorique décroît.

J’assume que si un modèle économétrique tient, en termes de son coefficient de détermination R2 et de la signification des corrélations individuelles entre variables, cela veut dire qu’il représente, d’une façon acceptablement fidèle, le fonctionnement d’une structure sociale. Lorsque le même modèle « marche », en termes économétriques, de façon différente dans des classes différentes de sociétés, j’interprète les différences au niveau des coefficients comme une différence réelle quant au fonctionnement des structures sociales étudiées. Il y a, par exemple, ce truc qui remonte à Adam Smith et à son traité « De la nature et des causes de la richesse des nations » : la densité de population. Adam Smith répétait souvent que le genre de développement qu’il avait l’habitude d’appeler « la division de travail » et que nous, aujourd’hui, on aurait appelé « développement structurel », avait besoin d’une certaine densité minimum de population, en-dessous de laquelle ça ne marche tout simplement pas.

Moi aussi, je crois que la densité de population a une importance fondamentale pour le fonctionnement de nos structures sociales. C’est une importance dont le plus fréquemment nous ne nous rendons pas compte, mais c’est un mécanisme puissant qui détermine la façon dont nous interagissons dans la société. En des termes un peu plus pratiques, la densité de population est une estimation très analytique de l’importance relative des structures urbaines et périurbaines – où ladite densité est la plus grande – dans le tissu socio-économique. J’ai inclus la densité de population dans ce modèle de monétisation de course technologique, comme variable structurelle. Lorsque je testais ce modèle dans mon échantillon entier, donc dans l’ensemble de n = 2 238 observations « pays – année », la densité de population apparaissait comme variable significative qui contribue à décroître la vélocité de l’argent. Néanmoins, lorsque l’environnement social du modèle est contrôlé quant au niveau de déficit alimentaire, il faut que ledit déficit n’excède pas 109 kcal par jour par personne, pour que la densité de population gagne une signification suffisante, dans sa corrélation avec la vélocité de l’argent, pour qu’on puisse l’accepter comme variable structurelle significative. Lorsque la privation calorique excède 109 kilocalories par jour par habitant, désolé, la densité de population, ça se balade tout seul.

J’ai essayé de donner une interprétation structurelle à cette variable de déficit alimentaire. Ici, il est peut-être bon que j’explique la différence entre l’interprétation structurelle et celle plus stochastique. Telle qu’il est donné par la Banque Mondiale, le déficit alimentaire est une moyenne stochastique. Si cette moyenne a une valeur non-nulle, cela veut dire que la population entière est en manque d’un montant d’énergie chimique, générée par le catabolisme du corps humain, dans la quantité égale au nombre d’habitants multiplié par le déficit calorique moyen par habitant. Par exemple : déficit moyen de 150 kcal par habitant dans une population de 20 millions de personnes veut dire que cette société, prise comme un ensemble organisé, manque 150*20000000 = 3 milliards de kilocalories par jour. Il se peut que ces 3 milliards kcal par jour soient ce qui manque pour que cette nation bâtisse, par exemple, un système routier efficace.

A ce point-là, une observation de la vie quotidienne s’impose : la France ou l’Allemagne n’ont pas de déficit alimentaire en termes stochastiques, mais je peux bien y rencontrer des personnes qui sont chroniquement mal nourries. De la même manière, en Zambie, qui est en déficit alimentaire aigu en des termes stochastiques (plus de 400 kcal par jour par personne), je peux bien rencontrer des gens qui mangent largement à leur faim. Dans ce petit film sur You Tube  vous pouvez constater qu’il y en a même, en Zambie, qui ont suffisamment d’alimentation pour pratiquer le culturisme (croyez-moi, ça demande un surplus calorique géant). En transformant le déficit alimentaire stochastique en variable structurelle, il est donc utile de penser en termes de valeur de référence.

Disons que nous sommes deux populations d’agriculteurs. Pour travailler dans les champs, il faut beaucoup d’énergie. Disons que la norme calorique est établie à 3000 kcal par jour. Dans l’une de ces deux populations, le déficit alimentaire est recensé, comme moyenne stochastique, au niveau de 160 kcal par jour par personne. La seconde de deux populations ne registre aucun déficit alimentaire. Celle avec 160 kcal en manque contient au moins 160/3000 = 5,3% de personnes qui n’ont pas de nutrition suffisante. Je dis « au moins », parce qu’il faudrait enrichir ce calcul par l’inclusion des gens qui absorbent plus de 3000 kcal par jour etc. De toute façon, même ce « au moins 5,3% » veut dire que dans chaque centaine de personnes il y en aura au moins 5 ou 6 qui ne seront pas capables de fournir l’effort nécessaire pour travailler dans les champs comme il faut.

C’est précisément là, l’interprétation structurelle de déficit alimentaire stochastique : cette moyenne se traduit, par des algorithmes qui dépendent du contexte, comme un certain nombre de gens qui ne peuvent pas, faute de nutrition suffisante, participer pleinement dans la vie économique de leur société. Je retourne à mon modèle de monétisation de course technologique et je raisonne en des termes suivants : si en présence de déficit alimentaire supérieur à 109 kilocalories par jour par personne la densité de population cesse d’avoir de l’importance structurelle, cela veut dire que si au moins « 109/ (valeur de référence) = X% de la population » ne mange pas à leur faim, l’urbanisation cesse de vouloir dire « plus ou moins de vélocité de l’argent » et devient une variable aléatoire dans son impact sur la monétisation.

Depuis un peu plus d’une semaine, je retourne systématiquement à la fonction de production, telle qu’elle a été formulée originellement par Charles W. Cobb et Paul H. Douglas[1]. Ce truc-là, ça ne cesse pas de m’étonner. La première source d’étonnement, c’est la façon dont le modèle original a été distordu dans sa signification. Professeur Cobb et professeur Douglas one écrit d’une façon explicite, dans la conclusion de leur article de 1928, que la plus grande faiblesse de leur modèle est sa capacité à capter des changements dans le temps et que l’idéal serait de l’appliquer comme vecteur structurel constant, sans une référence quelconque à la variable « temps ». Cependant, lorsque nous voyons les applications modernes de la fonction de production, c’est précisément pour étudier les changements dans le temps, donc exactement le contexte que les pères-fondateurs de cette théorie jugeaient le moins approprié.

De toute façon, quand j’étudie cet article originel par Charles W. Cobb et Paul H. Douglas, je suis étonné par quelque chose d’autre : leur méthode. J’explique. Dans l’introduction de leur article, Cobb et Douglas annoncent qu’ils veulent tracer une fonction d’accumulation de capital comme facteur de croissance économique et séparer l’accumulation comme facteur distinct du progrès technologique. Bon, c’est une direction valable. Ensuite, ces deux gentlemen introduisent tout à coup, sans aucune explication méthodologique préalable, une formule toute faite qui a la capacité irritante à prédire la production très exactement sur la base d’accumulation. Avec « P » symbolisant, dans leur notation originelle, la production agrégée, ou le PIB, « K » et « L » représentant, respectivement, capital physique et travail en nombre d’heures travaillées par an, ils introduisent un PIB normalisé, qu’ils notent comme « P’ », calculé avec la formule suivante :

P’ = 1,01*L3/4*K1/4

Comme je dis, cette formule, avec ses paramètres est servie toute chaude à la page 151 dans l’article d’origine, sans hors d’œuvre préalables. On a une discussion sur les données empiriques en jeu et tout à coup ‘paf !’, un modèle paramétrique atterrit au milieu du jardin. De plus, le modèle, il marche à la perfection avec les données que Charles W. Cobb et Paul H. Douglas introduisent comme leur référence empirique. Le P’ normalisé colle au P réel comme du Sparadrap.  Ce n’est que dans la suite de leur article que ces deux messieurs expliquent comment ils sont arrivés à ces paramètres précis. Les puissances – « ¾ » pour travail L et « ¼ » pour capital physique – avaient apparemment été calculées comme de premières dérivées des fonctions linéaires du produit final P régressé sur K et L respectivement.

J’ai essayé. Ça ne marche pas. J’ai essayé avec les données d’origine utilisées par Charles W. Cobb et Paul H. Douglas, j’ai essayé avec Penn Tables 9.0 (Feenstra et al. 2015[2]) et ça ne marche pas. Pendant que le coefficient du capital, calculé de cette façon, est bien gentil et tout à fait proche des estimations de 1928, le coefficient du travail se balade dans des eaux inconnues, entre -15 et 28. Si vous essayez d’élever quelle valeur économique que ce soit à la puissance – 15 ou à celle de 28, ça perd tout le sens : il y a trop de multiplication dans le modèle. Un polynôme de 28ème degré, ça a moins de stabilité que l’humeur d’un pitbull enragé.

En revanche, lorsque j’ai essayé de craquer la formule de Cobb et Douglas à ma propre façon, en passant par les logarithmes naturels, ça a marché bien. J’ai testé l’hypothèse que « ln(PIB) = a1*ln(K) + a2*ln(L) + constante résiduelle ». Avec R2 = 0,978, ça semble du solide. Ensuite, j’ai pris les coefficients a1 et a2 comme puissances pour K et L. En plus, j’ai fait un facteur constant avec le nombre d’Euler (environ 2,71828, mais on ne sait jamais, vous savez) élevée à la puissance égale à cette constante résiduelle. C’est là que les surprises commencent. La constante résiduelle de ce modèle s’avère être 0,076. Utilisée comme puissance de la constante e = 2,718649, ça donne 1,078962574, donc très près du paramètre original de Cobb et Douglas. Coïncidence ? Honnêtement, je n’en sais rien, mais ce n’est pas la fin des surprises. Mes puissances pour K et L étaient à peu près l’opposé de celles de Cobb et Douglas. J’ai eu 0,267 pour travail L et 0,728 pour capital K. Tout d’abord, 0,267 + 0,728 = 0,995, donc très près du « 1 » assumé dans la fonction originelle de Cobb et Douglas. Encore une fois : comment ? Je n’en sais rien. De toute façon, j’ai testé, dans Penn Tables 9.0, la validité du modèle:

PIB = (econstante résiduelle)*Ka1*La2

J’ai obtenu une fonction de production qui se comporte d’une façon très similaire à celle de Cobb et Douglas, avec R2 = 0,922. Ça, je peux comprendre. Seulement voilà, j’ai testé l’hypothèse logarithmique « ln(PIB) = a1*ln(K) + a2*ln(L) + constante résiduelle » avec le déficit alimentaire comme variable de contrôle. Dans la plupart de classes de déficit alimentaire, mes paramètres tombent comme dans la population générale, donc à l’opposé de ceux de Cobb et Douglas. La plupart, sauf une classe : entre 0 et 28 kcal par jour par personne de déficit alimentaire. Ici, les paramètres sont 0,724 pour travail L et 0,239 pour capital K : très près de « ¾ » pour travail L et « ¼ » pour capital physique dans la fonction originelle de Cobb et Douglas. En plus, 0,724 + 0,239 = 0,963. Encore, vraiment près de 1. Juste un petit détail qui cloche : quand j’essaie de reconstituer le paramètre général, celui que Cobb et Douglas ont estimé à 1,01, j’obtiens 10,97. Donc, les gens légèrement affamés produisent leur PIB presque exactement comme prédit par Cobb et Douglas, seulement ils en font dix fois plus avec la même quantité des moyens de production.

Alors, je résume. Je prends la fonction originelle de production de Charles W. Cobb et Paul H. Douglas. J’essaie de reconstituer leur preuve d’origine et ça ne marche pas. J’essaie ma propre méthode et cette fois ça marche. J’ai donc une théorie qui marche mais on ne sait pas comment elle fait. J’applique la même approche « leur modèle, leur méthode d’estimation des paramètres » aux données empiriques modernes et ça ne marche pas. J’essaie, en revanche, l’approche « leur modèle, ma méthode d’estimation » et ça marche, seulement ça marche à l’envers. Je contrôle mon univers de recherche avec la variable de déficit alimentaire et dans les populations qui sont légèrement mal nourries, avec un déficit de 0 – 28 kcal par jour par personne, je peux reconstituer presque exactement le modèle initial de de Charles W. Cobb et Paul H. Douglas, seulement c’est un modèle nourri avec des stéroïdes, qui rend dix fois plus qu’il ne devrait rendre. Plus de questions que de réponses. J’aime bien.

Un rappel de routine : je suis en train de jumeler deux versions identiques de mon blog dans deux environnements différents : Blogger (http://researchsocialsci.blogspot.com ) et Word Press (https://discoversocialsciences.wordpress.com). Mon objectif est de créer in site scientifique et éducatif complet dans l’environnement Word Press, donc je vous serai reconnaissant si vous migrez vers ce dernier et vous y abonniez. Sans vous presser, mollo.

[1] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

[2] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at http://www.ggdc.net/pwt

Et si on diversifiait en présence d’une crise et simplifiait quand tout va bien ?

Mon éditorial d’aujourd’hui sur You Tube

Après une journée de balade du côté de l’histoire et des régulations issues par Louis XIV en 1673 à propos d’activité des marchands et négociants, je retourne bien sagement au sujet central de mon contrat de recherche cette année, c’est-à-dire à l’innovation, au progrès technologique ainsi qu’à l’entrepreneuriat. J’essaie de mettre de l’ordre dans les notes que j’ai faites jusqu’à maintenant et de répondre à une question fondamentale : qu’est-ce qu’il y a d’intéressant dans tout ce bazar ? Je recule donc jusqu’en printemps cette année, quand j’avais écrit mon premier article sérieux sur le sujet, en voie de publication dans Journal of Economics Library et que vous pouvez télécharger à cette adresse :  https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2975683 . Lorsque je revoie cet article maintenant, avec du recul, l’intuition générale que j’en tire est qu’en vue des données macroéconomiques, dans l’économie mondiale on a plutôt affaire a du changement technologique accéléré qu’au progrès technique au sens strict du terme.

J’explique. Je représente tout changement technologique comme expérimentation sous incertitude. Si vous voulez, j’approche le problème plus du côté des sciences de management que du côté purement économique. Oui, je suis un économiste par doctorat et je devrais peut-être me tenir strictement à la méthodologie des sciences économiques, mais je n’y peux rien : j’y vois des lacunes. Dans les sciences économiques, l’explication la plus connue pour le mécanisme d’innovation est peut-être celle de Joseph Schumpeter : l’innovation, ça commence vraiment à jouer un rôle économique, lorsque ça conduit à la diffusion d’une fonction de production nouvelle, plus productive que celle utilisée avant[1]. Tout le cycle de destruction créative, imaginé par Joseph Schumpeter, réside sur cette assomption, qui, à son tour, est en fait à moitié chemin entre hypothèse et fait scientifique prouvé.

Je commence par examiner de près le chemin intellectuel qui avait conduit Joseph Schumpeter à formuler cette assomption. Il avait démarré avec une définition de la fonction de production, seulement le problème, c’est qu’il n’a pas fourni une définition claire de ce qu’il voulait dire par « fonction de production ». Selon ses propres mots (« Business Cycles », chapitre II), il avait dans l’esprit une « fonction qui lie les quantités de facteurs, comme travail, services d’agents naturels et des moyens de production qui ont été eux-mêmes produits (‘produits intermédiaires’ : matières premières, équipement etc.) à la quantité du produit qu’il est possible de produire à travers chacune parmi un nombre infini de combinaisons possible en vue de cette tâche productive, la pratique technologique et tout l’environnement étant ce qu’ils sont ». C’est bien joli, cette idée, seulement ce n’est pas du tout la fonction de production telle qu’on l’a admis dans la théorie économique après la publication des travaux de Charles W. Cobb et Paul H. Douglas[2]. Ces derniers ont construit, onze ans avant la publication de Schumpeter, une fonction sur la base du facteur travail ainsi que du facteur capital, un point, c’est tout. Pas de biens intermédiaires, pas de facteurs naturels, pas de combinaisons.

La fonction de production dont parle Joseph Schumpeter – avec les biens intermédiaires dans le jeu – trahit quelques similitudes à l’équilibre temporaire de John Maynard Keynes et à sa notion de demande totale, mais à vrai dire, je n’ai trouvé nulle part dans la littérature économique aucune formule quantitative stricte qui correspondrait à cette notion théorique chez Joseph Schumpeter. Schumpeter ne donne point de telle formule non plus. Dans ses « Business Cycles », lorsqu’il étudie le remplacement de technologies obsolètes par des technologies nouvelles (chapitres VII, VIII et IX), il essaie de démontrer que dans chacun des cas la technologie nouvelle était plus productive. Néanmoins, à chaque fois, c’est une sorte d’argumentation à facteurs multiples et si on gratte la surface, ça revient à la constatation que si la technologie nouvelle en question a eu du succès dans le remplacement de son aïeule, elle a dû être plus productive.

Voilà donc qu’on bâtit toute une théorie de progrès technologique sur la base d’une notion qui n’a ni de définition précise ni de représentation mathématique qui tienne. En revanche, les sciences de management nous disent que lorsqu’une entreprise essaie de trouver une application pratique pour une invention, que ce soit une technologie nouvelle tout entière ou simplement une petite modification, apportée à quelque chose de bien connu, il y a toujours une incertitude profonde. De plus, cette incertitude ne décroît pas vraiment avec le temps. Plus nous innovons, plus nos compétiteurs font de même et par conséquent la course technologique accélère, ce qui ajoute de nouveaux facteurs d’incertitude etc. Innovation, telle qu’elle est vécue par les entrepreneurs, est donc loin d’être un chemin bien planifié vers une productivité plus élevée. Bien sûr, parfois ça marche et les nouvelles technologies apportent une hausse de productivité mais l’élément central ici est que nous ne savons jamais d’avance si tel sera bien le résultat.

Voilà donc que j’ai imaginé que le phénomène entier d’innovation, à l’échelle macroéconomique, pourrait s’expliquer comme un apprentissage collectif de changement. Si on prend une perspective historique longue, voilà ce qui apparaît. La mise en place des systèmes d’agriculture et d’alimentation plus ou moins viables, ça nous a pris plus ou moins 9000 ans, à l’échelle de l’espèce humaine entière. Je prends la seconde moitié du Xème siècle comme point de mise en place d’un tel système en Europe. Ensuite, on a eu besoin d’à peu près 600 ans pour atteindre une maîtrise décente d’énergie hydraulique ainsi que celle du vent. Là, on a buté contre l’obstacle de pénurie en matière première de base : le bois. On a donc fait un virage rapide vers l’énergie des carburants fossiles – pétrole, charbon et gaz naturel – et ce virage-là, il a duré moins d’un siècle. Maintenant, nous sommes en train de revenir vers les énergies renouvelables avec une nouvelle base de matières premières, et ça a l’air de brûler les pneus : en cinq ans, le prix des modules photovoltaïques a chuté de 80%. Chaque grande vague de changement technologique a l’air de se passer à peu près huit fois plus vite que la précédente. Ça tombe bien, en fait, parce que voilà, on a un changement climatique à magner, accompagné par une population croissante à nourrir.

De toute façon, mon intuition à moi est que l’innovation dans les méthodes de fabrication de biens c’est quelque chose que nous, bipèdes sans plumes, aimons bien faire et apprenons, comme espèce, à faire de plus en plus vite. Les changements de productivité agrégée pourraient être, en fait, un résultat complétement accidentel de ce jeu. J’ai une piste empirique à suivre, là : durant les 30 dernières années, la descente de productivité s’est accompagnée d’une croissance indéniable dans l’intensité d’invention technologique (toujours plus de demandes de brevet par 1 million de personnes), ainsi que dans le rythme d’amortissement d’actifs productifs. Nous inventons de plus en plus, nous changeons nos technologies de plus en plus vite et apparemment, nous nous fichons éperdument de ce que tout ça donne au niveau de la productivité agrégée.

J’ai aussi une association d’idées beaucoup plus distante, un peu inspirée par ma mise à jour d’hier ( regardez https://discoversocialsciences.com/2017/08/08/judges-and-consuls/ ou bien http://researchsocialsci.blogspot.com/2017/08/judges-and-consuls.html ). Eh bien hier, j’avais fait une petite fugue hors sujet et je me suis amusé à analyser une ordonnance de Louis XIV de 1673. L’idée qui me vient maintenant, comme un écho distant, est que dans la perspective historique, au moins en Europe, on a eu tendance à diversifier nos hiérarchies sociales lorsque nos grands changements technologiques étaient bien lancés et de simplifier la structure sociale lorsque nos technologies de base, donc celles d’alimentation et de transformation d’énergie, commençaient à s’embourber. Juste par curiosité (peut-être malsaine) je me demande ce qui se passerait si on faisait l’inverse : si on diversifiait nos hiérarchies sociales au temps de crise technologique et les simplifiait quand tout va bien.

[1] Schumpeter, J.A. (1939). Business Cycles. A Theoretical, Historical and Statistical Analysis of the Capitalist Process. McGraw-Hill Book Company

[2] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

Significatif et logique et néanmoins différent des rêves

 

Mon éditorial sur You Tube

Mon esprit navigue entre les rochers de la théorie de production et de productivité. Je veux comprendre, je veux dire : vraiment COMPRENDRE, le phénomène de productivité décroissante dans l’économie mondiale. Comme je regarde les choses maintenant, j’ai deux pistes intéressantes à suivre. Les deux premières réfèrent à la distinction fondamentale faite à la source-même de la théorie que nous appelons aujourd’hui « la fonction de production de Cobb – Douglas ». Cette fonction est quelque chose que tous les manuels d’économie servent comme hors d’œuvre, avant de passer plus loin. Dans ma mise à jour d’hier, en anglais, j’ai déjà commencé à étudier le contenu de cette théorie à sa source-même, dans l’article original publié en 1928 par les professeurs : Charles W. Cobb et Paul H. Douglas[1]. Vous pouvez suivre mes réflexions initiales sur cet article ici https://discoversocialsciences.com/2017/08/06/dont-die-or-dont-invent-anything-interesting/ ou bien à travers http://researchsocialsci.blogspot.com/2017/08/dont-die-or-dont-invent-anything.html . Une des distinctions fondamentales que Charles W. Cobb et Paul H. Douglas introduisent au tout début de leur article est celle entre la croissance de production due à la croissance de productivité – donc au progrès technologique – d’une part, et celle due à un apport accru des facteurs de production. Ça, c’est ma première piste. La deuxième réfère à ma propre recherche sur l’intensité d’amortissement d’actifs fixes considérée comme mesure de vitesse de changement technologique.

Commençons par le début, donc par les distinctions initiales faites par Charles W. Cobb et Paul H. Douglas. Tout d’abord, pour pouvoir passer rapidement entre la théorie et les tests empiriques, je transforme l’équation de base de la fonction de production. Dans sa version théorique, la fonction de production de Cobb – Douglas est exprimée par l’équation suivante :

Q = Ka*Lß*A

où « Q » est, bien sûr, le produit final, « K » est l’apport de capital physique, « a » est son coefficient de rendement, « L » veut dire l’apport de travail, « ß » est le rendement du travail, et le « A » est tout ce que vous voulez d’autre et c’est appelé élégamment « facteur de coordination ».

Pour faciliter des vérifications empiriques rapides, je transforme cette fonction en un problème linéaire, en utilisant les logarithmes naturels :

ln(Q) = c1*ln(K) + c2*ln(L) + Composante résiduelle

Dans cette équation transformée, je sépare l’apport des facteurs de production du tout le reste. Je leur attribue des coefficients linéaires « c1 » et « c2 » et tous les facteurs de productivité à proprement dite sont groupés dans la « composante résiduelle » de l’équation. Comme vous pouvez le constater, dans les sciences économiques, c’est comme dans une famille respectable : lorsque quelqu’un se comporte d’une façon pas vraiment compréhensible, on l’isole. C’est le cas de la productivité dans mon problème : je ne comprends pas vraiment sa mécanique, donc je la mets dans une camisole de force, bien isolée du reste de l’équation par le signe confortable d’addition.

J’utilise la base de données Penn Tables 9.0 (Feenstra et al. 2015[2]) comme source principale d’informations. Elle contient deux mesures alternatives du Produit Intérieur Brut (PIB) : côté production, appelée ‘rgdpo’, et côté consommation finale, servi sous l’acronyme ‘rgdpe’. Intuitivement, je sens que pour parler production et productivité il vaut mieux utiliser le PIB estimé côté production. Quant au côté droit de l’équation, j’ai deux mesures toute faite de capital physique. L’une, appelée « rkna », mesure le stock de capital physique en dollars US, aux prix constants 2011. La deuxième, désignée comme « ck », corrige la première avec la parité courante du pouvoir d’achat. J’avais déjà testé les deux mesures dans ma recherche et la deuxième, celle corrigée avec le pouvoir d’achat courant, semble être moins exposée aux fluctuations des prix. Je peux risquer une assomption que la mesure « ck » est plus proche de ce que je pourrais appeler l’utilité objective d’actifs fixes. Je décide donc, pour le moment, de me concentrer sur « ck » comme ma mesure de capital. Par la suite, je pourrais revenir à cette distinction particulière et tester mes équations avec « rkna ».

Quant à la contribution du facteur travail, Penn Tables 9.0 fournissent deux mesures : le nombre des personnes employées, ou « emp », ainsi que le nombre moyen d’heures travaillées par une personne, ou « avh ». Logiquement, L = emp*avh. Finalement, je teste donc empiriquement le modèle suivant :

ln(rgdpo) = c1*ln(ck) + c2*ln(emp) + c3*ln(avh) + Composante résiduelle

Bon, je teste. J’ai n = 3 319 observations « pays – année », et un coefficient de détermination égal à R2 = 0,979. C’est bien respectable, comme exactitude te prédiction. Allons voir le côté droit de l’équation. Le voilà :

ln(rgdpo) = 0,687*ln(ck), erreur standard (0,007), p-valeur < 0,001

+

           0,306*ln(emp), erreur standard (0,006), p-valeur < 0,001

+

-0,241*ln(avh), erreur standard (0,049), p-valeur < 0,001

+

Composante résiduelle = 4,395, erreur standard (0,426), p-valeur < 0,001

Maintenant, pour être cent pour cent sage et prévoyant comme scientifique, j’explore les alentours de cette équation. Les alentours en question, ils consistent, d’une part, en une hypothèse nulle par rapport à la productivité. Je teste donc une équation sans composante résiduelle, ou toute différence temporelle ou spatiale entre les cas individuels de PIB est expliquée uniquement par des différences correspondantes d’apport des moyens de production, sans se casser la tête avec la composante résiduelle, ainsi qu’avec la productivité cachée dedans. D’autre part, mes alentours sont faits de la stabilité (ou instabilité) structurelle de mes variables. J’ai une façon un peu rudimentaire d’appréhender la stabilité structurelle. Je suis un gars simple, quoi. C’est peut-être ça qui me fait faire de la science. Si j’ai deux dimensions dans ma base de données – temps et espace – j’étends mes données sur l’axe du temps et j’étudie la variabilité de leur distribution entre pays, chaque année séparément, en divisant la racine carrée de variance entre pays par la valeur moyenne pour tous les pays. La structure dont la stabilité je teste de cette façon c’est la structure géographie. Structure géographique n’est pas tout, vous direz. Tout à fait, encore que l’histoire nous apprend que quand la géographie change, tout un tas d’autres choses peut changer.

Bon, l’hypothèse nulle d’abord. Je me débarrasse de la composante résiduelle dans l’équation. Avec le même nombre d’observations, donc n = 3 319, j’obtiens un coefficient de détermination égal à R2 = 1,000. C’est un peu louche, ça, parce que ça indique que mon équation est en fait une identité comptable et ça ne devrait pas arriver si les variables ont de l’autonomie. Enfin, regardons ça de plus près :

 ln(rgdpo) = 0,731*ln(ck), erreur standard (0,004), p-valeur < 0,001

+

                      0,267*ln(emp), erreur standard (0,004), p-valeur < 0,001

+

              0,271*ln(avh), erreur standard (0,007), p-valeur < 0,001

Au premier coup d’œil, la composante résiduelle dans mon équation de base, ça couvrait surtout des déviations vraiment résiduelles, apparemment causées par des anomalies dans l’influence de rendement individuel par travailleur, donc du nombre d’heures travaillées, en moyenne et par personne. En fait, on pourrait se passer du tout ce bazar de productivité : les différences dans l’apport des moyens de production peuvent expliquer 100% de la variance observée dans le PIB. La mesure de productivité apparaît donc comme une explication de rendement anormalement bas de la part du capital et du travail. Je fais un pivot de la base de données, où je calcule les moyennes et les variances annuelles pour chaque variable, ainsi que pour les composantes résiduelles du PIB, possibles à calculer sur la base de ma première équation linéaire. Je passe tout ça dans un fichier Excel et je place le fichier sur mon disque Google. Voilà ! Vous pouvez le trouver à cette adresse-ci : https://drive.google.com/file/d/0B1QaBZlwGxxAZHVUbVI4aXNlMUE/view?usp=sharing .

Je peux faire quelques observations à faire à propos de cette stabilité structurelle. En fait, c’est une observation de base, que je pourrais ensuite décomposer à souhait : la chose fondamentale à propos de cette stabilité structurelle, c’est qu’il n’y en a pas. Peut-être, à la rigueur, on pourrait parler de stabilité dans la géographie du PIB, mais dès qu’on passe sur le côté droit de l’équation, tout change. Comme on pouvait l’attendre, c’est la composante résiduelle du PIB qui a le plus de swing. J’ai l’impression qu’il y a des périodes, comme le début des années 1960, ou des 1980, quand la géographie inexpliquée du PIB devenait vraiment importante. Ensuite, la variable d’heures travaillées par personne varie dans un intervalle au moins un ordre de grandeur plus étroit que les autres variables, mais c’est aussi la seule qui démontre une tendance claire à croître dans le temps. De décade en décade, les disparités géographiques quant au temps passé au boulot s’agrandissent.

Bon, temps de résumer. La fonction de production de Cobb – Douglas, comme je l’ai testée dans une forme linéaire assez rudimentaire, est loin d’accomplir les rêves de par Charles W. Cobb et Paul H. Douglas. Si vous prenez la peine de lire leur article, ils voulaient une séparation claire entre la croissance de production à espérer par la suite d’investissement, et celle due aux changements technologiques. Pas vraiment évident, ça, d’après ces calculs que je viens de faire. Ces deux chercheurs, dans la conclusion de leur article, parlent aussi de la nécessité de créer un modèle sans facteur « temps » dedans. Eh bien, ça serait dur, vu l’instabilité structurelle des variables et de la composante résiduelle.

Je fais un dernier test, celui de corrélation entre la composante résiduelle que j’ai obtenue avec mon équation linéaire de base, et la productivité totale des moyens de production, comme données dans Penn Tables 9.0. Le coefficient de corrélation de Pearson entre ces deux-là est de r = 0,644. Significatif et logique et néanmoins différent de 1,00, ce qui est intéressant à suivre.

Je rappelle que je suis en train de jumeler deux blogs dans deux environnements différents : Blogger et Word Press. Vous pouvez donc trouver les mêmes mises à jour sur http://researchsocialsci.blogspot.com ainsi que sur https://discoversocialsciences.wordpress.com .

[1] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

[2] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at http://www.ggdc.net/pwt