Et si on diversifiait en présence d’une crise et simplifiait quand tout va bien ?

Mon éditorial d’aujourd’hui sur You Tube

Après une journée de balade du côté de l’histoire et des régulations issues par Louis XIV en 1673 à propos d’activité des marchands et négociants, je retourne bien sagement au sujet central de mon contrat de recherche cette année, c’est-à-dire à l’innovation, au progrès technologique ainsi qu’à l’entrepreneuriat. J’essaie de mettre de l’ordre dans les notes que j’ai faites jusqu’à maintenant et de répondre à une question fondamentale : qu’est-ce qu’il y a d’intéressant dans tout ce bazar ? Je recule donc jusqu’en printemps cette année, quand j’avais écrit mon premier article sérieux sur le sujet, en voie de publication dans Journal of Economics Library et que vous pouvez télécharger à cette adresse :  https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2975683 . Lorsque je revoie cet article maintenant, avec du recul, l’intuition générale que j’en tire est qu’en vue des données macroéconomiques, dans l’économie mondiale on a plutôt affaire a du changement technologique accéléré qu’au progrès technique au sens strict du terme.

J’explique. Je représente tout changement technologique comme expérimentation sous incertitude. Si vous voulez, j’approche le problème plus du côté des sciences de management que du côté purement économique. Oui, je suis un économiste par doctorat et je devrais peut-être me tenir strictement à la méthodologie des sciences économiques, mais je n’y peux rien : j’y vois des lacunes. Dans les sciences économiques, l’explication la plus connue pour le mécanisme d’innovation est peut-être celle de Joseph Schumpeter : l’innovation, ça commence vraiment à jouer un rôle économique, lorsque ça conduit à la diffusion d’une fonction de production nouvelle, plus productive que celle utilisée avant[1]. Tout le cycle de destruction créative, imaginé par Joseph Schumpeter, réside sur cette assomption, qui, à son tour, est en fait à moitié chemin entre hypothèse et fait scientifique prouvé.

Je commence par examiner de près le chemin intellectuel qui avait conduit Joseph Schumpeter à formuler cette assomption. Il avait démarré avec une définition de la fonction de production, seulement le problème, c’est qu’il n’a pas fourni une définition claire de ce qu’il voulait dire par « fonction de production ». Selon ses propres mots (« Business Cycles », chapitre II), il avait dans l’esprit une « fonction qui lie les quantités de facteurs, comme travail, services d’agents naturels et des moyens de production qui ont été eux-mêmes produits (‘produits intermédiaires’ : matières premières, équipement etc.) à la quantité du produit qu’il est possible de produire à travers chacune parmi un nombre infini de combinaisons possible en vue de cette tâche productive, la pratique technologique et tout l’environnement étant ce qu’ils sont ». C’est bien joli, cette idée, seulement ce n’est pas du tout la fonction de production telle qu’on l’a admis dans la théorie économique après la publication des travaux de Charles W. Cobb et Paul H. Douglas[2]. Ces derniers ont construit, onze ans avant la publication de Schumpeter, une fonction sur la base du facteur travail ainsi que du facteur capital, un point, c’est tout. Pas de biens intermédiaires, pas de facteurs naturels, pas de combinaisons.

La fonction de production dont parle Joseph Schumpeter – avec les biens intermédiaires dans le jeu – trahit quelques similitudes à l’équilibre temporaire de John Maynard Keynes et à sa notion de demande totale, mais à vrai dire, je n’ai trouvé nulle part dans la littérature économique aucune formule quantitative stricte qui correspondrait à cette notion théorique chez Joseph Schumpeter. Schumpeter ne donne point de telle formule non plus. Dans ses « Business Cycles », lorsqu’il étudie le remplacement de technologies obsolètes par des technologies nouvelles (chapitres VII, VIII et IX), il essaie de démontrer que dans chacun des cas la technologie nouvelle était plus productive. Néanmoins, à chaque fois, c’est une sorte d’argumentation à facteurs multiples et si on gratte la surface, ça revient à la constatation que si la technologie nouvelle en question a eu du succès dans le remplacement de son aïeule, elle a dû être plus productive.

Voilà donc qu’on bâtit toute une théorie de progrès technologique sur la base d’une notion qui n’a ni de définition précise ni de représentation mathématique qui tienne. En revanche, les sciences de management nous disent que lorsqu’une entreprise essaie de trouver une application pratique pour une invention, que ce soit une technologie nouvelle tout entière ou simplement une petite modification, apportée à quelque chose de bien connu, il y a toujours une incertitude profonde. De plus, cette incertitude ne décroît pas vraiment avec le temps. Plus nous innovons, plus nos compétiteurs font de même et par conséquent la course technologique accélère, ce qui ajoute de nouveaux facteurs d’incertitude etc. Innovation, telle qu’elle est vécue par les entrepreneurs, est donc loin d’être un chemin bien planifié vers une productivité plus élevée. Bien sûr, parfois ça marche et les nouvelles technologies apportent une hausse de productivité mais l’élément central ici est que nous ne savons jamais d’avance si tel sera bien le résultat.

Voilà donc que j’ai imaginé que le phénomène entier d’innovation, à l’échelle macroéconomique, pourrait s’expliquer comme un apprentissage collectif de changement. Si on prend une perspective historique longue, voilà ce qui apparaît. La mise en place des systèmes d’agriculture et d’alimentation plus ou moins viables, ça nous a pris plus ou moins 9000 ans, à l’échelle de l’espèce humaine entière. Je prends la seconde moitié du Xème siècle comme point de mise en place d’un tel système en Europe. Ensuite, on a eu besoin d’à peu près 600 ans pour atteindre une maîtrise décente d’énergie hydraulique ainsi que celle du vent. Là, on a buté contre l’obstacle de pénurie en matière première de base : le bois. On a donc fait un virage rapide vers l’énergie des carburants fossiles – pétrole, charbon et gaz naturel – et ce virage-là, il a duré moins d’un siècle. Maintenant, nous sommes en train de revenir vers les énergies renouvelables avec une nouvelle base de matières premières, et ça a l’air de brûler les pneus : en cinq ans, le prix des modules photovoltaïques a chuté de 80%. Chaque grande vague de changement technologique a l’air de se passer à peu près huit fois plus vite que la précédente. Ça tombe bien, en fait, parce que voilà, on a un changement climatique à magner, accompagné par une population croissante à nourrir.

De toute façon, mon intuition à moi est que l’innovation dans les méthodes de fabrication de biens c’est quelque chose que nous, bipèdes sans plumes, aimons bien faire et apprenons, comme espèce, à faire de plus en plus vite. Les changements de productivité agrégée pourraient être, en fait, un résultat complétement accidentel de ce jeu. J’ai une piste empirique à suivre, là : durant les 30 dernières années, la descente de productivité s’est accompagnée d’une croissance indéniable dans l’intensité d’invention technologique (toujours plus de demandes de brevet par 1 million de personnes), ainsi que dans le rythme d’amortissement d’actifs productifs. Nous inventons de plus en plus, nous changeons nos technologies de plus en plus vite et apparemment, nous nous fichons éperdument de ce que tout ça donne au niveau de la productivité agrégée.

J’ai aussi une association d’idées beaucoup plus distante, un peu inspirée par ma mise à jour d’hier ( regardez https://discoversocialsciences.com/2017/08/08/judges-and-consuls/ ou bien http://researchsocialsci.blogspot.com/2017/08/judges-and-consuls.html ). Eh bien hier, j’avais fait une petite fugue hors sujet et je me suis amusé à analyser une ordonnance de Louis XIV de 1673. L’idée qui me vient maintenant, comme un écho distant, est que dans la perspective historique, au moins en Europe, on a eu tendance à diversifier nos hiérarchies sociales lorsque nos grands changements technologiques étaient bien lancés et de simplifier la structure sociale lorsque nos technologies de base, donc celles d’alimentation et de transformation d’énergie, commençaient à s’embourber. Juste par curiosité (peut-être malsaine) je me demande ce qui se passerait si on faisait l’inverse : si on diversifiait nos hiérarchies sociales au temps de crise technologique et les simplifiait quand tout va bien.

[1] Schumpeter, J.A. (1939). Business Cycles. A Theoretical, Historical and Statistical Analysis of the Capitalist Process. McGraw-Hill Book Company

[2] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

Significatif et logique et néanmoins différent des rêves

 

Mon éditorial sur You Tube

Mon esprit navigue entre les rochers de la théorie de production et de productivité. Je veux comprendre, je veux dire : vraiment COMPRENDRE, le phénomène de productivité décroissante dans l’économie mondiale. Comme je regarde les choses maintenant, j’ai deux pistes intéressantes à suivre. Les deux premières réfèrent à la distinction fondamentale faite à la source-même de la théorie que nous appelons aujourd’hui « la fonction de production de Cobb – Douglas ». Cette fonction est quelque chose que tous les manuels d’économie servent comme hors d’œuvre, avant de passer plus loin. Dans ma mise à jour d’hier, en anglais, j’ai déjà commencé à étudier le contenu de cette théorie à sa source-même, dans l’article original publié en 1928 par les professeurs : Charles W. Cobb et Paul H. Douglas[1]. Vous pouvez suivre mes réflexions initiales sur cet article ici https://discoversocialsciences.com/2017/08/06/dont-die-or-dont-invent-anything-interesting/ ou bien à travers http://researchsocialsci.blogspot.com/2017/08/dont-die-or-dont-invent-anything.html . Une des distinctions fondamentales que Charles W. Cobb et Paul H. Douglas introduisent au tout début de leur article est celle entre la croissance de production due à la croissance de productivité – donc au progrès technologique – d’une part, et celle due à un apport accru des facteurs de production. Ça, c’est ma première piste. La deuxième réfère à ma propre recherche sur l’intensité d’amortissement d’actifs fixes considérée comme mesure de vitesse de changement technologique.

Commençons par le début, donc par les distinctions initiales faites par Charles W. Cobb et Paul H. Douglas. Tout d’abord, pour pouvoir passer rapidement entre la théorie et les tests empiriques, je transforme l’équation de base de la fonction de production. Dans sa version théorique, la fonction de production de Cobb – Douglas est exprimée par l’équation suivante :

Q = Ka*Lß*A

où « Q » est, bien sûr, le produit final, « K » est l’apport de capital physique, « a » est son coefficient de rendement, « L » veut dire l’apport de travail, « ß » est le rendement du travail, et le « A » est tout ce que vous voulez d’autre et c’est appelé élégamment « facteur de coordination ».

Pour faciliter des vérifications empiriques rapides, je transforme cette fonction en un problème linéaire, en utilisant les logarithmes naturels :

ln(Q) = c1*ln(K) + c2*ln(L) + Composante résiduelle

Dans cette équation transformée, je sépare l’apport des facteurs de production du tout le reste. Je leur attribue des coefficients linéaires « c1 » et « c2 » et tous les facteurs de productivité à proprement dite sont groupés dans la « composante résiduelle » de l’équation. Comme vous pouvez le constater, dans les sciences économiques, c’est comme dans une famille respectable : lorsque quelqu’un se comporte d’une façon pas vraiment compréhensible, on l’isole. C’est le cas de la productivité dans mon problème : je ne comprends pas vraiment sa mécanique, donc je la mets dans une camisole de force, bien isolée du reste de l’équation par le signe confortable d’addition.

J’utilise la base de données Penn Tables 9.0 (Feenstra et al. 2015[2]) comme source principale d’informations. Elle contient deux mesures alternatives du Produit Intérieur Brut (PIB) : côté production, appelée ‘rgdpo’, et côté consommation finale, servi sous l’acronyme ‘rgdpe’. Intuitivement, je sens que pour parler production et productivité il vaut mieux utiliser le PIB estimé côté production. Quant au côté droit de l’équation, j’ai deux mesures toute faite de capital physique. L’une, appelée « rkna », mesure le stock de capital physique en dollars US, aux prix constants 2011. La deuxième, désignée comme « ck », corrige la première avec la parité courante du pouvoir d’achat. J’avais déjà testé les deux mesures dans ma recherche et la deuxième, celle corrigée avec le pouvoir d’achat courant, semble être moins exposée aux fluctuations des prix. Je peux risquer une assomption que la mesure « ck » est plus proche de ce que je pourrais appeler l’utilité objective d’actifs fixes. Je décide donc, pour le moment, de me concentrer sur « ck » comme ma mesure de capital. Par la suite, je pourrais revenir à cette distinction particulière et tester mes équations avec « rkna ».

Quant à la contribution du facteur travail, Penn Tables 9.0 fournissent deux mesures : le nombre des personnes employées, ou « emp », ainsi que le nombre moyen d’heures travaillées par une personne, ou « avh ». Logiquement, L = emp*avh. Finalement, je teste donc empiriquement le modèle suivant :

ln(rgdpo) = c1*ln(ck) + c2*ln(emp) + c3*ln(avh) + Composante résiduelle

Bon, je teste. J’ai n = 3 319 observations « pays – année », et un coefficient de détermination égal à R2 = 0,979. C’est bien respectable, comme exactitude te prédiction. Allons voir le côté droit de l’équation. Le voilà :

ln(rgdpo) = 0,687*ln(ck), erreur standard (0,007), p-valeur < 0,001

+

           0,306*ln(emp), erreur standard (0,006), p-valeur < 0,001

+

-0,241*ln(avh), erreur standard (0,049), p-valeur < 0,001

+

Composante résiduelle = 4,395, erreur standard (0,426), p-valeur < 0,001

Maintenant, pour être cent pour cent sage et prévoyant comme scientifique, j’explore les alentours de cette équation. Les alentours en question, ils consistent, d’une part, en une hypothèse nulle par rapport à la productivité. Je teste donc une équation sans composante résiduelle, ou toute différence temporelle ou spatiale entre les cas individuels de PIB est expliquée uniquement par des différences correspondantes d’apport des moyens de production, sans se casser la tête avec la composante résiduelle, ainsi qu’avec la productivité cachée dedans. D’autre part, mes alentours sont faits de la stabilité (ou instabilité) structurelle de mes variables. J’ai une façon un peu rudimentaire d’appréhender la stabilité structurelle. Je suis un gars simple, quoi. C’est peut-être ça qui me fait faire de la science. Si j’ai deux dimensions dans ma base de données – temps et espace – j’étends mes données sur l’axe du temps et j’étudie la variabilité de leur distribution entre pays, chaque année séparément, en divisant la racine carrée de variance entre pays par la valeur moyenne pour tous les pays. La structure dont la stabilité je teste de cette façon c’est la structure géographie. Structure géographique n’est pas tout, vous direz. Tout à fait, encore que l’histoire nous apprend que quand la géographie change, tout un tas d’autres choses peut changer.

Bon, l’hypothèse nulle d’abord. Je me débarrasse de la composante résiduelle dans l’équation. Avec le même nombre d’observations, donc n = 3 319, j’obtiens un coefficient de détermination égal à R2 = 1,000. C’est un peu louche, ça, parce que ça indique que mon équation est en fait une identité comptable et ça ne devrait pas arriver si les variables ont de l’autonomie. Enfin, regardons ça de plus près :

 ln(rgdpo) = 0,731*ln(ck), erreur standard (0,004), p-valeur < 0,001

+

                      0,267*ln(emp), erreur standard (0,004), p-valeur < 0,001

+

              0,271*ln(avh), erreur standard (0,007), p-valeur < 0,001

Au premier coup d’œil, la composante résiduelle dans mon équation de base, ça couvrait surtout des déviations vraiment résiduelles, apparemment causées par des anomalies dans l’influence de rendement individuel par travailleur, donc du nombre d’heures travaillées, en moyenne et par personne. En fait, on pourrait se passer du tout ce bazar de productivité : les différences dans l’apport des moyens de production peuvent expliquer 100% de la variance observée dans le PIB. La mesure de productivité apparaît donc comme une explication de rendement anormalement bas de la part du capital et du travail. Je fais un pivot de la base de données, où je calcule les moyennes et les variances annuelles pour chaque variable, ainsi que pour les composantes résiduelles du PIB, possibles à calculer sur la base de ma première équation linéaire. Je passe tout ça dans un fichier Excel et je place le fichier sur mon disque Google. Voilà ! Vous pouvez le trouver à cette adresse-ci : https://drive.google.com/file/d/0B1QaBZlwGxxAZHVUbVI4aXNlMUE/view?usp=sharing .

Je peux faire quelques observations à faire à propos de cette stabilité structurelle. En fait, c’est une observation de base, que je pourrais ensuite décomposer à souhait : la chose fondamentale à propos de cette stabilité structurelle, c’est qu’il n’y en a pas. Peut-être, à la rigueur, on pourrait parler de stabilité dans la géographie du PIB, mais dès qu’on passe sur le côté droit de l’équation, tout change. Comme on pouvait l’attendre, c’est la composante résiduelle du PIB qui a le plus de swing. J’ai l’impression qu’il y a des périodes, comme le début des années 1960, ou des 1980, quand la géographie inexpliquée du PIB devenait vraiment importante. Ensuite, la variable d’heures travaillées par personne varie dans un intervalle au moins un ordre de grandeur plus étroit que les autres variables, mais c’est aussi la seule qui démontre une tendance claire à croître dans le temps. De décade en décade, les disparités géographiques quant au temps passé au boulot s’agrandissent.

Bon, temps de résumer. La fonction de production de Cobb – Douglas, comme je l’ai testée dans une forme linéaire assez rudimentaire, est loin d’accomplir les rêves de par Charles W. Cobb et Paul H. Douglas. Si vous prenez la peine de lire leur article, ils voulaient une séparation claire entre la croissance de production à espérer par la suite d’investissement, et celle due aux changements technologiques. Pas vraiment évident, ça, d’après ces calculs que je viens de faire. Ces deux chercheurs, dans la conclusion de leur article, parlent aussi de la nécessité de créer un modèle sans facteur « temps » dedans. Eh bien, ça serait dur, vu l’instabilité structurelle des variables et de la composante résiduelle.

Je fais un dernier test, celui de corrélation entre la composante résiduelle que j’ai obtenue avec mon équation linéaire de base, et la productivité totale des moyens de production, comme données dans Penn Tables 9.0. Le coefficient de corrélation de Pearson entre ces deux-là est de r = 0,644. Significatif et logique et néanmoins différent de 1,00, ce qui est intéressant à suivre.

Je rappelle que je suis en train de jumeler deux blogs dans deux environnements différents : Blogger et Word Press. Vous pouvez donc trouver les mêmes mises à jour sur http://researchsocialsci.blogspot.com ainsi que sur https://discoversocialsciences.wordpress.com .

[1] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

[2] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at www.ggdc.net/pwt

Réserve à tout hasard, juste en cas

 Mon éditorial sur You Tube 

Ces derniers jours, je me suis rendu compte à quel point la science, tout du moins les sciences sociales, sont proches du spiritisme. Je développe un sujet, tranquillos, j’y vais mollo, et tout à coup :  paf ! y a un classique que je veux bien citer. Ces deux derniers jours, j’ai déjà eu deux conversations sérieuses avec deux hommes morts – Milton Friedman et Joseph Schumpeter – et c’étaient vraiment des conversations. Moi, j’ai quelque chose à dire et je découvre que mon collègue, bien distingué et bien décédé, a une remarque très pertinente qui tranche vraiment dans le vif de sujet que je suis en train de travailler dessus. C’est probablement parce que j’ai décidé de me mettre enfin à remplir les obligations contenues dans mon contrat de recherche pour cette année et j’ai donc commencé à mettre en place la structure logique d’un livre sur l’innovation et le progrès technologique.

Il y a cette chose étrange quand ça vient aux livres : l’impératif de revue complète du sujet qui, à son tour, impose de tracer une sorte d’héritage intellectuel, comme un chemin continu qui a mené des classiques de ma discipline jusqu’à ma propre recherche. Quand j’écris un article, j’ai le choix d’adopter une telle approche ou pas, suivant ma volonté d’obtenir des points additionnels de la part des critiques, pour avoir offert « une revue satisfaisante de littérature du sujet ». Ce qui est un choix dans un article, devient un must dans le cas d’un livre. Le truc marrant avec ces revues de littérature c’est qu’elles mènent, inévitablement, à un appauvrissement d’horizons intellectuels plutôt qu’à la préservation de leur richesse. Toute citation est une version abrégée de l’original et tout choix de littérature est sélectif par rapport à l’acquis intellectuel vraiment en place.

Bon, fini de geindre ; y a du boulot de recherche qui ne va pas se faire par lui-même. Quand on traite le sujet d’innovation et de progrès technologique, une question revient en boomerang : la productivité totale des facteurs de production, ou, dans une version plus abordable, la TFP. Cet acronyme vient de l’anglais ‘Total Factor Productivity’. Pour faciliter la lecture tout comme pour faciliter mon écriture à moi, je vais désormais utiliser TFP pour désigner la productivité totale des facteurs de production. J’espère bien que ça ne va froisser personne. Alors, la théorie économique de base dit qu’on peut parler de progrès technologique véritable seulement si TFP croît par la suite du remplacement d’une technologie précédente par une technologie nouvelle. Seulement, voilà, on a un petit problème, là, avec cette assomption quasi-axiomatique : plus personne ne croit, aujourd’hui, que TFP croisse. Il y a des faits qui disent que ça ne croît pas et même dans la science, il est dangereux d’ignorer les faits.

Les faits, je peux vous les offrir de ce pas. La base de données connue comme Penn Tables 9.0 (Feenstra et al. 2015[1]) fournit des données très complètes sur TFP dans chaque pays séparément, entre 1950 et 2014. Je me suis permis de publier, sur mon disque Google, le calcul de la moyenne, ainsi que de la variance de TFP, toutes les deux à l’échelle globale. Vous pouvez trouver le fichier Excel correspondant, en anglais, à cette adresse-ci :      https://drive.google.com/file/d/0B1QaBZlwGxxAZ3MyZ00xcV9zZ1U/view?usp=sharing . Le problème avec TFP, c’est que ça a arrêté de croître en 1979 et depuis, ça glisse gentiment vers des valeurs de plus en plus basses. La glissade est élégante, il est vrai, mais elle semble inexorable. On a donc Microsoft, on a Tesla, on a le TGV, on a même la poupée Barbie et tout ça, ça semble contribuer plutôt au gaspillage des moyens de production qu’à leur utilisation plus productive. C’est qui est tout à fait étrange, aussi, mais étrange à un niveau légèrement plus initié d’analyse quantitative, est la stabilité structurelle de la distribution mondiale de TFP parmi les pays recensés dans Penn Tables 9.0. Dans mon fichier Excel, je donne la moyenne et la variance de TFP, pour chaque année séparément. Alors, si vous prenez la racine carrée de la variance, et ensuite vous la divisez par la moyenne, vous obtenez un coefficient appelé ‘variabilité de distribution’. La variabilité est une proportion, comme la proportion entre le bras et la jambe dans un corps humain : si la proportion demeure plus ou moins la même, on assume une structure morphologique similaire. La variabilité de distribution de TFP se confine gentiment à un intervalle entre 0,3 et 0,6 : c’est bien bas, comme variabilité, et ça change très peu dans le temps. Rien dont il faudrait informer la famille. Ce truc est structurellement stable.

Si une structure est stable et le produit mesurable de cette structure – la TFP moyenne dans l’économie mondiale – à une tendance décroissante, cela veut dire que le plus probablement c’est la structure en question, elle-même, qui produit cette tendance. Il y a quelque chose dans la géographie de la TFP à travers le globe qui la fait baisser. Voilà une énigme. Chouette ! Le singe curieux en moi a enfin des choses intéressantes à explorer. L’exploration, je la mène en deux directions. D’une part, j’essaie de deviner ce que le poète a voulu bien dire : je consulte les notes méthodologiques des créateurs de Penn Tables. Vous pouvez trouver ces mêmes notes ici :http://www.rug.nl/ggdc/productivity/pwt/related-research-papers/capital_labor_and_tfp_in_pwt80.pdf  . D’autre part, je fais des tests économétriques pour voir la corrélation de TFP avec d’autres variables économiques.

Comme je procède à la revue des fondements théoriques des données présentées dans les notes méthodologiques, une chose attire mon attention plus particulièrement : cette méthodologie assume une observation directe de la productivité du capital et ensuite une dérivation de la productivité du travail sur la base de la fonction de production type Cobb-Douglas. La fonction de production, ça montre la proportion entre l’apport des moyens de production et la production elle-même. La fonction type Cobb-Douglas, elle assume une substitution parfaite entre le capital est le travail, comme moyens de productions. Personnellement, je ne comprends pas pourquoi le monde des sciences économiques est tellement attaché à cette assomption de substitution parfaite. Bien sûr, elle est confortable, cette assomption : une fois qu’on l’adopte, on n’a plus à se casser la tête avec toutes les configurations possibles de substitution imparfaite. Seulement voilà, le confortable n’est pas nécessairement ce qu’on cherche dans la science et ensuite, cette assomption ne marche pratiquement jamais en pratique : une fois que vous l’insérez dans un modèle, vous devez tout de suite ajouter des paramètres additionnels pour balancer vos équations. A quoi bon, donc ? C’est une vieille vache, cette substitution parfaite, est les vieilles vaches, on ne les trait plus, sous peine d’avoir des surprises infectieuses.

De toute façon, la méthodologie de Penn Tables, dans le calcul de TFP, elle est basée sur la productivité du capital et le capital, c’est en train de s’accumuler dans l’économie mondiale à une vitesse folle. Vous pouvez consulter Piketty et Zucman, à ce sujet, par exemple (Piketty, Zucman 2014[2]). J’ai aussi fait un pivot rapide dans Penn Tables 9.0, pour vous donner une idée de changement dans les proportions entre les actifs fixes et le PIB, dans l’économie mondiale ; vous pouvez le trouver dans un fichier Excel à cette adresse : https://drive.google.com/file/d/0B1QaBZlwGxxAS2wxOFhfSzJjcjg/view?usp=sharing .

Alors, pour résoudre l’énigme de la TFP décroissante, il semble utile de regarder du côté d’accumulation de capital. En fait, de ce côté-là, je crois bien que je peux contribuer quelque chose. Dans l’article que j’ai écrit au printemps ( voyez https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2975683 ) je pense avoir prouvé d’une façon convaincante que l’accumulation de capital dans les bilans entrepreneuriaux, ça suit un schéma de hamster : plus rapide est le vieillissement des technologies en place, plus de capital est accumulé dans les bilans, comme réserve à tout hasard, juste en cas où ces technologies vieillissent encore plus vite.

Bon, pour finir cette mise à jour, j’ai un message particulier à mes lecteurs. J’ai l’ambition de développer ce blog de recherche en une ressource complète dans le domaine des sciences sociales. Je navigue donc progressivement vers un site Internet à part et je commence par refléter le contenu du blog que vous connaissez, accessible à http://researchsocialsci.blogspot.com  , sur un site construit avec Word Press, le https://discoversocialsciences.wordpress.com . Dans les mois à venir, je vais faire des mises à jour jumelles sur les deux sites, jusqu’au moment quand je serais sûr que tous mes lecteurs ont effectivement migré sur https://discoversocialsciences.wordpress.com . Je vous invite donc à souscrire comme abonnés au https://discoversocialsciences.wordpress.com .

[1] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at www.ggdc.net/pwt

[2] Piketty, T., Zucman, G. (2014). Capital is back: Wealth-income ratios in rich countries 1700-2010. Quarterly Journal of Economics: 1255–1310