L’invention mâle de modèles

Mon éditorial d’aujourd’hui

Ainsi donc, j’ai formulé, hier, une fonction de sélection dans mon modèle évolutionniste de changements technologiques ( consultez “Primitive, male satisfaction with bigger a size” ). Le nombre de demandes de brevet dans un endroit et en un moment donné dépend, d’une façon significative, de quatre facteurs : de la quantité de capital physique investi dans cet endroit et en ce moment précis, du taux d’amortissement d’actifs fixes (donc du rythme de replacement des technologies), de la part de rémunération de la main d’œuvre dans le PIB, et finalement de la consommation moyenne d’énergie par tête d’habitant. Tout ça, ça explique 70% de la variance totale du nombre de demandes de brevet. En termes économétriques, c’est une fonction logarithmique linéaire, ou ln(Nombre de demandes de brevet) = a1*ln(Capital physique) + a2*ln(Taux d’amortissement) + a3*ln(Part des salaires dans le PIB) + a4*ln(Consommation d’énergie par tête d’habitant) + constante résiduelle. Le test économétrique de cette équation dans ma base de données (Penn Tables 9.0 plus données de la Banque Mondiale) a rendu n = 2 338 observation valables et un coefficient de détermination R2 = 0,701, ainsi que les coefficients rapportés dans le tableau ci-dessous :

variable coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,847 0,017 49,012 0,000
ln(Taux d’amortissement) 2,256 0,16 14,089 0,000
ln(Part des salaires dans le PIB) 2,782 0,157 17,693 0,000
ln(Consommation d’énergie par tête d’habitant 0,643 0,036 17,901 0,000
constante résiduelle -0,854 0,561 -1,522 0,128

  J’ai testé la constante résiduelle de ce modèle pour sa corrélation avec d’autres variables de ma base de données et aucune corrélation significative n’est apparue. Je peux donc assumer que la valeur de cette composante résiduelle est un pur accident statistique, probablement dû à des co-intégrations entre les variables explicatives du modèle.

Bon, si je veux rendre intelligible la signification de cette fonction, il est bon de résumer un peu le chemin qui m’a mené à la définir. Le lien fonctionnel entre le nombre des demandes de brevet et la quantité de capital physique était une hypothèse de base de ma part. La théorie évolutionniste que j’ai commencé à développer propose que le processus de changement technologique soit une interaction entre des organismes mâles, qui communiquent de l’information sur les innovations possibles à faire, et les organismes femelles – les investisseurs – capables de recombiner cette information et de reproduire la substance de capital. Si j’avais posé une telle hypothèse, il était logique que je cherche une corrélation entre le nombre d’idées distinctes sur les changements à faire (demandes de brevet) et la quantité de capital physique présente dans un endroit et en un moment donné. J’ai étudié cette corrélation en testant une fonction linéaire logarithmique, quant à son pouvoir explicatif général, mesuré à travers le coefficient de détermination R2, ainsi qu’à travers la signification de la corrélation, testée avec la statistique « p ». Cette dernière exprime la probabilité d’hypothèse nulle, donc la probabilité qu’en fait, il n’y a pas de corrélation.

Après ce premier test, j’ai obtenu une équation dont le coefficient de détermination était de R2 = 0,478 et dont la statistique p était en-dessous de 0,001, donc du béton. Seulement, c’était du béton amorphe de point de vue théorique. Il n’y a rien de particulièrement évolutionniste dans l’assertion qu’il y a un lien significatif entre le nombre des demandes de brevet et la quantité de capital physique en place. C’est du cours élémentaire en microéconomie ou en gestion : plus de capital rend possible plus de recherche et développement et vice versa, plus de recherche et développement donne plus de chances de multiplier le capital investi. A ce point-là, j’avais juste prouvé que des données empiriques solides forment une base, sur laquelle il est possible de bâtir une approche évolutionniste, mais pas seulement évolutionniste. Les théories scientifiques sont un peu comme des bâtiments. Le plus stable, c’est une pyramide, avec une base large et les étages consécutifs bâtis chaque fois plus petits en superficie que ce qui se trouve en-dessous. Oui, je sais qu’une pyramide c’est le plus souvent une tombe. J’espère bien que je n’ai aucun cadavre caché sous la mienne.

J’avais donc une base, sur laquelle je pouvais bâtir. J’ai utilisé le fait que mon équation initiale, quoi que solide, laissait une marge d’indétermination assez large. Un coefficient de détermination de R2 = 0,478 veut dire qu’on a 47,8% de variance bien expliqué, seulement ça laisse 52,2% à expliquer. En plus, mon équation initiale laissait une résiduelle tout à fait substantielle. J’ai donc essayé de formuler une autre hypothèse, qui me rapprocherait du contexte évolutionniste strictement parlé. J’ai assumé que dans un cadre de reproduction sexuée, la fréquence des contacts sexuels a de l’importance pour la vitesse de reproduction. Cette dernière est imposée en grande partie par la durée moyenne de vie. Plus vite on meurt, plus fréquemment on a besoin de reproduire, donc de faire l’amour. La durée de vie d’une technologie est l’inverse de son taux d’amortissement. Un taux de 20% par an fixe la durée de vie de la technologie en question à plus ou moins 5 ans ; un taux de 10% étendrait cette durée à 10 ans etc.

Je sais, j’ai été opportuniste à ce point-là. Je savais que la base Penn Tables 9.0 contient les données sur le taux d’amortissement moyen, pays par pays et année par année. Il faut faire avec ce qu’on a, quoi. J’avais donc introduit le taux d’amortissement dans mon équation et j’ai testé. Le test, ça ne s’est pas passé trop mal. Mon coefficient de détermination a gagné en ambition un tout petit peu et il est monté jusqu’à R2 = 0,492. Les résultats de la régression se présentent comme ci-dessous :

variable Coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,843 0,019 43,587 0,000
ln(Taux d’amortissement) 1,371 0,172 7,986 0,000
constante résiduelle -0,203 0,561 -0,362 0,718

Ces résultats m’ont suggéré que j’avance dans la bonne direction. L’ajout du taux d’amortissement dans l’équation a donné du pouvoir explicatif et la direction de la corrélation obtenue est conforme à mon hypothèse : plus élevé est le taux d’amortissement, donc plus courte est la durée moyenne de vie d’une technologie, plus de demandes de brevets est déposé dans un pays donné en un moment donné. Là, je suis comme à mi-chemin dans l’évolutionnisme. Encore qu’il pourrait bien y avoir des sceptiques qui diraient quelque chose comme :  « Bon, c’est bien joli, ça, mais ce n’est pas nécessairement de l’évolutionnisme, tout ça. Plus vite nos technologies vieillissent, plus vite il faut les remplacer. C’est du bon sens commercial, ça ». Seulement voilà, il est aussi possible que le rythme accéléré d’amortissement décourage les investisseurs et qu’ils montrent une préférence systématique pour les technologies à durée de vie plutôt longue, auquel cas cette corrélation positive entre le nombre des demandes de brevet et taux d’amortissement n’est plus évidente du tout. Si je vois un coefficient de régression qui est positif et plutôt élevé pour une équation logarithmique, cela veut dire que les investisseurs montrent une préférence systématique pour des technologies qui périssent vite. Les organismes femelles de mon espèce capitaliste et débrouillarde font un effort pour se reproduire à une cadence accélérée, comme si l’espèce tout entière cherchait à s’adapter à quelque chose. Voilà, j’ai lui ai montré, à ce sceptique imaginaire dans ma tête.

Sur la base large que j’avais posé précédemment, je viens de poser un deuxième étage. Ou peut-être c’est le premier étage si on assume qu’une pyramide a un rez-de-chaussée. De toute façon, c’est un pas de plus. Après l’avoir fait, ce pas, hier, j’étais un peu à court d’idées. Je revoyais les variables dans ma base de données et j’essayais d’en trouver une pertinemment évolutionniste et je vais vous dire, ça n’avait pas l’air facile. J’avais donc décidé de faire confiance aux données elles-mêmes, sans idées préconçues. Dans mon équation telle que je l’avais à ce moment-là, j’avais toujours plus de 50% de la variance totale du nombre des demandes de brevet inexpliquée et en plus j’avais cette composante résiduelle avec p-valeur égale à 0,718. Cela voulait dire qu’une fois que j’ai expliqué 49,2% de la variance avec le capital physique et le taux d’amortissement, il reste 50,8% de variance résiduelle et cette variance résiduelle à 71,8% de chances d’être absolument aléatoire. C’est comme si j’étais un inspecteur de police et comme si des témoins différents me disaient que mon suspect (double meurtre, pas de plaisanterie) était bien grand, mais à part ça il pouvait être homme ou femme, blanc, noir ou asiatique, moustache ou pas etc. Irritant. J’ai vu un polar chinois où ça se déroulait exactement de cette façon.

J’avais donc décidé de faire confiance aux données. Techniquement, ça consistait à calculer cette résiduelle de régression pour chaque observation « pays – année » séparément et ensuite vérifier si la distribution des valeurs résiduelles ainsi obtenues était significativement corrélée avec d’autres variables de ma base de données. Par analogie à l’enquête policière, c’est comme si j’acceptais cette disparité folle dans les dépositions des témoins et comme si j’essayais d’établir si mon suspect avait plus de chances d’être un asiatique barbu ou bien une femme blanche à cheveux aile de corbeau, avec un foulard noir. J’ai trouvé deux corrélations significatives de cette résiduelle : l’une avec la part de rémunération du travail dans le PIB (corrélation Pearson r = 0,491), l’autre avec la consommation d’énergie par tête d’habitant (corrélation r = 0,509). Cette résiduelle de régression, qui semblait tellement aléatoire, semblait néanmoins avoir des préférences claires. J’ai donc ajouté ces deux variables à la version précédente de mon équation et c’est ainsi que je suis arrivé au modèle présenté au tout début de cette mise à jour d’aujourd’hui.

Bon, ça c’est l’histoire de mes crimes, maintenant le temps est venu d’interpréter. Dans trois versions différentes de mon modèle, le coefficient de régression assigné au capital physique restait bien tranquille, entre 0,82 et 0,85, en fonction du contexte. Je pense que j’ai donc ici un équilibre économique : celui entre le capital physique et le nombre de demandes de brevet. Trois préférences dans ma fonction de sélection se superposent ensuite à ce point d’équilibre : préférence pour une rotation rapide des technologies, préférence pour des technologies à forte rémunération de main d’œuvre, ainsi que la préférence, relativement moins forte, pour les technologies à consommation élevée d’énergie. La préférence pour des technologies à forte rémunération de main d’œuvre semble être particulièrement intéressante. Plus de rémunération pour la main d’œuvre veut dire plus de personnes employées ou bien des salaires plus élevés, avec peut-être une préférence pour de la main d’œuvre hautement qualifiée. Cela pourrait expliquer le phénomène de productivité décroissante dans l’économie mondiale (plus de travail fourni donc productivité décroissante du travail) ainsi que la disparité croissante entre les salaires d’employés hautement qualifiés et ceux avec juste des qualifications élémentaires.

Le coefficient positif assigné à la consommation d’énergie par tête d’habitant est aussi intéressant. Elle pourrait même fournir une réponse anthropologique à une question fondamentale : pourquoi, avec tout le talent que nous avons, comme civilisation, à inventer des trucs toujours nouveaux, on montre une tendance obstinée à consommer de plus en plus d’énergie par personne. Du point de vue d’un ingénieur, ce coefficient assigné à la consommation d’énergie est contre-intuitif. Tour ingénieur tend à développer des technologies aussi économes en énergie que possible. Néanmoins, il se peut qu’à un niveau vraiment très, très biologique, comme espèce vivante, nous avons une préférence viscérale pour approprier autant d’énergie que possible de notre environnement.

Par ailleurs, si vous sautez au début de cette mise à jour, vous verrez dans la forme la plus élaborée de mon modèle un coefficient de détermination égal à R2 = 0,701. Ça me laisse toujours avec plus de 29% de variance sans explication. Ce n’est pas bien grave : trop de détermination n’est pas nécessairement ce qu’on souhaite. Encore, ça m’a donné un prétexte pour réitérer la même procédure analytique : mapper les résiduelles et chercher des corrélations. Seulement cette fois, ça n’a rien donné. Cette résiduelle-là semble bien aliénée. Je la laisse pour le moment. Ce qui m’intéresse en ce moment précis, c’est la structure. Je pose et je vérifie l’hypothèse suivante : des structures sociales différentes produisent des fonctions de sélection différentes et des équilibres différents entre la quantité de capital physique et le nombre de demandes de brevet.

Dans ma base de données, j’ai deux variables différentes : la densité de population et le déficit alimentaire. Le nombre de personnes par kilomètre carré est un facteur essentiel de relations sociales, aussi bien coopératives que conflictuelles. Le déficit alimentaire semble avoir de l’importance pour le ratio de capital physique par une demande de brevet. J’ai déjà exploré ce sujet précis, un tout petit peu, dans la mise à jour intitulée “Evolutionary games”. J’inclus donc les logarithmes naturels de ces deux variables dans mon modèle, ce qui me donne l’équation suivante : ln(Nombre de demandes de brevet) = a1*ln(Capital physique) + a2*ln(Taux d’amortissement) + a3*ln(Part des salaires dans le PIB) + a4*ln(Consommation d’énergie par tête d’habitant) + a5*ln(Densité de population) + a6*ln(Déficit alimentaire) + constante résiduelle. Je teste cette équation dans un ensemble d’observations réduit, faute de données complètes. J’ai n = 469 observations valides, qui rendent, néanmoins, un joli pouvoir explicatif avec R2 = 0,729. Quant aux paramètres détaillés du modèle, vous pouvez les trouver dans le tableau ci-dessous :

variable Coefficient Erreur standard Statistique t p-valeur
ln(Capital physique) 0,799 0,043 18,49 0,000
ln(Taux d’amortissement) 1,496 0,365 4,096 0,000
ln(Part des salaires dans le PIB) 2,338 0,269 8,676 0,000
ln(Consommation d’énergie par tête d’habitant 1,233 0,102 12,035 0,000
ln(Densité de population) 0,646 0,063 10,219 0,000
ln(Déficit alimentaire) -0,106 0,069 -1,541 0,124
constante résiduelle -9,522 1,618 -5,885 0,000

La densité de population semble avoir deux mots à dire quant à l’équilibre « capital – demandes de brevet » et c’est du solide en termes de corrélation : plus on a du monde par kilomètre carré, plus on génère d’inventions brevetables. Dans le cas du déficit alimentaire, celui-ci semble avoir quelque chose à dire, seulement il est dur de définir qu’est-ce que c’est exactement qu’il veut dire. La p – valeur de cette corrélation particulière est plutôt élevée. Il semble que le déficit alimentaire marche mieux comme variable de contrôle, à l’extérieur du modèle plutôt qu’à l’intérieur.

Un modèle mal nourri

Quelques mots sur You Tube

Je suis en train de ruminer les résultats de mes test empiriques d’hier, ceux que j’ai discutés abondement en anglais dans le post intitulé  “Cases of moderate deprivation” . J’avais pris un modèle économétrique que j’eus précédemment utilisé dans un  article sur le phénomène de monétisation dans la course technologique et j’ai introduit le déficit alimentaire, tel qu’il est publié par la Banque Mondiale, comme variable de contrôle. En termes de méthode de recherche cela veut dire que je testé le même modèle séparément dans les différentes classes d’économies nationales, caractérisées par des niveaux distincts de déficit alimentaire. Dans les cas les plus extrêmes dudit déficit, c’est-à-dire lorsque l’habitant moyen d’un pays manque plus de 250 kilocalories par jour, le modèle perd pratiquement toute sa cohérence et il la regagne de plus en plus à mesure que le déficit calorique décroît.

J’assume que si un modèle économétrique tient, en termes de son coefficient de détermination R2 et de la signification des corrélations individuelles entre variables, cela veut dire qu’il représente, d’une façon acceptablement fidèle, le fonctionnement d’une structure sociale. Lorsque le même modèle « marche », en termes économétriques, de façon différente dans des classes différentes de sociétés, j’interprète les différences au niveau des coefficients comme une différence réelle quant au fonctionnement des structures sociales étudiées. Il y a, par exemple, ce truc qui remonte à Adam Smith et à son traité « De la nature et des causes de la richesse des nations » : la densité de population. Adam Smith répétait souvent que le genre de développement qu’il avait l’habitude d’appeler « la division de travail » et que nous, aujourd’hui, on aurait appelé « développement structurel », avait besoin d’une certaine densité minimum de population, en-dessous de laquelle ça ne marche tout simplement pas.

Moi aussi, je crois que la densité de population a une importance fondamentale pour le fonctionnement de nos structures sociales. C’est une importance dont le plus fréquemment nous ne nous rendons pas compte, mais c’est un mécanisme puissant qui détermine la façon dont nous interagissons dans la société. En des termes un peu plus pratiques, la densité de population est une estimation très analytique de l’importance relative des structures urbaines et périurbaines – où ladite densité est la plus grande – dans le tissu socio-économique. J’ai inclus la densité de population dans ce modèle de monétisation de course technologique, comme variable structurelle. Lorsque je testais ce modèle dans mon échantillon entier, donc dans l’ensemble de n = 2 238 observations « pays – année », la densité de population apparaissait comme variable significative qui contribue à décroître la vélocité de l’argent. Néanmoins, lorsque l’environnement social du modèle est contrôlé quant au niveau de déficit alimentaire, il faut que ledit déficit n’excède pas 109 kcal par jour par personne, pour que la densité de population gagne une signification suffisante, dans sa corrélation avec la vélocité de l’argent, pour qu’on puisse l’accepter comme variable structurelle significative. Lorsque la privation calorique excède 109 kilocalories par jour par habitant, désolé, la densité de population, ça se balade tout seul.

J’ai essayé de donner une interprétation structurelle à cette variable de déficit alimentaire. Ici, il est peut-être bon que j’explique la différence entre l’interprétation structurelle et celle plus stochastique. Telle qu’il est donné par la Banque Mondiale, le déficit alimentaire est une moyenne stochastique. Si cette moyenne a une valeur non-nulle, cela veut dire que la population entière est en manque d’un montant d’énergie chimique, générée par le catabolisme du corps humain, dans la quantité égale au nombre d’habitants multiplié par le déficit calorique moyen par habitant. Par exemple : déficit moyen de 150 kcal par habitant dans une population de 20 millions de personnes veut dire que cette société, prise comme un ensemble organisé, manque 150*20000000 = 3 milliards de kilocalories par jour. Il se peut que ces 3 milliards kcal par jour soient ce qui manque pour que cette nation bâtisse, par exemple, un système routier efficace.

A ce point-là, une observation de la vie quotidienne s’impose : la France ou l’Allemagne n’ont pas de déficit alimentaire en termes stochastiques, mais je peux bien y rencontrer des personnes qui sont chroniquement mal nourries. De la même manière, en Zambie, qui est en déficit alimentaire aigu en des termes stochastiques (plus de 400 kcal par jour par personne), je peux bien rencontrer des gens qui mangent largement à leur faim. Dans ce petit film sur You Tube  vous pouvez constater qu’il y en a même, en Zambie, qui ont suffisamment d’alimentation pour pratiquer le culturisme (croyez-moi, ça demande un surplus calorique géant). En transformant le déficit alimentaire stochastique en variable structurelle, il est donc utile de penser en termes de valeur de référence.

Disons que nous sommes deux populations d’agriculteurs. Pour travailler dans les champs, il faut beaucoup d’énergie. Disons que la norme calorique est établie à 3000 kcal par jour. Dans l’une de ces deux populations, le déficit alimentaire est recensé, comme moyenne stochastique, au niveau de 160 kcal par jour par personne. La seconde de deux populations ne registre aucun déficit alimentaire. Celle avec 160 kcal en manque contient au moins 160/3000 = 5,3% de personnes qui n’ont pas de nutrition suffisante. Je dis « au moins », parce qu’il faudrait enrichir ce calcul par l’inclusion des gens qui absorbent plus de 3000 kcal par jour etc. De toute façon, même ce « au moins 5,3% » veut dire que dans chaque centaine de personnes il y en aura au moins 5 ou 6 qui ne seront pas capables de fournir l’effort nécessaire pour travailler dans les champs comme il faut.

C’est précisément là, l’interprétation structurelle de déficit alimentaire stochastique : cette moyenne se traduit, par des algorithmes qui dépendent du contexte, comme un certain nombre de gens qui ne peuvent pas, faute de nutrition suffisante, participer pleinement dans la vie économique de leur société. Je retourne à mon modèle de monétisation de course technologique et je raisonne en des termes suivants : si en présence de déficit alimentaire supérieur à 109 kilocalories par jour par personne la densité de population cesse d’avoir de l’importance structurelle, cela veut dire que si au moins « 109/ (valeur de référence) = X% de la population » ne mange pas à leur faim, l’urbanisation cesse de vouloir dire « plus ou moins de vélocité de l’argent » et devient une variable aléatoire dans son impact sur la monétisation.

Depuis un peu plus d’une semaine, je retourne systématiquement à la fonction de production, telle qu’elle a été formulée originellement par Charles W. Cobb et Paul H. Douglas[1]. Ce truc-là, ça ne cesse pas de m’étonner. La première source d’étonnement, c’est la façon dont le modèle original a été distordu dans sa signification. Professeur Cobb et professeur Douglas one écrit d’une façon explicite, dans la conclusion de leur article de 1928, que la plus grande faiblesse de leur modèle est sa capacité à capter des changements dans le temps et que l’idéal serait de l’appliquer comme vecteur structurel constant, sans une référence quelconque à la variable « temps ». Cependant, lorsque nous voyons les applications modernes de la fonction de production, c’est précisément pour étudier les changements dans le temps, donc exactement le contexte que les pères-fondateurs de cette théorie jugeaient le moins approprié.

De toute façon, quand j’étudie cet article originel par Charles W. Cobb et Paul H. Douglas, je suis étonné par quelque chose d’autre : leur méthode. J’explique. Dans l’introduction de leur article, Cobb et Douglas annoncent qu’ils veulent tracer une fonction d’accumulation de capital comme facteur de croissance économique et séparer l’accumulation comme facteur distinct du progrès technologique. Bon, c’est une direction valable. Ensuite, ces deux gentlemen introduisent tout à coup, sans aucune explication méthodologique préalable, une formule toute faite qui a la capacité irritante à prédire la production très exactement sur la base d’accumulation. Avec « P » symbolisant, dans leur notation originelle, la production agrégée, ou le PIB, « K » et « L » représentant, respectivement, capital physique et travail en nombre d’heures travaillées par an, ils introduisent un PIB normalisé, qu’ils notent comme « P’ », calculé avec la formule suivante :

P’ = 1,01*L3/4*K1/4

Comme je dis, cette formule, avec ses paramètres est servie toute chaude à la page 151 dans l’article d’origine, sans hors d’œuvre préalables. On a une discussion sur les données empiriques en jeu et tout à coup ‘paf !’, un modèle paramétrique atterrit au milieu du jardin. De plus, le modèle, il marche à la perfection avec les données que Charles W. Cobb et Paul H. Douglas introduisent comme leur référence empirique. Le P’ normalisé colle au P réel comme du Sparadrap.  Ce n’est que dans la suite de leur article que ces deux messieurs expliquent comment ils sont arrivés à ces paramètres précis. Les puissances – « ¾ » pour travail L et « ¼ » pour capital physique – avaient apparemment été calculées comme de premières dérivées des fonctions linéaires du produit final P régressé sur K et L respectivement.

J’ai essayé. Ça ne marche pas. J’ai essayé avec les données d’origine utilisées par Charles W. Cobb et Paul H. Douglas, j’ai essayé avec Penn Tables 9.0 (Feenstra et al. 2015[2]) et ça ne marche pas. Pendant que le coefficient du capital, calculé de cette façon, est bien gentil et tout à fait proche des estimations de 1928, le coefficient du travail se balade dans des eaux inconnues, entre -15 et 28. Si vous essayez d’élever quelle valeur économique que ce soit à la puissance – 15 ou à celle de 28, ça perd tout le sens : il y a trop de multiplication dans le modèle. Un polynôme de 28ème degré, ça a moins de stabilité que l’humeur d’un pitbull enragé.

En revanche, lorsque j’ai essayé de craquer la formule de Cobb et Douglas à ma propre façon, en passant par les logarithmes naturels, ça a marché bien. J’ai testé l’hypothèse que « ln(PIB) = a1*ln(K) + a2*ln(L) + constante résiduelle ». Avec R2 = 0,978, ça semble du solide. Ensuite, j’ai pris les coefficients a1 et a2 comme puissances pour K et L. En plus, j’ai fait un facteur constant avec le nombre d’Euler (environ 2,71828, mais on ne sait jamais, vous savez) élevée à la puissance égale à cette constante résiduelle. C’est là que les surprises commencent. La constante résiduelle de ce modèle s’avère être 0,076. Utilisée comme puissance de la constante e = 2,718649, ça donne 1,078962574, donc très près du paramètre original de Cobb et Douglas. Coïncidence ? Honnêtement, je n’en sais rien, mais ce n’est pas la fin des surprises. Mes puissances pour K et L étaient à peu près l’opposé de celles de Cobb et Douglas. J’ai eu 0,267 pour travail L et 0,728 pour capital K. Tout d’abord, 0,267 + 0,728 = 0,995, donc très près du « 1 » assumé dans la fonction originelle de Cobb et Douglas. Encore une fois : comment ? Je n’en sais rien. De toute façon, j’ai testé, dans Penn Tables 9.0, la validité du modèle:

PIB = (econstante résiduelle)*Ka1*La2

J’ai obtenu une fonction de production qui se comporte d’une façon très similaire à celle de Cobb et Douglas, avec R2 = 0,922. Ça, je peux comprendre. Seulement voilà, j’ai testé l’hypothèse logarithmique « ln(PIB) = a1*ln(K) + a2*ln(L) + constante résiduelle » avec le déficit alimentaire comme variable de contrôle. Dans la plupart de classes de déficit alimentaire, mes paramètres tombent comme dans la population générale, donc à l’opposé de ceux de Cobb et Douglas. La plupart, sauf une classe : entre 0 et 28 kcal par jour par personne de déficit alimentaire. Ici, les paramètres sont 0,724 pour travail L et 0,239 pour capital K : très près de « ¾ » pour travail L et « ¼ » pour capital physique dans la fonction originelle de Cobb et Douglas. En plus, 0,724 + 0,239 = 0,963. Encore, vraiment près de 1. Juste un petit détail qui cloche : quand j’essaie de reconstituer le paramètre général, celui que Cobb et Douglas ont estimé à 1,01, j’obtiens 10,97. Donc, les gens légèrement affamés produisent leur PIB presque exactement comme prédit par Cobb et Douglas, seulement ils en font dix fois plus avec la même quantité des moyens de production.

Alors, je résume. Je prends la fonction originelle de production de Charles W. Cobb et Paul H. Douglas. J’essaie de reconstituer leur preuve d’origine et ça ne marche pas. J’essaie ma propre méthode et cette fois ça marche. J’ai donc une théorie qui marche mais on ne sait pas comment elle fait. J’applique la même approche « leur modèle, leur méthode d’estimation des paramètres » aux données empiriques modernes et ça ne marche pas. J’essaie, en revanche, l’approche « leur modèle, ma méthode d’estimation » et ça marche, seulement ça marche à l’envers. Je contrôle mon univers de recherche avec la variable de déficit alimentaire et dans les populations qui sont légèrement mal nourries, avec un déficit de 0 – 28 kcal par jour par personne, je peux reconstituer presque exactement le modèle initial de de Charles W. Cobb et Paul H. Douglas, seulement c’est un modèle nourri avec des stéroïdes, qui rend dix fois plus qu’il ne devrait rendre. Plus de questions que de réponses. J’aime bien.

Un rappel de routine : je suis en train de jumeler deux versions identiques de mon blog dans deux environnements différents : Blogger (http://researchsocialsci.blogspot.com ) et Word Press (https://discoversocialsciences.wordpress.com). Mon objectif est de créer in site scientifique et éducatif complet dans l’environnement Word Press, donc je vous serai reconnaissant si vous migrez vers ce dernier et vous y abonniez. Sans vous presser, mollo.

[1] Charles W. Cobb, Paul H. Douglas, 1928, A Theory of Production, The American Economic Review, Volume 18, Issue 1, Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association (March 1928), pp. 139 – 165

[2] Feenstra, Robert C., Robert Inklaar and Marcel P. Timmer (2015), “The Next Generation of the Penn World Table” American Economic Review, 105(10), 3150-3182, available for download at www.ggdc.net/pwt