États transcendants par rapport à cette réalité

Je continue de réfléchir sur les fondements théoriques de ma méthode de simulation d’intelligence collective dans les sociétés humaines. Je sens le besoin de résumer les points les plus importants, d’une part, ainsi que d’explorer le lien théorique entre la structure logique d’un réseau neuronal et la façon dont l’intelligence collective se joue dans des sociétés en chair et en os.

L’essence de ma méthode de recherche consiste à utiliser les réseaux neuronaux artificiels pour simuler le fonctionnement d’intelligence collective des sociétés humaines. Je me concentre le plus sur le phénomène de changement technologique et dans ce cadre, je me concentre même plus sur le marché de l’énergie. Je veux utiliser ma méthode à deux fins pratiques : simuler l’absorption d’une nouvelle technologie dans l’environnement socio-économique et l’émergence des phénomènes soudains et transformatifs du type Cygne Noir.

J’assume que les variables socio-économiques que je peux utiliser de façon quantitative sont des représentations imparfaites – car simplifiées – des phénomènes sociaux autrement plus complexes. Ces variables sont des phénomènes sociaux en elles-mêmes, car elles représentent un enchevêtrement cognitif entre l’action collective et les résultats obtenus de celle-ci. Nous mesurons collectivement les trucs qui sont importants parce qu’ils représentent des récompenses existentielles pour notre société. Si je vois donc une base de données comme celle de la Banque Mondiale ou bien celle d’EUROSTAT, je vois une multitude des variables quantitatives qui, à leur tour, représentent autant d’orientations d’action collective des sociétés humaines.

Ma méthode consiste à déconstruire partiellement l’enchevêtrement de ces variables, à travers une simulation mathématique où je construis autant de réalités alternatives artificielles qu’il y a de variables à prendre en compte. Ensuite, j’étudie la similarité mathématique entre ces réalités alternatives d’une part et la réalité empirique telle que représentée par les données empiriques. La construction de ces réalités artificielles suit la logique essentielle d’un réseau neuronal artificiel qui optimise une variable de parmi toutes celles étudiées – comme variable de sortie – tout en utilisant les autres variables comme matériel d’entrée à optimiser. Chacune de ces réalités artificielles est donc une représentation mathématique d’une orientation spécifique de la (des) société(s) étudiées : l’orientation sur le type donné de récompense.

Ma méthode assume donc que la société telle quelle est observable de façon empirique est une superposition d’orientations différentes. Plus de variables j’utilise dans ma recherche, plus d’orientations alternatives je peux découvrir ainsi. D’un autre point de vue, plus diverse est le panier des variables, donc plus je mélange les données en provenance des sources différentes, y compris mes propres coefficients ou me propres observations, plus d’orientations différentes je peux déconstruire à partir de la réalité empirique.

Ça, c’est la théorie de base. Pour l’appliquer en pratique, donc pour étudier l’émergence ou bien l’absorption possible des nouvelles technologies dans l’environnement socio-économique, il me faut introduire dans mon observation empirique des variables pertinentes à ces technologies. Pertinence peut être directe aussi bien qu’indirecte. Si j’inclue dans ma soupe primaire des nombres une variable telle que le pourcentage d’électricité en provenance des sources renouvelables, je décris la probabilité qu’une kilowatt heure prise au hasard, comme ça, dans la rue, provienne de ces technologies de génération. Si je prends une variable telle que l’efficience énergétique de l’économie nationale, donc la quantité de produit par unité d’énergie consommée, c’est plus indirect : je mesure l’incidence des technologies relativement plus efficientes en énergie par comparaison à celles relativement moins efficientes.

En pratique, l’observation directe de l’émergence et l’absorption des technologies a des limites qui se sentent très vite. Je peux mesurer, par exemple, le pourcentage de génération éolienne dans le panier d’énergie consommée. En revanche, lorsqu’il s’agit de mesurer la prévalence relative des solutions spécifiques dans les turbines, la transmission d’énergie, l’équilibrage du réseau etc., alors là, il n’y a pas vraiment foule comme données empiriques. Alors, je fais ce que les scientifiques font tout le temps en l’absence des données empiriques pertinentes : je triche. J’introduis dans mon ensemble des données des probabilités théoriques. J’ai donc une base de données bien catholique, avec des trucs comme PIB ou inflation dedans et j’ajoute un pourcentage théorique qui correspond à la probabilité qu’une technologie spécifique soit adoptée par un utilisateur pris au hasard. Enfin, j’hésite entre « adoptée » et « appliquée ». Lorsque j’adopte, je prends responsabilité. Lorsque j’applique, ‘y a moins de poids éthique.

Cette probabilité théorique, je peux la piloter à mon gré. Elle peut être complétement discrète – donc je lui donne des valeurs déterminées à priori – ou bien je peux la faire danser à un rythme plus ou moins aléatoire. Dans ce dernier cas, je simule une situation ou la société comme structure collectivement intelligente n’est jamais sûre de quel trou cette nouvelle technologie va surgir. Je peux simuler des réalités alternatives orientées sur des variables bien respectables, comme sur le nombre de demandes de brevet par 1 million d’habitants, et alors ces probabilités théoriques attachées aux technologies nouvelles sont un facteur de distorsion comme variable d’entrée. Je peux aussi construire des réalités alternatives qui sont bel et bien orientées sur ces variables probabilistes théoriques, l’histoire de voir la similarité mathématique entre elles et la réalité empirique telle que je l’ai devant mes yeux dans ma base des données.

Dans mon expérience jusqu’alors, les réalités alternatives orientées sur les variables « technologiques », empiriques ou théoriques, tombent mathématiquement plus loin de la réalité empirique que celles orientées sur des variables typiquement économiques, comme le nombre d’heures travaillées par personne par an. Ça arrive tout le temps, en fait, avec des configurations de données différentes. C’est comme si le changement technologique – soit l’orientation collective sur des variables « technologiques » – était une orientation instrumentale aux celles axées sur des effets purement sociétaux, comme le marché de travail. 

Mes réalités alternatives, je les construis à travers un processus d’apprentissage numérique, donc avec un réseau neuronal. Voilà donc que vient le moment vraiment délicat dans mon autoréflexion, celui de démontrer le lien entre la structure du réseau neuronal – et de même la structure d’apprentissage numérique – et le phénomène d’adaptation intelligente dans les sociétés humaines réelles. Je prends mes variables d’entrée et je les transforme en un seul nombre qui représente le signal d’apprentissage pour la fonction d’activation neuronale. Cette transformation par agrégation a deux composantes. Le truc général que je prends de la structure typique d’un perceptron consiste à multiplier chaque variable d’entrée par un facteur aléatoire compris entre 0 et 1, donc par le bon vieux RANDOM. Le truc spécifique que j’ai développé par moi-même est d’ajouter un facteur non-aléatoire de distance Euclidienne moyenne entre la variable en question et toutes les autres variables de l’ensemble, dans le pas expérimental précèdent. Évidemment, ce facteur non-aléatoire est absent du premier pas expérimental, puisqu’il n’a pas de pas précèdent. Selon mon intuition, cette distance Euclidienne représente le fait d’apprendre tout en prenant en compte la cohérence interne de la réalité représentée par des nombres. Selon mes observations empiriques, un réseau neuronal équipé de cette fonction de cohérence apprend de façon différente, par rapport au réseau qui s’en fiche. Avec facteur de cohérence, la courbe de l’erreur résiduelle est plus saccadée mais en fin de compte elle converge plus vite vers erreur minimale.

Je fais donc ce signal d’apprentissage « h », à partir de « n » variables d’entrée, comme h = R*E(tj-1)*x1(tj) + R*E(tj-1)*x2(tj) + … + R*E(tj-1)*xn(tj), où R est le facteur purement aléatoire et E est le facteur non-aléatoire de cohérence. Une fois le « h » calculé, je le mets dans ma fonction d’activation neuronale et là, il faut que je réfléchisse. Les fonctions d’activation que j’utilise le plus c’est soit le sigmoïde soit la tangente hyperbolique, avec un penchant pour la seconde. Je commence par déconstruire la tangente hyperbolique. Sa formule générale est tanh = (e2h – 1) / (e2h + 1), où « h » est bien le « h » comme spécifié plus haut, pendant que « e » est la constante d’Euler.              

Je commence par étudier les propriétés mathématiques de la tangente hyperbolique pour comprendre ce qu’elle fait à mes variables d’entrée. Les fonctions hyperboliques sont analogiques aux fonctions trigonométriques de base, seulement elles sont décrites sur une hyperbole et non pas sur un cercle. Une hyperbole est discontinue. Chaque portion d’une hyperbole représente un gradient différent. La tangente hyperbolique est donc une fonction périodique qui superpose plusieurs rythmes d’oscillation. La valeur de tangente hyperbolique n’est donc jamais en corrélation avec la variable d’entrée. La tangente hyperbolique est plus autonome par rapport à ces variables d’entrée que la tangente régulière (circulaire). Cette autonomie est exprimée par l’inclusion de la tangente hyperbolique dans la catégorie des nombres transcendants.   

La tangente hyperbolique transforme donc mes variables d’entrée en quelque chose qui n’a pas de corrélation fonctionnelle avec elles. C’est comme si les variables d’entrée créaient un plan différent de réalité. Pas si bête que ça, en fait. La perception (des variables d’entrée) forme un plan cognitif qui est différent de la réalité elle-même. Lorsque la société s’adapte à un signal d’apprentissage complexe, l’adaptation prend une forme spéciale. Le premier exemple qui me vient à l’esprit est notre adaptation collective au changement climatique. Le climat change et nous transformons ce changement en des symboles complexes : « il faut défendre la Terre », « il faut inventer quelque chose de nouveau », « il faut abandonner ces carburants fossiles ignobles » etc. Ce n’est qu’après s’être pompé culturellement avec ces symboles qu’on fait quoi que ce soit d’utile.

La tangente hyperbolique a une autre propriété intéressante. Dans tanh = (e2h – 1) / (e2h + 1), il y a le « h » qui change, accompagné de la constante : (e2 – 1) / (e2 + 1) = 6,389056099 / 8,389056099 = 0,761594156. J’ai remarqué qu’avec le calcul h = R*E(tj-1)*x1(tj) + R*E(tj-1)*x2(tj) + … + R*E(tj-1)*xn(tj), plus j’ai de variables différentes dans mon ensemble, donc dans ma réalité empirique de base, plus grande est l’amplitude d’oscillation dans « ». Plus complexe est donc ma représentation de réalité, plus d’états différents d’activation neuronale, transcendants par rapport à cette réalité, sont créés avec la tangente hyperbolique.