Lyndon H. LaRouche
Back to previous selection / Retour à la sélection précédente

La thermodynamique de l’économie politique chap.3

Printable version / Version imprimable

Le livre référence sur la méthode LaRouche-Riemann en économie physique

JPEG

Sadi Carnot

Pendant ses études ou en d’autres occasions, on se trouve souvent confronté à des références à l’un ou l’autre des trois « principes de la thermodynamique ». En dehors des paresseux qui ne remettent jamais en cause l’authenticité des affirmations contenues dans les manuels, les dictionnaires et les encyclopédies, un minimum de recherche sur ces « lois » montre qu’elles reflètent davantage de pouvoir de celui qui les a conçu que la rigueur scientifique. Elles sont le fruit de l’imposition arbitraire, de la notion d’énergie aristotélicienne (energeia) aux mathématiques physiques appliquées à laquelle ont procédé des auteurs comme Clausius, Helmholtz, Maxwell ou le malheureux Boltzmann [1] dans la deuxième moitié du XIXe siècle. Les trois « principes de la thermodynamique » ne sont pas seulement arbitraires ; ils ont été invalidés et ce, de façon définitive, par Johannes Kepler, des siècles avant leur élaboration.

Bien que nous nous proposions d’examiner que plus tard les preuves de ce que nous avançons, nous le mentionnons dès maintenant pour prévenir le lecteur du caractère préliminaire de la discussion dans laquelle nous nous engageons. Comme chez Sadi Carnot, la description élémentaire du phénomène de la chaleur se fait en utilisant la mesure de la chaleur sur une simple échelle arithmétique de température. En première approximation, nous définissons la chaleur comme le travail nécessaire pour augmenter la température d’un degré Celsius ou Fahrenheit. Dans un souci de cohérence, nous définissons alors la conversion de la chaleur en travail comme la consommation d’une certaine quantité de chaleur, qui est mesurée implicitement par une baisse de la température de la source de chaleur utilisée. On peut employer cet ensemble d’hypothèses afin de décrire les phénomènes de façon élémentaire, tant que l’on reste conscient de leurs limites, comme Sadi Carnot l’était lui-même. Ces hypothèses sont utiles dans une première approximation mais on a prouvé qu’elles sont fausses si on les utilise en dehors du cadre de cette approximation initiale. Dans ce chapitre, nous limitons notre attention à ce qui relève de cette première approximation.

Procédons à partir de là de la manière suivante.

Divisons d’abord le flux d’énergie total en deux catégories principales. On appelle énergie du système la portion du transfert d’énergie que le processus lui-même doit consommer pour éviter son « épuisement ». Le terme « épuisement » a été utilisé par Isaac Newton, puis par Leibniz dans sa correspondance avec Clarke au sujet de Newton : l’image employée est l’« épuisement » (des oscillations) du ressort d’une simple montre mécanique. C’est là l’origine historique de la définition usuelle de l’entropie en mécanique. On considère que l’énergie du système comprend la perte d’énergie par friction, le dégagement de chaleur, ou toute autre perte due au travail. Si, après déduction de l’énergie du système du flux d’énergie total, il reste une quantité d’énergie, on désigne celle-ci par le terme énergie libre.

Imaginons, pour les besoins de notre approximation initiale, que les processus économiques soient de l’ordre du groupe agro-industriel autonome décrit précédemment. Le genre de processus thermodynamique que nous devons envisager, pour examiner ce groupe agro-industriel d’un point de vue thermodynamique, est celui d’un processus thermodynamique fermé. Toutes les sources et les consommations d’énergie sont internes au processus examiné.

Dans un tel cas d’espèce, l’énergie du système correspond aux coûts et dépenses nécessaires à la production totale des biens physiques et des produits apparentés et l’énergie libre représente le bénéfice net de l’entreprise prise dans son ensemble. On parvient à la fonction mathématique voulue en examinant ce qui se passe lorsqu’on réinvestit l’énergie libre (bénéfice net) sous la forme d’un accroissement de l’énergie du système.

L’effet caractéristique sélectionné comme étalon de mesure de cette fonction mathématique est l’économie de travail, telle qu’elle a été précédemment définie. L’effet apparent de l’augmentation de l’énergie du système par réinvestissement de l’énergie libre est l’accroissement des coûts de l’économie par tête, ce qui pourrait apparaître directement contraire au résultat visé. Dans une bonne économie, il apparaît cependant qu’on obtient un résultat net contraire : les coûts sociaux de la production d’un « panier de biens de consommation à contenu constant » sont réduits : c’est l’économie de travail. Pour découvrir l’erreur qui se cache dans un tel paradoxe, nous sommes amenés à reconnaître qu’avec notre procédure comptable, nous avons « mélangé des torchons et des serviettes ». Certes, l’énergie du système augmente, mais le coût de fourniture de cette énergie, en tant que coût du travail, est réduit. Le coût en énergie du travail par tête augmente, mais le coût de production de cette énergie, en tant que coût du travail, est suffisamment réduit pour diminuer le coût moyen du travail par tête. C’est le résultat correspondant à l’effet caractéristique sélectionné pour définir notre fonction mathématique.

Nous allons maintenant exprimer à nouveau ce paradoxe en termes de variations du rapport de l’énergie libre à l’énergie du système. Si la quantité du flux d’énergie est constante dans les cycles successifs d’un processus économique décrit thermodynamiquement, alors l’accroissement de l’énergie du système par tête, obtenue en convertissant de l’énergie libre « réinvestie » en énergie du système supplémentaire, doit provoquer la chute du rapport de l’énergie libre à l’énergie du système [2]. Aussi, si la fonction mathématique (le processus économique) était constante dans le temps, ce rapport convergerait vers zéro. Si nous ajoutons les effets de la diminution des ressources naturelles au sein de ce système thermodynamique fermé, ce rapport deviendrait même négatif au bout d’un certain temps ; le processus économique (thermodynamique) finirait par s’écrouler.

Dans le cas d’un processus thermodynamique fermé, cette baisse du rapport de l’énergie libre à l’énergie du système indique le caractère entropique du processus correspondant à une telle fonction mathématique : le moteur s’essouffle. Si on considère l’existence humaine tout entière, l’accroissement du potentiel de densité démographique relative prouve que le résultat anti-entropique souhaité existe dans la réalité des processus économiques. L’accroissement du potentiel de densité démographique relative correspond à une fonction mathématique caractérisée par l’entropie négative, la néguentropie. C’est aussi la caractéristique des processus vivants, y compris de l’existence de l’espèce humaine.

Si nous acceptons les hypothèses implicites de la théorie calorique (statistique) de la chaleur, le fait que l’existence humaine soit néguentropique entraîne que, pour survivre, la société est amenée à « épuiser » les sources d’énergie tirées de son environnement. C’est l’un des raisonnements tenus par le Club de Rome et ses sympathisants néo-malthusiens. « Certes », arguent les éléments les mieux informés de ces cercles, « peut-être les systèmes vivants et peut-être même les économies saines ont-ils été néguentropiques jusqu’à aujourd’hui. Le problème est que nous épuisons les sources d’énergie finies de notre environnement à une telle allure qu’on ne peut plus continuer à évoluer de manière néguentropique ».

A l’origine, comme dans le rapport Halte à la croissance publié par le Club de Rome en 1972, Dennis Meadows et Jay Forrester du MIT soutenaient que les économies étaient intrinsèquement entropiques. Pour affirmer ce principe, ils s’appuyaient surtout sur le modèle de Leontieff, les tableaux d’entrées-sorties. C’est également le modèle qui fut utilisé pour élaborer le système actuel de la comptabilité publique américaine, le même système étant également utilisé par beaucoup d’autres nations, comme par les Nations Unies, pour mesurer le Produit National Brut des économies nationales. De telles méthodes prévalant dans la comptabilité publique sont fondamentalement trompeuses sur beaucoup de points cruciaux ; la plus importante de ces erreurs, dans le cas de Halte à la croissance, tient à l’utilisation de ce que l’on appelle aujourd’hui l’analyse des systèmes, c’est-à-dire de systèmes d’équations linéaires, pour décrire les échanges intersectoriels au sein d’un processus économique. Avoir recours à ces équations revient en effet à affirmer arbitrairement que le progrès technologique cesse de manière abrupte et totale à partir du moment où de tels systèmes d’énoncés linéaires sont introduits dans l’ordinateur. On doit également noter que Meadows et Forrester ont arbitrairement ajouté à leurs calculs une sous-estimation du niveau des ressources naturelles qui relève autant du pessimisme que de la simple fraude. De ces deux supercheries fondamentales dans le travail de Meadows et Forrester, la plus importante fut l’utilisation des systèmes d’inégalités linéaires, l’emploi de l’analyse des systèmes.

Pire, ce livre frauduleux, a servi d’argumentaire de base à ceux qui voulaient justifier l’arrêt du progrès technologique. Ainsi, après avoir implicitement affirmé, en recourant à l’analyse des systèmes, que le progrès technologique ne pouvait pas avoir lieu, on a ensuite soutenu que ce progrès technologique inexistant devait être empêché. Après avoir en fait prouvé que l’arrêt du progrès technologique menait à une catastrophe globale, dans Halte à la Croissance, on en concluait que le progrès technologique devait être arrêté. Ceci est analogue au syllogisme qui dit que puisque l’arrêt de l’alimentation provoque la mort des gens, les gens doivent cesser de se nourrir. Peut-être Meadows, Forrester et leurs admirateurs préfèrent-ils assister à la disparition de l’espèce humaine plutôt que reconnaître l’incompétence intrinsèque de l’analyse des systèmes.

Les arguments de l’auteur et de ses associés sur ce point poussèrent les principaux néo-malthusiens, y compris les dirigeants du Club de Rome, à modifier la présentation de leur raisonnement [3]. L’œuvre de l’auteur au sujet du potentiel de densité démographique relative, largement diffusée, embarrassa les dirigeants du Club de Rome au point qu’ils durent abandonner la doctrine de Halte à la Croissance de Meadows et de Forrester au profit d’une simple parodie de celle des Physiocrates du XVIIIe siècle ; ils soutinrent que la « capacité d’accueil de l’environnement » [carrying capacity] des étendues habitables de la planète était largement dépassée par le niveau actuel de la population. Ils affirmèrent simplement que l’univers tout entier est gouverné par la loi de l’Entropie et que la simple continuation de l’espèce humaine accélère l’allure à laquelle l’univers court vers l’inévitable Götterdämmerung de sa « mort thermique ». En d’autres termes, la tentative de l’homme de maintenir ou d’accroître les niveaux actuels de population, grâce au progrès technologique, accélère, selon eux, l’allure à laquelle l’humanité épuise les sources d’énergies finies fournies par son environnement ; l’humanité est déjà parvenue ou a passé le seuil à partir duquel elle consomme plus d’énergie que l’environnement n’en fournit. Ayant accepté le fait que nous épuisons rapidement les ressources limitées en bois, pétrole et charbon, nous devons dès lors arrêter les centrales nucléaires, qui entraînent une consommation d’énergie encore plus grande, et ajourner indéfiniment les dépenses nécessaires au développement de l’exploitation commerciale de l’énergie de fusion. Les néo-malthusiens sont irrationnels, mais ils le sont de façon conséquente et morbide.

Il devrait être suffisamment clair que, lorsque les néo-malthusiens revendiquent l’autorité scientifique pour leur démonstration, ils s’appuient entièrement sur les trois prétendus principes de la thermodynamique. Nous avons rapporté au début de ce chapitre, que ces trois principes ont été arbitrairement imposés à la thermodynamique au début des années 1850, approximativement.

Formellement, le fait est que Rudolf Clausius s’est approprié les travaux de Sadi Carnot de 1824. En 1850, Clausius établissait ainsi ce qui est depuis devenu célèbre sous le nom de deuxième principe de la thermodynamique. Les premier et au troisième principes furent introduits pour justifier de manière plausible les erreurs, pourtant flagrantes, contenues dans ce deuxième principe. Les efforts concourants de Clausius, Helmholtz, Maxwell et Boltzmann aboutirent à ce que ces conceptions fumeuses obtiennent un statut de lois presque divines, à respecter pieusement. En réalité, ces conceptions reposent sur la doctrine émise au début du siècle principalement par Laplace et Cauchy, l’élève et le successeur de Laplace. Clausius, Helmholtz, Maxwell et Boltzmann principalement, travaillant dans un cadre défini par Laplace et Cauchy, établirent leur étrange doctrine du « rayonnement du corps noir » et de la « théorie statistique de la chaleur (par chocs) » qui a laissé la science perplexe jusqu’à nos jours — une perplexité qui règne depuis que Boltzmann s’est suicidé dans la chapelle mortuaire du château des Torre i Tasso (les Thurn und Taxis allemands) à Duino, celui que Rilke célébra dans ses Elégies.

Le deuxième principe de la thermodynamique a été réfuté, implicitement mais de manière définitive, par les travaux de Johannes Kepler publiés au début du XVIIe siècle, soit deux siècles avant que le Congrès de Vienne de 1815 n’impose la titularisation de Cauchy à la tête de l’Ecole Polytechnique. Après avoir identifié plus haut quelques uns des aspects de ce problème, nous allons maintenant montrer comment il se rapporte à la preuve apportée par Kepler.

Nous avons déjà noté que Pacioli et Léonard de Vinci avaient été les premiers hommes des temps modernes à observer que les processus vivants se distinguent des processus non vivants par une croissance autosimilaire congruente à la Section d’Or. Kepler a insisté plus tard sur cette même distinction. L’argument décisif se rapportant au deuxième principe de la thermodynamique tient au fait que toutes les lois de l’astronomie énoncées par Kepler sont dérivées d’une construction s’appuyant au départ sur la Section d’Or. Puisqu’il a été montré plus tard par Gauss que les lois de Kepler étaient les seules appropriées, et puisque ces lois sont dérivées de la Section d’Or, l’univers tout entier possède la même caractéristique que les processus vivants : l’univers tout entier est néguentropique, il a pour caractéristique même la néguentropie.

L’importance de la Section d’Or est mise en évidence par les travaux de Gauss sur la détermination des fonctions elliptiques, sans la moindre superstition ou mystification.

Construisons une spirale autosimilaire sur la surface d’un cône. L’image de cette spirale projetée sur la base circulaire de ce cône est une spirale plane, caractéristique de la Section d’Or. On fait apparaître cette caractéristique en réalisant l’intersection des bras de la spirale avec les rayons de la base circulaire. Si, par exemple, on tire ces rayons de façon à diviser la circonférence projetée du cône en douze arcs de longueur égale, les rayons divisent la longueur des bras de la spirale en segments courbes qui possèdent les proportions exactes des notes de la gamme musicale bien tempérée (Figure 1) [4].

Ceci illustre le fait que la Section d’Or, en tant que caractéristique d’un processus observé dans l’espace visible (c’est-à-dire euclidien), n’est autre que la projection, dans l’espace visible, d’images de l’action conique spirale autosimilaire appartenant à la variété continue, domaine de l’action conique spirale autosimilaire, le « domaine complexe ». Ceci va se clarifier en examinant les principales caractéristiques de telles fonctions coniques [5].

Si l’étudiant commence par étudier une spirale autosimilaire construite sur la face d’un cône et décrit algébriquement sa génératrice, il observe qu’il produit ainsi la forme la plus élémentaire d’une variable complexe a + bi. En continuant sur cette lancée, on fait apparaître les autres « propriétés » principales des fonctions coniques (fonctions d’une variable complexe). Dès le départ, l’étudiant a ainsi établi une signification physique élémentaire de la notion de variable complexe. Par conséquent, il devient capable de situer la réalité physique de chacune des « propriétés » résultant d’un examen plus approfondi.

Dans un deuxième temps, l’étudiant doit tirer une droite reliant le sommet du cône à un point de la circonférence de sa base circulaire, et tracer également l’axe du cône. En tout point où la spirale autosimilaire coupe la droite du sommet à la base circulaire du cône, coupons le volume du cône à l’aide d’une section circulaire normale à l’axe du cône (Figure 2). L’étudiant doit ensuite imaginer que le volume du cône ainsi délimité est le lieu d’accroissement du potentiel de densité démographique relative, de telle manière que chaque section circulaire définisse un potentiel particulier de densité démographique relative. Ceci fournit une image géométrique de la signification physique de la néguentropie [ Appendice 2 ]. Cette construction géométrique est la définition mathématique appropriée de la néguentropie. La fonction de la variable complexe générant la succession des sections circulaires (normales à l’axe du cône) symbolise une fonction de l’accroissement du potentiel de densité démographique relative.

Dans un troisième temps, l’étudiant doit relier les sections circulaires définies à l’intérieur du cône par des ellipses diagonales (Figure 3a et 3b). C’est le point de départ pour comprendre les fonctions elliptiques. L’étudiant doit ensuite observer la différence entre les moyennes géométrique et arithmétique correspondant au mouvement de la spirale d’une section circulaire à la suivante. La moyenne géométrique correspond à la section circulaire construite au point atteint par la spirale quand « la moitié du temps s’est écoulée » (demi-révolution) entre le moment où celle-ci a commencé sa révolution autour du cône et le moment où elle l’a terminée. La moyenne arithmétique correspond à la section circulaire construite au point moyen (mi-distance) de l’axe du cône entre le début et la fin d’un cycle complet de rotation (Figure 3a). L’étudiant doit déterminer la relation existant entre moyenne géométrique et moyenne arithmétique de façon à déterminer les foyers de la section elliptique diagonale pour un simple cycle de rotation (Figure 3b). Sur quel foyer de l’orbite elliptique de la Terre se trouve le Soleil ? Qu’est-ce que cela signifie en termes de physique des fonctions (coniques) elliptiques ?

Dans un quatrième temps, l’étudiant doit construire une surface plane, parallèle à la base du cône et passant par le sommet du cône. Sur cette surface plane, l’étudiant doit projeter l’ellipse diagonale et ses principaux éléments (Figure 4). Le sommet du cône est positionné sur la projection de l’un des foyers de l’ellipse dans le plan, représentant la position du Soleil par rapport à l’orbite de la Terre.

Dans un cinquième temps, l’étudiant doit réduire le volume d’une révolution de l’action conique spirale (de la section circulaire A à la section circulaire B) par le volume inscrit entre deux sections circulaires du cône (construits à partir des foyers de la première ellipse, de la section circulaire C à la section circulaire D), puis couper cette division du volume avec une deuxième ellipse diagonale (Figure 5). Répétons cette opération pour définir un troisième volume plus petit (Figure 6). C’est là que nous commençons à décrire les rapports des valeurs caractéristiques correspondant aux séries d’ellipses ainsi générées.

Dans un sixième temps, supposons que cette division elliptique itérative du volume d’une révolution finit à un point quelconque. Ce point correspond à une portion orthogonale du volume du cône, et à un segment correspondant sur l’axe du cône (Figure 7). Assimilons ce petit intervalle de volume à la plus petite valeur du « delta » du calcul différentiel de Leibniz. Désignons également cela comme la singularité de la transformation néguentropique représentée par une révolution de l’action conique spirale.

Cette conception, ainsi décrite, définit, en première approximation, le problème topologique implicite posé et résolu par le principe de Dirichlet. Au bout du compte, ceci nous amène directement à l’examen des travaux de Riemann, y compris son programme préliminaire de physique mathématique présenté dans sa dissertation d’habilitation de 1854, les principes de la surface riemannienne et ceux qui sous-tendent la thèse de 1859 sur les ondes de choc acoustiques.

L’étudiant doit réussir à maîtriser ces conceptions mathématiques en se référant aux sources originelles dans les travaux de Gauss, Dirichlet et Riemann. Cela devrait être un aspect fondamental de tout programme universitaire de science économique. Sans ces bases, une application mathématique rigoureuse de la science économique n’est pas possible. Nous nous limitons ici aux aspects les plus cruciaux de ce sujet.

Dans un septième temps, l’étudiant doit explorer le cas où le cône est extrêmement grand et l’angle de son sommet très petit. En d’autres termes, quand nous nous éloignons du sommet de ce cône, sa forme approche celle d’un cylindre et la distance de la moyenne arithmétique à la moyenne géométrique de la spirale conique auto-similaire devient très petite. Les sections circulaires normales découpées à chaque révolution complète ont une surface très proche (en valeur) des sections précédente et suivante. La singularité devient très petite, quelle que soit la limite proposée de la division elliptique itérative. Le profil de la spirale autosimilaire est très proche de celui d’une onde sinusoïdale.

Même l’étudiant qui n’a pas progressé au-delà des exercices de construction indiqués jusqu’ici est capable de faire une pause et de réfléchir à l’équivalence physique entre fonctions coniques spirales autosimilaires et fonctions logarithmiques et trigonométriques, tout comme à la détermination des nombres transcendants e et ? (pi) qui en découle. La géométrie synthétique est une méthode beaucoup plus plaisante pour comprendre les mathématiques que le chemin à parcourir en partant de l’arithmétique axiomatique. Toutes les superstitions ou mystifications intrinsèques à l’arithmétique axiomatique et aux algèbres cohérentes avec elle se trouvent heureusement évitées.

Rappelons maintenant deux points qui doivent être clairs pour tout le monde avant d’aller plus loin. La définition du travail dans la méthode LaRouche-Riemann est l’image d’une fonction autosimilaire conique spirale néguentropique. La définition de l’énergie, spécifiquement distincte du travail dans la méthode LaRouche-Riemann, est une fonction autosimilaire cylindrique spirale.

Pour approfondir la signification physique de telles fonctions d’une variable complexe, nous devons examiner le problème que (suivant l’état actuel de nos connaissances) Platon a été le premier à poser. Platon insiste sur le fait que le monde visible a une apparence différente de celle du monde réel, comme les ombres déformées projetées sur les parois d’une caverne par la lumière d’un foyer. Saint Paul écrit que nous voyons comme dans un miroir assombri. La géométrie synthétique, connue de Platon, nous donne la preuve de cette affirmation. La redécouverte par Nicolas de Cues du principe central de la géométrie synthétique, le principe isopérimétrique, mena à la solution au problème posé par Platon et, plus particulièrement, à l’œuvre de Gauss et de Riemann.

Le cas des cinq solides platoniciens pose le principe de limites dans l’espace visible (c’est-à-dire euclidien). Certaines formes existent en tant qu’images dans l’espace visible, mais elles ne peuvent néanmoins pas provenir par construction de l’action circulaire. La construction de toutes ces formes fait intervenir quelque fonction d’une variable complexe (c’est-à-dire une fonction transcendantale), dérivée de l’action conique spirale autosimilaire élémentaire. De plus, l’action circulaire comme ses dérivés obtenus par construction géométrique synthétique, sont des projections ; résultant de fonctions de constructions ayant pour matrice des fonctions coniques autosimilaires. Ceci indique que les images de l’espace visible dont on ne peut pas rendre compte au sein des limites géométriques caractéristiques de l’espace visible, peuvent être complètement expliquées comme des images projetées depuis un espace d’ordre supérieur, l’espace de l’action conique spirale autosimilaire.

A l’exemple de Riemann [6], nous identifions l’espace visible comme la variété discrète et l’espace plus élevé des constructions coniques spirales autosimilaires comme la variété continue. Nous avons besoin de cette mathématique pour que la physique soit entièrement construire dans la variété continue, et pour pouvoir considérer mathématiquement les fonctions de la variété discrète comme des projections d’images de la variété continue dans la variété visible (discrète). Dans ce but, il faut que l’étudiant emploie l’action conique spirale autosimilaire pour élaborer la géométrie synthétique de l’espace de la variété continue de la même façon que l’on utilise l’action circulaire pour construire la géométrie synthétique de l’espace visible (de la variété discrète). Toute mathématique conçue pour servir la physique doit être dérivée de — et prouvée par — la méthode de construction de la géométrie synthétique au sein de la variété continue et par elle seule ; les fonctions algébriques doivent être, pour leur part, traitées comme rien de plus que la description de fonctions géométriques synthétiques de la variété continue.

Pour nous, comme pour Riemann [7], la physique expérimentale est centrée sur les expériences uniques qui prouvent les hypothèses mathématiques (géométriques) appartenant à la variété continue, au moyen d’observations expérimentales effectuées à partir d’images projetées dans la variété discrète. Cette possibilité dépend d’un principe géométrique de topologie, l’invariance. En première approximation, l’invariance identifie ces aspects caractéristiques de la géométrie d’une variété continue qui sont « préservés » dans le processus de projection comme caractéristiques des images de la variété discrète. En deuxième approximation, les invariances d’ordre supérieur signalent les changements dans la variété continue qui sont transportés dans la variété discrète comme des transformations d’invariants de la variété discrète. Les transformations relativistes des propriétés métriques de l’action dans la variété discrète appartiennent à cette deuxième classe, d’ordre supérieur, d’invariances projectives. Une expérience unique a pour sujet principal une telle transformation d’ordre supérieur dans les caractéristiques métriques d es principes d’action au sein d’une variété discrète. Le traité de Riemann de 1859 sur la génération des ondes de choc est un modèle des principes de l’expérience unique.

Ce principe de l’expérience unique est la clé du secret du « curieux phénomène » que nous avons grossièrement identifié plus haut.

Le point de vue de Gauss, Riemann et alia comporte plusieurs aspects déterminants et a des implications qui peuvent paraître obscures à maints lecteurs de ce texte, mais que nous devons au moins identifier ici. Ces points sont d’une grande portée pour les sujets à considérer dans la suite.

D’abord, le point de vue sur la physique que partagent Riemann et l’auteur est parfois défini comme celui du « transfini ontologique » [ Appendice 3 ]. Ceci signifie essentiellement que les définitions de « matière » ou de « substance » ne doivent pas être attribuées aux images dans la variété discrète, mais seulement aux « objets réels » de la variété continue. Les « propriétés » attribuées à la « matière » ne doivent jamais différer de la définition de la « matière » cohérente uniquement avec la physique mathématique de la variété continue en tant que telle. Ce n’est pas que les objets perçus par nos sens ne correspondent pas à quelque chose de réel, mais c’est la manière dont nos esprits perçoivent la nature discrète des objets dans la variété visible (discrète) qui est une perception déformée. Dans chaque cas, nous devons trouver la réalité dans la variété continue qui correspond aux expériences physiques perçues dans les termes de la variété discrète.

Le terme « transfini », utilisé dans ce contexte, correspond à la définition donnée par Georg Cantor (1845-1918) dans ses publications de 1871-1883 sur les « ordres transfinis », spécialement dans son Grundlagen (Fondations d’une théorie générale des variétés) de 1883. L’approche riemannienne aux séries trigonométriques et le travail s’y rapportant du maître de Cantor, Karl Weierstrass (1815-1897), dont l’approche à l’analyse de Fourier a inspiré celle de Cantor, ont constitué les bases de son travail. « Transfini », au sens de Cantor, découle de et implique une approche rigoureusement géométrique cohérente avec celle de Riemann [8]. Pour ces raisons, l’utilisation de l’expression « transfini ontologique » n’est pas inappropriée.

Cette expression s’est imposée principalement du fait des différences significatives de méthode entre, d’une part, Gauss et Riemann et, d’autre part, le Göttingen du Professeur Felix Klein (1849-1925) et alia. Bien que Klein ait attiré l’attention sur le fait que la science moderne était en train de perdre les méthodes de découverte employées par Karl Gauss et qu’il ait lancé de nombreux efforts pour faire revivre cette science agonisante, les imperfections de l’œuvre du grand David Hilbert (1862-1943) démontrent la perte de compréhension des principes de géométrie employés par Gauss, Riemann, Dirichlet et alia, exactement de la même manière que Max Planck (1858-1947), au cours de ses travaux sur les implications du rayonnement du corps noir, a échoué dans sa tentative d’élaboration du concept de quantum, en abandonnant à mi-chemin l’approche géométrique rigoureuse pour s’adapter aux doctrines de Clausius, Helmholtz, Boltzmann et alia. Au mieux, les figures marquantes de la physique mathématique du continent européen des générations post-1860 ont défendu l’œuvre de Kepler, Leibniz, Euler, Gauss, Riemann et alia contre les attaques des empiristes et défendu la notion de « transfini » en tant que conception mathématique. Cependant, ils n’ont pas accepté la preuve que la substantialité réside originellement dans la variété continue, dans le sens où nous avons identifié ici le « transfini ontologique » ; ainsi, les générations postérieures que nous avons mentionnées ont ensuite développé le « transfini méthodologique », établissant la distinction avec « l’ontologique ».

Le deuxième point que l’on doit ici aborder est le problème qui est à la base des campagnes venimeuses de Leopold Kronecker (1823-1891) contre Weierstrass et Cantor. Kronecker, à qui l’on doit quelques mauvais travaux de mathématique, a promulgué l’idée que « Dieu a créé les nombres entiers », soutenant que tous les autres nombres ne sont que des constructions intellectuelles. L’élaboration par Pascal de la détermination géométrique des séries différentielles, l’œuvre de Fermat, Euler, Dirichlet et Riemann sur la détermination des nombres premiers illustrent cependant le fait que tous les nombres sont générés par des processus géométriques et que cette détermination appartient, dans toute son étendue, à la variété continue (domaine complexe). Bien qu’ayant étudié un moment avec Dirichlet, Kronecker et son amical concurrent Richard Dedekind (1831-1916) jouèrent tous deux un rôle de « flic dur-flic mou » au sein d’une vaste conspiration montée en vue de détruire Georg Cantor [9]. La mathématique de Kronecker était un mélange de philosophie cartésienne et de cabale britannique à la mode du XVIIème siècle. Comme chez Descartes (1596-1650), l’univers de Kronecker se limite aux objets dénombrables de l’espace euclidien, une vision pour le moins singulière et menant à celle des extrémistes du nominalisme radical, telle qu’elle se manifeste dans les Principia Mathematica de Bertrand Russell (1872-1970) et de A.N. Whitehead (1861-1947).

De l’étude des œuvres originales publiées comme de celles restées enfouies dans les archives, il ressort que l’attaque contre Cantor est venue de trois directions concourantes. De France, il a hérité des opérations de Laplace et de Cauchy contre les figures marquantes de l’Ecole Polytechnique (Fourier, Legendre et alia). Certains éléments appartenant à des ordres religieux ont mené une persécution religieuse — une véritable inquisition — contre la mathématique de Cantor, contaignant celui-ci, à partir d’un certain point, à en appeler au Pape lui-même. Le troisième assaut est venu de Grande-Bretagne avec Bertrand Russell ayant joué dans le rôle principal, au moins pendant un certains temps. Celui-ci a poursuivi ainsi une campagne britannique explicitement dirigée contre Gauss et Riemann, dans laquelle les travaux de James C. Maxwell ont joué un grand rôle, de l’aveu même de Maxwell. L’invective inculte de Russell contre la dissertation d’habilitation de Riemann illustre l’état d’esprit dans lequel Russell a mené ses tentatives pour détruire les réputations de Gauss, Riemann, Cantor et Felix Klein. En dehors du fait que Russell a vécu suffisamment longtemps pour devenir l’individu le plus malfaisant du XXe siècle, c’est lui qui a été au centre des efforts exercés pour détruire la notion cantorienne du « transfini » et promouvoir l’idée frauduleuse selon laquelle la « théorie des ensembles » moderne découle des œuvres de Cantor.

Cette étonnante conspiration contre Cantor illustre bien la force et l’importance des efforts exercés au XIXe siècle pour éradiquer l’héritage méthodologique (géométrique) de Nicolas de Cues, Vinci, Kepler, Leibniz, Euler, Monge, Gauss, Riemann et alia. Les principales failles axiomatiques gâchant les travaux scientifiques actuels découlent essentiellement de cette inquisition du XIXème siècle, symbolisée par le cas de Cantor. De même, les conceptions dont la validité a été prouvée au-delà de toute discussion compétente, de Cuse jusqu’aux années 1850, apparaissent maintenant souvent comme des erreurs excentriques aux yeux de spécialistes contemporains à qui toute connaissance fait défaut sur l’histoire des querelles empoisonnées qui ont éclaté après le Congrès de Vienne de 1815. Heureusement, grâce aux efforts de centaines de chercheurs qui ont ratissé pendant plus d’une décennie les archives d’une douzaine de nations, une grande part de la vérité sur l’histoire cachée de la science moderne a pu être ramenée au grand jour. Celle-ci a d’évidentes répercussions sur les principaux sujets propres à la science économique. Et comment pourrait-il en aller autrement, dès lors que la technologie constitue le cœur de la science économique ?

Résumons les caractéristiques spéciales de la physique mathématique décrites juste au-dessus et qui influencent directement la science économique :

1. L’univers réel tout entier est néguentropique, comme on le montre en examinant minutieusement les lois de Kepler en astronomie, à l’image de ce qu’a fait Gauss.

2. L’univers réel relève ontologiquement de la variété continue, une variété mathématiquement explorée par une géométrie synthétique basée sur l’action conique spirale autosimilaire. Le monde visible est une projection déformée du monde réel.

3. Le genre de nombres qui correspond immédiatement à la réalité du monde physique est de la forme des nombres complexes générés par les constructions géométriques synthétiques dans la variété continue, le domaine complexe. Les nombres utilisés dans les calculs ordinaires sont les projections des nombres complexes dans le monde visible.

4. La connaissance du monde physique est dérivée de ce que Riemann définit comme les expériences uniques.

En conséquence, les prétendus principes de la thermodynamique sont faux dans la réalité physique et ne sont que des postulats arbitraires imposés de l’extérieur au travail scientifique. Plus catégoriquement, toute thermodynamique qui se fonde sur ces trois prétendus principes est entropique, une condition contraire à ce que nous avons prouvé être l’ordonnancement fondamental de l’univers. En outre, « l’énergie » et le « travail », correctement définis, correspondent à des réalités appartenant à la variété continue, correspondant à des fonctions complexes non réductibles à de simples grandeurs scalaires. « L’énergie » et le « travail » ne sont pas des objets ; ils sont des processus.


[1En proie à une vive dépression, Boltzmann se donna la mort à Duino. Voir plus loin.

[2Cette hypothèse est à la base de l’erreur que Marx commet dans le Capital III, « Contradiction internes », en estimant que le « taux de profit doit tendre à baisser » au sein d’une économie capitaliste. Bien que Marx précise à plusieurs reprises qu’il écarte les fonctions calculables du progrès technologique dans son raisonnement, il préfigure, en fait, l’analyse des systèmes moderne en basant tous ses calculs des conditions d’expansion par réinvestissement sur de grossières équations linéaires (voir le texte, plus loin). Il y a d’autres erreurs majeures dans le raisonnement de Marx sur ce point, mais celle-ci est la principale.

[3Des déclarations sur ce point, concernant l’impact du travail de LaRouche et de ses collaborateurs, ont été faites par les principaux dirigeants du Club de Rome, y compris par le Dr Alexander King.

[4Cette démarche, destinée à prouver les principes de la polyphonie bien tempérée, fut d’abord proposée par LaRouche au cours d’un séminaire au printemps 1981. Les constructions furent réalisées par Jonathan Tennenbaum, Ralf Schauerhammer et alia, et présentées lors d’une conférence tenue en Allemagne fédérale, au cours de la même année. De nouveaux travaux en résultèrent, consistant d’une part à reformuler les hypothèses ontologico-mathématiques de la relativité restreinte (Executive Intelligence Review, New York, Janvier 1983) et , d’autre part, à étudier une approche gaussienne à des applications modernes de fonctions elliptiques définies par le cône (Tennenbaum, printemps 1984).

[5Cf. B. Riemann, dissertation d’habilitation, (1854), disponible en français dans les Œuvres mathématiques (Blanchard, Paris).

[6Ibid.

[7Ibid

[8Le travail de Cantor n’est pas congruent avec la « théorie des ensembles » telle que les mathématiques modernes la présentent aujourd’hui. Voir plus loin dans le texte.

[9LaRouche fut mis sur la piste de la découverte de rôle de Dedekind dans cette affaire en relisant sa préface de 1872 à son article « Continuité et nombres irrationnels ». Dedekind ne fut que l’un des éléments d’une opération de sape intellectuelle.