Théorie de l'allocation universelle
  • Infolettre
  • Auteur
  • 213 pages   [?] Nombre total de pages A4 imprimables. Le nombre de pages par chapitre/article est affiché en haut à droite de chaque page (NB : pour les fichiers de plusieurs dizaines de pages ce nombre peut légèrement varier selon le navigateur).
allocation-universelle.net

> 7. Analyses Recommander Imprimer 26 pages màj : 26 juillet 2017

Travail, valeur et éthique Recommander màj :

PLAN

  1. Introduction
  2. Principes élémentaires de la thermodynamique
  3. Travail par des humains
  4. Facteur vs moyen de production
  1. Valeur
  2. Éthique
  3. Notre conclusion

Introduction Haut

Éthique

Travailler c'est créer de la valeur. La problématique de la valeur induit celle de l'éthique.

Mais ne brûlons pas les étapes. Commençons par poser les fondements de notre réflexion. Ainsi la section II traite du travail tel que défini par les principes de base de la thermodynamique.

Ensuite dans les sections III à VI nous tenterons d'approfondir notre compréhension des relations entre travail, valeur et éthique, en progressant vers une analyse économique puis sociologique. La section VII présente nos conclusions applicatives pour un nouveau paradigme sociétal sans lequel il n'y aura de développement durable possible.

On comprendra à la lecture de cet article qu'il constitue le noyau philosophique d'allocation-universelle.net (qui constitue lui-même un des deux points du programme Tutmondigo).

Principes élémentaires de la thermodynamique Haut

Pourquoi parler physique dans une publication consacrée au travail ? En fait la question qu'il faudrait poser est plutôt : comment se fait-il que les théories économiques en vigueur ne font généralement aucune référence aux lois naturelles fondamentales qui régissent les relations énergétiques entre corps inertes comme vivants ? Cela est pourtant d'autant plus nécessaire que les théories économiques appliquées par nos gouvernants relèvent moins de la science que d'une idéologie motivée par des intérêts à court terme d'une oligarchie ("libéralisme"). Une bonne compréhension des lois naturelles nous permettra de faire la part des choses ...

N.B. À partir du paragraphe "Énergie et matière" cette section est largement inspirée de publications du physicien François Roddier. Je suis évidemment seul responsable des éventuelles erreurs d'interprétation. Le lecteur pourra toujours vérifier les sources mentionnées.

F = M * A

Galilée, qui avait déjà constaté au 16° siècle que les comètes avaient tendance à suivre une trajectoire retiligne selon un mouvement uniforme, a énoncé le principe d'inertie qui stipule que « tout point matériel qui n'est soumis à aucune force est soit au repos, soit animé d'un mouvement rectiligne et uniforme ».

On entend par force « toute cause capable de modifier l'état de repos ou de mouvement d'un corps », c-à-d qui explique qu'un corps immobile se met en mouvement, ou qu'un corps en mouvement rectiligne à vitesse constante change de vitesse, direction ou sens. L'intérêt pratique du concept de force apparaît pleinement dans sa représentation par un vecteur composé d'un point d'application, d'une direction, d'un sens et d'une intensité. Cette modélisation mathématique constitue le fondement de la physique dynamique et a facilité l'invention de machines mécaniques (PS : l'histoire des sciences et techniques suggère cependant que la relation entre théorie et développement serait biunivoque). Il existe divers type de forces, que l'on peut classer en deux groupes :

Chacune de ces force est définie par sa propre formule, mais toutes ont en commun (puisque toutes sont des forces) que leur valeur est égale à M * A. Le cadre suivant illustre le cas de la force de gravitation.

Force gravitationnelle

Deux corps de masse M1 et M2 et séparés d'une distance D (entre leurs centres de masse) subissent une force d'attraction (dite gravitationnelle) = g * M1 * M2 / D2 où g est la constante gravitationnelle, dont on a évalué expérimentalement la valeur à 6,6742×10-11. Dès lors l'accélération que subit un corps de masse M à la surface d'une planète sur laquelle il repose s'obtient par approximation en posant D = Rayon de la planète et g * M * Mp / R2 = M * A --> A = g * Mp / R2 ... qui montre que A, l'accélération gravitationnelle, est indépendante de la masse du corps qui la subit, et fonction des masse et volume de la planète qui l'exerce. Ainsi on peut calculer que A vaut 9,8 m/s2 sur la Terre et 1,6 m/2 sur la Lune. PS : la force gravitationnelle est également appelée "force de pesanteur" ou encore "force de chute libre".

La masse est la mesure de l'inertie de translation d'un corps. L'inertie d'un corps est sa tendance à conserver son mouvement. Autrement dit, la masse d'un corps est sa résistance à toute modification de son mouvement (que ce soit en direction, sens ou vitesse).

Poids = Masse * Ag Ne pas confondre "poids" et "masse" : le poids est la force de pesanteur, soit le produit de la masse par l'accélération gravitationnelle (aussi appelée "accélération de pesanteur").

Un corps est dit « à l'équilibre » si son accélération est nulle, c-à-d lorsqu'il est soit au repos soit en mouvement à vitesse constante.

Nous verrons plus loin qu'un système est dit "à l'équilibre thermodynamique" lorsque l'énergie qu'il contient y est uniformément répartie. Mais avant d'aborder ces concepts il nous faut d'abord développer celui d'énergie ...

L'égalité F = M * A (dite deuxième loi de Newton ou loi fondamentale de la dynamique) stipule donc que si la résultante des forces appliquées à un corps est non nulle, alors ce corps subit une accélération, laquelle est proportionnelle au rapport entre la force résultante et la masse du corps : A = F / M.

T = F * D

Une force travaille (ou effectue un travail) lorsque son point d'application se déplace. Le travail est la relation entre deux corps par laquelle une quantité d'énergie équivalente est transformée et transférée lors du déplacement du point d'application (travail et énergie sont tous deux exprimés en joules : kilogramme * mètre2 / seconde2 ) [approfondir].

Tout corps (inerte ou vivant) doit, pour être en mesure de fournir du travail, contenir une énergie potentielle (exemples : un corps placé à une certaine hauteur, un corps élastique écarté de sa position d'équilibre, l'énergie cinétique d'une comète, ...).

Un corps en mouvement rectiligne possède une énergie cinétique (ou de translation), que l'on défini et mesure par la formule : Ec = M * V2 / 2 .

Principes

Lorsqu'on a voulu expliquer les causes du mouvement (travail) on a été amené à imaginer la notion de force, laquelle à son tour a induit le concept d'énergie. Du point de vue épistémologique on a donc remonté d'aval (observation) en amont (théorie) le chemin de la causalité, qui est : énergie --> force --> mouvement/travail. Nous allons maintenant développer les deux principes fondamentaux de la thermodynamique :

Ainsi nous allons voir que tout système (organisme vivant, machine, cyclone, ...) :

Conservation
de l'énergie

L'énergie ne peut-être créée mais seulement transformée d'une forme en une autre. Sur base de ce postulat on peut alors décrire comme suit l'évolution énergétique d'un corps en chute libre entre le moment de son lâché et celui de l'impact :

  1. avant le lâché (soit à t0) :
    • son énergie potentielle (ici, de pesanteur) vaut l'énergie consommée/transférée/transformée par le travail nécessaire pour amener le corps de masse M à une hauteur D : Ep(t0) = M * A * D (où A est ici l'accélération gravitationnelle) ;
    • son énergie cinétique est nulle : Ec(t0) = 0 ;
  2. entre le moment du lâché et celui de l'impact (ti ), l'énergie potentielle va passer de M*A*D à zéro, tandis que l'énergie cinétique va passer de zéro à un maximum tel que :
    Ec(ti) = Ep(t0) M * V2 / 2 = M * A * D
    ... ce qui permet de calculer la vitesse du corps au moment de l'impact : V(ti) = (2 * A * D)1/2  (NB : elle est indépendante de la masse du corps mais fonction de D).

L'énergie potentielle s'est donc transformée en énergie cinétique pendant ce mouvement de chute libre. Mais à tout instant la somme de l'énergie potentielle de pesanteur et de l'énergie cinétique est constante.

Dans cet exemple de chute libre on a fait abstraction des forces de frottement, mais cela n'altère pas la validité du raisonnement car tous les types de force et tous les systèmes composés de forces (même de types différents) sont soumis à cette « loi de conservation de l'énergie » (premier principe de la thermodynamique), qui stipule que l'énergie :

  1. peut-être échangée entre deux corps/systèmes ;
  2. peut être transformée d'une forme en une autre (ex. : d'énergie cinétique en énergie mécanique) ;
  3. mais qu'elle ne peut être ni créée ni détruite.
Expérience de Joule
Exercice : amusez-vous à imaginer ce que ce croquis raconte. Quelques indices : (i) en faisant varier la hauteur du bloc "constraint" on fait varier la hauteur de la chute de la masse "wt" ; (ii) le rectangle noire délimite un système isolé (nous y reviendrons plus loin) ...

Différence de potentiel. On voit donc que la notion d'énergie potentielle découle du second principe de la thermodynamique, et que la différence de potentielle est à la base du processus dynamique (courant, débit, ...). Ainsi qui s'y connaît un peu en électricité sait que les différences de potentiel se mesurent en volts et les débits en ampères. Un courant de 1 ampère fourni par une différence de potentiel de 1 volt fournit une énergie de 1 joule par seconde, c’est-à-dire une puissance de 1 watt. D’une façon générale on dit que les courants d’énergie s’écoulent des régions de haut potentiel vers les régions de bas potentiel, comme l’eau s’écoule nécessairement des sommets vers la plaine, ou la chaleur d'une source chaude vers une source froide [source].

Bien sûr il est possible de faire remonter de l'eau (cf. pompe) ou de transférer de la chaleur d'une source froide vers une source chaude (cf. frigo). Mais - nous dit le premier principe - cela est impossible sans apport d'énergie supplémentaire au système considéré.

Énergie et
matière

Les forces d'interaction que nous venons de passer en revue concernent les phénomènes physiques "de dimension humaine" (physique "newtonnienne"), mais ne permettent pas d'expliquer de façon satisfaisante de phénomènes :

La loi fondamentale de la théorie de la relativité énonce que toute matière est de l'énergie : tout corps contient/représente une quantité d'énergie égale au produit de sa masse et du carré de la vitesse de la lumière dans le vide : E = M * C2 où C a une valeur constante qui est la limite maximale à la vitesse de tout corps en mouvement (PS : la vitesse est maximale dans le vide, en raison de l'absence de frottements).

Énergie nucléaire Cette égalité découverte par Einstein - et médiatisée comme aucune autre - montre que les sources d'énergie ne manqueront jamais puisque tout dans l'univers - matière et rayonnement - est énergie. En outre, du fait de l'énormité du facteur C2, une perte de masse infime à l'échelle humaine peut dégager une énorme quantité d'énergie (PS : la libération d'énergie requiert une réduction de masse en vertu du principe de conservation de l'énergie). Au niveau technologique le phénomène est exploité au moyen de réactions nucléaires déclenchées soit par fission soit par fusion d'un noyau d'atome (PS : la fusion libère trois à quatre fois plus d'énergie que la fission).

Ainsi donc certaines énergies seraient plus efficacement transformables en énergie mécanique que d'autres, d'où les notions de rendement d'une transformation, et d'efficacité énergétique, que nous allons maintenant développer en approfondissant le second principe de la thermodynamique.

Transformation
et dégradation
de l'énergie

L'énergie ne peut disparaître mais par contre elle peut être transformée. Cependant cette transformation est généralement accompagnée d'un phénomène de dissipation par lequel du travail mécanique est transformé en chaleur (énergie calorifique), sous l'effet de forces de frottement. Or il se fait que la chaleur est un forme dégradée d'énergie car la transformation inverse - de chaleur en énergie mécanique - est toujours partielle, de sorte toute transformation est irréversible. L'énergie (et partant la matière, étant donné la relation E=Mc2) se conserve donc, mais se dégrade aussi irrémédiablement. C'est le phénomène du vieillissement (les montagnes et les étoiles aussi naissent et meurent). Il est aussi le fondement thermodynamique du cycle de la vie biologique.

"Consommer" de l'énergie signifie donc en réalité "dégrader" de l'énergie. D'autre part l'expression "retourner à la poussière" pour décrire la mort prend ici toute sa signification.

Exemples de transformations d'énergies [source] :

On ne peut convertir qu’une partie seulement de la chaleur en travail (énergie mécanique). Comment s'en est-on rendu compte ? Commençons par constater qu' il est plus difficile de transformer de la chaleur en travail que l'inverse : ainsi il suffit de frotter du bois sec contre du bois sec pour produire de la chaleur, mais il ne suffit pas de chauffer du bois pour le mettre en mouvement. Si l’énergie mécanique peut être intégralement convertie en chaleur, la réciproque n’est pas vraie.

Lorsqu'au 18° siècle on a tenté de faire fonctionner les premières machines à vapeur on s'est rendu compte que pour transformer de la chaleur en énergie mécanique il faut utiliser des transformations réversibles, en l'occurrence des cycles de transformation "pression <--> travail". Mais pour fonctionner ces cycles requièrent d'extraire de la chaleur d’une source chaude (pour produire de la vapeur) et d'en rendre une partie à une source froide (pour la condenser).

Machine à vapeur

Soit Q1 la chaleur fournie par la source chaude. À lʼaller la vapeur pousse le piston qui fourni un travail W1, mais pour ramener le piston au point de départ, il faut refroidir le cylindre en cédant une partie Q2 de la chaleur à une source froide et fournir un travail W2. Il y a donc nécessité de mettre en réserve l'énergie nécessaire pour pouvoir repousser le piston [source]. Il en résulte que le mouvement perpétuel est physiquement impossible.

On ne peut donc convertir qu’une partie seulement de la chaleur en travail. Cette partie est proportionnelle au différentiel de température entre les deux sources. Cependant, les températures des deux sources tendant à s’uniformiser l’énergie thermique devient définitivement inutilisable, sauf à rétablir une différence de température entre les deux sources, ce qui requiert de fournir du travail [source].

Ainsi Roddier énonce le second principe de la thermodynamique de la façon la plus élaborée : « On ne peut durablement produire du travail mécanique que par des cycles fermés de transformations extrayant de la chaleur d’une source chaude pour en rendre une partie à une source froide ».

Efficacité énergétique
d'une machine

Ces principes sont modélisés dans le cycle théorique de Carnot (théorique car il fait abstraction des forces de frottement). Ce modèle montre que l'efficacité énergétique (mesurée par le rapport énergie utile en sortie / énergie fournie en entrée) d'une machine thermique est égal à 1 - Tf / Tc (où Tf et Tc sont respectivement les températures des sources froide et chaude, exprimées en kelvin. Cette efficacité est donc nécessairement inférieure à 100% car pour être égal à 1 il faudrait que Tf = 0. Or le zéro de l'échelle kelvin est le zéro absolu, qui correspond à l'absence d'agitation thermique, laquelle est pratiquement impossible en raison des propriétés quantiques des particules.

Application. « Si la vapeur d’eau était commode à utiliser, à cause des larges variations de volume qu’elle procure, elle limitait les différences de température à moins de 100° et, par là, limitait considérablement le rendement de la machine. Utiliser un fluide au voisinage de son point critique serait encore pire, car le rendement de la machine tendrait vers zéro » [source].

L'efficacité énergétique d'un moteur thermique est maximale lorsque toutes les transformations qu'il subit sont réversibles.

Le fait que la chaleur ne peut être intégralement transformée en travail mécanique induit la notion d'énergie libre d'un système fermé, à savoir l'énergie utilisable qu'il contient, c-à-d la quantité totale d'énergie qu'il contient (énergie interne) moins celle qu'il dissipe sous forme de chaleur. Pour qu'un système fermé conserve sa quantité d'énergie libre il faudrait donc que les transformations d'énergie liées à son fonctionnement soient toutes réversibles (ce qui n'existe pas dans la réalité).

Application
biologique

Selon Roddier « on peut considérer l'écosystème comme un moteur à deux temps. Dans un premier temps, les plantes captent l’énergie solaire et l’emmagasinent sous forme de carbone chimiquement réduit. Dans un second temps, l’oxydation du carbone dégage la chaleur émise sous forme de rayonnement infrarouge en direction du ciel nocturne. Comme tout moteur thermique l'écosystème ainsi que les organismes vivants sont instables et ne perdurent que grâce à des mécanismes de régulation. Ainsi le pancréas régule notre consommation de glucose grâce à deux hormones ayant des actions opposées, l’insuline et le glucagon. Cela entraîne le phénomène d'homéostasie » [source].

Application
économique

Système monétaire. Selon le chimiste Frederick Soddy, prix Nobel de chimie en 1921, la production de monnaie devrait être liée à celle d'énergie libre. Cela pourrait-il être réalisé au moyen d'un système bi-monétaire tel qu'une monnaie (disons "yang") serait utilisée pour les ressources matérielles (biens) et/ou "non-renouvelables" (pétrole, forêts, ...), et l'autre (disons "yin") pour les ressources immatérielles (services) et/ou renouvelables (énergie solaire, ...) ?

Selon Roddier la théorie du ruissellement d'Adam Smith n'est pas vérifiée en période de décroissance économique parce qu’une monnaie unique reste piégée dans les « puits de potentiel » que sont les placements financiers ou immobiliers. Une deuxième monnaie permet d’abaisser les « barrières de potentiel » de ces puits, et d'ainsi d’investir à long terme pour trouver de nouvelles ressources. En termes de cycles la monnaie "yin" est nécessaire pour refermer le cycle économique, comme une source froide est nécessaire pour refermer le cycle de Carnot [source]. En termes d'efficience l’usage de deux monnaies différentes dont on peut faire varier le taux de change, permet d’ajuster la barrière de potentiel économique qui sépare deux économies, comme un régulateur. Selon Roddier on pourrait procéder en conservant la monnaie en euros ("yang") pour l’achat de biens matériels, et en utilisant une nouvelle monnaie (yin) pour la nourriture, les salaires et les services. [source].

Entropie

La température est la mesure de la chaleur (expression du mouvement microscopique des molécules) observée au niveau macroscopique. En raison de la nature désordonnée/aléatoire caractérisant le mouvement des molécules dans le phénomène calorifique la mesure de la température d'un gaz ne peut être qu'une mesure probabiliste du mouvement de ses molécules (énergie cinétique moyenne des molécules), c-à-d des positions et vitesses probables d'une énorme quantité de molécules formant un système mécanique complexe [source]. La (ir)réversibilité est donc est liée à notre (in)capacité de contrôle du mouvement des molécules c-à-d in fine à notre (mé)connaissance de leur position et vitesse respectives dans le système observé.

Macro/micro. Initialement associée à un mouvement macroscopique, commun à tout un ensemble de molécules, l'énergie mécanique se transforme en chaleur lorsque ce mouvement se disperse pour devenir un mouvement désordonné, différent pour chacune des molécules du système. Il convient cependant de distinguer l’état microscopique d'un corps/système (défini par la position et la vitesse de chacune de ces molécules) de son état macroscopique (défini par des grandeurs moyennes telles que sa pression et sa température). Le physicien Roger Balian explique que « le principe de conservation de l'énergie résulte de la conservation à l'échelle microscopique de l'énergie mécanique. (...) Le passage d'une échelle à l'autre entraîne une modification qualitative des concepts et des propriétés. La microphysique est discontinue, probabiliste, linéaire, réversible, alors que la physique macroscopique qui en découle est continue, déterministe, non linéaire, irréversible ».

États macro et microscopiques [source]
MacroscopiqueMicroscopique
Énergietravail mécaniquechaleur
Entropiefaibleélevée
Informationconnueinconnue

On appelle "entropie" la mesure de la dégradation énergétique. Au niveau microscopique l'entropie est également une mesure du désordre puisque le phénomène calorifique est caractérisé par le mouvement désordonné/aléatoire des particules. Autrement dit, l’irréversibilité thermodynamique provient du passage de l’ordre au désordre, et cette dégradation correspond à une perte d'information sur la trajectoire particulière de chacune des particules. L'entropie est donc également une mesure de notre perte/manque d'information concernant l'état microscopique d'un système observé.

L'irréversibilité peut donc être définie comme suit : « une transformation est irréversible si, et seulement si, il y a perte d'information sur le système » [source].

Quant à l'entropie elle est telle que : .

Exemple. Si vous mettez des glaçons et de l’eau chaude dans une bouteille Thermos, vous obtenez de l’eau froide. C’est une transformation irréversible durant laquelle l’entropie augmente. Si vous y mettez de l’eau froide vous ne verrez jamais apparaître des glaçons et de l’eau chaude. L’entropie ne pourra pas diminuer. Par contre, si vous mettez de l’eau froide dans votre réfrigérateur et que vous le branchez sur une prise électrique, vous verrez apparaître des glaçons à l’intérieur et un dégagement de chaleur à l’extérieur (en général par derrière). L’entropie a diminué provisoirement et localement grâce à un apport extérieur d’énergie électrique. Ce n’est que provisoire car la chaleur produite derrière votre réfrigérateur va se dissiper dans l’atmosphère et vos glaçons vont fondre dans votre boisson achevant de dissiper toute l’énergie électrique que vous avez consommée. Au total, l’entropie aura définitivement augmenté [source].

Les organismes vivants étant par nature des systèmes organisés (NB : organisation, organisme, organes ...) sont donc nécessairement des systèmes (i) ouverts, (ii) recevant de l'énergie en provenance du reste de l'univers, (iii) transformant cette énergie, ce qui implique une augmentation d'entropie dans le reste de l'univers.

(Dés)équilbre
thermodynamique

Il existe une relation dynamique entre d'une part la propriété fermée vs ouverte d'un système et d'autre part la notion "d'équilibre vs déséquilibre thermodynamique" de ce système :

Typologie des systèmes [source]
Système ferméSystème ouvert
MouvementTend au repos (équilibre thermodynamique)Se met en mouvement (déséquilibre thermodynamique)
OrganisationSe désorganise (des structures disparaissent)S’auto-organise (des structures apparaissent)
EntropieSon entropie augmenteSon entropie diminue
InformationSon contenu informationnel diminueSon contenu informationnel augmente (mémorisation)
ÉvolutionSon évolution est prédictibleSon évolution est imprédictible

Stationnarité vs équilibre. Supposons un système dans lequel sont maintenus les mouvements mécaniques en compensant l’effet des frottements par à un apport permanent d’énergie, et que la chaleur dégagée soit évacuée de façon à ce que la température du système reste constante (PS : nous verrons plus loin que ce type de système est appelé "dissipatif"). Ce système ouvert est maintenu en mouvement permanent grâce au flux d’énergie qui le traverse. Restant constamment semblable à lui-même, le système thermodynamique est qualifié de stationnaire [source].

Univers fini ? L'univers dans son ensemble - le plus grand des systèmes - est par définition considéré comme un système fermé : il n'existerait pas de milieu extérieur à lui-même avec lequel il pourrait échanger de l'énergie. Mais si l'univers est fermé comment expliquer son activité (dont la prolifération d'organismes vivants) ? L'explication que l'on a imaginée pour résoudre ce paradoxe est qu'en raison de l'expansion de l'univers et du caractère fini de la vitesse de la lumière il existe un horizon cosmique délimitant un univers observable, considéré comme ouvert sur la partie non observable de l'univers située au-delà de l'horizon cosmique. On sait aujourd’hui, note Roddier, « que l’univers observable perd sans cesse de la matière. Une partie de celle-ci disparaît derrière l'horizon cosmologique tandis qu’une autre partie disparaît à l’intérieur de trous noirs. En conséquence, l’entropie de l’univers observable peut fort bien diminuer. L’apparition spontanée de différences de température, lors de la formation des étoiles, laisse à penser que c’est le cas » [source].

Irréversibilité
et déterminisme

Tous les phénomènes physiques sont fondamentalement irréversibles, c-à-d qu'aucun système ne peut retrouver spontanément son état immédiatement antérieur à une modification. On observe certes des fluctuations aléatoires d’entropie telles que celle-ci diminue occasionnellement, mais jamais en valeur moyenne. Il en résulte que la reconstitution de la trajectoire passée d'un corps (comète, électron, ...) à partir de l'observation d'une période sa trajectoire ne serait "exacte" que par approximation probabiliste. Cette limitation vaut également pour la prédiction de sa trajectoire future. Tout cela ne remet cependant pas en cause le déterminisme scientifique : la nature obéit bien à des lois strictes, immuables et parfaitement identifiables. Les technologies fonctionnent bien, et cela malgré des (voire au moyen d') approximations dans leur conception.

Ordre vs prévisibilité. Qui dit apparition dʼordre dit apparition dʼinformation nouvelle, donc de phénomènes imprévisibles (un phénomène prévisible n'apporte pas d'information nouvelle) [source].

Déterminisme et complexité. Cette problématique prend cependant une autre dimension dans le cas des systèmes dynamiques complexes, et sensibles aux conditions initiales, tels que les phénomènes météorologiques (mais aussi économiques ...). Dans ce cas, modélisé par la théorie du chaos, des différences infimes dans les conditions initiales peuvent entraîner des résultats fortement différenciés, rendant en général toute prédiction impossible à long terme (effet "papillon"). Cependant il n'y a pas indéterminisme au sens que « des causes identiques produiraient des effets différents », mais identification incomplète et mesure imparfaite des paramètres. Il n'y a donc pas remise en cause du déterminisme, mais plutôt des limites de son utilisation : cette limitation de nos capacités de mesure est-elle surmontable par le progrès scientifique et technologique, ou bien constitue-t-elle une impossibilité physique ? Selon le principe d’incertitude de Heisenberg il y a bien une limitation physique insurmontable : toute amélioration de la précision de mesure de la position d’une particule se traduit nécessairement par une moindre précision de mesure de sa vitesse et vice-versa.

Roddier constate que « le phénomène non linéaire de sensibilité aux conditions initiales remet en cause l’idée de déterminisme et nécessite une révision de la notion de causalité. Les biologistes s’aperçoivent aujourd’hui que les gènes coévoluent avec leur environnement sans qu’il y ait nécessairement une relation de cause à effet » [source].

Application
économique

Création monétaire. Selon l'économiste états-unien Brian Arthur, l'économie ne s'avère pas déterministe, prédictible et mécanique, mais évolutive et organique. Ainsi la théorie du chaos confirme la thèse de la théorie relative de la monnaie selon laquelle la croissance de la création monétaire devrait être constante. Autrement dit la théorie du chaos infirme la thèse selon laquelle "l'autorité monétaire" (la Banque centrale) serait en mesure d'adapter rationnellement la masse monétaire aux besoins de l'économie, que ce soit pour seulement contrôler l'inflation ou en outre stimuler la croissance (politique monétaire dite "adaptative", par assouplissement ou restriction monétaire).

Structures
dissipatives

Lorsqu’un système reçoit un flux continu d’énergie, ce flux permet l’apparition de « structures dissipatives » mises en évidence par Ilya Prigogine, prix Nobel de chimie en 1977. On parle de « structure dissipative » dans le cas d'un système ouvert traversé par des flux d'énergie, et en état stationnaire (indépendant du temps). Une structure dissipative est donc un système hors équilibre : son énergie interne reste constante (comme dans un système fermé) mais elle est constamment renouvelée (contrairement à un système fermé) [source].

Maximisation. Des physiciens ont émis l'hypothèse que ces structures/systèmes tendraient à maximiser les flux d'énergie qui les traversent, ou plus précisément la vitesse à laquelle ils dissipent de l'énergie et partant "produisent de l'entropie". Si cette hypothèse - que semble confirmer l'observation des phénomènes naturels - était en outre démontrée mathématiquement on aurait alors une nouvelle interprétation du troisième principe de la thermodynamique - concernant les systèmes ouverts - et appelé principe d'entropie maximale : l’énergie tend à se dissiper le plus vite possible, compte tenu des contraintes.

Auto-organisation. Or des physiciens soutiennent que pour maximiser le flux d’énergie qui les traverse les structures dissipatives s’auto-organisent (cela en mémorisant de l’information sur leur environnement).

Ainsi donc, étant traversées par un flux permanent d'énergie les structures dissipatives s'auto-organisent pour dissiper cette énergie le plus vite possible.

Maximisation "out" et minimisation "in". Maximiser une quantité implique souvent d’en minimiser une autre. Ainsi une structure dissipative minimise son entropie interne pour en maximiser sa production externe. Plus est élevé le flux d'énergie qui traverse constamment une structure dissipative, plus la structure s'auto-organise c’est-à-dire diminue son entropie (ou désordre) interne, mais aussi plus elle produit d’entropie. Pour maintenir son état ordonné (d’entropie faible), elle doit constamment évacuer l’entropie qu’elle produit vers son environnement. Ainsi l’entropie qu’exportent les structures dissipatives équivaut à une importation d’information sur leur environnement.

Selon le physicien Per Bak les structures dissipatives s'organisent à la manière des transitions de phase continues, comme le passage de l’état liquide à l’état solide, c-à-d au passage d’un état désordonné (l’état liquide) a un état ordonné (l’état cristallin).

« Au delà du point critique il n'y a plus de différence entre l'état liquide et l'état gazeux. Il est possible de passer continûment de l'état liquide à l'état gazeux en contournant le point critique. Le passage direct de l'état liquide à l' état gazeux comme l'ébulition, où son inverse la condensation de l'eau, s'appelle une transition de phase abrupte. Les transitions abruptes comme l'ébulition nécessitent un apport de chaleur sans qu'il y ait augmentation de température,tandis que la condensation de l'eau produit un dégagement de chaleur. La chaleur ainsi échangée porte le nom de chaleur latente. Lorsque le corps est très pur, la transition ne s'effectue pas spontannément. Un «germe» est nécessaire pour la déclencher. On met souvent un peu de sel dans l'eau pour faciliter l'ébullition.Au point critique la chaleur latente s'annule. On parle alors de transition continue. Le point critique est un point où le fluide est extrêmement instable. Il se condense de lui- même pour former un brouillard appelé opalescence critique. Ce brouillard a la propriété d'avoir le même aspect à l'œil nu, à la loupe ou au microscope. On dit qu'il est invariant par changement d'échelle » [source].

Lorsque l’instabilité au point critique se manifeste, un fluide se divise en phases, une phase “vapeur”, une phase “liquide”. Les structures dissipatives oscillent constamment de part et d’autre de leur point critique, à partir duquel une fluctuation aléatoire peut déclencher une avalanche d’événements. Des avalanches de bifurcations produisent des arborescences fractales : amplification des fluctuations --> rupture de symétrie (avec invariance par changement d'échelle) --> apparition et mémorisation d'information. C’est le processus de "criticalité auto-organisée", ayant pour caractéristique de produire des fluctuations dites en 1/f, dont l’amplitude est inversement proportionnelle à la fréquence f (il y a beaucoup de petites avalanches, de temps en temps des plus grosses, exceptionnellement des très grosses).

On pourrait donc caractériser les structures dissipatives en trois points [source] :

« Plus une structure dissipative mémorise dʼinformation, plus elle dissipe dʼénergie. Mais plus vite elle dissipe de lʼénergie, plus vite elle modifie son environnement, de sorte que lʼinformation quʼelle mémorise devient peu à peu obsolète. La structure dissipative a de plus en plus de mal à dissiper lʼénergie. Pour continuer à le faire, elle doit se restructurer. Elle a atteint un point dit "critique" à partir duquel lʼinformation mémorisée se restructure constamment suivant un mécanisme dʼavalanches » [source].

Application
biologique

Selon le physicien François Roddier, en biologie l'ontogenèse correspondrait à une transitions abruptes [exemple], et la phylogenèse à une transition continue. Les transitions abruptes nécessitent un apport extérieur d’information sous la forme d’un germe (--> discontinuité de la fonction entropie). Lors des transitions continues - cas des structures dissipatives - de l’information apparaît progressivement au fur et à mesure que la phase ordonnée se développe (--> discontinuité de la dérivée première de la fonction entropie). Ces informations se propagent par percolation au sein de domaines d'Ising.

Dans le cas des espèces vivantes, le point critique correspond à la transition entre ce que les biologistes appellent la sélection K et la sélection r. Lorsque l'environnement est stable, la sélection naturelle favorise les espèces les mieux adaptées. C'est la sélection K. Elle favorise les espèces qui dissipent le plus d'énergie, par exemple chez les grands arbres ou les grands mammifères (rigidité du chêne, espèce adaptée). Mais ceux-ci modifient leur environnement qui va peu à peu évoluer. La sélection naturelle va alors favoriser les espèces non plus les mieux adaptées mais les plus adaptables, celles qui sont capables de s'adapter le plus rapidement à un nouvel environnement, comme dans la savane ou chez les petits mammifères. C'est la sélection r (souplesse du roseau, espèce adaptable) [source].

Application
économique

Cycles économiques. « Une société humaine est un organisme vivant. Son métabolisme est l’économie. Il est donc naturel que celle-ci soit constituée de cycles autour d’un point critique ». Le point critique est un point d’équilibre entre offre et demande. Le décalage entre l’offre et la demande est ce qu’en physique on appelle l’hystérésis. Les cycles économiques d’hystérésis sont selon Roddier le moteur de l’économie. « On peut comparer l’économie à un cyclone. La partie en équilibre est l’œil du cyclone, un point de calme plat. Un cyclone se renouvelle constamment en aspirant l’air tout autour. Il ne traverse pas de crise particulière ». Régulation. « De même, il faudrait pouvoir renouveler l’économie de façon continue. C’est ce que font les ingénieurs dans un moteur d’automobile. On ne construit pas un moteur à un seul cylindre. On en met au moins deux en opposition de phase, de préférence quatre en quadrature. (...) On répartit ainsi les phases de crises tout autour du cycle. Il faudrait suggérer à nos économistes d’en faire autant » (PS : dans notre article consacré au développement durable nous développons la recommandation de Roddier d'un système multi-monétaire fondé sur ces principes). Imprévisibilité. Cependant « à l’instar des êtres vivants, les cyclones sont constamment à la recherche de nourriture, en l’occurrence le moindre gradient de température. Leur trajectoire est imprévisible. (...) Les systèmes auto-organisés sont parcourus par un flux permanent d’énergie et oscillent autour d’instabilités critiques. Ce ne sont pas des points critiques statiques, mais des points critiques dynamiques. (...) L’évolution économique de l’humanité aura toujours un certain caractère imprévisible » [source].

Notons que ce fait infirme la thèse selon laquelle "l'autorité monétaire" (la Banque centrale) serait en mesure d'adapter rationnellement la masse monétaire aux besoins de l'économie, que ce soit pour seulement contrôler l'inflation ou en outre stimuler la croissance (politique monétaire dite "adaptative", par assouplissement ou restriction monétaire). Ainsi l'approche thermodynamique de l'économie confirme la thèse de la théorie relative de la monnaie selon laquelle la création monétaire devrait être constante. La fonction d'un système bimonétaire "yin/yang vise à minimiser l'amplitude de cycles imprévisibles.

Information

Commençons par rappeler les notions que nous avons évoquées jusqu'ici au sujet du concept d'information :

  1. l’irréversibilité thermodynamique provient du passage de l’ordre au désordre, et cette dégradation correspond à une perte d'information sur la trajectoire particulière de chacune des particules. L'entropie est donc également une mesure de notre perte/manque d'information concernant l'état microscopique d'un système observé.
  2. Toute perte d'information est liée à une opération irréversible.
  3. Qui dit apparition dʼordre dit apparition dʼinformation nouvelle, donc de phénomènes imprévisibles (un phénomène prévisible n'apporte pas d'information nouvelle).
  4. Pour maximiser le flux d’énergie qui les traverse les structures dissipatives s’auto-organisent, et cela en mémorisant/important de l’information sur leur environnement.
  5. L'entropie qu’exportent les structures dissipatives équivaut à une importation d’information sur leur environnement.
  6. L'ordre peut être défini comme une façon de mémoriser l'information. Ainsi on met de l’ordre dans un atelier pour y retrouver les outils.
  7. Fondamentalement, une information est une modification d’un système induite par son environnement et qui subsiste ensuite, même si l’environnement évolue. Appliquez une force sur une boule de billard. Elle va se mettre en mouvement. Supprimez la force. La boule de billard va continuer à rouler. Elle a mémorisé de l’information. S’il y a des frottements, la boule de billard va finir par s’arrêter. L’information s’efface progressivement. Cette perte d’information est irréversible. On appelle cela de la dissipation de l’énergie.
  8. Plus une structure dissipative mémorise dʼinformation, plus elle dissipe dʼénergie. Mais plus vite elle dissipe de lʼénergie, plus vite elle modifie son environnement, de sorte que lʼinformation quʼelle mémorise devient peu à peu obsolète. La structure dissipative a de plus en plus de mal à dissiper lʼénergie. Pour continuer à le faire, elle doit se restructurer. Elle a atteint un point dit "critique" à partir duquel lʼinformation mémorisée se restructure constamment suivant un mécanisme dʼavalanches.
  9. Les transitions abruptes nécessitent un apport extérieur d’information sous la forme d’un germe (--> discontinuité de la fonction entropie). Lors des transitions continues - cas des structures dissipatives - de l’information apparaît progressivement au fur et à mesure que la phase ordonnée se développe (--> discontinuité de la dérivée première de la fonction entropie). Ces informations se propagent par percolation au sein de domaines d'Ising.

Roddier rappelle que « évacuer de l’entropie signifie importer de l’information. Une structure dissipative importe sans cesse de l’information de son environnement. Lorsqu’elle s’auto-organise une structure dissipative diminue son entropie interne, donc augmente son contenu en information en la mémorisant. C’est une mémoire temporaire. En régime stationnaire, une structure dissipative perd autant d’information qu’elle en mémorise. Elle renouvelle sans cesse l’information qu’elle mémorise. Perdre de l’information est synonyme de produire de l’entropie, donc de dissiper de l’énergie. C’est en effaçant continuellement de l’information qu’elle a mémorisée qu’une structure dissipative dissipe de l’énergie. S’il est naturel de parler de diminution d’entropie lorsqu’une machine thermique comme un cyclone s’auto-organise, parler d’information mémorisée est plus inhabituel. La mémoire d’un cyclone est inertielle. Si vous coupez la source d’énergie, le cyclone va continuer à tourner mais de moins en vite. La mémoire de ce mouvement va s’effacer progressivement au fur et à mesure que l’énergie se dissipe ». De même, en vieillissant nos capacités de mémorisation diminuent avec notre capacité physique à dissiper de l'énergie [source].

Roddier propose trois principe fondamentaux pour une théorie de l'information [source] :

  1. Définition : est information tout ce qui peut être mémorisé.
  2. Hystérésis : l'information induit un délai entre un événement et ses conséquences.
  3. Entropie : la surface déterminée par un cycle d'hystérésis mesure la quantité d'énergie dissipée.

Intelligence collective. Chez les organismes vivants, l'information est essentiellement mémorisée dans les gènes et transmise génétiquement (ainsi les espèces animales ou végétales peuvent être vues comme des domaines d’Ising. Chez les humains, elle est principalement mémorisée dans le cerveau et transmise par le langage. Les sociétés humaines ont pu se développer grâce à une nouvelle forme de mémorisation et de transmission de l’information: l’écriture. C’est ce qu’on appelle la "culture". Les individus qui partagent la même culture forment les domaines d’Ising que sont les sociétés humaines. Les lois de la thermodynamiques expliquent donc aussi le phénomène sociologique d'auto-organisation [source1, source2].

Évolution. Plus une structure dissipative mémorise d'informations plus elle dissipe d'énergie. Cependant il y a une différence de nature fondamentale entre énergie et information : la première se conserve tandis que la seconde peut être répliquée. C'est pourquoi, selon le physicien Eric Chaisson, l'univers créerait sans cesse de nouvelles structures dissipant l'énergie plus efficacement que les anciennes. Ainsi une espèce vivante maximiserait sa dissipation d'énergie en s'adaptant - toujours plus vite - à son environnement. Se fondant sur la distinction faite par l'éthologiste Richard Dawkins entre mèmes et gènes, le généticien Cavali-Sforza constate que, chez l'Homo sapiens, l'évolution culturelle (technique) est plus rapide que l'évolution génétique [source].

Stationnarité optimale
Ce GIF animé montre en cycle les interprétations physique, biologique et économique [source].

Stationnarité optimale. Selon l'ingénieur-chimiste Robert Ulanowicz plus la quantité d’information qu'elle mémorise est grande, mieux une structure dissipative s’adapte à son environnement, mais plus elle doit modifier d’information pour rester adaptée, donc plus elle dissipe d’énergie. Il arrive un moment ou la fraction de mémoire disponible devient insuffisante, de sorte que les capacités d’adaptation de la structure n’augmentent plus et même diminuent. Il existerait une valeur de la fraction de mémoire utilisée (α) pour laquelle la capacité d’adaptation est optimale. Ulanowicz définit la robustesse R d’un écosystème comme étant sa capacité à s’adapter aux changements. Il montre que R doit être de la forme R = -α.log(α). La robustesse est nulle pour α = 0 et pour α = 1. Elle est maximale et égale à 1 pour α = 1/e où e est la base des logarithmes népériens (e = 2,718) [source].

Travail intellectuel

Roddier fait remarquer que « notre cerveau rationnel obéit à notre cerveau affectif. Cherchant à maximiser notre bien-être, ce dernier obéit à notre cerveau reptilien qui lui-même obéit à nos gènes. Enfin ces derniers obéissent aux lois de la chimie c’est-à-dire, in fine, de la thermodynamique » [source].

Dans la mesure où le travail intellectuel relève de processus chimiques, et est par conséquent déterminé au niveau microscopique de particules ou de très petites molécules, quelques questions viennent naturellement à l'esprit. Ainsi peut-on parler de "travail" intellectuel dès lors que le travail est défini par l'accélération d'une masse sur une certaine distance ... ? Le "travail" intellectuel consiste-t-il en des interactions entre particules ? Il semble que oui. Mais alors quels sont les effets du principes d'incertitude sur notre conception du travail intellectuel ?

Roddier note que « il est plus satisfaisant de dire que l'entropie d'un système dépend de l'information qu'on a sur ce système, mais beaucoup de physiciens refusent encore de donner à l'entropie ce caractère subjectif. Il me parait cependant nécessaire, si l'on veut conserver le libre arbitre et la possibilité de faire des choix éthiques. Bien que subjective au niveau individuel, l'entropie reste objective au niveau de la société. Elle est parfaitement mesurable de manière statistique » [source].

Ces questions se posent avec d'autant plus d'acuité que, selon l'état actuel des connaissances en physique quantique, il semble qu'en-dessous d'une taille charnière située entre les niveaux atomique et moléculaire les lois naturelles seraient différentes de celles observées au niveau macroscopique [vidéo de vulgarisation].

Pourtant, le global/macro étant composé du local/micro, on pourrait s'attendre à une cohérence d'intégration entre les deux niveaux ...

Indétermination quantique. À noter cependant cette absence apparente de cohérence entre physiques classique et quantique ne se manifeste que lorsque l'observateur est (ou s'est mis) dans l'incapacité d'identifier - parmi plusieurs comportements possibles des particules - celui va déclencher la mesure du phénomène observé ... (situation dite d'indétermination quantique) [vidéo de vulgarisation].

La réponse à ces questions sera peut-être donnée par la théorie de l'information quantique dont un principe fondamental est que la quantité d'information "contenue dans" un événement dépend de sa probabilité : plus un événement est improbable ex-ante, plus l’information que sa réalisation apporte ex-post est élevée. Aux limites cette quantité d'information est nulle lorsque l’événement est certain (probabilité = 1) ou impossible (probabilité = 0), et maximale lorsque sa probabilité vaut 1/2. Il en résulte que l'entropie évoquée plus haut constitue une mesure (au signe près) de la quantité d'information "contenue dans" un événement (par exemple le résultat d'une expérience de physique).

Entropie et information, exemple concret. Vous pouvez soit ranger vos outils en mettant de l’ordre soit les laisser en désordre et mémoriser l’information sur leur emplacement. Si vous perdez cette information l’entropie augmentera et il vous faudra dépenser de l’énergie pour les retrouver.

Pour le mathématicien René Thom « (...) toute information est d'abord une forme et la signification d'un message est une relation de caractère topologique entre la forme du message et les formes caractéristiques du récepteur (c'est-à-dire les formes susceptibles de provoquer une excitation du récepteur) ; réduire l'information à sa mesure scalaire (évaluée en bits), c'est réduire la forme à sa complexité topologique (...), c'est pratiquement tout oublier de son caractère signifiant » [source].

Application
économique

La monnaie utilisée, mesure de néguentropie du système économique. Selon le physicien François Roddier la monnaie elle-même peut être considérée comme une mesure d’entropie ou plutôt de son opposé appelé néguentropie (ou entropie négative). La monnaie a notamment pour fonction de maintenir la réversibilité des échanges. Tout ce qui se dégrade, perd de la valeur monétaire (son entropie augmente). Inversement une chose précieuse est généralement une chose rare donc de faible entropie. C’est ainsi que le prix du pétrole augmente lorsque la probabilité d’en trouver diminue [source].

Roddier voit également la monnaie comme un catalyseur, à l'instar des enzymes : un organisme vivant fonctionne avec “des cycles de réactions chimiques grâce à des catalyseurs", quant à l’économie elle fonctionne en effectuant “des cycles d’échanges avec des devises différentes”.

Selon notre interprétation de la théorie relative de la monnaie l'aspect qualitatif de la monnaie est liée au principe de symétrie spatio-temporelle de son allocation (création monétaire constante et partage égale et gratuit entre tous les citoyens).

Travail par des humains Haut

Nous considérons ici le travail au sens large c-à-d y compris le travail non directement rémunéré en tant que tel. Ainsi Richard Stallman, initiateur du mouvement du logiciel libre, peut être considéré comme un des plus grands créateurs de richesse qu'a connu l'humanité à ce jour, malgré qu'il n'a retiré quasiment aucune richesse financière de son travail. Ainsi donc les bénévoles - dont beaucoup sont chômeurs ou pensionnés - sont créateurs de richesses.

Travail et
"travail"

Il importe de nous poser des questions sur ce qui est considéré comme du travail "utile". Ainsi l'idéologie "libérale" considère qu'un ramasseur de poubelle ou une infirmière sont moins utiles à la société que les directeurs des grandes banques d'affaires qui organisent la captation des richesses au profit d'une minorité (Goldman-Sachs, etc), et ce faisant ont provoqué en 2008 l'une des plus grandes crises financières et économiques de l'histoire de l'humanité. L'idéologie libérale inverse ainsi la réalité en affirmant que la différence de revenus entre les premiers et les seconds reflète non pas les malversations des seconds mais leur plus grande utilité. Plus c'est gros ...

La question des salaires astronomiques

Selon nous le niveau astronomique des salaires et primes de licenciement des dirigeants de grandes sociétés s'explique notamment par la dissolution de la notion de "propriétaireS" des sociétés cotées en bourse, qui confère aux dirigeants un pouvoir considérable d'abuser des actionnaires, y compris l'actionnaire "de référence" dès lors que "celui-ci" est généralement "lui"-même une société cotée (PS : on notera ici un parallèle évident avec la pseudo "démocratie représentative" et la capacité de la classe politique de s'enrichir illégalement).

Ainsi le conglomérat coréen Samsung est contrôlé par un famille ne détenant que 5% du capital, mais qui a réussi a asseoir sa domination via une écheveau complexe de participations croisées, et un manque de transparence.

Une autre explication possible - valable par exemple pour de grandes sociétés encore sous contrôle d'une famille - est la capacité d'obtenir des privilèges des membres du Conseil d'administration grâce aux actes délictueux commis par la société pour satisfaire les objectifs des actionnaires majoritaires en matière de rendement (notamment la corruption de décideurs politiques). La compétition acharnée pour la préservation des parts de marché - et qui plus est pour leur extension - implique nécessairement d'être au moins aussi salaud que la concurrence. Les membres du CA sont bien conscients qu'il faut éviter tout risque de se fâcher avec le directeur général à qui ils ont confié la gestion quotidienne de l'entreprise pour réaliser les objectifs déterminé par le CA. En effet, en cas de condamnation judiciaire pour les délits commis par la société, la responsabilité civile ou pénale incombera principalement aux membres du CA dès lors que le DG pourra prouver que son employeur était au courant.

Divertissement. De même les revenus pharamineux dans le secteur du divertissement (sportifs, acteurs, chanteurs, ...) pourraient s'expliquer non pas par l'objet officiel mais plutôt officieux de certaines professions : blanchiment d'argent dans le business du sport [exemple], conditionnement et propagande dans l'industrie cinématographique, ...

Enfumage

La théorie académique. La théorie enseignée dans les manuels d'économie justifie le privilège des top-managers dans l'évolution du salaire en ignorant, c-à-d en niant, ces explications non-politiquement correctes. Les professeurs d'économie évoquent plutôt toutes sortes d'élucubrations, généralement liées à la valeur actionnariale (plutôt qu'à la valeur ajoutée ...) des entreprises employant ces "hyper-salariés". Or, comme le suggère la vidéo suivante, c'est in fine la masse des salariés subalternes qui - produisant l'essentiel de la valeur ajoutée - déterminent par conséquent quelle stratégie est effectivement réalisée. Dans ces conditions l'utilité des top-managers ne se justifie alors effectivement que pour les fraudes oligarchiques que nous venons d'évoquer.

Les dirigeants ne font pas la stratégie d'une entreprise (3min31sec)

Les assemblées générales. Le même enfumage s'observe au niveau de l'assemblée générale des actionnaires : Le comité de direction et le conseil d'administration ne proposent généralement au vote de l'AG que des "paquets de décisions", difficilement consultables et dont le contenu est rédigé de façon difficilement compréhensible. Voilà pourquoi les AG votent sans le savoir en faveur de rémunérations exorbitantes.

Démocratie directe. Finalement c'est le même type de phénomène que l'on observe au niveau de la prétendue "démocratie représentative". C'est pourquoi il importe faire évoluer celle-ci vers la démocratie directe, et cela dans un système économique mixte composé de petites entreprises privées et de grandes entreprises publiques, ces dernières étant gérées sous statut de coopératives publiques.

Pour illustrer la discrimination entre travail rémunéré (production de valeur d'usage et économique) et travail non-rémunéré (production de valeur d'usage mais non-économique) Bernard Friot, sociologue et économiste, professeur à la retraite de l’université Paris-X, cite les exemples suivants :

Friot en déduit logiquement que ce qui définit le travail n'est donc pas la nature de ce qu'on fait. Ce qui définit le travail, c'est une convention sociale attribuant de la valeur économique à des activités sous certaines conditions, mais pas aux mêmes activités dans d'autres conditions. La définition de ce qui est du travail économique s'exerce dans le cadre des rapports de force entre salariés et propriétaires des moyens de productions. On retrouve ici l'analyse marxiste selon laquelle le contrôle des principaux moyens de production permet à la classe dirigeante de s'approprier une partie de la valeur produite par autrui. Selon Friot, la définition de ce qui est ou pas de la valeur étant le fondement de la "lutte des classes", celle-ci est par conséquent inévitable. [source].

Facteur vs moyen de production Haut

La théorie économique enseignée dans les universités - qui n'est autre que l'idéologie libérale - distingue deux types de facteurs de production : le travail et le capital. Cette théorie ignore donc la distinction entre facteur et moyen de production. Or si l'on fait cette distinction on voit que seul le travail humain est facteur (c-à-d un agent) de production, et que le capital n'est qu'un moyen (c-à-d un objet) de production.

Quant au capital financier est-il moyen de production ou seulement titre de propriété sur des moyens de production ? En outre sa nature physique est aujourd'hui essentiellement virtuelle, sa valeur intrinsèque est quasiment nulle. Ainsi la monnaie étant constituée de bits d'informations on peut en produire autant que l'on veut.

Toute la supercherie du capitalisme fétichiste et prédateur consiste à nier ces réalités.

Théorie "agent-objet de production"
Facteurs de production = Agents
  • Les humains : par leur travail physique et intellectuel – et à partir des ressources naturelles – les humains produisent (contrôle de qualité, conditionnement, distribution, ...) des biens & services de production, de consommation (sphère réelle) et d'allocation de ceux-ci entre les individus (sphère financière).
Biens & services = Objets (physiques ou virtuels)
  1. de production (capital non-financier) :
    • ressources naturelles : minérales et organiques ;
    • bâtiments, machines, logiciels, bases de données, ...
  2. de consommation.
Sphère
réelle
  1. d'allocation des biens/services de la sphère réelle (capital financier) :

    • titres de propriété potentielle (droits d'achat) sur les moyens de production et les biens/services de consommation : monnaie et produits fin. dérivés ;
    • titres de propriété effective sur :
      • de la monnaie : obligations et produits fin. dérivés ;
      • des moyens de production : actions et produits fin. dérivés.
Sphère
financière

On est ici en plein dans l'idéologie "libérale" ("Le renard libre dans un poulailler libre") considérant l'humain comme une marchandise dont le prix se négocie sur un "marché du travail". Or les facteurs/agents de production conçoivent et utilisent les moyens/objets. S'ils deviennent objets c'est nécessairement au profit de leurs "employeurs/propriétaires". Il y a donc bien une proximité étroite entre salariat et esclavagisme.

Éthique. Il fait peu de doute que la dictature est le mode de gouvernance le plus rapide, et l'esclavagisme le mode de production le plus rentable (du point de vue des "propriétaires" ...). Ceci montre bien que la question de l'éthique est inévitable. Nous l'aborderons plus loin. mais avant il reste à préciser certaines notions.

Nous venons d'évoquer la question du "comment produire", mais il y a aussi celle du "quoi produire". Dès lors que nous formons communauté se pose inévitablement la question de la détermination de ce que l'appareil de production va produire, c-à-d de ce que nous considérons comme ayant de la valeur et comment ces choix sont opérés.

Valeur Haut

Comme le fait justement remarquer Julien Dourgnon : « Lire un livre, s’informer et échanger des informations en général, participer à une communauté en ligne autour du logiciel libre, monter de toute pièce une crèche parentale autogérée, réparer la moto de son voisin, sont des activités productives ou potentiellement productives. L’équivalence travail-emploi est une convention sociale en situation de monopole. Il faut en finir avec ce monopole. L’emploi est relativement rare, le travail lui est abondant » [source].

Libéraux et communistes sont au moins d'accord sur un point : travailler c'est créer de la valeur. Mais la valeur est un concept d'autant plus subjectif qu'il est influencé par la perception voire l'opinion personnelle. Cette subjectivité induit une série de questions : "Qui travaille et qui ne travaille pas ?" <--> "Qu'est ce qui est de la valeur et qu'est ce qui n'en est pas ?" --> "Comment mesurer la valeur ?"

Définition

Mais avant de mesurer il convient de définir ce que l'on va mesurer. Commençons donc par remarquer que le mot "valeur" peut avoir deux sens :

Le prix du marché

Concernant la relation entre les deux types de valeur (physique vs morale) l'idéologie "libérale" postule que le prix du marché résultant de l'ajustement entre offre et demande, non seulement reflète fidèlement le niveau d'utilité des biens/services (c-à-d le niveau de bien-être qu'ils procurent), mais en outre correspond à un optimum de Pareto (situation dans laquelle on ne peut plus améliorer le bien-être d'un individu sans détériorer celui d'un autre) ... pour autant que la concurrence soit "pure et parfaite".

Hypothèses vs réalité. L'hypothèse de concurrence pure et parfaite n'est jamais vérifiée dans la réalité. D'autre part cette hypothèse est-elle nécessaire, et dans l'affirmative est-elle suffisante ?

Cette théorie stipule donc que les individus, en poursuivant uniquement leur intérêt particulier, maximiseraient également l'intérêt de la collectivité (au sens de Pareto), grâce à l'efficience des marchés ! On est ici clairement dans le domaine de l'idéologie. Celle-ci est d'ailleurs en contradiction avec un principe bien connu des mathématiciens : il n'est pas possible d'optimiser un système en optimisant chacun de ses sous-systèmes, on ne peut optimiser plus d’une variable à la fois [source, approfondir].

Discrimination

Pour la comptabilité nationale ne sont considérés comme "valeurs" que les produits ou services qui ont été déclarés et échangés contre rémunération sous forme de monnaie. Ainsi pour reprendre l'exemple de Friot cité plus haut, le travail (déclaré) d'une femme de ménage est repris dans la comptabilité nationale, mais pas celui d'une femme au foyer. De même si une entreprise (ou tout un secteur économique représenté par son lobby) fabrique un type de produit inutile ou inefficace mais arrive à "convaincre" les décideurs politiques clés de l'acheter avec l'argent public, et bien ce type de "produit" sera dès lors considéré comme de la valeur. À contrario supposez que le travail d'un chercheur bénévole arrive à la conclusion qu'une alimentation saine et équilibrée permet de prévenir la plupart des cancers, et que le jeûne permet d'en soigner la plupart. Il publie ses travaux sur Internet, ceux-ci sont propagés via les réseaux sociaux. Cependant, aucun échange monétaire n'ayant eu lieu, la comptabilité nationale considère que le travail de ce chercheur n'a aucune valeur !

Le temps

Le temps qui passe modifie généralement les valeurs, physiques comme morales. D'autre part la production de valeurs physiques consomme du temps, et c'est pourquoi l'on dit que « le temps c'est de l'argent » . C'est particulièrement vrai pour les salariés qui - n'étant pas propriétaires de leurs moyens de production - n'ont pas d'autre option que de vendre leur force de travail, et plus particulièrement leur temps de travail aux propriétaires de moyens de production. Par cela le seul facteur de production qu'est le travail humain est réduit à un moyen de production tel que du bétail ou un parc de machines exploité par les propriétaires de ce qu'il convenu d'appeler très justement une ... exploitation. Pour approfondir lire "Temps de travail et allocation universelle".

Lutte des classes

Selon Friot c'est la lutte des classes qui détermine ce qui vaut dans tout ce que nous produisons : « la valeur n’a pas d’autre fondement que politique, elle est le lieu d’expression de l’enjeu de pouvoir inhérent à toute production, à tout travail. (...) La classe capitaliste, en tant que classe dirigeante, exerce une dictature sur la production de valeur en la mettant au service de l’accumulation du capital : les richesses produites hors de son emprise (par les retraités, les fonctionnaires, les travailleurs indépendants, les chômeurs) sont déclarées sans valeur, tandis que valent des biens et des services parfaitement inutiles ou dangereux, dont la production alimente le capital » [source].

Toujours selon Friot, la lutte de classes est l’affrontement irréductible entre deux pratiques antagonistes de la valeur. Elle se joue dans :

La lutte des classes selon Bernard Friot (5m50s - 2017)
Collectivisation
partielle

Ces faits suggèrent qu'il n'est ni possible ni souhaitable que la pratique de la valeur soit isolée de la pratique de l'éthique (NB : pratique et travail sont deux notions très proches ...). C'est pourquoi il nous paraît important que la valeur puisse être définie autrement que par la prétendue "loi naturelle" des marchés, qui n'est rien d'autre que la loi du plus fort. Nous pensons ici à une définition réellement démocratique de la valeur. Or définir démocratiquement la valeur requiert nécessairement un contrôle démocratique des moyens de production de la valeur, ce qui selon nous requiert au moins la présence d'entreprises (100%) publiques dans les principaux secteurs économiques, voire la nationalisation systématique, totale et définitive de toutes les grandes sociétés (soit environ 1% des entreprises et 1/3 de l'emploi total) [approfondir], et leur gestion sous forme de coopératives publiques [approfondir]. .

Bien entendu la notion d'entreprise publique ne fait sens que dans un État réellement démocratique. La section suivante suggère que, dans ce cas, la démocratie est éthique par définition.

Valeur ajoutée vs valeur actionnariale (3min31sec)

Éthique Haut

Le mot "éthique" provient du grec "ethos" qui signifie "comportement". Les romains ont plus tard traduit "ethos" en latin "morus" qui a donné "mœurs" et "morale" en français. Étymologiquement, éthique et morale sont donc synonymes.

On notera que depuis l'avènement du "libéralisme" dans les années 1980 le terme "morale" a acquis une connotation plutôt négative (conservatrice, ringarde, ...) de sorte que "éthique" lui est souvent préféré.

Le terme "morale" présente cependant l'avantage de pouvoir être complété de préfixes qui permettent de distinguer deux notions :

De nombreux scientifiques revendiquent (au moins implicitement) une amoralité, comprise comme neutralité par rapport aux phénomènes étudiés, et supposée faire disparaître toute forme de subjectivité. Ainsi ces scientifiques considèrent que ce n'est pas à eux de décider si, par exemple, la bombe atomique est une mauvaise chose ou pas. Cependant la "neutralité" peut-être une illusion, voire une simulation. Ainsi elle peut être invoquée fallacieusement pour justifier la non-assistance à une personne subissant une agression, comportement identique à celui de tiers prenant passivement le parti de l'agresseur. Inversement le refus de neutralité peut être invoqué - tout aussi fallacieusement - pour justifier par exemple des invasions impérialistes. L'amoralité voire même la morale peuvent donc servir de paravent à l'immoralité (cf. droit-de-l'hommisme).

L'éthique comme slogan publicitaire. Depuis sa privatisation en 1993 la société française TOTAL a été impliquée dans une série "d'affaires" [source]. Pour redorer son image, TOTAL a alors axé sa communication sur le slogan « Notre éthique, nos valeurs » ... [source].

À l'inverse des sciences, la justice est fondée sur sa prétention et sa capacité - théoriques - à représenter la morale. Cependant, en pratique, la justice est aussi sujette à la subjectivité des juges, voire même à leur éventuelle immoralité (soumission au pouvoir oligarchique, corruption, ...). De nombreux juristes répondent à cela que la justice n'a rien à voir avec la morale mais seulement avec le droit. Mais qu'est ce donc qu'un droit déconnecté de la morale, sinon l'expression de la loi du plus fort ?

Inévitable
subjectivité

Par conséquent est-il rationnel de croire que l'on pourrait isoler les scientifiques (du juriste au physicien) - et partant leur production scientifique - des réalités psychiques, sociologiques, politiques, juridiques et économiques que tentent de comprendre les sciences humaines ? En quoi les sciences "dures" pourraient-elles - même avec la meilleure volonté - échapper à cette réalité ?

La modération, un
élément d'éthique

L'hybris est une notion issue de la Grèce antique et décrivant la tentation de démesure des hommes qui, poussés par l'orgueil, veulent rivaliser avec les dieux. Selon la mythologie ces derniers punissaient les coupables en leur infligeant des catastrophes. Les Grecs de l'antiquité la considéraient comme un crime, et lui opposaient la tempérance et la modération. Les conséquences du transhumanisme donneront-t-elles raison aux craintes des nos ancêtres ?

Notre conclusion Haut

Il n'existe pas de définition physico-chimique de la valeur économique. Autrement dit cette valeur ne fait pas partie du domaine des sciences exactes mais des sciences humaines. À la base la valeur d'usage n'est qu'une croyance, qui peut être renforcée voire fabriquée par la publicité et d'autres formes de propagande. Sa collectivisation lui ajoute le statut de valeur d'échange, laquelle peut-être mesurée par le prix. Le mode de détermination des prix (marchés, planification, ...) et, plus en amont, du niveau optimal de création monétaire et du processus optimal d'allocation monétaire (via les banques, via l'AU, ...) sont au coeur de la problématique du processus politique par lequel les choix de valeurs sociétales sont opérés.

La fonction des sciences exactes ne devrait pas être de se substituer à ce processus mais de l'éclairer afin (i) d'approcher l'équilibre optimal entre liberté, égalité et sécurité ; et (ii) de favoriser un développement durable. Voici quatre conditions selon nous nécessaires pour réaliser ces objectifs.

  1. Monnaie. La création monétaire devrait être distribuée également et gratuitement entre tous les citoyens selon le principe de symétrie spatio-temporelle de la théorie relative de la monnaie [approfondir].
  2. Écarts de richesse. Les écarts de richesses devraient être limités relativement à la condition de permettre le financement d'une allocation universelle d'un montant au moins égal au salaire minimum légal actuel [approfondir].
  3. Coopératives publiques. Les principaux moyens de production (c-à-d les grandes entreprises, soit environ 1% des entreprises et 1/3 de l'emploi total) devraient être systématiquement nationalisés [approfondir] et gérés sous forme de coopératives publiques [approfondir].
  4. Confédération mondiale. Le droit international devrait être institutionnalisé au travers d'une Confédération mondiale d'États-nations fonctionnant en régimes de démocratie directe. Cette Confédération serait un État commun, disposant de son propre territoire par dotations de 1% de chaque territoire national, et serait seul habilité à contrôler militairement les eaux internationales et l'espace [approfondir].

Dans ces conditions - et alors que le travail économique non précarisé devient de plus en rare - l'allocation universelle du modèle synthétique rémunérera d'autres formes de travail, dont le travail politique, qui pourrait devenir le principal moteur du développement humain.

Articles complémentaires :

Envoyez vos à l'auteur.
 
x

Pour recommander à des amiEs

  1. sélectionnez l'adresse de cette page :
  2. copiez (Ctrl+C)
  3. collez (Ctrl+V) dans votre message.