Quand la science devient pseudo-science (2)
Lisez la première partie de cet article
2. Des faiblesses intrinsèques à la science
Ces caractéristiques de la science rend notre connaissance scientifique très précaire.
Simplification et approximation
Même l’approche la plus holistique est une simplification. L’esprit humain est incapable d’englober la totalité d’une nature complexe insondable. Toutes nos déductions, toutes nos observations, toutes nos mesures ne sont qu’une approximation de la réalité.
Ces problèmes sont exacerbés dans les théories mathématiques. Une hypothèse doit d’abord être exprimée dans un langage banal. Le processus de traduction en symbolisme mathématique s’accompagne d’une grande perte d’informations. Elle élimine d’emblée tout ce qui n’est pas quantifiable. Donc plus on s’éloigne du monde inanimé, moins une description mathématique est appropriée. Même parmi les caractéristiques quantitatives, on doit faire un choix. Les mathématiques ne peuvent traiter qu’un nombre très limité de paramètres, et seulement une version très simplifiée de leurs relations. Donc un modèle mathématique ne reflète que très imparfaitement la réalité.
Le processus d’approximation va encore plus loin. Bien que les équations aient des solutions exactes en théorie, dans tous les cas, sauf les plus simples, nous ne pouvons les résoudre qu’approximativement. C’est généralement le cas des équations différentielles, c’est-à-dire des équations indiquant l’évolution d’un système dans le temps et l’espace et sur lesquelles reposent donc les prédictions. Toute une série d’approximations se produit à nouveau lors de la retraduction de notre théorie mathématique en langage courant, c’est-à-dire de son application dans la réalité concrète, notamment parce ce qu’elle est susceptible d’impliquer des nombres non exacts tels que √2 ou π.
Par ailleurs, la partie mathématique peut, comme en physique quantique avoir plus d’une interprétation scientifique.
En conclusion, la parfaite exactitude inhérente au formalisme mathématique nous permet un plus grand contrôle sur certaines caractéristiques quantifiables, mais, précisément à cause de cette exactitude, elle est très éloignée de la réalité.
Pour citer Einstein, « Dans la mesure où les propositions des mathématiques se réfèrent à la réalité, elles sont incertaines ; et dans la mesure où elles sont certaines, elles ne se réfèrent pas à la réalité ».
Imprévisibilité
Il n’est donc pas surprenant que l’imprévisibilité s’ensuit même dans la théorie déterministe la plus simple :
Considérons l’exemple suivant construit par le physicien Max Born. Une particule se déplace sans friction le long d’une ligne droite de longueur l’entre deux murs. Lorsqu’elle atteint l’extrémité de la ligne, elle rebondit. Supposons que sa position initiale est donnée par le point x0 sur la ligne et sa vitesse initiale est v0 et que l’imprécision de nos mesures initiales est de Δx0 et Δv0. Selon la première loi de Newton, à un instant t, il devrait se trouver au point x = x0 + tv0. Cependant, selon la même loi, notre prédiction de sa position à l’instant t s’écartera de cette valeur de Δx = Δx 0 + t Δv0. Ainsi notre erreur va continuer à augmenter avec le temps. Après un temps critique tc = l/ Δv0, cet écart sera supérieur à la longueur l de la ligne. En d’autres termes, pour tout instant t > tc, nous ne pourrons plus du tout prédire la position de la particule. Elle pourrait se trouver n’importe où sur la ligne.
Nous pouvons perfectionner nos instruments de mesure et réduire l’imprécision initiale, mais nous ne pourrons jamais nous en débarrasser complètement. Tout ce que nous ferons, c’est étendre l’intervalle de temps dans lequel la prédiction est possible.
Cet exemple concerne un système fermé simple et idéal. Dans le réél, d’innombrables facteurs sont impliqués, aggravant l’imprévisibilité. En gros, à cause d’erreurs inévitables, notre capacité à savoir ce qui se passe au-delà d’un certain temps peut être limitée d’une manière qu’aucun progrès technique ne peut surmonter.
Dans nos calculs effectués par ordinateur, il peut arriver que de minuscules erreurs se propagent et s’accroient. En effet, la manière codée dont un ordinateur aborde les calculs internes implique une erreur d’arrondi. L’erreur survient également lorsque le résultat en langage codé est retraduit sous la forme imprimée sur l’écran.
Observation à l’âge informatique
L’informatisation ajoute également de nouvelles problématiques à l’acte d’observation. On sait depuis bien avant l’ère chrétienne que l’observation, résultat d’une collaboration complexe entre nos sens et notre esprit, est loin d’être neutre et peut être trompeuse.
Depuis, les instruments d’observation ont introduit toute une série de nouvelles complications, en dépit des possibilités insoupçonnées qu’ils ont ouvertes. Outre l’introduction d’erreurs, l’étude des événements de notre espace-temps quadridimensionnel à partir de représentations symboliques unidimensionnelles ou bidimensionnelles soulève la question de la perte d’informations. Plus important encore, les ordinateurs sont constitués de processus algorithmiques représentés par des 0 et des 1, et sont donc sévèrement limités par des prémisses trop simplifiées. Ils ne peuvent pas aller au-delà de celles-ci, ils ne peuvent pas inférer. On peut donc se demander s’ils ne peuvent détecter que ce qui correspond à nos idées préconçues.
En fait, le problème s’aggrave à mesure que le processus d’observation est de plus en plus automatisé, éliminant ainsi l’observateur humain : la machine observe et interprète. C’est encore pire lorsque l’observation est supprimée et que les conclusions sont basées sur des simulations et non sur des expériences réelles, comme c’est de plus en plus le cas. Ces problèmes soulèvent bien des question en ce qui concerne notre connaissance du monde microscopique. Elle dépend entièrement des instruments. Nous n’avons pour ainsi dire aucune représentation non filtrée pour comparer l’image qu’ils nous donnent. En plus pour l’observer, le plus souvent non seulement les échantillons sont retirés de leur environnement, mais il faut le plus souvent les préparer, notamment par une technique de coloration. Il y a donc adultération.
Généralisation
Tout cela remet en cause le processus de généralisation, c’est-à-dire de déduction de principes, à partir de données qui ne peuvent être que limitées. Le problème de généralisation est encore plus sérieux car l’observation peut être reproduite, mais ne sera jamais similaire. Donc, dans quelle mesure les résultats doivent-ils être similaires pour être acceptés comme justification d’une conclusion donnée ? La question se pose d’autant plus que nous n’essayons pas simplement de déduire la couleur des cygnes à partir d’observations répétitives, mais de déduire des principes de base à partir de l’observation d’une grande variété de cas dissemblables. Trop peu de données peuvent nous conduire à des modèles erronés, et donc à des prédictions erronées.
Plus le nombre de paramètres est élevé, plus la sensibilité des résultats aux conditions initiales est grande, moins on peut s’attendre à ce que les résultats de nos expériences restent proches. Qui plus est, les résultats peuvent dépendre de l’interprétation et du protocole appliqué. Obtenir des résultats cohérents pourrait donc s’avérer difficile. Donc combien de fois une expérience doit-elle être reproduite avant que ses résultats puissent être acceptés ?
Fondamentalement, la question de savoir quand la vérification expérimentale peut être considérée comme satisfaisante n’a pas de réponse claire. On ne peut pas nécessairement affirmer qu’elle doit dépendre du succès de ses applications, car leur inconvénient peut prendre un certain temps avant d’être remarqués. Même lorsqu’une hypothèse est élaborée dans le meilleur esprit scientifique, des failles sérieuses peuvent rester non identifiées pendant des décennies, précisémment car notre observation reste limitée, ne serait-ce que pour des raisons techniques.
Quand est-il alors raisonnable d’appliquer une hypothèse, c’est-à-dire de construire de nouvelles hypothèses reposant sur elle ou de l’utiliser technologiquement ?
Hypothèses
Il ne peut y avoir de science sans hypothèses. On doit d’abord avoir établi une relation à l’univers avant que nous puissions même penser scientifiquement. En d’autres termes, la métaphysique précède toujours la science. Plus généralement, la science reste fondée sur des hypothèses qu’on oublie car elles sont cachées et devenues trop familières. Celles-ci peuvent fortement influencer les théories que nous élaborons.
Par exemple, les prédictions mathématiques impliquent l’intégration. Derrière ce concept se cache l’hypothèse de l’uniformité selon lequel les processus seraient restés les mêmes à travers le temps et l’espace. Cette hypothèse est à la base de toute généralisation. L’uniformité était présumée très limitée par le Bouddha. C’est Démocrite qui a introduit sa version la plus extrême comme principe scientifique de base. Galilée est resté prudent. Il a été réaffirmé d’abord par les physiciens au XVIIe siècle, puis par les géologues, pour qui les taux des processus géologiques sont restés les mêmes au fil du temps.
Cependant, à cause de l’imprévisibilité, nous n’avons aucune idée dans quelle mesure l’uniformité tient. Il vaut donc mieux rester prudent en ce qui concerne les phénomènes lointains.
D’ailleurs l’uniformité dans le temps a été remise en question par des découvertes géologiques depuis les années 1960 qui suggèrent que des cataclysmes uniques ont modifié de façon critique les conditions existantes dans l’histoire de notre planète.
Les limites de la science
Pour toutes ces raisons, bien qu’étant la forme de connaissance la moins fantaisiste, nous ne pouvons pas savoir si la science peut nous conduire à des vérités. Notre compréhension scientifique est constamment approfondie. Elle nous éloigne donc des contre-vérités. En effet, la science ne peut pas sciemment nous dire des contre-vérités. À tout moment, elle doit se conformer à toutes les données connues. On améliore nos approximation certes. Mais dans l’infinitude du monde, cela nous rapproche-t-il d’une quelconque vérité ?
Le doute est donc caractéristique d’une approche scientifique. La science remet en question les idées reçues. L’importance du doute a été souligné par les penseurs scientifiques de toutes les époques et traditions. Les théories ne doivent pas être rejetées, mais leur acceptation ne doit pas être passive.
Procéder scientifiquement, c’est reconnaître que la science est une « philosophie de la nature », même si elle se distingue des autres philosophies en « interrogeant la nature elle-même pour obtenir des réponses à ce qu’est la nature ». Procéder scientifiquement, c’est espérer que nos pensées scientifiques sont en harmonie avec la nature, car sinon nous serions incompatibles avec les conditions de vie données, mais c’est aussi reconnaître que la science est loin d’être objective. Elle présuppose toujours l’existence de l’homme et nous devons prendre conscience que nous ne sommes pas de simples observateurs mais aussi des acteurs sur la scène de la vie.
Lisez la troisiéme partie de cet article
yogaesoteric
25 novembre 2022