Validation et réfutation (suite)
L'autre restriction concerne les artéfacts (structures créées par l'homme) et illusions d'optique qui peuvent entacher l'observation. Parmi les plus connues, citons les aberrations optiques de la lunette améliorée par Galilée et il a fallu toute la confiance de ce célèbre savant en sa théorie pour qu'il puisse interpréter correctement ses observations. Il lui est d'ailleurs arrivé de se tromper, prenant les anneaux de Saturne pour un astre triple. En fait, l'observation comporte souvent déjà une part d'interprétation et l'une des réactions de scientifiques cherchant à défendre une théorie, est de taxer d'artéfacts des faits d'observation contredisant cette théorie.
Plus récemment, (GUILLOU J.J., 1984, « Existence de bactéries fossiles dans les magnésites », CR. Ac. Sc.), des bactéries fossiles ont été vues au microscope électronique à balayage dans des magnésites (Mg C03). Elles ont été considérées comme des structures artéfacts pour défendre l'origine hydrothermale (eau chaude T > 250 °C) des magnésites, la présence de bactéries impliquant une cristallisation à température plus basse dans un environnement sédimentaire. En outre, ces bactéries sont associées à un type de cristallisation par lissage de fibres qui, lui, contredit la théorie de la croissance du cristal parfait. Cela faisait beaucoup pour un seul type pétrographique...
b) L'hypothèse précède donc souvent l'observation et nous verrons un peu plus tard que l'énoncé de cette hypothèse requiert certaine méthode mais surtout une bonne dose d'imagination non canalisée et nourrie souvent d'irrationnel.
c) Enfin la vérification des conséquences, si elle est nécessaire pour permettre une induction vers une loi générale, ne peut être que partielle.
Seule la réfutation, selon K. Popper, c'est à dire trouver le contre‑exemple sera incontestable. Quoique...
lundi 22 mars 2010
vendredi 19 mars 2010
Vie d'une théorie - Validation et réfutation
Reprenons les étapes idéales de la méthode expérimentale qui prévaut actuellement :
a) Mise en évidence de faits contraires à la théorie admise
b) Formulation d'hypothèses théoriques et déduction des conséquences observables
c) Vérification expérimentale de ces conséquences, ce qui conduira au rejet ou à la validation de la nouvelle théorie.
Cette méthode est très efficace, si on lui apporte les nuances suivantes :
a) Il est reconnu que le fait empirique n'existe, qu'exceptionnellement, tel quel à l'état brut. Si le chercheur n'est pas préparé, dans un cadre conceptuel particulier, à voir un fait, il ne le verra pas car ce fait sera non significatif dans ce cadre. On ne peut que trier dans la masse des faits, chercher et retenir ceux qui sont porteurs de sens.
L'exemple personnel suivant en est une bonne illustration. Une étude de formations rocheuses avait été entreprise, en Bretagne, pour la recherche minière. La description des types pétrographiques, en lame mince, avait donné une origine sédimentaire pour les échantillons. Passionnée de volcanologie et motivée par la présence éventuelle de minerai (Au, Ag, Cu, Pb, Zn, ...) associé à des roches volcaniques, j'ai repris l'étude de ces roches. La composition minéralogique et chimique étant la même dans ce cas précis entre roches sédimentaires et volcaniques, seule la texture microscopique pouvait permettre de trancher. En fait, cette texture était visible pour tout observateur pétrographe et si elle n'a pas été prise en compte c'est parce qu'elle n'a pas été reconnue comme significative dans le cadre sédimentaire. La confirmation de textures volcaniques plus caractéristiques a ensuite été obtenue, après un an de recherche systématique, et avec une technique contraire aux habitudes puisqu'il fallait légèrement dérégler la mise au point du microscope. Cette deuxième phase relève d'ailleurs plutôt de la vérification des conséquences observables de la nouvelle hypothèse génétique.
Un autre exemple est cette fois‑ci dramatique d'un point de vue humain. Il s'agit du syndrôme de l'enfant battu. Les faits décrits, fractures multiples des os chez les jeunes enfants, sont visibles en radiographie et donc non contestables. Décrit dès 1860, commencé à être étudié en 1938, publié à partir de 1946, ce n'est qu'en 1962 que ce phénomène sera pris en compte par l'académie américaine de pédiatrie qui révèlera 749 cas d'enfants battus. L'opinion publique va s'en émouvoir et en 1976, le nombre de cas se chiffre par centaines de milliers. Le fait avait beau être objectif, visible à la radio, il ne sera pris en compte par les scientifiques qu'une fois reconnu par la société comme un problème important de santé et d'hygiène publique. Il n'est pire aveugle que celui qui ne veut pas voir.
Reprenons les étapes idéales de la méthode expérimentale qui prévaut actuellement :
a) Mise en évidence de faits contraires à la théorie admise
b) Formulation d'hypothèses théoriques et déduction des conséquences observables
c) Vérification expérimentale de ces conséquences, ce qui conduira au rejet ou à la validation de la nouvelle théorie.
Cette méthode est très efficace, si on lui apporte les nuances suivantes :
a) Il est reconnu que le fait empirique n'existe, qu'exceptionnellement, tel quel à l'état brut. Si le chercheur n'est pas préparé, dans un cadre conceptuel particulier, à voir un fait, il ne le verra pas car ce fait sera non significatif dans ce cadre. On ne peut que trier dans la masse des faits, chercher et retenir ceux qui sont porteurs de sens.
L'exemple personnel suivant en est une bonne illustration. Une étude de formations rocheuses avait été entreprise, en Bretagne, pour la recherche minière. La description des types pétrographiques, en lame mince, avait donné une origine sédimentaire pour les échantillons. Passionnée de volcanologie et motivée par la présence éventuelle de minerai (Au, Ag, Cu, Pb, Zn, ...) associé à des roches volcaniques, j'ai repris l'étude de ces roches. La composition minéralogique et chimique étant la même dans ce cas précis entre roches sédimentaires et volcaniques, seule la texture microscopique pouvait permettre de trancher. En fait, cette texture était visible pour tout observateur pétrographe et si elle n'a pas été prise en compte c'est parce qu'elle n'a pas été reconnue comme significative dans le cadre sédimentaire. La confirmation de textures volcaniques plus caractéristiques a ensuite été obtenue, après un an de recherche systématique, et avec une technique contraire aux habitudes puisqu'il fallait légèrement dérégler la mise au point du microscope. Cette deuxième phase relève d'ailleurs plutôt de la vérification des conséquences observables de la nouvelle hypothèse génétique.
Un autre exemple est cette fois‑ci dramatique d'un point de vue humain. Il s'agit du syndrôme de l'enfant battu. Les faits décrits, fractures multiples des os chez les jeunes enfants, sont visibles en radiographie et donc non contestables. Décrit dès 1860, commencé à être étudié en 1938, publié à partir de 1946, ce n'est qu'en 1962 que ce phénomène sera pris en compte par l'académie américaine de pédiatrie qui révèlera 749 cas d'enfants battus. L'opinion publique va s'en émouvoir et en 1976, le nombre de cas se chiffre par centaines de milliers. Le fait avait beau être objectif, visible à la radio, il ne sera pris en compte par les scientifiques qu'une fois reconnu par la société comme un problème important de santé et d'hygiène publique. Il n'est pire aveugle que celui qui ne veut pas voir.
mercredi 3 mars 2010
La vie d'une théorie - La théorie comme modèle
D'après BRISSAUD M. et GIRE A. « La modélisation ‑ Confluent des sciences » (1990, ouvrage collectif, éditions CNRS), le modèle est un objet transitionnel, de médiation entre le réel et les systèmes de représentation. Le mode intensif correspond au modèle qui donne du sens à un ensemble de faits réels, le mode extensif correspond à un modèle/outil qui permet de simuler un ensemble de faits.
Les modèles peuvent se distinguer selon deux axes :
- Modèles scientifiques/Lois scientifiques et Modèles mythologiques/Principes et mythes fondateurs
- Modèles historiques/Lois éthiques, théologiques et Modèles actuels/Lois sociales concrètes
Il se distinguent également selon quatre directions méthodologiques principales :
- Modèle logique/Archétype ‑ Formule
- Modèle analogique/Symbole
- Modèle phorique/Fait empirique
- Modèle métaphorique/Image - Idée
La théorie est un modèle scientifique, rassemblant un certain nombre de lois scientifiques en un tout cohérent prédictif et/ou explicatif (voir Thom R. « Prédire n'est pas expliquer », 1994, Flammarion). En effet, les théories prédictives telle que la mécanique quantique assurent la prévision d'un certain nombre d'évènements sans pour autant être capable d'en expliquer le sens profond. Il est bien reconnu que le manque d'intelligibilité, dû à un formalisme ardu déconnecté de la réalité sensible, n'empêche pas cette théorie d'être très efficace dans le domaine de la prévision. A l'opposé, la théorie des catastrophes de R. Thom, utilisant des modèles topologiques (fronce, queue d'aronde, papillon, ...) pour expliquer les instabilités morphogénétiques, est explicative (a posteriori) mais non prédictive. La fronce est un modèle explicatif du diagramme de phase (Vapeur, Liquide) de l'eau en fonction de la température avec un point critique (C).
Il est aussi des théories prédictives et explicatives, celles en particulier toutes récentes liées aux fractales. Dans le domaine méso et macroscopique, A. Le Méhauté et al. ("Flèches du temps et géométrie fractale", 1998, Hermès, ouvrage auquel j'ai modestement contribué), relient les notions de flux, de force et de dimension fractale. Le sens réapparaît par le biais de la géométrie (cf. R. Thom ci‑dessus) et les prédictions sont nombreuses dans le domaine du comportement exceptionnel des matériaux (supraconductivité à température ambiante, isolation électromagnétique, acoustique, matériaux s'adaptant à leur environnement, ... ).
De même pour L. Nottale ("L'univers et la lumière", 1994, Flammarion) qui en éliminant la plupart de ses paradoxes, redonne du sens à la mécanique quantique par la prise en compte du parcours fractal des particules. Sa théorie permet la prédiction, entre autres, dans le domaine microscopique, du spectre des masses des particules élémentaires et, dans le domaine mégascopique, de la répartition des distances des planètes au soleil.
D'après BRISSAUD M. et GIRE A. « La modélisation ‑ Confluent des sciences » (1990, ouvrage collectif, éditions CNRS), le modèle est un objet transitionnel, de médiation entre le réel et les systèmes de représentation. Le mode intensif correspond au modèle qui donne du sens à un ensemble de faits réels, le mode extensif correspond à un modèle/outil qui permet de simuler un ensemble de faits.
Les modèles peuvent se distinguer selon deux axes :
- Modèles scientifiques/Lois scientifiques et Modèles mythologiques/Principes et mythes fondateurs
- Modèles historiques/Lois éthiques, théologiques et Modèles actuels/Lois sociales concrètes
Il se distinguent également selon quatre directions méthodologiques principales :
- Modèle logique/Archétype ‑ Formule
- Modèle analogique/Symbole
- Modèle phorique/Fait empirique
- Modèle métaphorique/Image - Idée
La théorie est un modèle scientifique, rassemblant un certain nombre de lois scientifiques en un tout cohérent prédictif et/ou explicatif (voir Thom R. « Prédire n'est pas expliquer », 1994, Flammarion). En effet, les théories prédictives telle que la mécanique quantique assurent la prévision d'un certain nombre d'évènements sans pour autant être capable d'en expliquer le sens profond. Il est bien reconnu que le manque d'intelligibilité, dû à un formalisme ardu déconnecté de la réalité sensible, n'empêche pas cette théorie d'être très efficace dans le domaine de la prévision. A l'opposé, la théorie des catastrophes de R. Thom, utilisant des modèles topologiques (fronce, queue d'aronde, papillon, ...) pour expliquer les instabilités morphogénétiques, est explicative (a posteriori) mais non prédictive. La fronce est un modèle explicatif du diagramme de phase (Vapeur, Liquide) de l'eau en fonction de la température avec un point critique (C).
Il est aussi des théories prédictives et explicatives, celles en particulier toutes récentes liées aux fractales. Dans le domaine méso et macroscopique, A. Le Méhauté et al. ("Flèches du temps et géométrie fractale", 1998, Hermès, ouvrage auquel j'ai modestement contribué), relient les notions de flux, de force et de dimension fractale. Le sens réapparaît par le biais de la géométrie (cf. R. Thom ci‑dessus) et les prédictions sont nombreuses dans le domaine du comportement exceptionnel des matériaux (supraconductivité à température ambiante, isolation électromagnétique, acoustique, matériaux s'adaptant à leur environnement, ... ).
De même pour L. Nottale ("L'univers et la lumière", 1994, Flammarion) qui en éliminant la plupart de ses paradoxes, redonne du sens à la mécanique quantique par la prise en compte du parcours fractal des particules. Sa théorie permet la prédiction, entre autres, dans le domaine microscopique, du spectre des masses des particules élémentaires et, dans le domaine mégascopique, de la répartition des distances des planètes au soleil.
Inscription à :
Commentaires (Atom)