jeudi 18 novembre 2010

Introduction à la démarche créative

La démarche créative
Nous tenterons tout d'abord, à partir d'exemples de découvertes pris dans le XIXème et le XXème siècles de dégager les grands traits de la démarche créative, puis nous expliciterons l'apport d'une méthode très féconde, celle des analogies. Enfin nous ferons une incursion dans le domaine des origines de l'inspiration en recherchant ses sources mais aussi en tentant d'expliciter le pourquoi des obstacles épistémologiques qui empoisonnent parfois l'avancée si lumineuse de la Science.

Le "cri d'Archimède" et la créatique 
" L'histoire des sciences nous fournit de précieux renseignements sur le cheminement de la pensée placée en face des grands problèmes que lui pose l'existence des phénomènes. Tantôt nous y voyons les esprits curieux de science observer minutieusement les phénomènes, les classer suivant leurs analogies ou tenter de deviner leur parenté; tantôt nous les voyons essayer de rassembler l'explication de ces phénomènes dans de vastes théories et, à l'aide de synthèses hardies que souvent rend seule possible une sorte d'illumination intérieure, d'apercevoir les liens cachés qui les unissent". L. de Broglie nous fournit ici une introduction idéale pour ce paragraphe.

samedi 16 octobre 2010

La pensée créative

Les "mécanismes" de la pensée créatrice

L'innovation et les sauts technologiques sont les clés de la réussite de notre industrie. Il est donc crucial de former les futurs acteurs de ce développement dans les meilleures conditions possibles. Ceci passe par une compréhension des pistes menant à la créativité et à l'élaboration de méthodes favorisant l'innovation. L'histoire des sciences est riche d'enseignement à cet égard. Elle nous montre les démarches suivies par les scientifiques tout au long du processus de découverte. Les chemins suivis sont très divers suivant la personnalité du chercheur, son type de formation, la période à laquelle il a vécu ou le type de société dans lequel il est immergé. Tous ces facteurs conditionnent ses sources d'inspiration. Nous tenterons néanmoins de dégager les conditions favorables à l'émergence des concepts nouveaux.

La création, même guidée, reste une entreprise difficile. En témoigne R. Feynman, dans son cours sur l'électromagnétisme : "On doit avoir de l'imagination pour penser à quelque chose qui n'a jamais été vu avant, jamais entendu avant. Mais en même temps ces pensées sont restreintes dans un corset rigide pour ainsi dire et limitées par les conditions qui résultent de notre connaissance de la nature telle qu'elle est réellement. Le problème de la création de quelque chose de neuf, mais compatible avec tout ce qui est déjà connu, est d'une extrême difficulté". La compatibilité avec ce qui est déjà connu différencie, de manière définitive, l'entreprise scientifique de l'élaboration des théories philosophiques et contribue à son universalité.

R. Feynman pense qu'étudier la démarche des anciens est instructive et qu'il est bon de tester ces méthodes, mais que la plupart du temps la découverte viendra par une voie inédite propre à son auteur. Nous tenterons néanmoins d'expliciter la nature des terrains favorables à l'émergence créative.

lundi 21 juin 2010

En guise de résumé sur les erreurs à éviter

Comme il est plus facile de réfuter une théorie que de la valider, il sera plus facile d'énoncer les chemins qui mènent à l'erreur plutôt qu'à la connaissance et à l'innovation :

- Les fautes de méthodologie parmi lesquelles l'observation de faits contradictoires provenant d'un véritable artefact, la déduction incorrecte des conséquences d'une hypothèse, la vérification expérimentale non concluante pour cause d'erreur de manipulation ou de difficulté de reproduction (loi de Coulomb, fusion froide).

- Les fautes sur le cadre hypothétique : Les hypothèses formulées explicitement sont rajoutées aux prémisses qui correspondent au cadre hypothétique de base équivalent au paradigme en cours et englobant des hypothèses non dites car soi‑disant évidentes ou le plus souvent oubliées. Ces dernières relèvent souvent de l'intuition sensible (terre immobile, pas de mouvement sans action, ...) ou d'un souci de simplification (isotropie de la répartition des isotopes au début de la formation de la terre, pas d'apport de chaleur ultérieur pour le calcul du refroidissement de la terre, ...). Même si le raisonnement est juste, des prémisses fausses entraînent une théorie fausse. Si de plus ces prémisses sont invérifiables car inaccessibles à l'expérience ou à l'observation, la théorie se transforme en mythe. Ces hypothèses sont d'autant plus pernicieuses qu'elles sont implicites et cachées. Il faut pouvoir les exhumer pour tester leur véracité et valider ou réfuter la théorie associée.

Quelques chemins minés :

- Manquer d'ouverture d'esprit et s'enfoncer dans ses préjugés
- Rester dans sa discipline et s'y engluer
- Croire à la chose écrite sans discernement
- Penser que les choses n'existent qu'une fois leur explication trouvée
- Suivre les idées en vogue dans les hautes sphères pour avoir des subsides
- Occulter certains faits parce qu'ils ne collent pas avec la théorie en cours
- Reculer devant l'idée qu'on peut avoir raison contre tous
- A contrario penser qu'on est le plus subtil et rejeter l'aide de ses collègues
- Oublier les leçons des anciens même si la solution ne se trouve pas directement écrite dans l'histoire en particulier les méthodes de découverte
- Ne pas lâcher à temps une analogie qui pourrait s'avérer réductrice si elle est trop poussée
- Avoir une idée fixe et passer à côté de quelque chose de plus important. Il est notoire que Fleming laissa échapper pendant treize ans la découverte de la pénicilline en tant qu'agent anti‑bactérien pour les maladie humaines. Il cherchait en fait un vaccin contre la grippe d'un fort intérêt scientifique, économique et humain pour l'Institut dont il dirigeait les recherches et la pénicilline servait de désherbant pour ses cultures de virus grippal.

Nous terminerons par une note optimiste avec le cas de Képler qui s'obstina longtemps dans l'erreur mais qui fût malgré cela à l'origine de lois fondamentales. Pour lui l'ordre des planètes ne tient pas dans des proportions arithmétiques mais réside dans la géométrie, chaque planète occupant le centre de gravité de différents polygones circonscrits. Il y recherche l'harmonie divine à l'instar de Pythagore avec son harmonie des sphères. Quand il se décide à utiliser l'ellipse pour Mars, concept envisagé par Copernic mais aussitôt abandonné pour les raisons énoncées plus haut, c'est à grand contre-coeur puisqu'il doit y sacrifier l'harmonie divine. Et c'est en recherchant les relations existant entre les distances des planètes au soleil et les gammes musicales qu'il trouvera la troisième loi liant la distance au soleil à la durée de révolution. Ce sera Newton, en leur donnant une explication commune celle de la gravitation universelle, qui valorisera les trois lois de Képler que ce dernier considérait comme des résultats secondaires. In fine, l'explication des distances des planètes au soleil sera apportée à la fin du siècle dernier par Nottale via des considérations géométriques de l'espace‑temps. Képler en fin de compte tenait le bon fil, mais les concepts mathématiques nécessaires (fractales) ne verraient le jour que bien plus tard.
Les erreurs liées aux facteurs humains

Le scientifique est avant tout un être humain et est soumis en tant que tel aux vicissitudes caractérielles de son espèce et ceci malgré tous les efforts faits en vue d'une rationnalisation de son comportement face aux problèmes posés par la Nature. La vanité, la mégalomanie, le goût pour l'intrigue ou le pouvoir, l'entêtement sur une hypothèse quelque temps confortée, la paranoïa parfois stimulante mais souvent empoisonnante sont, parmi les travers psychologiques les plus souvent rencontrés. Les péripéties bien connues de Galilée avec l'Eglise résultent d'un manque de diplomatie et d'une confrontation brutale avec les jésuites qui entendaient garder leur pouvoir en science; ce refus de l'héliocentrisme ne les empêchaient d'ailleurs pas d'utiliser en douce l'astronomie de Copernic pour leurs traversées missionnaires, efficacité oblige... Le caractère de Galilée, illustré dans un billet précédent, lui valurent quelques mésaventures et l'entraînèrent à avancer des idées fausses sur la forme des orbites (circularité) et sur les marées (sa théorie contredisait ses résultats en dynamique). La preuve expérimentale du mouvement de la Terre n'adviendra que bien plus tard en 1851 grâce au pendule de Foucault. A ce moment là, l'Eglise a déjà accepté l'héliocentrisme sans plus de raisons scientifiques. Le problème était donc bien ailleurs.

Le scientifique peut être soumis aux idées à la mode, aux idées reçues et aux préjugés intellectuels.
Prenons l'exemple de la génération spontanée. Ce concept n'est pas bien vu des conservateurs et des catholiques car invoquée pour la théorie de l'évolution de Lamarck et Darwin. Pasteur a bien vu juste avec la découverte de l'activité microbienne, ce qui rendra caduque pour des raisons scientifiques la notion de génération spontanée et renforcera le scepticisme des français au regard de la théorie de l'évolution.
La paléontologie humaine est peut‑être la spécialité qui a le plus souffert des préjugés culturels, des fantasmes et des dogmes, car touchant à l'origine de l'homme. Les techniques de datation sont restées très longtemps incertaines, les données étant très fragmentaires et énigmatiques. Les faux sont donc acceptés facilement et on refuse l'évidence de vraies trouvailles. Les généralisations hâtives, la sous‑estimation des capacités des ancêtres (Altamira), l'idée que l'évolution ne peut être que positive (contre exemple du chimpanzé) entraînent des vues erronées sur un sujet aussi délicat. L'idée que l'homme puisse avoir une origine unique en Afrique est en cette fin de millénaire quelque peu controversée après la révision de la datation de l'homme de Java. L'unicité, l'unification sont des thèmes très porteurs sans doute depuis l'époque où l'homme élabora le concept de principe essentiel unique à l'origine de la Création (Dieu, Allah, Jéhovah) ou de l'organisation de l'Univers (Tao chinois). Les preuves expérimentales fossiles ne sont en fait pas plus en faveur d'un ou de plusieurs foyers de développement de l'espèce humaine. La non découverte de fossiles dans d'autres contrées ne peut constituer une preuve de l'unicité des origines.

Nous terminerons cet aperçu par ce qu'on pourrait appeler le complexe de Frankenstein. Il s'agit ici de remplacer le Créateur et de percer le secret de la vie. La génération spontanée sera ainsi défendue par les matérialistes comme Engels qui réfute l'existence d'un créateur. Ce fantasme sera néanmoins porteur d'idées nouvelles puisque le concept de soupe primitive ou de constitution de la vie par des ressorts purement physico‑chimiques sera ainsi développé mais non encore poussé à son terme (Coparine, 1924, Haldane, 1929, Miller, 1953).

mercredi 16 juin 2010

Les erreurs méthodologiques (suite et fin)

On peut aussi être génial et inventeur d'une méthode scientifique qui portera ses fruits pendant plusieurs générations et ne pas être pourtant à l'abri de quelques divagations :
Descartes en effet réfute les théories de Galilée avec des arguments non recevables : il refuse l'action à distance, l'existence du vide et peuple l'univers de tourbillons pour expliquer la lumière.
En biologie, il introduit le concept d'animal‑machine, notion par certains côtés féconde pour l'explication de mécanismes vitaux (le coeur assimilé à une pompe, les vaisseaux sanguins à de la tuyauterie,...), mais qui s'avèrera avoir des conséquences déplorables quant au comportement de l'homme vis à vis de l’animal.
Sa méthode intéressante n'est certainement pas une panacée. Il a de plus présumé de sa puissance de raisonnement et il est resté trop isolé, trop confiant dans sa méthode, tout en refusant l'expérimentation qui aurait pu canaliser son imagination.

Un autre travers méthodologique est de voir des phénomènes parce qu'on veut les voir ou y croire. Cette technique est souvent payante, car elle guide la recherche, mais elle peut aussi mener à des impasses si l'intuition de départ est erronée. Même si la méthode suivie est scientifique, des prémisses fausses engendreront toujours des résultats faux. Les exemples les plus connus sont fournis par l'alchimie, qui a inspiré la chimie mais aussi l'a fourvoyée jusqu'aux travaux de Lavoisier, et par la phrénologie (Gall au XIX ème siècle) où l'on retrouve les bosses sur le crâne comme révélateurs du caractère humain. Ici l'hypothèse de départ, fausse bien sûr, est que les organes développés font pression sur la boîte crânienne (bosse des maths). Quant aux canaux de Mars et aux rayons N, qui voulaient les voir les voyaient !

Certaines expériences sont faites également pour apporter confirmation à une théorie mais ne sont en aucune manière significative : la théorie stipulait que les animalcules (anciens spermatozoïdes) sont produits par les femelles. Donc on allait disséquer une chienne après l'accouplement et on allait trouver effectivement les animalcules dans l'utérus. L'expérience n'a pas de signification mais semble conforter l'hypothèse. Elle a été réalisée au XVIII ème siècle par Buffon assisté de Daubenton et de Needham, pourtant trois grands noms de leur époque. Combien d'êtres vivants auront encore à souffrir de l’inconséquence de l'esprit humain ?
L'enthousiasme aidant, certains scientifiques sont portés à faire des généralisations un peu hâtives. C'est une des difficultés de la méthode d'induction qui veut établir des lois générales à partir de faits particuliers. La paléontologie est un peu sujette à cette maladie. Travaillant sur des thèmes délicats tels que l'homme préhistorique et avec des documents de travail statistiquement rares, il est fréquent de trouver des dérives dans l'interprétation des trouvailles : l'homme de Néanderthal deviendra ainsi l'exemple parfait 'du petit vieux arthritique'. Ce genre de raisonnement se retrouve dans les théories raciales où le comportement typique de quelques individus est généralisé à l'ensemble de la population.
Les impasses oubliées

Logiquement, toutes les voies explorées par les scientifiques et reconnues pour être des impasses, devraient être répertoriées, analysées et mémorisées pour en tirer quelque enseignement sur la démarche à suivre ou tout simplement pour éviter de refaire les mêmes erreurs. Chaque scientifique devrait, dans sa discipline, tenir compte de ces informations et les rechercher si l'enseignement de ses maîtres a été incomplet dans ce domaine. L'évolution des concepts en métallogénie (étude de la genèse des gisements métallifères), depuis les grecs, illustre tout à fait la vivacité des erreurs mal digérées.

Les causes d'erreurs

Selon S. Baruk (« L'âge du capitaine. De l'erreur en mathématiques », 1985, Seuil, Points sciences), l'erreur est une condition normale d'apprentissage. « La vérité de l'erreur est précisément dans le rapport de désir que l'on entretient en mathématiques avec la vérité, dont on voudrait qu'elle soit comme ça, parce que les mathématiques sont ce qu'elles sont. C'est en raison même de ce qui peut être perçu de leur spécificité par le néophyte et de ce qui en est pratiqué par le praticien ‑ citons la présence d'absolus, la cohérence générale, les analogies, les grandes synthèses, l'esthétique des résultats, etc... ‑, que les mathématiques produisent sur n'importe quel sujet le même effet de désir que ce soit comme ça ». Seule la compréhension peut sortir l'apprenti mathématicien de l'impasse où sa docilité intellectuelle l'avait conduit.

Les causes d'erreurs sont multiples et les exemples donnés par la suite ne constituent en aucun cas une liste exhaustive. Il est néanmoins possible de les regrouper selon deux grands types, les erreurs méthodologiques et celles liées aux facteurs humains.

Les erreurs méthodologiques :

La logique veut que, quand une proposition p entraîne une proposition q, c'est la négation de q qui entraînera la négation de p. Pour que q entraîne p, il faut au départ avoir une relation d'équivalence entre p et q. L'erreur souvent commise est de croire que l'observation de la relation à sens unique p vers q amènera la relation en sens inverse q vers p. C'est, bien sûr, une piste de recherche à ne pas négliger mais elle est souvent décevante car les relations d'équivalence sont, semble‑t‑il, assez rares dans la nature. Voici trois exemples de cette erreur de logique :
- Becquerel, à la fin du siècle dernier, observe que les rayons X provoquent la fluorescence de certaines substances. Il essaiera en vain de produire des rayons X à partir de substances fluorescentes.
- Pasteur observe que la vie favorise la dissymétrie. Mais toutes ses expériences en vue de reconstituer la vie à partir de conditions dissymétriques seront vouées à l'échec.
- Un dernier exemple, un peu différent, mais qui, en logique formelle, rejoint les deux premiers : tous les criminels ont une bosse sur le crâne à cet endroit, donc tous ceux qui, ont une bosse au même endroit sont des criminels, (tout p entraîne q) n'est pas équivalent à (tout q entraîne p), mais à (il existe un q entraînant p). Contrairement aux deux précédentes, cette erreur est dangereuse car elle touche au comportement humain.
L'autre erreur de logique souvent commise est de penser que la corrélation positive entre deux évènements implique forcément une relation de cause à effet entre eux (voir des billets précédents pour les exemples avec le mot-clé "corrélation positive").

vendredi 11 juin 2010

Les erreurs désastreuses (suite et fin)

Et maintenant, quelques exemples d'erreurs contraires aux valeurs de l'humanisme :

Au XIX ème siècle, Galton, en rupture, avec le darwinisme social pensait, que l'espèce humaine était en train de se dégrader, car seules les classes sociales les plus basses, avec leur cortège de miséreux, d'alcooliques et d'ignorants, étaient prolifiques. L'amélioration de la race ou eugénisme « requérait une méthode chiffrée d'estimation des dons de chacun et une connaissance précise de leur transmission biologique, projet éminemment politique qui lui vaudra de rendre aux statistiques leur sens littéral d'une science de l'état » (STENGERS I. (1987) « D'une science à l'autre. Des concepts nomades », Seuil). Il va donc promouvoir diverses branches avides de statistiques : la psychométrie, la biométrie, l'hérédité biologique, la criminologie. Il recherchait le génie héréditaire pour pouvoir le sélectionner. Dans la pratique, on parla de stérilisation des miséreux, des débiles... Les économistes du début du XIX ème siècle, vont traduire cela par : "il est nécessaire de limiter le nombre des pauvres (jusque‑là cette intention est plutôt louable) en empêchant la survie artificielle que leur procure l'arsenal juridique sur l'assistance (et là tout se gâte). Il s'agit de ne pas interférer avec le jeu cruel de la sélection naturelle : lorsque la Nature se charge de gouverner et de punir, ce serait une ambition bien folle et bien déplacée de prétendre nous mettre à la place et prendre sur nous tout l’odieux de l'exécution » (Malthus). Odieux est bien le terme, mais à appliquer aux raisonnements tenus par les sociologues biomètres et économètres de l'époque. Ainsi étaient justifiées la pauvreté et la misère, tout en faisant porter aux pauvres la responsabilité de leur condition sociale.
Cette justification était étayée par des calculs statistiques, ce qui mettaient en confiance les politiciens. L'exemple de Yule est tout à fait édifiant. Mais sous couvert de formules savantes, Yule fit trois erreurs qui discréditèrent ses conclusions.
- Tout d'abord, il identifie corrélation et causalité. Nous avons déjà vu, les dangers de cette identification, surtout si l'on désire agir sur les évènements.
- Puis, il identifie les concepts à corréler, le paupérisme et l'aide sociale, aux indicateurs utilisés pour les mesurer. Ces deux erreurs entraînent une dérive fort regrettable : la droite de régression obtenue à partir de ces indicateurs est assimilée à l'équation existant entre paupérisme et aide sociale.
- De plus, troisième erreur, les indicateurs sont mal formulés. En effet, les deux indicateurs, pour l'aide sociale et le paupérisme, sont proportionnels à une même variable : le nombre d'individus bénéficiant de l'aide publique. Si le nombre de personnes bénéficiant de l'aide diminue, cela voudra dire que l'aide sociale a baissé mais aussi la pauvreté, car par définition cette dernière est proportionnelle à ce nombre de personnes ! La corrélation est inscrite au départ dans la construction des formules, les conclusions sont donc préméditées et en plus elles sont erronées. Bien sûr les politiques ne rentreront pas dans ce genre de considérations et se féliciteront que l'action administrative, c'est à dire une baisse de l'aide sociale, ait une aussi heureuse conséquence... Ce genre d'erreur simpliste ne se conjugue malheureusement pas toujours au passé et entache encore bien des travaux socio-­économiques.

Les conséquences de ces théories étaient déjà déplorables au XIXème siècle, mais elles devinrent dramatiques lorsqu'elles furent reprises par Hitler pendant son règne. Toutes les divagations sur l'amélioration de la race, accompagnées de leurs fausses hypothèses sur l'hérédité de l'intelligence, la supériorité de la race blanche sur les autres, de l'homme sur la femme, des sédentaires sur les nomades,... ont conduit aux atrocités de la seconde guerre mondiale. Les sciences sociales, difficilement quantifiables, payent un lourd tribut aux préjugés. Et plus les méthodes s'affinent, par exemple avec l'apparition de l'analyse factorielle, plus les déductions erronées semblent plausibles sous couvert de méthode mathématique. Il faut alors redoubler de vigilance et chercher les liens de causalité sans trop s'attacher aux indications que fournissent les corrélations.

La théorie de Lyssenko, sur l'hérédité des caractères acquis, reposant sur des données expérimentales douteuses, a été cependant soutenu par le gouvernement de Staline car en opposition avec les visions néo-darwinistes prônant la sélection naturelle et la concurrence dans un environnement capitaliste. Cet entêtement a eu cependant des conséquences fâcheuses pour le petit peuple soviétique car les techniques agricoles encouragées par la théorie lyssenkiste ont conduit à des désastres économiques : en particulier, la culture de blé, soi‑disant résistant aux basses températures, s'est soldée par un échec retentissant et le spectre de la famine a de nouveau rôdé comme au temps des tsars !
Nous reviendrons dans de prochains billets sur les interactions de la science et de la politique.
Les erreurs désastreuses

Il en existe de deux sortes :

- Celles qui inhibent l'avancée de la science pendant plusieurs siècles. Nous avons déjà vu une idée fausse tenace mais féconde, celle de l'éther. Dans la majorité des cas les idées tenaces sont empoisonnantes. Ces erreurs pérennes au cours des âges révèlent d'ailleurs des travers humains ou des structures mentales génératrices d'erreurs.
- Celles qui vont à l'encontre des valeurs de l'humanisme. Elles sont en général liées à une idéologie politique particulière.

Quelques exemples d'erreurs tenaces et inhibitrices :

La théorie des quatre éléments des anciens grecs (l'eau, la terre, l'air et le feu) : elle a fourvoyé la chimie pendant deux millénaires jusqu'à Lavoisier au XVIIIème siècle et donné des divagations énormes en médecine avec la théorie des quatre humeurs d'Hippocrate. Ces principes seront utilisés jusqu'au XIXème siècle, comme l'existence de la bile noire à côté du sang, de la bile jaune et du phlegme. La méthode paraissait scientifique mais les prémisses étant fausses, la théorie ne l'était pas moins. En fait dans la pratique, les grecs utilisaient des thérapeutiques sensées, mais l'histoire n'a retenu que la théorie.

Les sept erreurs d'Aristote déjà citées : la plupart des erreurs n'ont été résorbées qu'à partir du XVIIème siècle et certaines, comme la notion de génération spontanée, dureront jusqu'au XIXème siècle. Instituées à l'état de dogme avec la scolastique des théologiens du XI et XIIème siècles au moment où le moyen âge redécouvre Aristote.

L'harmonie des sphères d'après Philolaos : chaque planète émet un son en fonction de sa distance au soleil et l'ensemble est harmonieux. Képler tentera encore au XVIIème siècle de trouver une harmonie d'ensemble aux planètes et n'abandonnera le cercle que contraint par ses mesures sur les déplacements de Mars.

L'école de Pythagore essaiera de relier tout élément naturel à des nombres. Cet effort intéressant dans son principe, conduira néanmoins les disciples pythagoriciens à raconter pas mal d'incongruités et leurs élucubrations mathématiques dégoûtèrent les scientifiques de tenter toute mathématisation du réel pendant plusieurs siècles. Le premier à rompre avec ce comportement fut sans doute Galilée, au XVIIème siècle, et l'on connaît le formidable essor que prit la science à la suite de ce changement d'attitude. Après une période faste, certains excès apparurent surtout à partir du XIXème siècle où la systématisation des mesures, dans des domaines peu aptes à se laisser enfermer dans la logique mathématique, conduisit les chercheurs au même type de divagations que leurs ancêtres pythagoriciens : par exemple, en raison de la toute puissance des statistiques dans les sciences naturelles, économiques et sociales. En cette fin du XXème siècle, les outils mathématiques ont cependant évolué et se sont adaptés à la description de phénomènes naturels : fractales, dérivation fractionnaire, éléments topologiques de Thom, relateurs arithmétiques, logique floue... Il est donc possible à présent de reprendre avec espoir le chemin pythagoricien, mais en gardant toujours en mémoire les limites des outils mathématiques quant à leur adéquation au réel.
Les erreurs fécondes (suite et fin)

Pour terminer, nous allons envisager le cas un peu particulier du concept de l'éther qui cumule trois des caractéristiques déjà énoncées :
- tenace, il occupera l'esprit des penseurs pendant plus de deux millénaires
- fécond, après avoir changé de statut, il permettra aux physiciens jusqu'au XIX ème siècle d'élaborer des théories sous‑tendues par la philosophie mécaniste
- devenu empoisonnant à la fin du XIX ème siècle, son élimination par Einstein correspondra à un changement de paradigme important.

L'idée d'éther, la plus courante, est celle d'un milieu subtil, support passif d'actions ou d'interactions. Mais la notion d'éther est aussi vieille que la physique et sa signification a considérablement varié, suivant en cela l'évolution des théories et les progrès de l'expérience. Oscillant entre l'idée de feu, de lumière et celle de représentation subtile de la matière, elle est rarement associée, dans l'Antiquité, à celle de support d'action cinétique et par conséquent à celle de milieu » (TONNELAT M.A. (1968) « L’éther », Encyclopédie Universalis, Vol.6). Ether vient d'un mot grec signifiant brûler par le feu et les anciens le faisait correspondre au plus subtil des quatre éléments. Pour Platon, l'éther devient une matière subtile intermédiaire entre le feu et la terre. Quand à Aristote, il fait contribuer l'éther à la constitution des milieux diaphanes, perméables à la lumière.
Le concept de matière subtile va évoluer, dans le cadre des théories optiques à partir de la Renaissance, vers une notion de milieu subtil qui se confond avec la lumière considérée comme un corps qui se propage (théorie corpusculaire) ou bien vers une notion de milieu immobile, support d'une action de propagation de proche en proche (théorie ondulatoire). Ce n'est plus la nature même de l'éther, comme dans l'Antiquité, qui préoccupe les scientifiques mais le rôle qu'il joue en optique. L'analogie, entre la propagation de la lumière et celle du son, déjà vue par L. de Vinci, a beaucoup fait pour la remise au goût du jour de l'idée d'éther quelque peu oubliée après les grecs. Pour Descartes, la nature a horreur du vide et l'univers se peuple de milieux plus ou moins grossiers animés de mouvements tourbillonnaires. L'éther, en tant que support, est matériel et corpusculaire. Au cours du XVII ème siècle, les théories vibratoires de la lumière (Malebranche, Hooke, Huygens) garde l'éther comme milieu de propagation d'ondes longitudinales (analogie avec le son), mais aussi transversales et les couleurs proviennent de l'amplitude différente des vibrations éthérées. Newton, quand à lui, penche plutôt pour une interprétation corpusculaire de la lumière et ne garde
l'éther, qu'un peu à contre-coeur, comme le milieu de transmission de l'action des forces et pour surmonter certaines difficultés de la théorie des accès (ondes et corpuscules interagissent car leur vitesse respective est différente dans l'éther). Newton n'est pas satisfait de cette explication et recherche dans l'alchimie une autre solution où la matière est capable d'action spontanée et possède une sorte de vie.
Au cours du XVIII ème siècle, l'idée d'éther est donc en nette régression. Les expériences de T. Young sur les interférences feront renaître l'éther en même temps que la nature ondulatoire de la lumière et c'est Fresnel, au début du XIX ème siècle, qui établira sans conteste le rôle primordial de ce milieu subtil. Les phénomènes de polarisation chromatique, de réflexion de la lumière polarisée et d'interférences de deux faisceaux polarisés, le conduisent à postuler nécessairement l'existence d'ondes transversales, ce qui va inciter les scientifiques à redonner une structure et des propriétés à l'éther. C'est alors que surgissent les paradoxes : l'éther doit être rigide pour la propagation des ondes transversales mais aussi sans résistance pour permettre l'évolution des corps célestes. Néanmoins, la notion est nécessaire à l'établissement de la théorie ondulatoire, car il était alors inconcevable que des ondes puissent se propager dans le vide (analogie avec les vagues et le son). Pas d'éther, pas d'ondes.
Il se verra d'ailleurs confirmé par l'existence d'effets électromagnétiques avec Oersted et Faraday qui font de l'éther un réceptacle d'énergie, siège d'une distribution de forces. Ampère, en 1835, montre également que « la chaleur est comme la lumière, une sorte de vibration de l'éther. Selon lui, la lumière est produite par les vibrations des atomes et la chaleur par celles des molécules. L'idée sera féconde et les exemples qu'il développe seront repris par Helmholtz pour établir le principe de conservation des forces (on dirait aujourd'hui de l'énergie). Puis Maxwell, avec l'analogie avec l'hydrodynamique, reprendra les tourbillons de Descartes pour établir ses équations différentielles. Pour lui, l'éther mécanique a plus un rôle suggestif qu'une existence réelle, contrairement à Lord Kelvin et Helmholtz qui, malgré un certain découragement, restent fermement accrochés à une idée de l'éther de plus en plus contradictoire, solide rigide ou fluide parfait.
L'éther, jusqu'ici nécessaire et inspirateur, commence à devenir empoisonnant. Pour l'instant, l'éther est considéré, comme un cadre référentiel, en repos, idéal et absolu d'une cinématique universelle. Le champ, introduit pour la première fois par Faraday (1840), pour parler d'un ensemble de lignes de forces dessinées par la limaille à proximité d'un aimant telles des sillons après les labours, véhicule, quant à lui, un ensemble d'actions énergétiques spécifiques, susceptibles de se propager de proche en proche dans l'éther. Mais Einstein, avec la relativité restreinte, refuse tout référentiel absolu et élimine l'éther au profit du champ qui seul reste nécessaire à la description des phénomènes. L'éther réapparaîtra, momentanément, comme support de la courbure de l'espace‑temps en relativité généralisée. Les expériences de mise en évidence de l'éther ayant toutes conduit à l'échec et la notion même d'éther s'étant vidée de son contenu, ce concept va donc disparaître entraînant avec lui la physique dite classique. En conclusion, « à travers une histoire tourmentée, il semble avoir été le signe de contradictions qui ont permis des réflexions fructueuses sur la nature et sur les propriétés de la lumière ».

vendredi 4 juin 2010

Les erreurs fécondes

Les premières erreurs, historiquement parlant, celles des grecs de Pythagore à Platon ont eu le mérite d'accompagner la mise en route de la science. L'influence d'Aristote a été en ce sens très importante. Ses sept principales bourdes ont nourri l'imaginaire des scientifiques sur plusieurs siècles et leur élimination a demandé à chaque fois un changement de paradigme :

- Le géocentrisme jusqu'à Copernic et Galilée
- Les orbites planétaires circulaires (le cercle, perfection divine) jusqu'à Képler
- La génération spontanée jusqu'à Pasteur
- La prédominance de la semence mâle dans la fécondation (contre l'avis d'Hyppocrate)
- Les fossiles proviennent d'exhalaisons sèches et les métaux d'exhalaisons humides; thème repris en 1640 par la baronne de Beausoleil
- Le siège de la raison se trouve dans le coeur, le cerveau ne servant que de réfrigérateur (contre l'avis d'Hyppocrate et de Platon)
- En mécanique, il existe un lieu naturel pour chaque chose, tout mouvement même uniforme demande une force motrice et il n'existe pas d'action à distance. Il faudra attendre Galilée, puis Newton pour remettre en cause ces idées.

Le changement de paradigme peut se faire d'ailleurs en soignant l'erreur par une autre illusion. La révolution dite copernicienne est en ce sens assez démonstrative. Avant Copernic, Ptolémée avait construit un modèle, fondé sur les épicycles qui approchait bien les données observationnelles et permettait l'établissement d'éphémérides corrects.
Copernic établit son système sur deux hypothèses fausses : les orbites planétaires sont circulaires et la vitesse sur ces orbites est uniforme. Il n'a aucune raison valable de mettre le Soleil au centre de l'Univers à la place de la Terre et sa théorie, aussi compliquée que celle de Ptolémée, ne donne pas de meilleurs résultats quand aux prévisions des éphémérides ! Copernic avait conçu l'ellipse mais avait abandonné l'idée, car non conforme aux canons de la perfection céleste et divine. Nous avons déjà vu le rôle joué par Galilée dans cette affaire.
Képler, lui tout d'abord, s'acharne dans l'erreur. Il essaie de ressusciter, mais sans succès, l'harmonie des sphères de Pythagore où l'ordre des planètes ne tient pas dans des proportions arithmétiques mais réside dans la géométrie. Chaque orbite serait circonscrite à un polygone régulier différent. Le nombre de ces polygones correspondait au nombre des planètes alors connues (Mercure, Vénus, Mars, Jupiter, Saturne).
Ce problème de l'explication des distances des planètes au Soleil ne devait être résolu que très récemment par L. Nottale (NOTTALE L. (1995) « Fractal space time and microphysics », World scientific) en utilisant effectivement des considérations géométriques, liées à l'espace‑temps fractal. Képler n'utilisera l'ellipse pour Mars, que contraint et forcé, puisqu'il doit abandonner l'idée qui avait sous‑tendu toutes ses recherches, celle d'une harmonie divine dans les « sphères » célestes. Il était poussé par le désir de trouver un système explicatif harmonieux et les lois qu'il établiera ne seront pour lui que secondaires, d'ailleurs très mal mises en valeur dans ses textes, et ne deviendront fameuses qu'éclairées par la théorie de Newton.

Quelques exemples à la volée du génie erratique :

- Cristophe Colomb (1492) : l'erreur sur la circonférence terrestre (33 000 km), lui fait croire que la distance Europe‑Asie par l'ouest n'est que de 4 400 km. Il part donc en confiance et touche les Amériques
- Galvani (1786) : il expérimente sur l'électricité animale, en tire des conclusions fausses mais Volta réinterprète l'expérience et s'en sert pour fabriquer la première pile électrique
- Brown‑Séquard (1889) : il veut démontrer que les hormones sont fabriquées par des glandes et transportées par le sang. L'expérience consiste à injecter dans son propre organisme des extraits liquides d'un broyat de testicules de chien et de cochon d'inde. Le résultat dépasse toutes les attentes, mais ce ne sont pas les hormones qui agissent, puisqu'elles restent en quantité infime dans les glandes, c'est l'effet placébo : un bel exemple d'expérience non significative qui étaie une théorie juste
- Pasteur : ces premières études, en tant que cristallographe, portaient sur les cristaux faisant tourner la lumière polarisée vers la droite ou la gauche (dextrogyres, lévogyres). Il s'aperçut que la vie avait une affinité pour une des formes, les levures faisant pousser des cristaux dextrogyres. Il inversa la proposition sans précaution et proposa l'hypothèse que des conditions dissymétriques peuvent créer la vie. Cette faute de logique ( [p donc q] n'implique pas [q donc p] mais [non q donc non p]) l'amènera à s'intéresser aux levures et aux moisissures et à découvrir les théories qui feront sa gloire
- L'exemple de la découverte de la bombe atomique est un peu particulier. L'erreur ne sera pas féconde en tant que telle mais évitera aux allemands d'obtenir la bombe pendant la seconde guerre mondiale. En 1938, Hahn et Strassmann obtiennent, par fission de l'uranium, un élément beaucoup plus léger, le baryum. Ce résultat inattendu ne sera pas exploité par les allemands mais par les physiciens émigrés aux USA par l'intermédiaire de Lise Meitner, juive et résidant à Stockholm.
La logique de l'erreur - Typologie

L'erreur est une déviation par rapport à la vérité, « à savoir les rapports effectifs des choses ou les lois logiques de la déduction » (MOLES A.A. (1990) « Les sciences de l'imprécis », Seuil). Cette errance est créatrice, génératrice à la fois de l'erreur et de la vérité, quand le cheminement conduit vers de nouvelles connaissances. La vérité, en effet, se construit peu à peu en luttant contre les erreurs possibles, en explorant toutes les voies et en éliminant celles qui conduisent à des impasses. L'erreur est inséparable de la recherche du vrai, puisque l'une n'a pas de signification sans l'autre. L'invention suppose deux phases : la création d'une forme nouvelle et sa mise en congruence avec la logique universelle. La première phase est certainement la plus difficile mais aussi la plus valorisante. « Il est moins besoin de penser juste, il est nécessaire de penser neuf » (MOLES).

Le cas de l'erreur dite matérielle est un peu différent. L'erreur est ici déviation par rapport à une vérité connue, à des normes établies, erreur de calcul, de raisonnement déductif, de méthodologie bien établie, d'observation... L'erreur sera reconnue comme l'ennemi de la Vérité et du Bien et sera sanctionnée comme telle. C'est ainsi que, tous les ans, un fort pourcentage d'élèves sera dégoûté des mathématiques et complexé à vie pour avoir été confronté à l'erreur matérielle. Si les mathématiques étaient enseignées, non pas comme une vérité indiscutable, mais comme un ensemble de connaissances à découvrir, l'erreur changerait alors de statut. De matérielle et complexante, elle deviendrait génératrice de compréhension. Le droit à l'erreur serait ainsi rétabli, car nécessaire à l'acquisition de connaissances qui seraient alors vraiment assimilées.

Il est également des erreurs qui sortent du lot commun et jouent un rôle particulier dans l'avancée (ou le recul) de la science. Certaines sont particulièrement fécondes et même fondatrices de disciplines à part entière, d'autres sont fatales et discréditent à jamais leur auteur, d'autres encore résistent au passage des siècles et doivent attendre le changement de paradigme qui les éliminera, en bouleversant les structures mentales. Elles feront l'objet des deux billets suivants.

Il est possible aussi de distinguer des degrés dans l'erreur suivant l'écart reconnu à une certaine norme de rationalité :

- Les théories adhérentes qui furent vraies pendant longtemps et restent d'excellentes approximations. Par exemple, la relativité galiléenne sera remplacée par la relativité einsteinienne. Il s'agit souvent d'une question de champ de validité et parfois la limite n'est pas facile à déterminer car située dans un domaine inattendu.
- Les théories différentes à forte logique interne, comme celle de Lesage évoquée précédemment (utiliser la recherche par mot-clé pour retrouver le billet) ou les théories alternatives à la relativité généralisée d'Einstein dont le seul avantage est d'être plus simple mathématiquement. Dans le cas de Lesage, l'argument décisif prouvant la fausseté a été trouvé par Poincaré. Pour les théories alternatives, aucune preuve n'a pu encore être amenée.
- Les théories aberrantes, résultat d'une imagination hors norme, souvent bien construites mais qu'une réflexion rigoureuse permet de déstabiliser : la Terre creuse, le soleil froid, l'atome pneumatique...
- Les théories sidérantes : elles ont la saveur et la couleur de la science, mais ce n'est pas de la science. Le message délivré est sans signification et relève de la mystification.

L'étude des erreurs passées est formatrice dans le sens où, bien sûr, elle évite de reprendre les mêmes impasses - nous verrons bientôt ce que coûte la non prise en compte de ce point ‑ et où elle permet d'aiguiser l'esprit critique de l'étudiant, de le sortir de sa passivité devant un savoir dogmatique et de lui redonner confiance en soi.
Autres causes de blocage psychologique

Une autre cause de blocage psychologique est également la remise en cause d'une évidence sensible : la terre ne bouge pas ou alors très localement durant les séismes. Comment concevoir que les continents « flottent » sur le manteau et dérivent ainsi ? Le même problème a certainement dû se poser pour Copemic et Galilée quand ils affirmaient que la Terre tournait autour du Soleil. En tant que planète et sol sur lesquels vit l'homme, la « Terre‑mère » constitue le concept peut‑être le plus sécurisant mis à sa disposition. Remettre en cause la stabilité, pourtant sensoriellement évidente, de cet élément ne s'est pas fait impunément : Galilée et Wegener en auront été les principales victimes.

Voici un autre exemple de théorie mal reçue par la communauté scientifique en raison de la personnalité de son auteur. Thomas Young, après des siècles de domination du concept corpusculaire de la nature de la lumière, fit, en 1804, les fameuses expériences d'interférences montrant sa nature ondulatoire. T. Young est un médecin anglais et s'intéresse à des processus très variés : accomodation de l'oeil, propagation des ondes sonores pour l'audition, irisation des bulles de savon; son talent s'exercera même à une première interprétation de la pierre de Rosette. Mais il n'est pas reconnu en tant que physicien; de plus, la présentation de ses expériences d'interférences n'est pas pédagogique et sera contrée par un notable, lord Brougham, physicien réputé et futur lord chancelier. C'est en France que ses idées seront prises en considération, mais il faudra attendre qu'Arago fasse l'éloge funèbre de Fresnel (1827) pour que la nature ondulatoire de la lumière soit admise.

Viennent se rajouter à toutes les difficultés inhérentes à la méthode scientifique, les déviations liées à l'angoisse du chercheur devant l'inconnu (LEVY‑LEBLOND J.M. (1984) « L'esprit de sel. Science, culture, politique », Seuil, Points sciences) :

‑ La calculite : on nourrit l'ordinateur de chiffres en espérant qu'il conceptualisera à votre place.
‑ Le jargonage : le nouveau phénomène se verra attribuer un terme complexe pour donner l'impression que l'explication viendra bien vite après la description. Nommer, c'est déjà faire reculer l'inconnu. Le piège peut être également de donner aux objets des noms génétiques et pas exclusivement descriptifs. Le chercheur reste enfermé dans cette hypothèse génétique ce qui l'empêchera d'accepter une autre voie. « Les tufs soudés ou ignimbrite ne peuvent pas se mettre en place sous l'eau, car d'après leur définition, ils sont aériens. » Cette réponse péremptoire, fut obtenue d'un géologue minier, responsable de service, alors que j'essayais de lui montrer que ce critère négatif pour la recherche minière (le type de minerai recherché ne peut se former à l'air libre) ne tenait pas et que tout espoir était encore permis, même avec un volcanisme de ce type.

‑ L'extrapolation : il est si facile de poursuivre une droite sur un graphique vers l'origine par exemple. Mais parfois on sort du domaine de validité de l'expérience et cela peut arriver très vite surtout si les échelles sont logarithmiques. L'analyse scalaire est encore trop souvent éludée dans les sciences expérimentales.

Enfin, nous terminerons par les cas de censure (SCHIFF M. (1994) « Un cas de censure dans la science. L’affaire de la mémoire de l’eau », Albin Michel) où la communauté scientifique évite de se poser la question « Et si c'était vrai? ». Les procédés utilisés sont alors les suivants :

- On accuse l'auteur d'incompétence ou de folie. On crie au scandale ou à l'anarchie
- On ne cite pas la théorie
- La discipline se situe aux frontières de plusieurs sciences donc son statut de science n'est pas établie
- On traite l'auteur de fraudeur, d'être un adepte de la magie noire
- On le traite par la dérision.

lundi 31 mai 2010

Le social et le scientifique

L'exemple de Pasteur est également édifiant. Nous avons déjà vu que les expériences de Pasteur n'étaient pas totalement probantes. Pouchet montre que les expériences de Pasteur ne marchent pas, mais la théorie de Pasteur est dans l'air du temps puisque compatible avec la théorie de l'évolution des espèces, (chaque individu doit avoir des parents). Quels sont alors les facteurs qui ont permis à Pasteur de l'emporter ? Les deux acteurs rivalisent de conservatisme, ce n'est donc pas le facteur déterminant. Pasteur est parisien et académicien, Pouchet provincial et simple correspondant de l'Académie. Celle‑ci soutient Pasteur et, Pouchet abandonne la lutte, mais ce n'est pas définitif. Pour l'instant, ni les préjugés idéologiques, ni le poids des organisations officielles ne sont décisifs. Mais Pasteur est un habile orateur : « Pasteur sut faire bon usage du prestige croissant de l'expérimentation auprès de l'Académie. Contrairement à Pouchet, il ne commis pas l'erreur d'envelopper ses résultats dans une longue discussion philosophique, quasi métaphysique, de la génération spontanée. Pasteur savait aussi comment mettre en valeur son propre travail. L'historique qu'il fait de la question ignore intelligemment une série d'arguments ayant déjà servi à discréditer la génération spontanée. (...) Pasteur minimise les réussites de ces prédécesseurs expérimentalistes comme Schwann, Schulze, Schroeder et Von Dusch, en attirant l'attention sur leurs résultats les moins concluants. Puis à la fin de son chapitre, ii relie habilement son intérêt pour la génération spontanée à ses travaux précédents sur la fermentation.(... ) En France au moins, le travail de Pasteur sur la fermentation était déjà réputé. Il avait abouti à une victoire française sur la théorie chimique allemande de Liebig et il semblait promettre de grands résultats pratiques pour la fabrication des vins et des bières » (Collection des cahiers de Science et Vie : les grandes controverses, les pères fondateurs, les grands ingénieurs). Les talents en rhétorique de Pasteur ont donc finalement permis de faire accepter ses idées.

Nous allons maintenant revoir un cas où le non rationnel a bloqué une théorie, celle de Wegener. Nous avons déjà vu qu'une des raisons de rejet de cette théorie a été le manque d'explication du moteur de la dérive des continents. L'autre raison, celle‑ci beaucoup moins avouable, est liée à la personnalité de Wegener. Ce dernier est météorologue et se permet de mettre à bas les théories dominantes établies par des spécialistes en biologie, paléontologie, géologie et géophysique. Sa position transdisciplinaire le porte au‑dessus des spécialistes et ce comportement est encore actuellement très mal vu, même si les instances dirigeantes l'encouragent, avec parfois un prix Nobel à la clé (De Gennes, 1991). Nous verrons d'ailleurs que cette démarche de curiosité horizontale est un gage d'innovation. Mais les résistances individuelles sont tenaces et c'est vrai qu'il est difficile d'accepter de voir ruiner, en un instant, par l'intervention d'un non spécialiste même génial, des travaux ayant demandé plusieurs années d'effort.

mercredi 26 mai 2010

Les passions du savoir

Ce titre évocateur est emprunté à P. Thuillier (THUILLIER P. « Les passions du savoir. Essais sur les dimensions culturelles de la science », 1988, Fayard).
La dimension humaine, faite de sentiments, de passions et d'irrationnel, interfère de manière bénéfique ou non avec la vie des théories (acceptation ou rejet) et intervient également dans la phase d'inspiration du chercheur en quête d'idées nouvelles.

Pour illustrer le rôle bénéfique de la psychologie dans l'acceptation de théories importantes nous prendrons l'exemple de Galilée et de Pasteur, figures hautement symboliques de la Science. Néanmoins, la reconnaissance de leurs idées doit beaucoup à leur talent de persuasion (ce furent en effet tous deux de grands orateurs), à la puissance de leur séduction et également au climat socio-­économique de leur temps.
Dans ce sens, nous citerons deux extraits de « Contre la méthode » de P. Feyerabend, le premier justifiant, de manière générale, le rôle de l'irrationnel, le second ayant trait à un cas particulier, celui de Galilée :
1- « Il est clair que l'attachement aux idées nouvelles devra être provoqué par d'autres moyens que des arguments. Par des moyens irrationnels tels que la propagande, l'émotion, les hypothèses ad hoc et l'appel à des préjugés de toutes sortes. Nous avons besoin de ces moyens irrationnels pour soutenir ce qui n'est qu'une foi aveugle jusqu'à ce que nous ayons trouvé les sciences auxiliaires, les faits, les arguments qui transforment cette foi en connaissance solide. »
2- « Pour vérifier Copernic, il faut une conception du monde entièrement nouvelle, y compris une nouvelle conception de l'homme et de ses capacités à connaître. (...) Certains phénomènes observés au télescope sont manifestement coperniciens. Galilée présente ces phénomènes comme des preuves indépendantes en faveur de Copernic. Mais, le fait est plutôt, qu'une conception réfutée - le Copernicianisme ‑ présente une certaine ressemblance avec des phénomènes émergeant d'une autre conception également réfutée ‑ l'idée que les phénomènes télescopiques sont des images fidèles du ciel. Galilée l'emporte grâce à son style, à la subtilité de son art de persuasion, il l'emporte parce qu'il écrit en italien et non en latin, enfin parce qu'il attire ceux qui, par tempérament, sont opposés aux idées anciennes et aux principes d'enseignement qui y sont attachés. (...) Copernic est le symbole des idéaux d'une nouvelle classe qui tourne ses regards vers le passé classique de Platon et de Cicéron et vers l'avenir d'une société libre et pluraliste. (...) Galilée exploite la situation et il renforce ses positions par ces astuces, ces mots d'esprit et ces non sequitur dont il a le secret. »

Voici quelques exemples de théories qui furent imposées par la passion, la vanité, l'entêtement malgré des preuves tangibles pouvant constituer une réfutation à l'époque de leur élaboration : la théorie de la gravitation de Newton, le modèle atomique de Bohr, la relativité restreinte et générale d'Einstein... Ces théories bien que non validées complètement, mais quelle théorie le serait en fait, ont été adoptées aussi pour leur utilité dans la résolution de nombreux problèmes.

mardi 25 mai 2010

Appropriation ‑ Dépossession

« En effet, c'est la même chose que penser et être » ‑ Parménide (500 av. J.C.). Descartes connaissait ses classiques et sa fameuse maxime « cogito ergo sum » (je pense donc je suis) qui a contribué à sa gloire, avait déjà quelques siècles d'existence. Ce petit paragraphe servira seulement à montrer que le génie n'excuse pas certains défauts humains, ici, le manque de scrupules vis à vis de prédécesseurs ou de contemporains. Il est vrai aussi que citer ses sources est une habitude très récente. Il permettra également d'introduire le paragraphe suivant sur la dimension humaine des scientifiques et son influence sur l'évolution de la science.

- Le modèle de l'atome de E. Rutherford s'est vu approprié par Lord Kelvin.

- Darwin s'est largement inspiré, sans les citer, des travaux de Lamarck, son aîné, et des observations de Wallace, son contemporain et compatriote.

- Les textures du minerai de fer ont été étudiées par J. Serra au moyen de méthodes de morphologie mathématique. Par la suite, l'exploitation industrielle du brevet l'a dépossédé de sa technique.

- La dérive des continents a été expliquée grâce aux observations d'américains, Mason et Raff, Hess, Wilson, Vine et Matthews. Un maître français de la tectonique, ayant collaboré avec eux, revendique la paternité de la tectonique des plaques.

- Quant à Descartes, il est allé jusqu'à justifier ce comportement en mettant en avant sa nouvelle méthode. Lui seul détient les moyens d'apporter de véritables connaissances. "2000 ans de travaux et de découvertes sont effacés pour être réécrits" [selon les préceptes de sa méthode] (SERRES M., « Eléments d'histoire des sciences », ouvrage collectif, 1989, Bordas). C'est en effet le cas de la loi de réfraction de la lumière où seront laissés dans l'ombre, dans l'ordre historique, Archimède, Euclide, Ptolémée, AI Haytham, Witelo, Brahé, Képler et Snell. C'est en fait ce dernier qui énonça la loi de réfraction : sin r/sin i = constante, quelque soit i. Ecoutons Descartes : « La loi de la réfraction est démontrée par le fait que la proportion AH à IG demeure la même en toutes réfractions. » Cette tautologie insiste sur la généralité de la loi mais ne la démontre en aucune manière. Descartes n'a donc rien apporté de plus que Snell. Par contre, il a réfléchi sur la nature de la lumière : elle est tour à tour, en un ensemble peu cohérent, « bâton, fluide très subtil et petites billes virevoltantes », selon les besoins d'interprétation de différents problèmes. Mais la lumière n'est‑elle pas, en effet, rayon lumineux, ondes éthérées et corpuscules ?

vendredi 21 mai 2010

Oublis et redécouvertes

L'oubli d'une théorie, contrairement au rejet, est rarement prémédité. Il peut provenir d'une certaine paresse intellectuelle à rechercher des travaux anciens ou à prendre en compte une théorie qui apparaît comme trop novatrice, mal adaptée à l'air du temps. Les travaux des prédécesseurs seront jugés dépassés, sans vérification préalable, tels ceux de naturalistes du siècle dernier, fondés sur des observations, sous prétexte qu'ils datent. En fait, à ce moment là, ne pouvant disposer de techniques d'analyse performantes, les chercheurs concentraient tous leurs efforts sur l'observation, qui était de qualité.
Une autre cause d'oubli, celle‑ci dramatique, est la disparition pure et simple d'une génération de chercheurs qui auraient pu transmettre leurs connaissances. Ceci est arrivé en France à la suite de la grande guerre. Les personnes instruites, de l'instituteur à l'ingénieur, se sont retrouvées enrolées avec le grade d'officier. Les officiers, se devant de montrer l'exemple aux hommes de troupe, dirigeaient les assauts en tête de leurs troupes. Le carnage fut impressionnant. Une confirmation frappante vient, entre autres, du taux de survie des promotions de l'Ecole Normale Supérieure dans cette période là. « Sur les deux cent quarante élèves des promotions 1910, 1911, 1912 et 1913, cent vingt sont morts au combat et quatre vingt dix sept sont blessés. Seuls, vingt trois reviendront sains et saufs. » (MASSON N. (1994) « L’Ecole Normale Supérieure », Découvertes Gallimard, n°221). Ce taux est légèrement inférieur au dixième. "Décimer" est donc le terme exact pour exprimer le phénomène... Les conséquences en seront tragiques dans certains domaines de la science, où l'apport de l'expérience des anciens, souvent transmise oralement, est important, comme la géologie qui a vu régresser beaucoup de concepts intéressants entre les deux guerres. Nous verrons d'ailleurs à ce propos que non seulement des faits et des concepts sont oubliés mais que les théories dérivent vers les mythes car elles ne sont plus réfutées. La pratique n'existant plus, il est facile d'avoir de l'imagination tout en sachant qu'il n'y aura pas de sanction par les faits de terrain.

La théorie de Mendel peut illustrer l'une des causes d'oubli citées plus haut, mais il s'agit d'un cas un peu particulier (Collection des cahiers de Science et Vie : les grandes controverses, les pères fondateurs, les grands ingénieurs). Les découvertes de Mendel, lois de la ségrégation et combinaison indépendante des caractères lors de la reproduction, n'ont pas été reconnues avant d'être redécouvertes par trois botanistes, De Vries, Correns et Tschermack, quelques trente cinq années plus tard. « Redécouverte » est un terme sans doute inapproprié puisque ces chercheurs avaient besoin de l'article de Mendel pour saisir la signification de leurs résultats. Il n'en reste pas moins que la prise en compte par la communauté scientifique a demandé trois décennies alors même qu'il n'y avait pas eu rejet explicite. La spécificité des travaux de Mendel semble simplement avoir été ignorée, les quelques citations de ses articles faisant toujours référence à ses talents d'hybrideur et non pas aux fameuses lois qui fonderont la génétique. L'explication la plus probable serait celle d'une théorie peut‑être trop en avance sur son temps. C'est surtout une théorie explicative, sous forme combinatoire, permettant de comprendre des techniques utilisées, de manière empirique, par des botanistes hybrideurs contemporains de Mendel et à cette époque ces derniers ne trouvent guère d'intérêt à une théorie qui n'apporte pas d'amélioration aux techniques existantes. Plus tard ses résultats seront repris en considération car les progrès en biologie ont déplacé les problèmes des techniques d'hybridation vers la compréhension des mécanismes de l'évolution des espèces.
Enfin, l'oubli de concepts conduit de temps en temps à de vraies redécouvertes : l'origine superficielle de certains minerais, les réactions chimiques oscillantes, ...

jeudi 20 mai 2010

Rejet, oubli et redécouvertes

Le rejet d'une théorie peut advenir de trois manières différentes :
‑ Par la réfutation (la voie de recherche est sans issue). Des arguments incontestables ont été trouvés permettant d'écarter la théorie. Ces théories fausses sont plus ou moins tombées dans les oubliettes de l'histoire, mais il est bon d'en exhumer quelques unes par souci pédagogique, comme nous le verrons plus loin au paragraphe consacré à la logique de l'erreur.
‑ Par la censure (la voie est en sens interdit). On ne saura jamais si la théorie était vraie ou fausse car les autorités scientifiques ont dénié toute signification aux expériences et ont bloqué tout développement ultérieur. La théorie était trop gênante car semblant remettre en cause un pan important de la science officielle, alors qu'elle tentait une ouverture, vers un nouveau champ de recherche encore inexploré : mémoire de l'eau avec une ouverture vers le domaine d'organisation mésoscopique de la matière, même si les explications fournies ne semblent pas suffisamment étayées, biomagnétisme prenant en compte les interactions des ondes BF avec l'organisme vivant...
‑ Par le manque de preuves décisives ou d'explications probantes (la voie est submergée momentanément). En fait, la théorie après une période plus ou moins longue de mise en quarantaine, sera finalement acceptée car de nouveaux éléments plus décisifs seront mis en évidence. Le nombre de théories ou lois, ainsi étouffées pendant quelques dizaines d'années, est historiquement important. Ce phénomène, sous couvert d'arguments méthodologiques, illustre bien la résistance fréquente de la communauté scientifique aux découvertes. La prudence se convertit alors en frilosité. En voici quelques exemples parmi d'autres : la théorie de Wegener sur la dérive des continents, l'observation des taches solaires d'Alfvén, la théorie ondulatoire de la lumière de Young, l'induction électromagnétique de Faraday tant que la théorie de Maxwell ne fût pas établie (le fait n'existe pas sans l'explication), les microbes de Pasteur, les gènes 'sauteurs' de Mc Clintock...

Le cas le plus édifiant est sans doute celui de la théorie atomiste. Le concept d'atome (BALIBAR F., « L'atome de discorde », Science et Avenir, Nov.92) élaboré par les grecs Leucippe et son élève Démocrite (V ème siècle av. J.C.), repris par Epicure (III ème av. J.C.), attendra deux millénaires et cinq siècles pour être adopté par la communauté scientifique, grâce à la contribution d'Einstein et Perrin au début du siècle dernier. L'idée de l'atome a d'abord été très utile en chimie pour expliquer la loi des proportions définies. Mais déjà une controverse s'instaure entre les partisans de l'atome réel avec Galton (1820) et ceux d'un équivalent d'une unité de réaction chimique, comme Davy. Au XIX ème siècle globalement, suivant Kékulé, le concept d'atome est utile mais relève de la métaphysique, tel que le concevaient les grecs. La position des savants positivistes, tel que Berthelot, est d'ailleurs claire sur ce point : l'atome n'est pas observable ou mis en évidence expérimentalement, donc il n'existe pas. Dans le même temps, l'atome est défendu par des physiciens héritiers de Newton, comme Boltzmann et Maxwell qui développent la mécanique statistique, discipline ayant pour but d'établir un lien entre le microscopique (comportement des molécules) et le macroscopique (chaleur, pression, ... ). Ils se heurtent alors aux énergétistes qui ne voient guère l'utilité (contrairement à la chimie) du concept d'atome. Par exemple, Ostwald voit l'atome comme une fiction mathématique, mais le continu et la différentiabilité sous‑jacents aux équations différentielles, piliers de la physique, sont‑ils plus réels que le discontinu de l'atome? Ces tensions sortent même du cadre de la science et la remise en cause du mécanisme lié à l'atomisme atteint la science elle‑même dans sa validité. Boltzmann ne pourra le supporter et se suicidera en 1906.
La mise en évidence de phénomènes liés à la présence d'atomes débute par la découverte de Brown, botaniste, en 1828, de l'observation du mouvement erratique de grains de pollen dans l'eau. Mais son interprétation erronée du phénomène, pour lui le grain est mobile de manière intrinsèque, n'apportera pas de contribution à l'atomisme. C'est Einstein, en 1905, atomiste convaincu, qui s'intéressant aux travaux de Boltzmann sur les fluctuations autour d'une valeur moyenne, dues au grand nombre de particules, interprète correctement le mouvement brownien du pollen comme le résultat de l'agitation des molécules du liquide. Cette vision discontinue de la réalité physique l'amènera, d'ailleurs la même année, à prouver par l'effet photoélectrique, la validité de la théorie de Planck (1900) sur les quanta de lumière. Par la suite, Perrin de 1900 à 1911 expérimente (sur une idée de Langevin) à partir de suspensions colloïdales. Il en déduira la nature du mouvement brownien, la valeur du nombre d'Avogadro et la réalité moléculaire. Il faudra néanmoins attendre 1980, avec le microscope à effet tunnel, pour voir réellement les atomes. L'atome existe donc bien mais la vision mécaniste qui a soutenu l'atomisme sera désavouée dès le début du siècle dernier par la relativité avec la suppression de l'éther et par la mécanique quantique avec la dualité onde‑corpuscule. Atomisme et énergétisme était donc, comme souvent, deux facettes complémentaires d'une même réalité toujours complexe.

mardi 18 mai 2010

La science et la magie

Nous venons de voir les principaux facteurs qui poussent les scientifiques à la controverse :
- radicalisation des points de vue théoriques par les disciples,
- prise en compte séparée de caractères complémentaires d'un même phénomène,
- preuves expérimentales ambigues,
- impossibilité d'accepter un fait sans son explication (peur de l'inconnu, de l'inexpliqué),
- préjugés et blocages psychologiques,
- atteinte au pouvoir en place...

Ces problèmes d'évaluation des théories nous amène à élargir le champ de validité à la science même. Quand doit‑on parler de science et quand fait‑on de la magie? D'après R. Thom, la science et la magie se retrouvent dans la même catégorie de concepts, efficace et répulsive, alors que l'art est inefficace et attractif, l'aliment, efficace et attractif et l'excrément, inefficace et répulsif (THOM R., « Prédire n'est pas expliquer »). Il faut donc trouver un critère plus distinctif. «Il n'y a de science que dans la mesure où l'on plonge le réel dans le virtuel contrôlé… La physique est une magie contrôlée par la géométrie » (THOM R., « Esquisse d'une sémio-physique »). Ce point de vue, opposé au réductionnisme, implique que la pratique magique ne contrôle pas le virtuel, le monde des représentations.
Je serai plus précise en disant qu'elle ne contrôle pas les prémisses constituant la base de départ de toute construction scientifique. Car même si la méthode est scientifique, des prémisses fausses entraîneront des conclusions fausses. Ces prémisses fausses reposent sur l'existence d'un lien de causalité non prouvé entre observations réelles telles que l’influence de la date de naissance ou de la forme du crâne sur le caractère et les aptitudes d'une personne... L'établissement de ce lien causal vient de la confusion entre causalité et corrélation positive entre les faits.
Prenons les observations suivantes : Il fait beau (A), le voisin chante (B), les arbres fleurissent (C)
Il y aura une corrélation positive entre (B) et (C). Quand il fait beau, le voisin chante et les arbres fleurissent. La pratique magique fera abstraction de (A), en général parce qu'elle n'a pas les moyens de connaître ce paramètre, et va établir un lien de causalité entre (B) et (C) alors qu'il n'existe qu'entre (A) - (B) et (A) - (C). Ce type de raisonnement se voit parfois dans les sciences où les statistiques jouent un rôle important.
La pratique magique divinatoire sera assez efficace quand la corrélation positive est proche de 100%. Par contre, la pratique magique opératoire, qui compte agir sur les évènements, tel est aussi le but de la science, ne sera pas efficace. Elle consistera, dans le cas qui nous intéresse, par exemple à faire chanter le voisin pour que les arbres fleurissent. Nous retrouvons ici toutes les pratiques propitiatoires pour assurer une bonne réussite à la chasse, à la guerre ou une arrivée d'évènements heureux. Cette démarche s'est développée pour conjurer l'angoisse de l'homme devant son avenir et son impuissance devant les forces de la Nature.
La science, par un meilleur contrôle des prémisses, a réussi en grande partie en ce qui concerne la pratique opératoire mais reste toujours impuissante devant l’angoisse existentielle des humains, ce qui explique peut‑être la recrudescence de l'intérêt pour la magie dans les temps difficiles générateurs d'angoisse.
L'enjeu de la distinction entre science et magie est d'autant plus important que l'on assiste souvent à un mélange des genres : Képler était astronome et astrologue, Newton physicien et alchimiste, les prédictions astrologiques sont faites sur ordinateurs... La limite entre rationnel et irrationnel est floue d'autant que la science avance souvent ou s'impose par de l'irrationnel. De plus, elle est enseignée à la manière d'un dogme religieux et reste aussi mystérieuse que la magie pour la plupart des gens.
« La science a normalement une efficacité pratique et une intelligibilité théorique, mais la magie est souvent efficace, au moins psychologiquement, et la science devient ésotérique» (LEVY‑LEBLOND J.M., « L'esprit de sel. Science, culture, politique »). Elle est d'ailleurs trop liée au pouvoir (élitisme) et s'éloignant du plus grand nombre, elle finira par perdre une bonne part de son crédit, si l'on n'y prend pas garde.

lundi 17 mai 2010

Les controverses (suite)

3- La controverse de l'origine des micro‑organismes, par génération spontanée (Pouchet) ou par reproduction d'organismes déjà existants (Pasteur) s'est développée quant à elle à partir de difficultés expérimentales et de l'interprétation des résultats obtenus. Nous retrouvons là le problème de la reproductibilité. Pouchet n'a pu refaire les expériences probantes. Probantes avec un peu de chance, puisque les milieux utilisés par Pasteur ne contenaient pas d'organismes résistants aux conditions de stérilisation employées (dessication, ébullition) contrairement aux milieux utilisés par Pouchet. Bref, Pasteur avait raison mais Pouchet n'avait pas tort.
Bastian, un anglais, essaiera de défendre la théorie de la génération spontanée en mettant en avant l'existence de ces microbes résistants et forcera ainsi Pasteur à continuer ses recherches sur les problèmes de stérilisation. Ce sera Tyndall, également anglais, qui trouvera la forme résistante de bacille (spore de Bacillus subtilis) et cédera son résultat à Pasteur. La controverse aura donc eu le mérite de forcer les protagonistes à approfondir leurs recherches et se soldera par des améliorations significatives de la pasteurisation, telle qu'elle est pratiquée depuis. Nous voyons également que c'est l'idée théorique nouvelle de Pasteur, mise au goût du jour par d'autres expériences, qui l'emportera malgré des résultats expérimentaux ambigus et contradictoires (chez l'infortuné Pouchet, les flacons stérilisés contenaient des germes résistants à la chaleur ce qui l'a conduit à maintenir l’idée de la génération spontanée).

4- La théorie de la dérive des continents a été élaborée par Wegener en 1912. Auparavant, pour expliquer les similitudes de terrains et surtout de faunes existant de part et d'autre des océans, on faisait appel aux 'ponts continentaux' sorte de passerelles reliant les continents. Par des arguments transdisciplinaires (géologie, géophysique, biologie, paléontologie), il établit qu'à un moment donné de l'histoire géologique, il n'y avait qu'un seul grand continent, par la suite disloqué pour donner les continents actuels.
La controverse ne se situera pratiquement pas sur les preuves observationnelles mais se développera en raison de la faiblesse de l'argumentation relative au moteur de la dérive. Il s'agit là d'un travers bien connu, surtout dans les sciences naturelles où l'expérimentation n'est guère possible, qui veut que les faits n'existent pas s'ils ne sont expliqués, soit par la théorie en vigueur soit par une théorie nouvelle. J'ai personnellement entendu deux remarques de ce genre, alors que les faits observationnels existaient et étaient recevables :
- Le remplissage des gîtes minéralisés filoniens ne peut se faire par la surface car la théorie indique des températures élevées (> 120°C).
- Les roches volcaniques de type « ignimbrite » ne peuvent pas se mettre en place sous l' eau parce que la théorie physique actuelle affirme que c'est impossible.
En résumé, on ne comprend pas, donc ça n'existe pas. Seul, Einstein pouvait se permettre de dire et encore sous forme de boutade, que si les faits venaient à contredire sa théorie de la relativité générale, il serait près à penser que c'était Dieu qui avait tort! Wegener a donc été confronté à ce comportement quelque peu irrationnel et surtout à certains blocages psychologiques liés au fait qu'il était météorologue et non pas géologue. On admet rarement qu'une découverte soit faite par une personne dont ce n'est pas la spécialité. Et pourtant, les exemples célèbres ne manquent pas ne serait-ce que Pasteur qui était chimiste et Darwin qui était géologue.
Il est vrai que la dérive n'a été réellement vue et expliquée que grâce à des techniques d'investigation du fond des océans (dorsale médio‑océanique) bien après que Wegener eût disparu dans les brumes du grand Nord en 1930. Toute la communauté des géophysiciens a alors basculé, une fois l'explication trouvée, sans pour autant reconnaître les apports de Wegener! C'eût été sans doute reconnaître également un ostracisme que Wegener n'avait vraiment pas mérité.
« Ce que quiconque peut voir n'exige pas l'appui de l'opinion des autres et, avec celui qui ne veut pas voir, il n'y a rien à faire » Wegener.

5- La controverse qui opposa Galilée aux autorités religieuses est sans doute la plus connue car, non contente de révéler un changement de paradigme important - la Terre et donc l'homme n'est plus au centre de l'Univers, elle illustre une passation de pouvoir (une forme liée au savoir) de l'Eglise aux laïcs. Les autorités religieuses auraient, semble‑t‑il, plutôt encouragé Copernic à faire état de son hypothèse héliocentrique. Mais Galilée tenta d'imposer ce concept en apportant des preuves expérimentales, ce qui était fort nouveau. Il ne s'agissait plus alors d'une cosmologie parmi tant d'autres. L'Eglise a bien compris la nuance et d'ailleurs ses objections sur les preuves n'étaient pas toutes infondées. Galilée n'était pas infaillible, sa théorie des marées était fausse et la preuve du mouvement terrestre n'a été apportée que deux siècles plus tard par Foucault avec son pendule.

jeudi 13 mai 2010

Les Controverses

Les difficultés d'évaluation d'une théorie conditionnent l'apparition de controverses au sein de la communauté scientifique. Parmi les plus célèbres, comptons celles ayant trait à l'évolution des espèces (Darwin, Lamarck), à la nature de la lumière (onde, corpuscule), à l'origine des micro‑organismes (Pasteur, Pouchet), à la formation des continents et des océans (dérive et ponts continentaux) ou aux mouvements respectifs de la Terre et du Soleil (Galilée, Eglise).

Chaque controverse illustre un ensemble de difficultés à chaque fois différentes :

1- La théorie de l'évolution des espèces a tout d'abord dû surmonter une première controverse celle du créationnisme soutenant que le monde a été créé tel qu'on peut le voir actuellement. Cette controverse dure toujours puisque certains états des USA exigent l'enseignement, en parallèle, des deux théories à l'école.
L'évolution étant acceptée par la majorité des scientifiques dès le XIX ème siècle, restaient les problèmes liés aux mécanismes biologiques responsables de celle‑ci. Deux thèses s'affrontent, celle de Darwin qui supposent des mutations aléatoires et une sélection naturelle des plus adaptés à l'environnement et celle de Lamarck qui tient pour l'hérédité des caractères acquis par l'individu au cours de sa vie. La controverse est en fait apparue après la mort des deux savants par l'excès de zèle de leurs disciples. Ces derniers ont radicalisé la pensée initiale des deux hommes.

En fait, Darwin, s'étant largement inspiré des travaux de Lamarck, n'était pas contre l'idée de l'existence de phénomènes autres que la sélection du plus fort pour expliquer l'évolution. Ainsi, tente‑t‑il de le démontrer dans un de ses derniers ouvrages « La descendance de l'homme » que certains de ses disciples mettront au compte d'une divagation sénile.
Les nuances de la théorie de Darwin ont été éliminées pour pouvoir mieux imposer sa théorie et nier l'apport de Lamarck, ce français hérétique. Cette position a été confortée par les nouvelles découvertes de la biologie moléculaire qui abondait dans le sens d'un patrimoine génétique non influençable par l'environnement. Des travaux récents sont cependant beaucoup plus nuancés :

‑ Mise en évidence de gènes 'sauteurs' sous l'influence du milieu par B. Mc . Clintock, en 1940, et dont les travaux n'ont été reconnus que dans les années 80.
‑ Existence d'un ADN en dehors du noyau cellulaire dans les mitochondries et les chloroplastes (organites, peut‑être d'origine bactérienne, qui servent à la respiration de la cellule). Cet ADN est influencé par le cytoplasme et échange des brins avec l'ADN du noyau au moment de la mitose.
‑ Existence de virus capables de transformer leur ARN en ADN et de s'installer dans le matériel génétique d'un individu, avec aussi transport possible de gènes entre espèces.
Les interactions ADN‑milieu sont donc possibles. Lamarck, n'avait sans doute pas tout à fait tort.

2- Dans l'exemple de la théorie de la lumière, la controverse n'est pas venue de disciples trop zélés mais tient à la nature même de la lumière. Le concept de dualité onde‑corpuscule n'a été admis qu'au XXème siècle grâce à la mécanique quantique, élargi même à la matière par De Broglie (1924). Avant cette période, l'opposition est née entre les tenants d'une lumière particulaire (de Newton à Einstein) et ceux d'une lumière ondulatoire (Young, Fresnel, ... ), car les expériences révélaient tour à tour un seul des aspects de la nature de la lumière. Ce type de malentendu est assez fréquent en science. Chaque école de pensée développe son point de vue alors que bien souvent les phénomènes étudiés relèvent de plusieurs explications alors complémentaires. L'exemple de la lumière est en ce sens tout à fait pédagogique et celui de l'évolution, décrit plus haut, le deviendra sans doute.
Une parabole attribuée à Bouddha vient ici à point nommé : « Ayant fait convoqué des aveugles, leur rajah les mena auprès d'un éléphant. A l'un, il présenta une défense, à l'autre une oreille, au troisième la queue et au dernier un pied. A chacun, il dit : 'Voici l'éléphant'. Il leur demanda ensuite : 'Avez‑vous étudié l'éléphant? ‑ Oui, Majesté' répondirent‑ils. 'Alors, quelles sont vos conclusions ?'. Les aveugles répondirent à tour de rôle: 'l'éléphant est une sorte de pointe ‑ Non, l'éléphant est comme un éventail ‑ Non, l'éléphant est un genre de corde ‑ Non, l'éléphant est une espèce de tronc d'arbre. »

mardi 11 mai 2010

1- Certains résultats semblant infirmer la théorie seront, souvent inconsciemment d'ailleurs, écartés par le chercheur. Quel étudiant n'a pas, un jour en toute bonne foi, éliminé des points qui lui paraissaient aberrants sur un graphique.
2- Tout critère de réfutation appartient par définition au cadre conceptuel de la théorie attaquée. Restera‑t‑il recevable dans celui de la nouvelle théorie ? Non, si le changement de théorie est suffisamment profond pour correspondre également à un changement de paradigme (cadre général conceptuel). « Ainsi la découverte de coquilles fossiles sur une montagne ne prouve la variation du niveau des mers [ou l'élévation des chaînes de montagnes] que si l'on accepte la théorie de l'évolution. Pour un adepte du créationnisme, la Terre peut très bien avoir été créée d'un coup avec ses fossiles tout prêts! ». Le critère d'évaluation d'une théorie dépend de la signification du fait qui dépend elle aussi d'un cadre théorique. Heureusement que les changements de paradigmes (cadres de pensée) sont beaucoup moins fréquents que les changements de théories.

Les vérifications des conséquences peuvent être expérimentales mais aussi observationnelles quand l'expérience n'est pas réalisable et c'est le cas dans la plupart des sciences naturelles. Il s'agit alors de collecter le plus grand nombre de faits allant dans le sens de la nouvelle théorie. La logique de la preuve n'existe en fait que dans les mathématiques. Même dans les sciences expérimentales, trouver l'expérience cruciale qui prouvera sans conteste la véracité de la théorie est difficile et peu fréquent. Alors on va accumuler des expériences aux résultats plus ou moins ambigus et les statistiques feront le reste. Les preuves seront amenées de façon progressive et ne seront en fait jamais définitives. Certains vont même jusqu'à donner un petit coup de pouce aux statistiques pour faire émerger des résultats significatifs pour la nouvelle théorie. Mendel, sans doute inconsciemment et on lui pardonne puisqu'il avait raison, a utilisé ce procédé car les expériences qu'il avait menées ne pouvait conduire de manière fiable aux célèbres proportions qui ont été à la base de la génétique. Les poids respectifs des résultats expérimentaux comme les faits d'observation sont donc eux aussi susceptibles d'être influencés par la théorie : l'objectivité est un concept difficile à mettre en oeuvre.

Dans ce sens, le critère le plus souvent employé pour la validation des résultats expérimentaux est celui de la reproductibilité de l'expérience. Dans les sciences observationnelles, cela se traduit par la recherche de faits significatifs les plus nombreux possible. Dans le cas où l'on cherche vraiment à reproduire les expériences pour qu'elles valident une théorie (dans le cas contraire, on essaie d'invalider une théorie gênante), on peut se trouver confronté à des protocoles délicats et complexes :

1- Newton avait décomposé la lumière et analysé le comportement des différentes couleurs à l'aide de prismes. Pendant un demi‑siècle, ses détracteurs ont contesté la reproductibilité de l'expérience car ils utilisaient des prismes de mauvaise qualité et ne les plaçaient pas de manière suffisamment précise.
2- L'expérience de la balance de Coulomb n'a jamais pu être reproduite, car très délicate. Elle est pourtant à la base de l'électro-statisme et de la fameuse loi en 1/r2.

Le critère de reproductibilité n'est pas infaillible, surtout dans le domaine les sciences de la vie où la variabilité est une condition justement vitale. Il ne doit donc pas être utilisé sans discernement pour invalider une théorie. Un ancien ministre de la Recherche disait fort à propos: « S'il se présentait au CNRS, Dieu serait collé. Il a fait une manip intéressante, mais personne n'a jamais réussi à la reproduire. Il a expliqué ses travaux dans une grosse publication, il y a très longtemps, mais ce n'était même pas en anglais et, depuis, il n'a plus rien publié. »

La logique de la preuve peut même parfois, dans des cas extrêmes, devenir stérilisante, quand les instances scientifiques exigent d'affiner le protocole d'expériences déjà concluantes, mais gênantes, ou d'obtenir une plus grande quantité de l'élément découvert pour confirmation. Ainsi, l'obtention d'un gramme de radium demanda à Marie Curie une dizaine d'années d'efforts sans avancée théorique.

lundi 22 mars 2010

Validation et réfutation (suite)

L'autre restriction concerne les artéfacts (structures créées par l'homme) et illusions d'optique qui peuvent entacher l'observation. Parmi les plus connues, citons les aberrations optiques de la lunette améliorée par Galilée et il a fallu toute la confiance de ce célèbre savant en sa théorie pour qu'il puisse interpréter correctement ses observations. Il lui est d'ailleurs arrivé de se tromper, prenant les anneaux de Saturne pour un astre triple. En fait, l'observation comporte souvent déjà une part d'interprétation et l'une des réactions de scientifiques cherchant à défendre une théorie, est de taxer d'artéfacts des faits d'observation contredisant cette théorie.
Plus récemment, (GUILLOU J.J., 1984, « Existence de bactéries fossiles dans les magnésites », CR. Ac. Sc.), des bactéries fossiles ont été vues au microscope électronique à balayage dans des magnésites (Mg C03). Elles ont été considérées comme des structures artéfacts pour défendre l'origine hydrothermale (eau chaude T > 250 °C) des magnésites, la présence de bactéries impliquant une cristallisation à température plus basse dans un environnement sédimentaire. En outre, ces bactéries sont associées à un type de cristallisation par lissage de fibres qui, lui, contredit la théorie de la croissance du cristal parfait. Cela faisait beaucoup pour un seul type pétrographique...

b) L'hypothèse précède donc souvent l'observation et nous verrons un peu plus tard que l'énoncé de cette hypothèse requiert certaine méthode mais surtout une bonne dose d'imagination non canalisée et nourrie souvent d'irrationnel.

c) Enfin la vérification des conséquences, si elle est nécessaire pour permettre une induction vers une loi générale, ne peut être que partielle.
Seule la réfutation, selon K. Popper, c'est à dire trouver le contre‑exemple sera incontestable. Quoique...

vendredi 19 mars 2010

Vie d'une théorie - Validation et réfutation

Reprenons les étapes idéales de la méthode expérimentale qui prévaut actuellement :

a) Mise en évidence de faits contraires à la théorie admise
b) Formulation d'hypothèses théoriques et déduction des conséquences observables
c) Vérification expérimentale de ces conséquences, ce qui conduira au rejet ou à la validation de la nouvelle théorie.

Cette méthode est très efficace, si on lui apporte les nuances suivantes :

a) Il est reconnu que le fait empirique n'existe, qu'exceptionnellement, tel quel à l'état brut. Si le chercheur n'est pas préparé, dans un cadre conceptuel particulier, à voir un fait, il ne le verra pas car ce fait sera non significatif dans ce cadre. On ne peut que trier dans la masse des faits, chercher et retenir ceux qui sont porteurs de sens.
L'exemple personnel suivant en est une bonne illustration. Une étude de formations rocheuses avait été entreprise, en Bretagne, pour la recherche minière. La description des types pétrographiques, en lame mince, avait donné une origine sédimentaire pour les échantillons. Passionnée de volcanologie et motivée par la présence éventuelle de minerai (Au, Ag, Cu, Pb, Zn, ...) associé à des roches volcaniques, j'ai repris l'étude de ces roches. La composition minéralogique et chimique étant la même dans ce cas précis entre roches sédimentaires et volcaniques, seule la texture microscopique pouvait permettre de trancher. En fait, cette texture était visible pour tout observateur pétrographe et si elle n'a pas été prise en compte c'est parce qu'elle n'a pas été reconnue comme significative dans le cadre sédimentaire. La confirmation de textures volcaniques plus caractéristiques a ensuite été obtenue, après un an de recherche systématique, et avec une technique contraire aux habitudes puisqu'il fallait légèrement dérégler la mise au point du microscope. Cette deuxième phase relève d'ailleurs plutôt de la vérification des conséquences observables de la nouvelle hypothèse génétique.

Un autre exemple est cette fois‑ci dramatique d'un point de vue humain. Il s'agit du syndrôme de l'enfant battu. Les faits décrits, fractures multiples des os chez les jeunes enfants, sont visibles en radiographie et donc non contestables. Décrit dès 1860, commencé à être étudié en 1938, publié à partir de 1946, ce n'est qu'en 1962 que ce phénomène sera pris en compte par l'académie américaine de pédiatrie qui révèlera 749 cas d'enfants battus. L'opinion publique va s'en émouvoir et en 1976, le nombre de cas se chiffre par centaines de milliers. Le fait avait beau être objectif, visible à la radio, il ne sera pris en compte par les scientifiques qu'une fois reconnu par la société comme un problème important de santé et d'hygiène publique. Il n'est pire aveugle que celui qui ne veut pas voir.

mercredi 3 mars 2010

La vie d'une théorie - La théorie comme modèle

D'après BRISSAUD M. et GIRE A. « La modélisation ‑ Confluent des sciences » (1990, ouvrage collectif, éditions CNRS), le modèle est un objet transitionnel, de médiation entre le réel et les systèmes de représentation. Le mode intensif correspond au modèle qui donne du sens à un ensemble de faits réels, le mode extensif correspond à un modèle/outil qui permet de simuler un ensemble de faits.

Les modèles peuvent se distinguer selon deux axes :
- Modèles scientifiques/Lois scientifiques et Modèles mythologiques/Principes et mythes fondateurs
- Modèles historiques/Lois éthiques, théologiques et Modèles actuels/Lois sociales concrètes
Il se distinguent également selon quatre directions méthodologiques principales :
- Modèle logique/Archétype ‑ Formule
- Modèle analogique/Symbole
- Modèle phorique/Fait empirique
- Modèle métaphorique/Image - Idée

La théorie est un modèle scientifique, rassemblant un certain nombre de lois scientifiques en un tout cohérent prédictif et/ou explicatif (voir Thom R. « Prédire n'est pas expliquer », 1994, Flammarion). En effet, les théories prédictives telle que la mécanique quantique assurent la prévision d'un certain nombre d'évènements sans pour autant être capable d'en expliquer le sens profond. Il est bien reconnu que le manque d'intelligibilité, dû à un formalisme ardu déconnecté de la réalité sensible, n'empêche pas cette théorie d'être très efficace dans le domaine de la prévision. A l'opposé, la théorie des catastrophes de R. Thom, utilisant des modèles topologiques (fronce, queue d'aronde, papillon, ...) pour expliquer les instabilités morphogénétiques, est explicative (a posteriori) mais non prédictive. La fronce est un modèle explicatif du diagramme de phase (Vapeur, Liquide) de l'eau en fonction de la température avec un point critique (C).

Il est aussi des théories prédictives et explicatives, celles en particulier toutes récentes liées aux fractales. Dans le domaine méso et macroscopique, A. Le Méhauté et al. ("Flèches du temps et géométrie fractale", 1998, Hermès, ouvrage auquel j'ai modestement contribué), relient les notions de flux, de force et de dimension fractale. Le sens réapparaît par le biais de la géométrie (cf. R. Thom ci‑dessus) et les prédictions sont nombreuses dans le domaine du comportement exceptionnel des matériaux (supraconductivité à température ambiante, isolation électromagnétique, acoustique, matériaux s'adaptant à leur environnement, ... ).
De même pour L. Nottale ("L'univers et la lumière", 1994, Flammarion) qui en éliminant la plupart de ses paradoxes, redonne du sens à la mécanique quantique par la prise en compte du parcours fractal des particules. Sa théorie permet la prédiction, entre autres, dans le domaine microscopique, du spectre des masses des particules élémentaires et, dans le domaine mégascopique, de la répartition des distances des planètes au soleil.

mardi 9 février 2010

Historique des modes de raisonnements (fin)

La méthode cartésienne privilégie la raison pure et ne laisse jouer aucun rôle aux faits sensibles qu'ils soient observationnels ou expérimentaux. Descartes n'octroie aucune confiance aux sensations ou sentiments qui peuvent corrompre le bon déroulement du raisonnement. Il reste donc dans la droite ligne des recommandations de Platon. Dans le même siècle se développe la méthode expérimentale inaugurée essentiellement par Galilée, ce qui lui vaudra d'être inquiété par les autorités religieuses quand il voudra l'appliquer pour imposer l'héliocentrisme. La collecte des faits devra être suivie d'après Bacon (1561‑1626) par un raisonnement inductif qui permettra d'édicter une loi à partir des faits cruciaux.
La méthode expérimentale ne sera codifiée que bien plus tard par Cl. Bernard (1865). Elle se résume en trois temps :

‑ L'observation d'un fait qui pose problème par rapport aux théories en vigueur. La première étape est donc celle d'un questionnement qui va déclencher la recherche d'une réponse. C'est cette étape pourtant essentielle qui est souvent omise dans l'enseignement.
‑ La formulation d'une hypothèse va tenter de résoudre le conflit.
‑ Cette hypothèse devra être testée expérimentalement. Le résultat, si l'hypothèse est confirmée, sera sans doute l'énoncé d'une nouvelle loi ou même peut‑être celui d'une nouvelle théorie.
La méthodologie en tant que telle ne peut fournir les idées pour les nouvelles hypothèses mais permet d'assurer que ces idées seront utilisées judicieusement pour faire avancer la science.

mercredi 3 février 2010

Méthodologies
Historiques des modes de raisonnement

Déduction, induction et analogie sont les grands types de raisonnement actuellement employés. L'exposé des méthodes s'inspire largement de J.M. Nicolle (1994) « Histoire des méthodes scientifiques », Bréal.
Les grecs ont été les premiers à établir des lois scientifiques et à utiliser la démonstration pour conforter leurs affirmations. Thalès (VII ème siècle av. J.C.) observe que les ombres portées par un corps, quelque soit sa hauteur, sont en rapport constant avec cette hauteur, à une heure donnée. Cette première loi de l'histoire des sciences a été établie par induction du particulier au général et par abstraction des phénomènes en ne considérant que leurs rapports. Quant aux règles de démonstration, telles que nous les connaissons, elles furent définitivement établies au V ème siècle av. J.C. Mais l'émergence de la démonstration a été progressive : au début, pour Pythagore, il s'agissait de "montrer" concrètement à l'aide une figure. La technique employée est celle par essais/erreurs jusqu'à ce que la figure trouvée corresponde au résultat cherché. Le passage de "montrer" à "démontrer" ne sera possible qu'en changeant le cadre conceptuel du raisonnement. La démonstration implique la connaissance â priori d'une proposition que l'on se donne afin d'en déduire logiquement et avec rigueur une autre proposition. L'idée (selon Platon) prévaut sur le fait d'expérience. On ne privilégie plus la réalité sensible mais les constructions de l'esprit par le raisonnement.

La Renaissance, après une période non exempte de créativité mais dans l'ensemble hors du domaine scientifique, redécouvre pleinement l'héritage des grecs et l'autonomie de l'esprit par rapport à l'Eglise. Descartes (1596‑1650) met alors au point sa méthode basée uniquement sur l'exercice de la Raison. L'exercice des mathématiques où il invente les coordonnées cartésiennes, l'algébrisation de la géométrie où il redécouvre l'analyse géométrique, lui permet de dégager les quatre préceptes suivants :

‑ La règle de l'évidence: il faut partir de prémisses vraies et prendre le temps de vérifier leur véracité sans qu'il ne subsiste plus aucun doute.
‑ La règle de l'analyse : elle demande de diviser les difficultés jusqu'au stade ultime où il y a perte du sens.
‑ La règle de l'ordre de la résolution des difficultés se fera de la plus simple vers la plus complexe, sans parler encore de synthèse. L'ordre quoique ascendant est plutôt celui d'une déduction logique allant du simple vers le composé et non du particulier au général comme dans l'induction.
‑ La règle des dénombrements, elle permet de ne rien oublier que ce soit dans les paramètres ou les étapes du raisonnement.
Les retombées et conséquences de cette méthode seront analysées ultérieurement.

mercredi 27 janvier 2010

La compréhension des concepts (fin)

L'explication des concepts pour chaque discipline est illusoire dans le temps imparti et ce rôle reste dévolu à chaque intervenant dans sa discipline privilégiée.

Il reste cependant possible, en un nombre d'heures restreint et dans les chapitres suivants, de brosser un panorama de l'avancée de la science qui ne se fait ni en ligne droite, ni continûment (rupture épistémologique) et qui marche parfois à reculons quand une génération entière de savants est décimée par une guerre. Les facteurs d'avancée sont rationnels, liée aux méthodes (Descartes, Bernard, Bachelard), mais aussi irrationnels liés aux passions, au talent de persuasion du savant et au contexte socio‑politico‑économico‑religieux du moment (Galilée, Pasteur, Darwin)... Le hasard joue aussi son rôle bien qu'il ne favorise que les esprits préparés, déjà en recherche sur une idée (Pasteur). Les obstacles épistémologiques, la validité des preuves et les erreurs seront analysés pour expliquer l'apparition de controverses tenaces et pour faire ressortir quelques grands traits du comportement humain face à l'acquisition de connaissances. Il s'agit de Connaissance et non de Vérité car cette dernière semble fluctuer d'un cadre conceptuel à un autre.

La construction des concepts est indissociable de la délimitation de leur champ d'application. Il faut donc introduire dans l'enseignement des théories fausses qui permettent par leur critique de circonscrire les domaines d'applicabilité des concepts. L'examen critique et la décision raisonnée de la validité des idées devraient être largement encouragés car très instructif. En effet, la réfutation des théories erronées fait appel à des savoirs divers et à leur coordination.

Un exemple de concept erroné est celui qui a constitué la base de la théorie de la gravitation de Lesage (XVIII ème siècle). L'action à distance, prônée par Newton, ne le satisfaisant pas, Lesage imagina que les corps célestes étaient constamment bombardés de particules. Si deux corps sont relativement proches, ils se font mutuellement écran et la proportion de particules atteignant les corps est beaucoup plus forte sur les faces qui ne sont pas en vis à vis. Les corps sont donc poussés l'un vers l'autre plutôt qu'attirés. Cette théorie avait au moins le mérite d'offrir un repos bien mérité aux anges qui jusqu'alors donnaient leur impulsion aux planètes. Cette théorie est cohérente et de nombreux auteurs ont donné des arguments de réfutation non valables. Par exemple Feynman (1980, « Nature de la physique », Seuil, Points sciences) : « Si la terre est attirée, elle avance et à l'avant, elle sera percutée par plus de particules qu'à l'arrière. Il y aura freinage et le mouvement ne pourra se perpétuer aussi longtemps qu'observé. » L'argument ainsi explicité dépend des vitesses respectives du corps et des particules pour déterminer le freinage et présenté sous cette forme n'est guère convaincant. Seul, Poincaré parviendra à trouver l'argument subtil mais décisif quelques deux siècles après Lesage. La réfutation d'une théorie cohérente mais fausse n'est donc pas évidente. Elle tient ici à la détermination du champ de validité de deux concepts antagonistes : l'action à distance et l'action par contact.