dimanche 18 novembre 2012

De la science vers la technologie - Diesel

L'analyse du cas suivant va nous permettre de dégager d'autres routes vers la réalisation de hauts faits technologiques. La motivation première de Diesel, alors jeune ingénieur, est de réaliser le moteur idéal, isotherme, présentant le cycle de Carnot et dont le rendement énergétique est maximal (hors série n°31, février 1996, Cahiers de Science et Vie, les grands ingénieurs). Les premiers brevets déposés iront dans ce sens mais les réalisations technologiques s'avèreront assez éloignées de leurs préconisations, ce qui posera d'ailleurs quelques problèmes à leur auteur. La conception des premiers moteurs Diesel est basée sur l'association inédite de systèmes déjà existants tels que la pulvérisation du combustible, une compression élevée, une inflammation par contact avec des surfaces chaudes, ceci pour créer un moteur tendant vers l'isothermie, à forte température et pression où le combustible s'enflamme spontanément à l'intérieur du cylindre. La réussite viendra également du fait que les firmes qui pousseront Diesel (Augsburg et Krupp), ne possèdent pas de spécialiste de combustion interne tel que l'ingénieur Langen, qui ayant entrevu les problèmes pratiques de ce type de moteur, refusera d'avancer dans cette voie. Trop de connaissances peuvent parfois agir comme agent bloquant. Un certain nombre d'avancées scientifiques ont ainsi pu voir le jour parce que leur inventeur ne savait pas qu'elles seraient impossibles à réaliser... Le meilleur comportement à adopter reste sans doute celui d'essayer et de garder la foi dans ses idées même si les premières réalisations sont décevantes. C'est ce que fit Diesel. Et quand on voit maintenant le rôle que tient le moteur Diesel dans les transports, il est douloureux de penser que son inventeur disparut dans l'océan à l’age de 55 ans en 1913, miné par des problèmes économiques et des tracasseries administratives.
En dernier ressort, la distinction à faire n'est pas tant entre science fondamentale et science appliquée ou technologique, en prenant comme critère le plus ou moins long terme des retombées industrielles, mais bien entre la recherche « révolutionnaire », génératrice de nouveaux paradigmes, et la recherche incrémentale ou « normale », les termes de révolutionnaire et normale étant pris au sens de Kuhn (« La structure des révolutions scientifiques », 1983) . Si la première est finalisée comme la seconde, et des exemples récents sont là pour le prouver, le bénéfice pour la société en sera d'autant plus grand. L'émergence de nouveaux concepts peut très bien résulter d'un souci très pragmatique. Les retombées seront alors immédiates et la science aura fait un bond en avant. Cette démarche demande sans doute une agilité intellectuelle hors normes. Mais les résultats sont tellement enthousiasmants que toute formation d'ingénieurs ou de scientifiques devrait être pensée dans ce sens. L'homme de science se rapprocherait ainsi de l’idéal rêvé par des générations de penseurs : les pieds sur terre et la tête dans les étoiles.

De la science vers la technologie - Pasteur


Les premiers travaux de Pasteur, chimiste et cristallographe de formation, porte sur les propriétés optiques des tartrates (« 200 ans de science, 1789‑1989 », Science et Vie, Hors série n°166, mars 1989). Certaines espèces dévient la lumière polarisée vers la droite (dextrogyres) d'autres vers la gauche (lévogyres) et Pasteur reconnaît là deux formes moléculaires symétriques dans un miroir. Il s'agit là des premières observations d'une science, la stéréochimie, étude de l'arrangement des atomes dans les molécules, qui fournira les concepts de base à la biologie moléculaire et à la pharmaceutique. Une méthode pour séparer les deux formes consistent à faire vivre des moisissures (penicillium glaucum) sur les tartrates. Les micro-organismes ne se nourrissent que de la forme droite et laissent donc apparaître comme résidu la forme gauche. Le hasard est parfois d'une aide précieuse puisque cette technique résulte de l'observation de coupelles de tartrates oubliées sur un rebord de fenêtre et envahies par le moisi... Comme le croisement de la cristallographie et de l'optique fonda la stéréochimie, le croisement de la physiologie et de la chimie ouvrit un domaine à l'avenir prometteur, celui de la maîtrise des micro-organismes. Nous entrons alors dans la période de recherche finalisée. Pasteur fut motivé dans ces recherches sur la fermentation par les brasseries industrielles de Lille et sur les maladies infectieuses par les instances nationales (production agricole et santé publique). Nous mesuront ainsi les points clés qui déterminèrent la réussite de Pasteur : le croisement de disciplines différentes, une forte motivation pour des applications industrielles et médicales doublées d'un esprit d'observation hors du commun (il réalisa adolescent des portraits très ressemblants). Nous avons déjà mentionné dans le billet « Le social et le scientifique » de mai 2010 , les raisons moins scientifiques de sa domination et de l'établissement de son mythe.

De la science vers la technologie - Introduction


Beaucoup d'exemples cités dans de précédents billets participent de ce transfert, de la science dite fondamentale vers les applications technologiques. Cette démarche de recherche finalisée permet l'émergence de l'innovation sous forme de sauts scientifiques et technologiques. La distinction des sciences fondamentales ou appliquées, théoriques ou expérimentales, « dures » ou « molles », n'est plus de mise quand on se trouve confronté au problème de la création et de l'innovation comme en témoigne Yves Quéré dans l’introduction à son cours de  « Physique des matériaux » de l’Ecole Polytechnique.
 La recherche industrielle illustre dans la plupart des cas ce transfert des concepts scientifiques vers les applications technologiques. Les premiers laboratoires industriels furent créés vers la fin du XIXème siècle dans les grandes sociétés orientées vers la production de l'électricité, de l'acier, des engrais, du sucre, des médicaments, des colorants et du pétrole, sociétés situées dans des pays en voie de forte industrialisation comme les USA ou l'Allemagne (SERRES M. (1989) « Eléments d'histoire des sciences »). Leur création a surtout été liée dans les débuts au besoin de contrôle de la standardisation nécessaire au développement de ces sociétés. 
La recherche industrielle fonctionne intrinsèquement comme la recherche académique, mais le contexte historique n'est pas restitué contrairement aux recherches dites pures qui elles sont réintégrées au sein des travaux préexistants pour justifier de leur cohérence avec eux. La recherche industrielle vit essentiellement dans le présent. Retrouver sa dimension historique permettrait néanmoins, même si cette opération est délicate, de réinsérer ce domaine d'activité dans notre culture.
Pour illustrer cette recherche finalisée nous prendrons le cas de deux scientifiques qui ont pourtant été classés par l'histoire dans deux catégories bien différentes : celle des savants désintéressés préoccupés seulement de science pure avec Pasteur et celle des ingénieurs tournés vers la technologie et le rendement avec Diesel. Ces catégories sont en fait arbitraires puisque nous verrons l'un et l'autre préoccupés de trouver des applications à des concepts de grande portée scientifique.

jeudi 8 novembre 2012

Les analogies et leurs limites (2/2)


Si le modèle analogique est suivi trop strictement, certaines de ses conséquences ne seront pas forcément pertinentes pour le sujet traité et peuvent même inhiber la progression de la connaissance. L'idée de l'atome, introduite par Zénon d'Elée en 460 av. J.C., développée par Leucippe et Démocrite à cette même période, sera très controversée jusqu'à l'expérience décisive de Perrin en 1910. L'existence même de l'atome sera considérée comme évidente lorsqu'on aura réussi à le diviser dans les expériences de fission. L'atome, en tant que particule insécable par définition, disparaît donc au moment où son existence devient irréfutable ! La controverse à la fin du XIXème siècle faisait donc rage entre les énergétistes et les atomistes, les premiers reprochant aux seconds d'avoir fait d'une représentation, d'un concept imagé, certes commode, un véritable objet réel. Pour eux la petite phrase célèbre dans un contexte plus poétique « Dessine moi un atome » était porteuse de dérives dangereuses.
Les physiciens du début du XXème siècle ont beaucoup utilisé les analogies comme outil heuristique et l'atome de Bohr conçu comme un système solaire en miniature a imprégné des générations d'étudiants. Mais il a fallu dépasser les images analogiques pour aller plus loin en mécanique quantique, le monde microscopique n'ayant guère d'équivalent dans notre monde sensible.

Nous terminerons ces deux billets sur les limites de l'analogie par une citation d'I.Stengers : « Certains chimistes du XVIIIème siècle ont tenté de comprendre la réaction chimique à partir du concept newtonien de force d'interaction... par une analogie purement verbale ». 
Mais c’est Lavoisier avec ses bilans (il était fermier général, équivalent de nos TPG actuels) qui mettra la chimie sur les bons rails en démontrant la conservation de la matière durant les réactions, faisant naître ainsi la notion d’élément chimique. Les notions d’interactions atomiques ou moléculaires via le cortège électronique ne viendront que bien plus tard au XXème siècle.

Les analogies et leurs limites (1/2)


Nous avons déjà vu précédemment Descartes et plus tard Maxwell, peupler de tourbillons et de divers mécanismes les espaces laissés vacants par la matière. Ces analogies sont des aides visuelles pour la pensée. Elles permettent la prédiction du comportement des éléments étudiés, mais en aucun cas, elles ne pourront apporter une explication aux processus. L’aspect explicatif des théories n’est pas toujours nécessaire à l'avancée de la science (la nature fondamentale de la gravitation reste toujours inexpliquée malgré les beaux efforts du XXème siècle), mais il reste néanmoins plus satisfaisant pour l'esprit qu'une simple prédiction, principal reproche qu'Einstein énonçait à l'encontre de la mécanique quantique.

L'analyse de la démarche de Carnot va nous donner quelques points de repère. L'objectif de Carnot était de mener une réflexion pratique sur le rôle de la chaleur dans les machines à vapeur pour en augmenter le rendement car à cette époque (1820) l'industrie anglaise était fort en avance grâce à la maîtrise de la vapeur. Carnot énonça ainsi l'un des principes fondamentaux de la thermodynamique qui émane de la liaison travail ‑ échanges de chaleur. Il partit de l'idée admise en son temps que la chaleur était transportée par un fluide indestructible, le calorique et, par analogie avec la chute d'eau, il en conclut que le paramètre fondamental essentiel à la caractérisation du travail fourni est la différence des températures entre corps chauds et froids et non les valeurs absolues de ces températures. L'analogie trouve ses limites dans une proposition non démontrée par Carnot : le rendement est bien proportionnel à T1 ‑ T2, mais il baisse quand T1 augmente. Cette notion ne peut être extraite de l'hydraulique. Cette discipline ne fournira pas non plus l'inspiration pour la découverte des processus fondamentaux des échanges de chaleur. Les phénomènes de diffusion, de convection et de rayonnement ne s'expliqueront, que bien plus tard, par l'agitation moléculaire et la mécanique quantique. La notion de fluide calorique aura alors été abandonnée depuis longtemps.

dimanche 28 octobre 2012

Concepts nomades - Le biomimétisme (2/2)

L'étape ultime de la bionique ou biomimétisme, dont les premiers jalons ont déjà été posés avec les matériaux intelligents cités précédemment, sera d'implanter l'équivalent d'un code génétique dans le matériau. L'information sera inscrite dans sa structure même et il pourra réagir en fonction des sollicitations extérieures. L'effet le plus inédit serait sa capacité à s'auto‑organiser de façon complexe pour une adaptation à l'environnement, l'équivalent d'une véritable embryogenèse. 
Une première approche de cette démarche est effectuée par le contrôle de la géométrie interne du matériau, via des structures fractales mésoscopiques qui régulent le rendement énergétique. 
Les fractales sont également de bons candidats car elles autorisent la différentiation droite/gauche dans l'espace. La caractéristique fondamentale des systèmes vivants réside en effet dans la possibilité de distinguer deux formes moléculaires symétriques dans un miroir, dites dextrogyres ou lévogyres en fonction de la direction dans laquelle elles font dévier le plan de polarisation de la lumière polarisée : les microorganismes se nourrissent exclusivement des formes dextrogyres (déviation vers la droite) de certaines substances (cf. les travaux de Pasteur, chimiste de formation). Sans se laisser entraîner dans le mythe de Frankenstein, il est néanmoins raisonnable d'espérer créer des structures qui s'auto‑organiseront en fonction de leur environnement et des fonctionnalités qui auront été programmées dans leur matériau constituant.

Concepts nomades - Le biomimétisme (1/2)


L'une des premières sources d'inspiration fut sans doute l'observation de la structure des êtres vivants : parmi les exemples les plus connus, nous citerons les structures composites orthotropes multi-couches qui imitent le bois, les stratifiés en nid d'abeille pour la résistance et l'allègement, les formes aérodynamique des bateaux et des avions (l’analogie s'arrêtera pour l'aile delta des mirages dont la forme ne sera plus effilée comme celle des grands voiliers que sont les frégates ou les albatros). Des exemples tous récents et moins connus se retrouvent dans les domaines suivants :

- L'atténuation du bruit au niveau de la coque des sous‑marins avec l'utilisation de revêtement analogue à la peau de requin.
- La conception d'automates aux formes d'arthropodes dont les pattes ventousées leur permettent de progresser dans des canalisations conduisant au coeur de centrales nucléaires pour détecter et réparer des fuites éventuelles en environnement hostile pour l'homme.
- La mise au point d'un télescope à rayons X à partir de l'étude du système optique orthogonal de l'oeil d'écrevisse.
- La production de protéines analogues à celles qui constituent la soie d'araignée pour obtenir des fibres dont les performances mécaniques dépassent celles de nos meilleures fibres synthétiques telles que le Kevlar.
- La conception d'un nouveau matériau pour les hélices de turbine de moteur à réaction supportant de fortes variations de température. Sa structure lamellaire constituée de fines couches alternées de carbure de silicium et de feuilles de carbone imite celle de la coquille d'escargot où les couches prismatiques de carbonate de calcium sont maintenues par de fines couches de protéines. Qui aurait pensé qu'un jour un escargot puisse fournir un modèle de perfectionnement pour le moteur à réaction !

Concepts nomades - La systémique

Les sciences de la Terre et du vivant ont ceci de particulier, par rapport aux sciences physiques, qu'elles durent très tôt s'intéresser à des systèmes complexes où un grand nombre de paramètres interagissent et selon des échelles spatio‑temporelles différentes. 
Cette vision globale et systémique des processus sera formalisée dans la théorie des systèmes, cadre désormais bien utile pour les sciences physiques, économiques, politiques et sociales. L'exemple retenu n'est pas tout récent et même antérieur à la théorisation de la systémique puisqu'il relate la naissance du premier réseau d'éclairage électrique promu par Edison dans un quartier de New York en 1882 (l'ampoule électrique fut mise au point en 1878). La conception d'un réseau électrique urbain implique la prise en compte de considérations technologiques mais aussi économiques, politiques et sociales comme l'accueil d'un nouveau type d'éclairage individuel. Du point de vue technique, le réseau sera pensé dans son ensemble puisque les caractéristiques de chacun des composants, centrale génératrice de courant, régulateurs, fils de distribution et ampoules seront définies pour un fonctionnement global optimum tout en respectant les règles normatives de sécurité. 
La mise au point du système se fait en traitant tous les problèmes de front et en concevant globalement ce système sans en maîtriser au départ tous les aspects. Cette démarche demande une bonne dose d'anticipation ainsi qu'un goût du risque certain. Mais les résultats seront à la hauteur des difficultés rencontrées. Bien sûr le premier quartier illuminé sera prestigieux et les premiers à bénéficier d'une lumière si brillante et si souple d'utilisation seront les investisseurs du projet et les bureaux du New York Times qui s'empressera d'en faire la publicité. Edison est un fin politique et les quartiers d'immigrés, où la densité de population est pourtant la plus forte et qui feront au XXème siècle la puissance économique des USA, attendront quelque peu les bienfaits de la fée Electricité.
                       
La systémique deviendra à partir des années 80, l'inspiratrice de techniques d'innovation, par exemple dans la conception de produits nouveaux. Tous les aspects de la vie d'un produit sont pris en compte dès le début de l'étude et la fonctionnalité du produit sera obtenue par le contrôle des interactions des différents composants entre eux et avec l'environnement (comprenant les clients). Globalité et interaction semble bien les deux concepts clés de l'organisation du vivant. Ils sont à la base d'une caractéristique fondamentale du vivant qui est la possibilité d'adaptation à des conditions de vie changeantes. C'est exactement ce qui est recherché lors de la conception des matériaux dits intelligents. Leur structure par effet de feed‑back, notion si importante en endocrinologie et en automatisme, évolue pour s'adapter aux nouvelles conditions d'utilisation.

Concepts nomades - Le temps (2/2)


La flèche du temps apparût un peu à la même époque en physique avec le deuxième principe de la thermodynamique. Mais l'irréversibilité macroscopique trouvera une explication microscopique et réversible avec Boltzmann. Le paradigme en cours mécaniste et déterministe sera ainsi conforté par les statistiques. Il faudra attendre la fin du XXème siècle pour que l'irréversibilité redevienne un concept clé dans les domaines traitant de la dissipation d'énergie et d'organisation de structures qui lui sont liées (Prigogyne, Le Méhauté). L'irréversibilité existe bien au niveau microscopique et serait liée à la géométrie fractale de l'espace‑temps. Cette nouvelle approche permet d'ailleurs d'éliminer nombre de paradoxes de la mécanique quantique (Nottale). 
La liaison espace‑temps effectuée par Einstein dans sa théorie de la relativité avait ouvert la voie. Mais son espace-­temps restait différentiable et la flèche du temps n'apparait pas dans ces conditions. L'irréversibilité intrinsèque vient de la non différentiabilité. En effet chaque point se déplaçant dans l'espace des phases admet deux tangentes différentes donc une vitesse antérieure (-) et une vitesse postérieure (+). Incidemment la notion de trajectoire devient caduque et il est possible de définir une flèche du temps. En mécanique quantique, l'équation de la fonction d'onde mélange les deux vitesses (+) et (-), ce qui rend l'équation réversible. 
L'irréversibilité vient également de la structure en arbre qui sous‑tend les fractales. L'énergie semble se dissiper en effet dans les échelles spatiales : à chaque bifurcation de l'arbre durant la descente dans les échelles, un choix est fait lors du transfert d'énergie et cette information est perdue. Le processus réversible qui ferait remonter l'énergie le long de l'arborescence n'est plus possible, d'où apparition de l'irréversibilité (Le Méhauté).

A l'échelle microscopique, les processus physiques qui pour l'instant sont le mieux maîtrisés, c'est à dire simulables par ordinateur, sont ceux dont les constantes de temps sont proches de 10-8 à 10-5 seconde et dont les corrélations entre interactions moléculaires sont de courte portée. Il est alors possible d'extrapoler vers le comportement macroscopique dont les constantes de temps sont de l'ordre de la centaine de secondes. Si nous prenons l'exemple du comportement des polymères, un phénomène de ce type serait la diffusion de petites molécules d'oxygène au travers de caoutchoucs. Lorsque les corrélations entre unités polymériques sont de longue portée, l'extrapolation n'est plus possible et les théories doivent prendre en compte les phénomènes agissant à l'échelle mésoscopique avec des constantes de temps proches de 10‑6 à 10‑3 seconde. Des tentatives récentes donnent bon espoir quand aux possibilités de modélisation du comportement de copolymères ou de mélanges de polymères où les interactions entre les chaînes jouent un grand rôle (reptation, fractales,...).

Concepts nomades - Le temps (1/2)

Après ces quelques considérations d'ordre général, nous allons nous intéresser à deux transferts particuliers dont les répercussions scientifiques et technologiques sont d'importance. Nous traiterons tout d'abord l'introduction du concept « temps » dans la physique contemporaine, concept mis en valeur au milieu du XIXème siècle d'une part par Lyell et Elie de Raumont, fondateurs de la géologie et d'autre part par Lamarck et Darwin pour leur théorie de l'évolution des espèces. Ensuite nous aborderons les apports de l'organisation du vivant dans les sciences physiques via la bionique et la théorie des systèmes.

Fonder une science, jusqu'au XIXème siècle, signifiait souvent être en rupture avec les conceptions de l'Eglise. Ce fut le cas pour Lyell, Lamarck et Darwin qui introduirent en science des échelles de temps allant du million à quelques centaines de millions d'années en contradiction avec l'échelle de temps préconisée par l'Eglise et extrapolée à partir de l'exégèse biblique, au pire sept jours et au mieux 6000 ans. En Chine, l'interprétation correcte des fossiles en tant que restes d'êtres vivants très anciens, a été donnée dès le 1er siècle av. JC.
La datation de la Terre à 4.5 milliards d'années ne sera effective que dans les années 60 grâce aux isotopes radioactifs. Entre temps l'âge de la Terre avait été ramené à 40 000 ans par Lord Kelvin sur des considération physiques de chaleur interne et de vitesse de refroidissement, faisant fi de toute observation géologique. Là encore une explication théorique insuffisante, l'apport calorique dû à la radioactivité des couches terrestres n'ayant pas été pris en compte, prévaudra sur des observations naturalistes.

Les concepts nomades - Calcul et quantification

Le concept de calcul et de quantification est un peu à part puisqu'il a donné des résultats spectaculaires dans nombre de disciplines mais a aussi conduit à énoncer de belles bourdes! Depuis Pythagore qui a eu l'intuition géniale de l'existence de nombres cachés derrière les phénomènes de la Nature (la notion de nombre correspond également à une représentation géométrique), depuis Galilée qui a su mettre en équation le mouvement accéléré et surtout depuis Newton et Leibniz avec l'invention du calcul infinitésimal, les notions de fonction et de différentiabilité ont réussi à traiter presque tous les problèmes physiques du XXème siècle. Les choses se sont un peu compliquées quand la quantification s'est attaquée aux sciences naturelles et aux sciences économiques et sociales. Certains phénomènes relevant de ces domaines ont dû attendre la fin du XXème siècle pour voir émerger des outils mathématiques adaptés tels que les relateurs arithmétiques ou les fractales. En attendant quelques perles ont émaillé les publications scientifiques. Ceci ne serait rien comparé au tort que la quantification à outrance a pu causer aux tenants de méthodes plus qualitatives, alors mieux adaptées aux problèmes naturalistes. Mais la fascination des mathématiques et de l'ordinateur a été telle que des pans entiers des sciences naturelles furent sacrifiées sur l'autel des données numériques.

Les concepts nomades - Des sciences dures vers les sciences molles

Nous avons déjà remarqué que nombre de concepts migrent des sciences « dures » vers les sciences « molles » où l'expérimentation n'est souvent guère adaptée en raison de paramètres physiques non reproductibles, de constante de temps trop longue ou de complexité trop importante des structures étudiées. La tentation est donc grande d'utiliser des concepts bien rodés dans des cadres simplifiés mécanistes où le temps n'est pas un paramètre primordial. Mais toute extension du champ de pertinence demande beaucoup d'attention et les études sur la croissance des colonies de bactéries n'apporteront peut‑être aucun renseignement sur l'extension de nos communautés urbaines, quoique... 
Tout transfert de concept doit prendre en compte la notion de changement d'échelle aussi bien dans l'espace que dans le temps. Dans cette deuxième catégorie nous trouverons donc des concepts utilisables mais après avoir bien pondérer leurs limites : sélection naturelle et concurrence (des sciences économiques et sociales vers la biologie), les notions d'ordre, de complexité, d'organisme et de comportement (des sciences humaines et biologiques vers la physique). Ces concepts procèdent de jugement de connaissance mais aussi de valeur et c'est cette ambiguïté qui les rend si délicats à manipuler. 
Le concept de chaos est très significatif à cet égard. Ce terme initialement d'origine mythologique, désignant pour les grecs l'état dans lequel se trouvait notre pauvre univers avant que les dieux de l'Olympe n'y mettent bon « ordre », a par la suite désigné toute chose dépourvue d'organisation. Ce terme a été repris en cette fin de siècle par les physiciens dans un sens très particulier, applicables aux systèmes physico­-chimiques non prédictibles dont l'attracteur dans l'espace des phases montre une morphologie complexe. Il n'est plus ici question d'absence de structure. Le concept a donc été restreint et reste caractérisé par des paramètres ou des coefficients calculables ou mesurables bien précis. Le champ de validité dans ce cas s'est rétréci et déplacé et le jugement de valeur attaché au départ à ce concept a été totalement éliminé. Ceci n'empêche pas par ailleurs la théorie du chaos d'être critiquée par certains qui voient en elle un vecteur d'idées subversives, contraires à la morale et à l'ordre social, idées qui n'ont jamais existé dans le concept physique. 
Dans le même ordre d'idée, la relativité a ainsi été reprise par des philosophes en mal d'inspiration et à peu près tout et n'importe quoi a dû être extrapolé à partir de ce concept. Cette attitude fut d'ailleurs assez fréquente depuis que science et philosophie furent découplées après Pascal et Descartes.

Transdisciplinarité - Les concepts nomades


L'expression « concepts nomades » ainsi que les réflexions qui suivent sont en grande partie empruntées au livre dirigé par I.Stengers « D'une science à l'autre ». Certains transferts furent judicieux et très féconds. Appartiennent à cette catégorie les concepts de causalité, de loi, de problème (transfert des maths et de la physique vers les sciences naturelles et humaines), de système (de la physique vers l'économie), de corrélation (de la philosophie et de la biologie vers les sciences humaines). Ce dernier concept largement utilisé recèle néanmoins un piège de taille dans lequel se fourvoyèrent un certain nombre de scientifiques : la corrélation positive a souvent été à tort synonyme de lien causal. La corrélation est « un instrument porteur des exigences de rigueur les plus maniaques et pourtant associé, sous couvert de définitions apparemment techniques, purement formelles, aux opérations les plus périlleuses de transmutation de l'ignorance en science ». Le coefficient de corrélation n'est qu'une observation empirique et se servir d'un outil en dehors de son champ de validité ou sans rechercher les relations de causalité a toujours conduit à des inepties, inepties qui peuvent tourner au drame quand elles touchent aux sciences humaines.

dimanche 15 juillet 2012

Analogies Illustrations (4/4)


La théorie corpusculaire de la lumière, après une éclipse de plus de deux siècles depuis Newton, est remise au goût du jour par Planck. Celui‑ci étudie l'émission lumineuse d'un corps noir et s'aperçoit de l'analogie des formules mathématiques décrivant le mouvement des molécules de gaz dans une enceinte close et le spectre d'émission d'un corps chauffé dans un four fermé. En effet les courbes de distribution des vitesses des molécules et de distribution en fréquence de la lumière émise sont caractérisées toutes deux par une forme en cloche (gaussienne). Les quanta lumineux seront donc des particules discrètes à l'instar des molécules et cette astuce mathématique permettra d'ajuster la courbe théorique à la courbe expérimentale en évitant le problème de « la catastrophe ultraviolette » initialement prévue par la théorie du corps noir (émission UV en masse, énergie infinie). La réalité des quanta sera néanmoins prouvée par l'effet photoélectrique découvert par Einstein. Rappelons que ce dernier eut l'intuition de la constance de la vitesse de la lumière en imaginant le vol d'une mouette au‑dessus des vagues… à chacun ses références.
Quant à de Broglie, le père de la double nature de la lumière et de la matière, ses idées se cristalliseront brusquement dans son esprit à la fin de l'été 1923, après avoir remarqué l'analogie de comportement en diffraction de la lumière et des électrons ainsi que l'apparition de nombres entiers dans la description des niveaux énergétiques des électrons dans l'atome de Bohr, ce qui faisait fortement penser à une quantification. Par la suite la notion arbitraire d'amplitude de probabilité fut introduite par une pirouette mathématique qui mélangea, par imitation formelle, l'amplitude de l'onde et la probabilité de présence du corpuscule. Tout le problème réside en fait dans le changement d'échelle, dans la réduction du paquet d'ondes.

Enfin quelques brèves à la volée :
Laplace, en vue de déterminer la vitesse de la lumière, construit son programme de recherche sur l'analogie des lois en 1/r2 pour la gravitation et l'attraction électrique.
De Gennes emploie, pour décrire le comportement des polymères en solution semi‑diluée (concept des blobs), les mêmes outils statistiques que ceux formalisant les transitions de phase magnétiques.
Wessel, cartographe, invente la représentation du nombre imaginaire dans le plan cartésien, tel un point géographique déterminé par ses coordonnées cartographiques.
La morphologie des fullerènes fut entrevue par analogie avec le dôme de la géode de la Cité des Sciences de la Villette à Paris.
Penrose, à la recherche d'une explication pour l'existence d'une symétrie d'ordre cinq dans les quasi‑cristaux, s'inspirera des pavages non périodiques du plan apparaissant dans les oeuvres du dessinateur Escher.
Multiples sont les sources d'analogie et chacun trouvera son inspiration dans des domaines parfois très éloignés du sujet de recherche, au gré de la profondeur de sa culture scientifique, philosophique ou artistique. Nous reviendrons plus loin sur le rôle de la culture et de la civilisation dans les sources d'inspiration.

Analogies Illustrations (3/4)


L'évolution des théories de la lumière et les débuts de la mécanique quantique sont également très instructifs et nous allons y retrouver, parmi les adeptes de l'analogie, quelques uns de nos plus grands savants. Le premier à entrer en scène est T. Young, médecin de son état. Il n'est pas physicien mais s'intéresse à la vision, l'accommodation de l'oeil et à l'audition avec la propagation des ondes sonores. Son expérience sur les interférences sera correctement interprétée et il établira la nature ondulatoire de la lumière par analogie avec les ondes sonores. Son goût pour la trans-disciplinarité le portera même à nous donner une première interprétation de la pierre de Rosette et quelques réflexions sur les bulles de savon, terrain de choix pour l'étude des surfaces minimales.
Maxwell, l'unificateur de l’électricité et du magnétisme, imagine l'éther animé d'engrenages et de tourbillons. Pour lui l'intensité du champ magnétique est représentée par la vitesse de rotation des tourbillons, l'intensité du champ électrique est équivalente à la force exercée par les tourbillons sur les particules et la densité du courant électrique est assimilée au flux des particules. Il en déduira l'interdépendance des forces électriques et magnétiques ainsi que l'équation correspondante. De nos jours, le vecteur champ magnétique est associé à une rotation, le vecteur champ électrique à une translation et la densité de courant au flux des électrons, mais la notion de champ a remplacé celles de l'éther et de ses mécanismes associés. La représentation de Maxwell qui prête maintenant à sourire, n'était donc pas si aberrante. Par la suite, il abandonnera les tourbillons mais gardera les énergies de perturbation, potentielle et cinétique promises à un bel avenir. Mais les tourbillons ont encore de beaux jours devant eux puisque la théorie des changements de phase les invoquent au passage de l'état normal à l'état supra-critique...

Analogies Illustrations (2/4)


Si l'exemple précédent traduit bien l'intérêt de la trans-disciplinarité, celui de l'invention de l'ampoule par Edison illustre une méthode qui a fait ses preuves et qui sera utilisée par ce génial inventeur de manière systématique : « Aborder un domaine qu'on ne connaît pas en s'appuyant sur des analogies avec ceux qui sont connus ». Etablir des analogies et concevoir d'innombrables variations sur un même motif s'avéreront être à la base du génie inventif d'Edison.
La première analogie consistera à reprendre le réseau d'éclairage par le gaz comme schéma de distribution pour l'électricité en utilisant les canalisations déjà existantes pour y faire passer les fils électriques et placer les nouvelles lampes dans les appareils à gaz reconvertis, de même pour les compteurs. Son souci était économique et psychologique pour une transition en douceur d'un système à un autre.
La deuxième analogie servira à l'invention de l'ampoule électrique par elle­-même. Edison connaît bien la technologie des télégraphes. Le problème à résoudre est celui de la surchauffe des filaments en platine. Il va donc concevoir "des régulateurs capables de détourner le courant électrique de l'élément incandescent. Les ampoules seront les éléments de télégraphie et les régulateurs seront conçus comme des interrupteurs télégraphiques. Un peu plus tard, il observa que le métal semblait absorber des gaz issus de l’atmosphère pendant la chauffe, ce qui baissait sa résistance (une forte résistance favorise l'incandescence par effet Joule et la puissance consommée ne dépend que de la surface de chauffe, d'où le fil fin enroulé en spires). Pour améliorer son ampoule il maintiendra donc son filament sous vide, ce qui lui permettra par la suite d'utiliser le carbone de bien meilleure performance mais exigeant l'absence d'oxygène.
La troisième analogie viendra cette fois du téléphone qu'il améliore en parallèle. La pastille de carbone est un élément constitutif du microphone. Le noir de carbone nécessaire étant fabriqué dans le complexe de recherche d'Edison, il s'aperçut que ce noir de lampe pouvait être roulé tel un fil de platine. L'ampoule fut définitivement inventée quand le filament incandescent trouvât son origine dans un fil de coton enroulé plus simple à mettre en oeuvre.
Une autre analogie pourrait être signalée au sujet de la conception de la pastille de carbone. Son rôle dans la réception de la parole provient d'une propriété particulière du noir de carbone : sa résistivité s'accroît en fonction de la pression qui s'exerce sur lui. Edison s'est aperçu de cette loi lors de ses recherches sur les câbles télégraphiques immergés. Pour simuler la résistance d'un câble de grande longueur, il utilisa des résistances constituées de tubes remplis de noir de carbone fortement tassé pour obtenir des valeurs de résistance très élevées. Mais le moindre choc perturbait les mesures car les variations de résistance étaient très sensibles à la pression. Ce défaut lui restera en mémoire et il s'en servira pour concevoir un microphone très fidèle.

Analogies Illustrations (1/4)

Un exemple d'adéquation du formalisme mathématique à la compréhension physique est celui de la courbure de l'espace-temps introduite par Einstein. Une façon simple d'intuiter ce concept est d'imaginer un diagramme espace (une dimension) ‑ temps. La dérivée seconde de l'espace par rapport au temps ou accélération est aussi la courbure de la courbe au point accéléré, comme la vitesse peut être représentée par la tangente en ce point. Il suffit ensuite de généraliser à un espace à trois dimensions. La courbure de l'espace­-temps est ainsi reliée par le formalisme mathématique à l'accélération gravitationnelle. Einstein ne semble pas avoir utilisé cette source d'inspiration pour faire émerger son concept nouveau mais la relation géométrie - algèbre initiée par Descartes reste pleine de ressources.

La naissance de la théorie cellulaire (T. Schwann, 1839) vient du rapprochement de deux domaines scientifiques tout à fait distincts à cette époque que sont la botanique et la zoologie. Lorsque Schwann débute ses recherches, seuls sont reconnus dans le règne végétal les pores et les cellules (trous) et dans le règne animal les globules rouges. La conception de l'organisme admet l'existence d'unités simples ou de molécules organiques dotées de propriétés vitales mais dont les fonctions vitales et le plan d'organisation sont globaux. Il ne peut y avoir, dans ce schéma de pensée, de rapprochement entre les deux règnes, végétal et animal. Le terrain favorable à la découverte sera préparé par des changements techniques, invention du microscope achromatique permettant l'observation entre autres de structures globulaires et par des changements conceptuels initiés par Dutrochet ‑ Raspail qui envisageront l'unité des vésicules végétales et animales dans une vision plus réductionniste et physico-chimique que vitaliste comme précédemment. Mais le globulisme n'est pas suffisant car le globule reste sans structure interne et son évolution pose toujours problème.
Le facteur déclenchant résidera dans les échanges entre Schwann qui est zoologue et le botaniste Schleiden. Ce souci d'interdisciplinarité conduisit à l'observation conjointe de noyaux dans les cellules végétales et animales (corde dorsale d'un embryon). Ils comprirent le rôle du noyau dans le développement des êtres vivants quelque soit leur règne. La cellule était née en tant qu'unité élémentaire ayant une vie propre ne dépendant pas d'une force vitale commune à l'organisme. Cette hypothèse servira de cadre pour les observations futures et permettra une ré-interprétation des faits observés, par exemple la diversité des cellules et leur rôle respectif dans l'organisme.

samedi 23 juin 2012

Puissance de l'analogie et concepts migrateurs (2/2)


3. Certains de nos illustres anciens se sont aidés de représentations ou de modèles inspirés du paradigme mécaniste : Descartes imagina les planètes tournoyant dans un univers exempt de vide et peuplé de tourbillons. Maxwell préféra animé son éther par tout un système de mécanismes divers et variés. Ses représentations apportent sans doute un support visuel à l'imagination, tant il est vrai, comme nous le verrons quelques décennies plus tard, qu'il est périlleux de bâtir un monde abstrait tel que celui régi par la mécanique quantique. Un retour à la géométrisation de l'espace‑temps, il est vrai un peu particulière puisque fractale, a d'ailleurs permis d'éliminer les paradoxes qui empoisonnait la mécanique quantique (Nottale). Néanmoins ces aides à l'inspiration doivent être utilisées avec précaution et être abandonnées dès que leur cadre trop strict stérilisent les recherches ou amènent sur de fausses pistes.

Subsiste une question, celle du fondement des analogies. Pourquoi peut­-on utiliser les analogies avec le succès que l'on connaît ? Aristote avait pressenti le problème : « ce n'est pas la Nature qui imite l'art, c'est l'inverse ». Pour R. Thom, les analogies et les métaphores sont possibles car il y a préexistence de schémas, pas si éloignés peut‑être des catégories a priori de E. Kant. On a pu concevoir une pompe hydraulique ou un ordinateur parce que nous avions un coeur et un cerveau. L'histoire nous laissera pourtant le déroulement conceptuel inverse : l'analogie du fonctionnement du coeur avec celui d'une pompe (Harvey) et du cerveau avec celui d'un ordinateur (réseaux de neurones). Même les mathématiques ne seraient que découvertes et non inventées par l'homme. Elles seraient par là‑même fondées et justifiées. Il est en effet troublant de réussir à tirer des conclusions pertinentes sur un phénomène physique en raisonnant uniquement sur son modèle mathématique. C'est cette confiance dans l'adéquation des mathématiques au réel qui nous évite de vérifier à chaque étape du raisonnement la survenue d'une dérive éventuelle par rapport à la physique.

Puissance de l'analogie et concepts migrateurs (1/2)

Nous venons d'expliciter quelques méthodes conduisant à l'innovation et l'une d'entre elles, la pratique de l'analogie, mérite que l'on s'y attarde un peu plus. Elle est en effet à l'origine de bon nombre de découvertes et les exemples illustratifs de cette méthode sont sans doute les plus accessibles à l'analyse.
La pratique de l'analogie semble avoir été au cours de l'histoire un réflexe salutaire fréquent pour résoudre un problème. Il parait en effet naturel de chercher à son problème une solution qui existe déjà ailleurs par principe d'économie. Mais cette méthode demande une ouverture d'esprit importante et un champ de connaissances étendu, capacités qui tendent à disparaître de nos jours avec l'hyper-spécialisation.
La typologie des analogies, liée à la nature de leur fondement, détermine leur taux de fécondité et le pallier de profondeur qui peut être atteint lors de leur utilisation. En première approximation, trois degrés d'abstraction peuvent être dégagés :
1. La nature étant bien faite, il est donc raisonnable de la copier. Ce type d'analogie très proche du mimétisme a donné naissance récemment à trois domaines très porteurs : la bionique, la cybernétique et la théorie des systèmes. L'analogie peut être ici poussée à ses extrêmes sans grand risque, seules les limitations technologiques pouvant mettre un terme à l'innovation.
 2. En dépit d'effets macroscopiques différents, certains processus physiques sont fondamentalement de même origine et peuvent être décrits par les mêmes lois mathématiques. La conduction de la chaleur et la dispersion d'un colorant dans un liquide relève d'un même processus, celui de la diffusion. La loi physique sera la même, seules les variables ici des intensités changeront : température pour la conduction, concentration des particules de colorant dans le second cas. L'ensemble du modèle mathématique développé pour l'un des phénomènes pourra être utilisé pour l'autre. Seule l'interprétation physique des paramètres sera susceptible de présenter quelque difficulté. Reconnaître et intuiter la nature profonde et commune de phénomènes physiques disparates permet d'établir un schéma de théorie qui aidera à comprendre d'autres cas relevant d'un processus semblable. Ainsi la mise en évidence de phénomènes critiques auto‑organisés avec dimension fractale, corrélation à longue distance et apparition de structures, s'est faite à partir de cas dont la nature pouvait sembler très différente : front d'incendie, agrégation de colloïdes, seuil de percolation magnétique ou électrique. Cette théorie permettra néanmoins de mieux comprendre le fonctionnement des batteries (A. Le Méhauté)... L'analogie peut donc soit aider à trouver des solutions, soit permettre l'émergence d'une nouvelle théorie qui fournira un cadre prédictif et/ou explicatif à tous ces phénomènes analogiques.

Synthèse et analogie


L'une des grandes entreprises de la Science consiste à établir une synthèse à partir d'éléments qui pourraient sembler disparates a priori : Newton établit la loi de la gravitation en réfléchissant sur la chute des corps, les marées et les phases de la Lune; Mandelbrot fait émerger le concept de fractale à partir d'observations économiques, hydrologiques et météorologiques; Mendéleïev passe en revue tous les corps chimiques et dégage sa loi périodique. Les exemples peuvent être multipliés à l'envie. Rappelons que "cogito" veut dire "agiter ensemble". La recherche des analogies et la juxtaposition des éléments ainsi reconnus permettent d'extraire le concept ou la loi intéressants. La prise de hauteur ou de recul est nécessaire à l'extraction. Cette phase est celle de l'abstraction ou induction. Elle nécessite souvent de ne pas se laisser aller au sens commun.
L'abstraction vers le concept est parfois utile avant d'entamer des recherches d'analogies. Cette démarche est recommandée lors du processus d'innovation qui consiste à inventer un nouveau produit pour une fonction déjà connue. Prenons le cas de la fenêtre. Si vous gardez en tête la fenêtre telle qu'elle existe généralement, cette vision va bloquer votre imagination. Il faut alors extraire le concept de fenêtre, c'est à dire la définir par sa fonction : c'est une interface séparant deux milieux différents et permettant de contrôler un échange de flux de matière, d’énergie et d’information. Les idées pourront alors être cherchées dans des domaines très divers de la science et de la technologie.

lundi 4 juin 2012

Rupture et décalage (3/3)

Le dernier point de ce pôle consacré à la rupture concerne le débranchement de mauvaises connexions entre matrices intellectuelles. Koestler présente ainsi le problème : "Acquérir une habitude nouvelle est facile car l'une des grandes fonctions du système nerveux est de servir de machine à former des habitudes; se défaire d'une habitude est un trait d'esprit ou de caractère presque héroïque. La première condition de l'originalité est l'art d'oublier, au bon moment ce que l'on sait... S'il ne sait oublier, l'esprit demeure encombré de réponses toutes faites, et ne trouve jamais l'occasion de poser les bonnes questions." 
Certaines découvertes ont ainsi pu voir le jour parce que leur auteur ne savait pas qu'elles étaient théoriquement impossibles. L'histoire de la corde, du poids et du clou est édifiante. Un psychologue proposa à des étudiants de fabriquer un pendule en accrochant au mur à l'aide d'un clou une corde à laquelle était suspendu un poids. Seulement 50% des élèves trouva la solution en se servant du poids pour planter le clou dans le mur. Ceci est très révélateur du fait que la corde et le poids étant présentés attachés ensemble, ils formaient dans l'esprit des élèves un tout indissociable avec une fonction bien précise, celle de pendule et non pas de marteau éventuel. Dans cet exemple, les objets sont liés et les concepts associés également. Ce cas pratique peut prêter à sourire, mais parfois les liens entre concepts sont beaucoup plus subtils et d'autant plus difficiles à remettre en cause. Il existe une cohésion très forte entre les cadres de la perception et les matrices de la pensée.

Rupture et décalage (2/3)


L'un des pièges de la recherche scientifique relève de l'oubli des hypothèses de départ, des prémisses qui peuvent avoir leur origine parfois dans des temps fort reculés et qui font partie du corpus des évidences acquises lors de la formation du chercheur. Dévoiler ces hypothèses cachées, remettre en cause des habitudes intellectuelles peut être riche d'enseignement. Nous allons nous appuyer sur la démarche d'Einstein quand il élabora la théorie de la Relativité. Quoi de plus évident que la notion d'espace dans lequel on évolue tous les jours et que celle du temps qui s'écoule toujours si imperturbablement ? Ecoutons son explication quant aux raisons qui l'ont conduit à sa théorie :
"Quand je me suis demandé pourquoi il se faisait que j'avais, moi en particulier, découvert la théorie de la Relativité, il m'a semblé que cela était dû à la circonstance suivante. L'adulte normal ne se préoccupe jamais des problèmes d'espace‑temps. Tout ce qu'il y a à penser là‑dessus, à son avis, a été pensé au cours de son enfance. Moi au contraire, je me suis développé si lentement que je n'est commencé que très tard à me poser des questions sur l'espace et le temps. En conséquence, j'ai étudié le problème plus à fond qu'un enfant ordinaire."
Quelles qu'en soient les raisons, et Einstein reste très modeste sur leur nature, la réflexion sur les prémisses et hypothèses cachées est souvent féconde. Longtemps le Soleil a tourné autour de la Terre et l'espace est resté euclidien. L'un des piliers de la physique est le principe de la conservation de l'énergie. Il a été élaboré au milieu du XIXème siècle à partir des données de base de la physique de cette époque où l'espace était considéré comme euclidien. Un certain nombre d'indices nous font penser, depuis les travaux de Nottale (1992), que l'espace peut être fractal. L'énergie se conserve‑t‑elle dans un tel contexte ? Sans doute que oui, mais... N'oublions pas que deux et deux font quatre mais uniquement dans la base dix ! La réflexion sur les "bases" est donc une bonne piste pour l'innovation.

Rupture et décalage (1/3)


Dans les exemples précédents nous avons déjà identifié les points suivants :
-          Vision sous un autre angle de faits connus, changement de contexte
-          Prise de risque et remise en cause d'habitudes intellectuelles ou de principe scientifique de base
-          Changement d'un bruit, donc sans signification, en une information pertinente.

Nous allons ajouter et justifier trois autres points :
-          Prise à contre‑pied d'un raisonnement classique, inversion logique
-          Dévoilement des prémisses et des habitudes intellectuelles
-          Débranchement des mauvaises connexions neuronales.

L'inversion logique du raisonnement peut paraître en première approche comme peu rationnelle. Et pourtant les exemples sont là pour nous prouver que ça marche. Le premier remonte à 1821 où Faraday eut l'idée de construire un moteur électrique où l'énergie électrique est transformée en énergie mécanique, principe inverse de la dynamo. Personne n'y fit attention. En 1873, lors de l'exposition de Vienne, un technicien brancha par erreur une dynamo actionnée par une machine à vapeur sur une dynamo au repos. Cette dernière se mit alors en mouvement grâce au courant électrique fournit par la première dynamo. Le moteur électrique était réinventé. Il fallut donc qu'une deuxième inversion, celle­-ci technique, apparaisse accidentellement pour que l'idée soit acceptée.
Le deuxième exemple est celui de l'invention du phonographe par Edison. Dans sa jeunesse, il travailla en tant que télégraphiste et avait inventé un système d'enregistrement des points et des traits du morse sur un rouleau de papier. Plus tard cet appareil fut perfectionné pour en retour transmettre les impulsions électriques générées par la gravure des messages sur le rouleau. Mais le levier responsable de la lecture des gravures avait tendance à vibrer. A vitesse de rotation rapide du cylindre, il émettait même des sons continus. Au lieu d'essayer d'éliminer cet inconvénient, ce bruit, Edison par un renversement de logique, exploita ce phénomène et après quelques adaptations inventa le phonographe. Là le bruit devint réellement une information. Cela nous rappelle Pythagore écoutant le forgeron battre des barres de fer et en déduisant que les sons, dont la hauteur dépend de la longueur de la barre, sont des vibrations transmises par l'air.

 Le dernier exemple beaucoup plus récent (1995) nous sera fourni par l'idée de base d'un nouveau procédé d'amortissement des vibrations due à A. Le Méhauté et M. Capdepuy. Le principe couramment adopté pour dissiper de l'énergie, qu'elle soit vibratoire ou autre, est de la répartir dans un milieu qui la transformera en une autre forme d'énergie plus dégradée telle que la chaleur. L'idée, prenant à contre‑pied ce principe, fut donc de concentrer l'énergie en des points bien précis de la structure pour la transformer localement. Ainsi les vibrations ne se propagent plus dans la structure à amortir et cette dernière ne peut plus entrer en résonance. Ce principe (SPADD) est maintenant utilisé dans de nombreux domaines http://www.artec-spadd.com/.

jeudi 31 mai 2012

Les pistes de la découverte (3/3)


Un deuxième exemple servira d'illustration à notre propos sur la bisociation, celui de la découverte de la transmission chimique des impulsions nerveuses par O. Loewi en 1920. Auparavant, le contrôle des fonctions organiques était perçu comme provenant directement des impulsions électriques nerveuses. Cette hypothèse prend bien en compte le phénomène d'excitation mais comment expliquer celui d'inhibition ? Seules des drogues peuvent permettre ce dernier type d'action. Loewi pensa alors que les nerfs excités pouvaient libérer des substances chimiques à l'origine des deux types d'action. Mais à cette période là, il n'avait aucune idée de l'expérience à réaliser pour démontrer ce phénomène. Quinze ans plus tard, Loewi laissa battre deux coeurs de grenouille dans des solutions salines pour voir si cette activité libérait des agents chimiques... Deux ans après, l'idée de l'expérience cruciale lui vint brusquement dans la nuit. Il allait isoler deux coeurs, l'un muni de ses nerfs, l'autre dénervé. Après avoir excité le nerf vague du premier coeur, ce qui allait ralentir ses battements (effet d'inhibition), il injecta dans le second coeur la solution saline qui perfusait le premier et obtint le même résultat. La transmission de l'influx nerveux s'effectuait bien via des substances chimiques. L'idée de l'expérience décisive est donc bien venue de la juxtaposition de deux matrices différentes : l'une concernant la transmission de l'influx nerveux et l'autre la sécrétion par des organes d'agents chimiques.

Reliés à notre vision centrale "Penser à côté", se déclinent les pôles suivants : "rupture et décalage" par rapport aux habitudes, "synthèse et généralisation" en relation avec "analogies" et enfin "comportement atypique". Il s'agit ici de présenter une vision globale des différentes pistes menant à la découverte et le schéma ne constitue pas un parcours obligé. Les démarches réelles n'empruntent souvent que quelques chemins dépendant beaucoup de la personnalité du scientifique. D'autre part, cette synthèse ne constitue pas une panacée garantissant un résultat. Elle indique simplement les terrains favorables au développement de bonnes idées.

Les pistes de la découverte (2/3)

Pour illustrer cette notion, nous allons voir comment Archimède en est venu à pousser son fameux cri au sortir de sa baignoire. Il était une fois, à Syracuse, un tyran nommé Hiéron, protecteur d'Archimède, ayant reçu une couronne qu'il soupçonnait n'être pas d'or pur. Archimède fut mandé pour donner son avis. Connaissant le poids volumique de l'or, il suffisait de peser la couronne, mais comment faire pour estimer le volume d'une couronne aussi ornée. La situation était bouchée et la tension accrue. Une intense frustration est souvent à l'origine d'une découverte d'importance. Qui dit tension, envisage la relaxation : Archimède se plongea dans sa baignoire. En observant le niveau de l'eau monter à mesure qu'il y pénétrait, il pensa tout à coup que le volume d'eau déplacé correspondait aux parties immergées de son corps et qu'il tenait là le moyen de mesurer le volume de la couronne. L'énoncé de son fameux principe, tout corps plongé dans un liquide reçoit de sa part une poussée..., viendrait quelque temps plus tard. La découverte est ici intervenue par juxtaposition de deux matrices apparemment sans connexion : celle du problème lié à la couronne et celle de la montée de l'eau dans une baignoire quand on y plonge un corps. L'observation, d'aspect banal et négligé, de l'eau qui monte dans un contexte quotidien change de statut et devient source de créativité quand le contexte change et qu'elle est perçue sous un angle insolite et significatif. Beaucoup de faits en science prennent sens lorsque l'observation est guidée par une théorie.

Les pistes de la découverte (1/3)


L'analyse des exemples mentionnés précédemment nous donne l'occasion de dégager quelques pistes favorables à la genèse d'idées fécondes. A l'aide de cas présentés de manière plus succinte, nous compléterons notre liste qui ne se veut en aucun cas exhaustive. 

 La vision globale est centrée sur la notion de "penser à côté" et de l'acte de bisociation. Ces deux aspects complémentaires de la pensée créative ont été développés par Koestler dans son ouvrage intitulé "Le cri d'Archimède". Sa démonstration débute par l'analyse des mécanismes de l'humour :
"La structure sous‑jacente à toutes les variétés d'humour est bisociative : il s'agit de percevoir une situation ou un fait dans deux contextes d'association habituellement incompatibles. Le résultat est un brusque transfert du courant de pensée d'une matrice à une autre que régit une logique, ou règle différente. Mais certaines émotions à cause de leur inertie et de leur persistance, ne peuvent suivre l'agilité de la pensée. Rejetées par la raison, elles s'échappent par les issues de moindre résistance, dans le rire... Le terme de matrice a été introduit pour désigner toute aptitude ou technique, toute structure d'activité régie par un ensemble de règles, que nous avons appelé code."

Koestler retrouve la bisociation dans l'acte créateur scientifique. Pour lui, le point important est de réfléchir autrement qu'à l'habitude, par exemple, en effectuant des renversements logiques, de prendre à contre pied les modes de raisonnement habituel ou bien d'aller chercher des idées dans des domaines éloignés et de faire des rapprochements inattendus. C'est ce qu'il entend par "penser à côté". Poincaré avait en son temps déjà adhéré à cette idée. Les méthodes de créatique dont nous parlerons un peu plus loin se sont bien inspirées de ces notions. La bisociation correspond alors à la juxtaposition de matrices de logique différente. La découverte scientifique apparaît lors de la fusion permanente de deux matrices intellectuelles précédemment jugées incompatibles.

mardi 29 mai 2012

La genèse des fractales (2/2)


Le terme "fractal" n'existe pas encore. Il sera inventé dans les années 70, lors du travail de synthèse effectué pour faire émerger le concept comme principe fondamental de la Nature. Entre temps les travaux de Mandelbrot porteront sur la morphologie terrestre, reliefs et côtes maritimes, la répartition des galaxies, la forme des nuages, celle des arbres ou des poumons... La pluridisciplinarité a engendré la possibilité de traquer les analogies et de trouver le concept unificateur. Les résistances intellectuelles à l'utilisation de méthodes mathématiques pour simuler des phénomènes naturels, sont tombées dès lors qu'il a été possible de reproduire des figures imitant la nature. Le graphisme des fractales et l'approche géométrique sont venus de la nécessité de faire comprendre aux scientifiques l'intérêt d'une théorie mathématique qui les rebutait sous son aspect formel.
Une théorie cohérente sur les fractales verra le jour en 1973 lorsque Mandelbrot sera obligé, dans une série de séminaires pour le Collège de France de justifier son interdisciplinarité. Pour la réussite d'une démarche telle que la sienne, il donne quelques conseils en ces termes :
"Quand on me disait que mes travaux étaient incompréhensibles, je revenais à la charge et j'expliquais sans me lasser. Si j'avais été mou et timide, ou trop arrogant, ou si mon livre avait été illisible, jamais la découverte de fractales n'aurait vu le jour... Et puis cette démarche exige qu'on reste longtemps suspendu entre les disciplines. Aujourd'hui, pour qui se lance dans la recherche, c'est une position pratiquement intenable... L'interdisciplinarité est rarement viable. Quand elle est intellectuellement possible, et c'est rare, elle est pénible à vivre. Or il y a des intuitions fécondes qui ne naîtront jamais que dans l'interdisciplinarité."
Les mots‑clés de la démarche de Mandelbrot sont les suivants : originalité de la formation, éclectisme et interdisciplinarité, analogies, synthèse et opiniâtreté.

La genèse des fractales (1/2)


B: Mandelbrot relate sa découverte dans une interview donnée pour le mensuel "La Recherche" de mars 1986. Il décrit tout d'abord son parcours estudiantin quelque peu perturbé par la seconde guerre mondiale. Il passe avec succès le concours d'entrée à Polytechnique sans avoir quasiment suivi les cours des classes préparatoires. Il peut ainsi résoudre les problèmes mathématiques par la géométrie, méthode qu'il maîtrise mais qui n'est plus en vogue depuis que l'analyse algébrique a été imposée comme méthode universelle par Bourbaki et enseignée comme telle. Le calcul est roi et l'intuition géométrique est reléguée dans les oubliettes de l'histoire des sciences. B. Mandelbrot sera d'ailleurs l'un des premiers avec R. Thom a exhumé cette vieille dame pour le plus grand bonheur des physiciens. L'originalité de la formation de Mandelbrot et son décalage par rapport à ce qui est enseigné classiquement constituent le premier point ayant favorisé la découverte.

Par la suite, il s'intéresse aux mathématiques appliquées et à leur utilité dans divers domaines. L'économie le passionne et il remarque que les fluctuations à long terme sont de même nature que celles à court terme, contrairement à la théorie en cours qui suppose que la spéculation est la cause des "court terme" et que les lois fondamentales de l'économie guident les "long terme". Nous voyons ici apparaître la notion d'auto‑similarité où le motif représentatif des fluctuations se retrouve à l'identique lors d'un changement d'échelle ici temporel. Mandelbrot fera la même constatation lorsqu'il étudiera les crues de différents grands fleuves. La variation du niveau des eaux suit une loi auto‑similaire. Ce concept émergeant, il le retrouvera en linguistique, en météorologie. Les notions de bruit, de fluctuations et de turbulence difficiles à quantifier et à théoriser sont approchées par ce nouveau concept qui englobe l'irrégularité du phénomène et son caractère auto‑similaire.

jeudi 24 mai 2012

Genèse du tableau de Mendéleiev (5/5)


Le tableau doit être considéré comme le couronnement de la chimie initiée par Lavoisier. Malgré le changement de paradigme, on passe du corps simple à l'élément, il n'ouvre pas d'horizon sur la chimie du XXème siècle. Mendéleiev refusera la radioactivité et la transmutation des éléments qui remet en cause sa foi inébranlable en l'individualité de l'élément et son inaltérabilité (inspiré de la monade de Leibniz?), notion qui l'avait conduit au succès. Cette foi inébranlable apparait également dans l'élaboration de la loi périodique à partir des poids atomiques. Car les irrégularités ne manquent pas ainsi que les approximations. La véritable régularité ne sera découverte qu'au début du XXème siècle avec celle du cortège électronique : on passe en effet d'une case à une autre sur une même ligne en rajoutant un électron sur la couche externe, exception faite pour les métaux de transition entre autres où les sous‑couches se remplissent tardivement. Le tableau périodique connut donc une phase prédictive puis explicative grâce à la structure de l'atome.
 Nous pouvons maintenant expliciter les grands points de la démarche de Mendéleiev :
‑ Le besoin pédagogique d'une synthèse prédictive de données disparates : retrouver une unité disparue,
‑ L'opposition métaphysique à l'hypothèse de Prout : loi unique contre élément unique. A ce propos, Mendéleiev a été à bonne école puisque son professeur à l'Institut pédagogique central de St Pétersbourg, Voskresenski, avait fondé sa pédagogie sur la bataille des idées en science,
‑ L'abstraction des corps simples vers les éléments correspond aussi à un glissement, à un décalage du concept fondateur,
‑ La vision globale, la prise en compte de critères à l'encontre des habitudes (les dissemblances entre familles d'éléments),
            ‑ La foi inébranlable dans sa théorie malgré des données peu intégrables dans le schéma.

Genèse du tableau de Mendéleiev (4/5)


Le tableau périodique émergera d'un long travail méthodique. L'idée cruciale serait venue lors d'une visite d'une fabrique de fromages près de St Pétersbourg : celle d'arranger les différents groupes d'éléments regroupés par affinité chimique par ordre de poids atomique. Il aurait ainsi aperçu la régularité périodique. En 1869, les familles de mêmes propriétés chimiques sont sur une même ligne et les poids atomiques proches sur une même colonne. Aujourd'hui la présentation est inversée. Sa réussite vient du fait qu'il a comparé des familles extrêmes, celles des alcalins et des halogènes, alors que ses collègues cherchaient uniquement les ressemblances entre éléments. Cette capacité de prendre à contre‑pied les habitudes de raisonnement est un des traits qui contribue à la découverte. L'analyse in situ de Leibniz a peut‑être inspiré cette vision globale. Elle prend en compte des ressemblances mais aussi des dissemblances et elle seule a permis l'établissement d'un tableau général dont les cases vides indiquent clairement le caractère prédictif.
Le tableau a pu voir le jour également pour une raison qui feraient bondir les positivistes : le manque de données expérimentales ! En effet, les lanthanides dont les propriétés n'étaient guère explicables du temps de Mendéleiev ne sont pas encore découverts. C'est une chance car ils auraient sans doute bloqué la démarche de synthèse car non intégrables dans le système du moment.

Génèse du tableau de Mendéleiev (3/5)


La pluralité des éléments peut être réduite soit par la voie d'un seul élément primordial qui serait l'hydrogène (Prout, début du XIXème), soit par l'établissement d'une loi unique liant les éléments entre eux. L'hypothèse de Prout aura le mérite de poser le poids atomique comme critère de classement. Les raisons de la non fécondité de cette hypothèse viennent de la focalisation sur les relations arithmétiques au détriment des analogies des propriétés chimiques et du non traitement du problème dans son ensemble. Mendéleiev s'oriente plutôt vers la recherche d'une loi unique, ce qui lui permettra de prévoir des cases pour de nouveaux éléments; les théories de ses contemporains n'auront jamais ce caractère prédictif. Pour combattre l'hypothèse de Prout, il a besoin de trouver une loi générale valable pour tous les éléments. Son énoncé est le suivant : "Les propriétés des corps simples et composés dépendent d'une fonction périodique des poids atomiques des éléments pour la seule raison que ces propriétés sont elles‑mêmes les propriétés des éléments dont ces corps dérivent." Nous sommes encore loin du tableau périodique tel que nous le connaissons. Cette loi établit une relation entre les corps simples et composés d'une part et éléments d'autre part. Le corps simple est formé de molécules et l'élément est l'équivalent de l'atome. Par exemple, l'élément carbone se présente sous la forme de trois corps simples naturels : le diamant, le graphite et le charbon. Pour nous, le charbon n'est plus un corps simple.
Il y a glissement du principe explicatif du corps simple vers l'élément. Pour Lavoisier, l'unité fondamentale est représentée par le corps simple, pour Prout c'est l'élément primordial. Mendéleiev considère la pluralité des éléments et son effort d'abstraction portera sur le passage du corps simple aux éléments.

Génèse du tableau de Mendéleiev (2/5)


Les bases de la chimie moderne ont été établies par Lavoisier au milieu du XVIIIème siècle. Mais les développements ultérieurs ne sont pas exempts de controverses portant par exemple sur l'existence des atomes, la nature et le nombre des éléments chimiques. Il existe en particulier un grave problème d'harmonisation entre les chimistes quant à la détermination des poids atomiques. Les différences entre atome et molécule, poids atomique et nombre atomique (nombre d'électrons dans le cortège) sont encore loin d'être établies. Sous la houlette de A. Kékulé, sera organisé en 1860 le premier congrès de chimie à Karlsruhe pour tenter une harmonisation des concepts. Ce sera d'ailleurs le premier du genre dans le domaine scientifique. On y établiera la distinction entre atome et molécule avec la remise à l'honneur de la loi d'Avogadro déjà quelque peu oubliée. Mendéleiev repart convaincu par cette mise au point.

C'est ce congrès qui met Mendéleiev sur la voie d'une périodicité possible des propriétés des éléments dans l'ordre croissant des poids atomiques. Il part déjà sur les bases solides de définition du poids atomique et de la distinction des atomes et des molécules : "Avec l'application de la loi d'Avogadro‑Gerhardt, la conception de la molécule est complètement définie et par celà‑même le poids atomique. On appelle particule, ou particule chimique, ou molécule, la quantité de substance qui entre en réaction chimique avec d'autres molécules et qui occupe à l'état de vapeur le même volume que deux parties en poids d'hydrogène. Les atomes sont les plus petites quantités ou les masses chimiques indivisibles des éléments qui forment les molécules des corps simples et composés." La conception de la molécule et sa liaison avec le poids atomique reste encore quelque peu exotique par comparaison avec les idées actuelles, mais ce qui compte pour Mendéleiev, c'est d'avoir une base solide, rassurante pour pouvoir entamer une synthèse. La puissance heuristique de sa démarche sera telle que les éléments ne rentrant pas dans sa classification verront leur poids atomique dénoncé à juste titre comme erroné d'un point de vue expérimental, au lieu de remettre en question sa classification.

Génèse du tableau de Mendéleiev (1/5)


Les motivations de Mendéleiev s'inscrivent totalement dans le XIXème siècle. Il espère réunir la physique et la chimie dans une science nouvelle basée sur la classification périodique (voir article de B. Bensaude‑Vincent dans « Eléments d'histoire des sciences », SERRES M., 1989, ouvrage collectif, Bordas). Son approche est guidée par les notions d'individualité et d'intransmutabilité des éléments chimiques. C'est d'ailleurs plus particulièrement le transfert du concept d'unité fondamentale, du corps simple à l'élément chimique, qui lui permettra de découvrir la loi périodique. Nous y reviendrons plus en détail. Ces propriétés affectées aux éléments l'empêcheront plus tard d'accepter l'interprétation de la découverte de la radioactivité naturelle par Pierre et Marie Curie. Il introduira même l'éther dans son tableau au début du siècle, cinq ans avant qu'Einstein n'en démontre l'inutilité théorique. L'explication de la classification des éléments et les liens avec leurs propriétés physico‑chimiques ne seront totalement compris qu'après la mise en évidence du cortège électronique des éléments, c'est à dire dans les années 20.

Mendéleiev en 1867 est professeur à l'université de St Pétersbourg où il doit présenter la chimie à ses élèves autrement que sous la forme fastidieuse de monographies de corps chimiques, et à cette époque leur nombre est proche de quatre-vingts. Aucune synthèse n'existe, aucun fil rouge entre les propriétés physiques et chimiques des corps qui permettrait de ne pas compromettre la transmission de la chimie. Ce souci pédagogique nous vaudra deux ans plus tard la fameuse classification (tableau périodique des éléments).

mardi 22 mai 2012

Naissance et interprétation de la mécanique ondulatoire (3/3)


Après 1951, un certain nombre de facteurs ramèneront de Broglie vers son interprétation personnelle de la mécanique ondulatoire :
‑ Les difficultés qu'il a éprouvées pour expliquer les vues probabilistes,
‑ Les regrets de voir oublier les intuitions physiques à la base de la mécanique quantique,
‑ La nostalgie secrète des représentations physiques réalistes, sentiment que partagea Einstein,
‑ L'analyse des objections de Schrödinger et d'Einstein portant sur les états corrélés lors de ses cours à l'Institut Poincaré,
- Les travaux de Bohm et surtout de Vigier qui tente une synthèse entre mécanique ondulatoire et relativité.
Il reprend les travaux d'Einstein (en collaboration avec Grommer en 1927) qui définit les particules élémentaires de la matière par l'existence de singularités dans le champ de gravitation. A partir des seules équations du champ de gravitation, on démontre que le mouvement des singularités a lieu suivant les géodésiques de l'espace‑temps. Vigier fait le parallèle avec la notion de vitesse de la singularité dirigée suivant le gradient de phase de l'onde (de Broglie, 1927). Il tente par cette analogie d'introduire l'onde à singularité dans la définition de la métrique de l'espace‑temps.
De Broglie va alors reconsidérer la théorie de la double solution et proposer que l'onde à singularité soit non linéaire à l'intérieur d'une région très petite (10‑13 cm) et linéaire partout ailleurs.

Les deux traits fondamentaux de la démarche de ce savant peuvent être présentés via ses propres commentaires :
"Les analogies ont souvent une portée très profonde et peuvent servir utilement de guide aux théoriciens pour édifier des théories nouvelles. Est‑il besoin de rappeler le rôle que l'analogie des forces d'inertie et des forces de gravitation a joué dans la genèse de la théorie de la relativité généralisée ou celle du principe de Fermat avec le principe de Maupertuis dans la genèse de la mécanique ondulatoire ?"
"L'histoire des sciences montre que les progrès de la science ont été constamment entravés par l'influence tyrannique de certaines conceptions que l'on avait fini par considérer comme des dogmes. Pour cette raison, il convient de soumettre périodiquement à un examen très approfondi les principes que l'on a fini par admettre sans plus les discuter".