L'analyse du cas suivant va nous permettre de dégager d'autres routes vers
la réalisation de hauts faits technologiques. La motivation première de Diesel,
alors jeune ingénieur, est de réaliser le moteur idéal, isotherme, présentant
le cycle de Carnot et dont le rendement énergétique est maximal (hors série
n°31, février 1996, Cahiers de Science et Vie, les grands ingénieurs). Les
premiers brevets déposés iront dans ce sens mais les réalisations
technologiques s'avèreront assez éloignées de leurs préconisations, ce qui
posera d'ailleurs quelques problèmes à leur auteur. La conception des premiers
moteurs Diesel est basée sur l'association inédite de systèmes déjà existants
tels que la pulvérisation du combustible, une compression élevée, une
inflammation par contact avec des surfaces chaudes, ceci pour créer un moteur
tendant vers l'isothermie, à forte température et pression où le combustible
s'enflamme spontanément à l'intérieur du cylindre. La réussite viendra
également du fait que les firmes qui pousseront Diesel (Augsburg et Krupp), ne
possèdent pas de spécialiste de combustion interne tel que l'ingénieur Langen,
qui ayant entrevu les problèmes pratiques de ce type de moteur, refusera
d'avancer dans cette voie. Trop de connaissances peuvent parfois agir comme
agent bloquant. Un certain nombre d'avancées scientifiques ont ainsi pu voir le
jour parce que leur inventeur ne savait pas qu'elles seraient impossibles à
réaliser... Le meilleur comportement à adopter reste sans doute celui d'essayer
et de garder la foi dans ses idées même si les premières réalisations sont
décevantes. C'est ce que fit Diesel. Et quand on voit maintenant le rôle que
tient le moteur Diesel dans les transports, il est douloureux de penser que son
inventeur disparut dans l'océan à l’age de 55 ans en 1913, miné par des
problèmes économiques et des tracasseries administratives.
En dernier ressort, la distinction à faire n'est pas tant entre science
fondamentale et science appliquée ou technologique, en prenant comme critère le
plus ou moins long terme des retombées industrielles, mais bien entre la
recherche « révolutionnaire », génératrice de nouveaux paradigmes, et la
recherche incrémentale ou « normale », les termes de révolutionnaire et normale
étant pris au sens de Kuhn (« La structure des révolutions scientifiques »,
1983) . Si la première est finalisée comme la seconde, et des exemples récents
sont là pour le prouver, le bénéfice pour la société en sera d'autant plus
grand. L'émergence de nouveaux concepts peut très bien résulter d'un souci très
pragmatique. Les retombées seront alors immédiates et la science aura fait un
bond en avant. Cette démarche demande sans doute une agilité intellectuelle
hors normes. Mais les résultats sont tellement enthousiasmants que toute
formation d'ingénieurs ou de scientifiques devrait être pensée dans ce sens.
L'homme de science se rapprocherait ainsi de l’idéal rêvé par des générations
de penseurs : les pieds sur terre et la tête dans les étoiles.
dimanche 18 novembre 2012
De la science vers la technologie - Pasteur
Les
premiers travaux de Pasteur, chimiste et cristallographe de formation, porte
sur les propriétés optiques des tartrates (« 200 ans de science, 1789‑1989 »,
Science et Vie, Hors série n°166, mars 1989). Certaines espèces dévient la lumière
polarisée vers la droite (dextrogyres) d'autres vers la gauche (lévogyres) et
Pasteur reconnaît là deux formes moléculaires symétriques dans un miroir. Il s'agit là des
premières observations d'une science, la stéréochimie, étude de l'arrangement
des atomes dans les molécules, qui fournira les concepts de base à la biologie
moléculaire et à la pharmaceutique. Une méthode pour séparer les deux formes
consistent à faire vivre des moisissures (penicillium glaucum) sur les
tartrates. Les micro-organismes ne se nourrissent que de la forme droite et laissent
donc apparaître comme résidu la forme gauche. Le hasard est parfois d'une aide
précieuse puisque cette technique résulte de l'observation de coupelles de
tartrates oubliées sur un rebord de fenêtre et envahies par le moisi... Comme
le croisement de la cristallographie et de l'optique fonda la stéréochimie, le
croisement de la physiologie et de la chimie ouvrit un domaine à l'avenir
prometteur, celui de la maîtrise des micro-organismes. Nous entrons alors dans
la période de recherche finalisée. Pasteur fut motivé dans ces recherches sur
la fermentation par les brasseries industrielles de Lille et sur les maladies
infectieuses par les instances nationales (production agricole et santé
publique). Nous mesuront ainsi les points clés qui déterminèrent la réussite de Pasteur :
le croisement de disciplines différentes, une forte motivation pour des
applications industrielles et médicales doublées d'un esprit d'observation hors
du commun (il réalisa adolescent des portraits très ressemblants). Nous avons
déjà mentionné dans le billet « Le social et le scientifique » de mai
2010 , les raisons moins scientifiques de sa domination et de l'établissement
de son mythe.
De la science vers la technologie - Introduction
Beaucoup
d'exemples cités dans de précédents billets participent de ce transfert, de la
science dite fondamentale vers les applications technologiques. Cette démarche de
recherche finalisée permet l'émergence de l'innovation sous forme de sauts
scientifiques et technologiques. La distinction des sciences fondamentales ou
appliquées, théoriques ou expérimentales, « dures » ou « molles », n'est plus
de mise quand on se trouve confronté au problème de la création et de
l'innovation comme en témoigne Yves Quéré dans l’introduction à son cours
de « Physique des matériaux »
de l’Ecole Polytechnique.
La
recherche industrielle illustre dans la plupart des cas ce transfert des concepts
scientifiques vers les applications technologiques. Les premiers laboratoires
industriels furent créés vers la fin du XIXème siècle dans les grandes sociétés
orientées vers la production de l'électricité, de l'acier, des engrais, du
sucre, des médicaments, des colorants et du pétrole, sociétés situées dans des
pays en voie de forte industrialisation comme les USA ou l'Allemagne (SERRES M.
(1989) « Eléments d'histoire des sciences »). Leur création a surtout été liée
dans les débuts au besoin de contrôle de la standardisation nécessaire au
développement de ces sociétés.
La recherche industrielle fonctionne intrinsèquement comme la recherche académique, mais le contexte historique n'est pas restitué contrairement aux recherches dites pures qui elles sont réintégrées au sein des travaux préexistants pour justifier de leur cohérence avec eux. La recherche industrielle vit essentiellement dans le présent. Retrouver sa dimension historique permettrait néanmoins, même si cette opération est délicate, de réinsérer ce domaine d'activité dans notre culture.
La recherche industrielle fonctionne intrinsèquement comme la recherche académique, mais le contexte historique n'est pas restitué contrairement aux recherches dites pures qui elles sont réintégrées au sein des travaux préexistants pour justifier de leur cohérence avec eux. La recherche industrielle vit essentiellement dans le présent. Retrouver sa dimension historique permettrait néanmoins, même si cette opération est délicate, de réinsérer ce domaine d'activité dans notre culture.
Pour illustrer cette recherche finalisée nous prendrons le cas de deux
scientifiques qui ont pourtant été classés par l'histoire dans deux catégories
bien différentes : celle des savants désintéressés préoccupés seulement de
science pure avec Pasteur et celle des ingénieurs tournés vers la technologie
et le rendement avec Diesel. Ces catégories sont en fait arbitraires puisque
nous verrons l'un et l'autre préoccupés de trouver des applications à des
concepts de grande portée scientifique.
jeudi 8 novembre 2012
Les analogies et leurs limites (2/2)
Si
le modèle analogique est suivi trop strictement, certaines de ses conséquences
ne seront pas forcément pertinentes pour le sujet traité et peuvent même
inhiber la progression de la connaissance. L'idée de l'atome, introduite par
Zénon d'Elée en 460 av. J.C., développée par Leucippe et Démocrite à cette même
période, sera très controversée jusqu'à l'expérience décisive de Perrin en
1910. L'existence même de l'atome sera
considérée comme évidente lorsqu'on aura réussi à le diviser dans les
expériences de fission. L'atome, en tant que particule insécable par
définition, disparaît donc au moment où son existence devient irréfutable ! La
controverse à la fin du XIXème siècle faisait donc rage entre les énergétistes
et les atomistes, les premiers reprochant aux seconds d'avoir fait d'une
représentation, d'un concept imagé, certes commode, un véritable objet réel.
Pour eux la petite phrase célèbre dans un contexte plus poétique « Dessine moi
un atome » était porteuse de dérives dangereuses.
Les
physiciens du début du XXème siècle ont beaucoup utilisé les analogies comme outil
heuristique et l'atome de Bohr conçu comme un système solaire en miniature a
imprégné des générations d'étudiants. Mais il a fallu dépasser les images
analogiques pour aller plus loin en mécanique quantique, le monde microscopique
n'ayant guère d'équivalent dans notre monde sensible.
Mais c’est Lavoisier avec ses bilans (il était fermier général, équivalent de nos TPG actuels) qui mettra la chimie sur les bons rails en démontrant la conservation de la matière durant les réactions, faisant naître ainsi la notion d’élément chimique. Les notions d’interactions atomiques ou moléculaires via le cortège électronique ne viendront que bien plus tard au XXème siècle.
Les analogies et leurs limites (1/2)
Nous
avons déjà vu précédemment Descartes
et plus tard Maxwell, peupler de tourbillons et de divers mécanismes les
espaces laissés vacants par la matière. Ces analogies sont des aides visuelles
pour la pensée. Elles permettent la prédiction du comportement des éléments
étudiés, mais en aucun cas, elles ne pourront apporter une explication aux
processus. L’aspect explicatif des
théories n’est pas toujours nécessaire à l'avancée de la science (la nature
fondamentale de la gravitation reste toujours inexpliquée malgré les beaux
efforts du XXème siècle), mais il reste néanmoins plus satisfaisant pour
l'esprit qu'une simple prédiction, principal reproche qu'Einstein énonçait à
l'encontre de la mécanique quantique.
dimanche 28 octobre 2012
Concepts nomades - Le biomimétisme (2/2)
L'étape ultime de la bionique ou biomimétisme, dont les premiers jalons ont déjà été
posés avec les matériaux intelligents cités précédemment, sera d'implanter
l'équivalent d'un code génétique dans le matériau. L'information sera inscrite
dans sa structure même et il pourra réagir en fonction des sollicitations
extérieures. L'effet le plus inédit serait sa capacité à s'auto‑organiser de
façon complexe pour une adaptation à l'environnement, l'équivalent d'une
véritable embryogenèse.
Une première approche de cette démarche est effectuée par le contrôle de la géométrie interne du matériau, via des structures fractales mésoscopiques qui régulent le rendement énergétique.
Les fractales sont également de bons candidats car elles autorisent la différentiation droite/gauche dans l'espace. La caractéristique fondamentale des systèmes vivants réside en effet dans la possibilité de distinguer deux formes moléculaires symétriques dans un miroir, dites dextrogyres ou lévogyres en fonction de la direction dans laquelle elles font dévier le plan de polarisation de la lumière polarisée : les microorganismes se nourrissent exclusivement des formes dextrogyres (déviation vers la droite) de certaines substances (cf. les travaux de Pasteur, chimiste de formation). Sans se laisser entraîner dans le mythe de Frankenstein, il est néanmoins raisonnable d'espérer créer des structures qui s'auto‑organiseront en fonction de leur environnement et des fonctionnalités qui auront été programmées dans leur matériau constituant.
Une première approche de cette démarche est effectuée par le contrôle de la géométrie interne du matériau, via des structures fractales mésoscopiques qui régulent le rendement énergétique.
Les fractales sont également de bons candidats car elles autorisent la différentiation droite/gauche dans l'espace. La caractéristique fondamentale des systèmes vivants réside en effet dans la possibilité de distinguer deux formes moléculaires symétriques dans un miroir, dites dextrogyres ou lévogyres en fonction de la direction dans laquelle elles font dévier le plan de polarisation de la lumière polarisée : les microorganismes se nourrissent exclusivement des formes dextrogyres (déviation vers la droite) de certaines substances (cf. les travaux de Pasteur, chimiste de formation). Sans se laisser entraîner dans le mythe de Frankenstein, il est néanmoins raisonnable d'espérer créer des structures qui s'auto‑organiseront en fonction de leur environnement et des fonctionnalités qui auront été programmées dans leur matériau constituant.
Concepts nomades - Le biomimétisme (1/2)
L'une
des premières sources d'inspiration fut sans doute l'observation de la
structure des êtres vivants : parmi les exemples les plus connus, nous citerons
les structures composites orthotropes multi-couches qui imitent le bois, les
stratifiés en nid d'abeille pour la résistance et l'allègement, les formes
aérodynamique des bateaux et des avions (l’analogie s'arrêtera pour l'aile
delta des mirages dont la forme ne sera plus effilée comme celle des grands
voiliers que sont les frégates ou les albatros). Des exemples tous récents et
moins connus se retrouvent dans les domaines suivants :
- L'atténuation
du bruit au niveau de la coque des sous‑marins avec l'utilisation de revêtement
analogue à la peau de requin.
- La
conception d'automates aux formes d'arthropodes dont les pattes ventousées leur
permettent de progresser dans des canalisations conduisant au coeur de
centrales nucléaires pour détecter et réparer des fuites éventuelles en
environnement hostile pour l'homme.
- La
mise au point d'un télescope à rayons X à partir de l'étude du système optique
orthogonal de l'oeil d'écrevisse.
- La
production de protéines analogues à celles qui constituent la soie d'araignée
pour obtenir des fibres dont les performances mécaniques dépassent celles de
nos meilleures fibres synthétiques telles que le Kevlar.
- La
conception d'un nouveau matériau pour les hélices de turbine de moteur à
réaction supportant de fortes variations de température. Sa structure
lamellaire constituée de fines couches alternées de carbure de silicium et de
feuilles de carbone imite celle de la coquille d'escargot où les couches
prismatiques de carbonate de calcium sont maintenues par de fines couches de
protéines. Qui aurait pensé qu'un jour un escargot puisse fournir un modèle de
perfectionnement pour le moteur à réaction !
Concepts nomades - La systémique
Les sciences de la Terre et du vivant ont ceci de particulier, par
rapport aux sciences physiques, qu'elles durent très tôt s'intéresser à des
systèmes complexes où un grand nombre de paramètres interagissent et selon des
échelles spatio‑temporelles différentes.
La
systémique deviendra à partir des années 80, l'inspiratrice de techniques
d'innovation, par exemple dans la conception de produits nouveaux. Tous les
aspects de la vie d'un produit sont pris en compte dès le début de l'étude et
la fonctionnalité du produit sera obtenue par le contrôle des interactions des
différents composants entre eux et avec l'environnement (comprenant les clients). Globalité et
interaction semble bien les deux concepts clés de l'organisation du vivant. Ils
sont à la base d'une caractéristique fondamentale du vivant qui est la
possibilité d'adaptation à des conditions de vie changeantes. C'est exactement
ce qui est recherché lors de la conception des matériaux dits intelligents.
Leur structure par effet de feed‑back, notion si importante en endocrinologie
et en automatisme, évolue pour s'adapter aux nouvelles conditions
d'utilisation.
Cette vision globale et systémique des
processus sera formalisée dans la théorie des systèmes, cadre désormais bien
utile pour les sciences physiques, économiques, politiques et sociales.
L'exemple retenu n'est pas tout récent et même antérieur à la théorisation de
la systémique puisqu'il relate la naissance du premier réseau d'éclairage électrique
promu par Edison dans un quartier de New York en 1882 (l'ampoule électrique fut
mise au point en 1878). La conception d'un réseau électrique urbain implique la
prise en compte de considérations technologiques mais aussi économiques,
politiques et sociales comme l'accueil d'un nouveau type d'éclairage
individuel. Du point de vue technique, le réseau sera pensé dans son ensemble puisque les caractéristiques de
chacun des composants, centrale génératrice de courant, régulateurs, fils de
distribution et ampoules seront définies pour un fonctionnement global optimum
tout en respectant les règles normatives de sécurité.
La mise au point du
système se fait en traitant tous les
problèmes de front et en concevant globalement ce système sans en maîtriser au
départ tous les aspects. Cette démarche demande une bonne dose d'anticipation
ainsi qu'un goût du risque certain. Mais
les résultats seront à la hauteur des difficultés rencontrées. Bien sûr le
premier quartier illuminé sera prestigieux et les premiers à bénéficier d'une
lumière si brillante et si souple d'utilisation seront les investisseurs du
projet et les bureaux du New York Times qui s'empressera d'en faire la
publicité. Edison est un fin politique et les quartiers d'immigrés, où la densité de population est
pourtant la plus forte et qui feront au XXème siècle la puissance économique
des USA, attendront quelque peu les bienfaits de la fée Electricité.
Concepts nomades - Le temps (2/2)
La
flèche du temps apparût un peu à la même époque en physique avec le deuxième
principe de la thermodynamique. Mais l'irréversibilité macroscopique trouvera
une explication microscopique et réversible avec Boltzmann. Le paradigme en
cours mécaniste et déterministe sera ainsi conforté par les statistiques. Il
faudra attendre la fin du XXème siècle pour que l'irréversibilité redevienne un
concept clé dans les domaines traitant de la dissipation d'énergie et
d'organisation de structures qui lui sont liées (Prigogyne, Le Méhauté).
L'irréversibilité existe bien au niveau microscopique et serait liée à la
géométrie fractale de l'espace‑temps. Cette nouvelle approche permet d'ailleurs
d'éliminer nombre de paradoxes de la mécanique quantique (Nottale).
La liaison espace‑temps effectuée par Einstein dans sa théorie de la relativité avait ouvert la voie. Mais son espace-temps restait différentiable et la flèche du temps n'apparait pas dans ces conditions. L'irréversibilité intrinsèque vient de la non différentiabilité. En effet chaque point se déplaçant dans l'espace des phases admet deux tangentes différentes donc une vitesse antérieure (-) et une vitesse postérieure (+). Incidemment la notion de trajectoire devient caduque et il est possible de définir une flèche du temps. En mécanique quantique, l'équation de la fonction d'onde mélange les deux vitesses (+) et (-), ce qui rend l'équation réversible.
L'irréversibilité vient également de la structure en arbre qui sous‑tend les fractales. L'énergie semble se dissiper en effet dans les échelles spatiales : à chaque bifurcation de l'arbre durant la descente dans les échelles, un choix est fait lors du transfert d'énergie et cette information est perdue. Le processus réversible qui ferait remonter l'énergie le long de l'arborescence n'est plus possible, d'où apparition de l'irréversibilité (Le Méhauté).
La liaison espace‑temps effectuée par Einstein dans sa théorie de la relativité avait ouvert la voie. Mais son espace-temps restait différentiable et la flèche du temps n'apparait pas dans ces conditions. L'irréversibilité intrinsèque vient de la non différentiabilité. En effet chaque point se déplaçant dans l'espace des phases admet deux tangentes différentes donc une vitesse antérieure (-) et une vitesse postérieure (+). Incidemment la notion de trajectoire devient caduque et il est possible de définir une flèche du temps. En mécanique quantique, l'équation de la fonction d'onde mélange les deux vitesses (+) et (-), ce qui rend l'équation réversible.
L'irréversibilité vient également de la structure en arbre qui sous‑tend les fractales. L'énergie semble se dissiper en effet dans les échelles spatiales : à chaque bifurcation de l'arbre durant la descente dans les échelles, un choix est fait lors du transfert d'énergie et cette information est perdue. Le processus réversible qui ferait remonter l'énergie le long de l'arborescence n'est plus possible, d'où apparition de l'irréversibilité (Le Méhauté).
Concepts nomades - Le temps (1/2)
Après ces quelques considérations d'ordre général, nous allons nous
intéresser à deux transferts particuliers dont les répercussions scientifiques
et technologiques sont d'importance. Nous traiterons tout d'abord
l'introduction du concept « temps » dans la physique contemporaine,
concept mis en valeur au milieu du XIXème siècle d'une part par Lyell et Elie
de Raumont, fondateurs de la géologie et d'autre part par Lamarck et Darwin pour
leur théorie de l'évolution des espèces. Ensuite nous aborderons les apports de
l'organisation du vivant dans les sciences physiques via la bionique et la
théorie des systèmes.
Fonder
une science, jusqu'au XIXème siècle, signifiait souvent être en rupture avec
les conceptions de l'Eglise. Ce fut le cas pour Lyell, Lamarck et Darwin qui
introduirent en science des échelles de temps allant du million à quelques
centaines de millions d'années en contradiction avec l'échelle de temps
préconisée par l'Eglise et extrapolée à partir de l'exégèse biblique, au pire
sept jours et au mieux 6000 ans. En Chine, l'interprétation correcte des fossiles
en tant que restes d'êtres vivants très anciens, a été donnée dès le 1er siècle
av. JC.
La
datation de la Terre à 4.5 milliards d'années ne sera effective que dans les
années 60 grâce aux isotopes radioactifs. Entre temps l'âge de la Terre avait été
ramené à 40 000 ans par Lord Kelvin sur des considération physiques de chaleur
interne et de vitesse de refroidissement, faisant fi de toute observation
géologique. Là encore une explication théorique insuffisante, l'apport
calorique dû à la radioactivité des couches terrestres n'ayant pas été pris en
compte, prévaudra sur des observations naturalistes.
Les concepts nomades - Calcul et quantification
Le concept de calcul et de quantification est un peu à part puisqu'il a
donné des résultats spectaculaires dans nombre de disciplines mais a aussi
conduit à énoncer de belles bourdes! Depuis Pythagore qui a eu l'intuition
géniale de l'existence de nombres cachés derrière les phénomènes de la Nature
(la notion de nombre correspond également à une représentation géométrique),
depuis Galilée qui a su mettre en équation le mouvement accéléré et surtout
depuis Newton et Leibniz avec l'invention du calcul infinitésimal, les notions
de fonction et de différentiabilité ont réussi à traiter presque tous les
problèmes physiques du XXème siècle. Les choses se sont un peu compliquées
quand la quantification s'est attaquée aux sciences naturelles et aux sciences
économiques et sociales. Certains phénomènes relevant de ces domaines ont dû
attendre la fin du XXème siècle pour voir émerger des outils mathématiques
adaptés tels que les relateurs arithmétiques ou les fractales. En attendant
quelques perles ont émaillé les publications scientifiques. Ceci ne serait rien
comparé au tort que la quantification à outrance a pu causer aux tenants de
méthodes plus qualitatives, alors mieux adaptées aux problèmes naturalistes.
Mais la fascination des mathématiques et de l'ordinateur a été telle que des
pans entiers des sciences naturelles furent sacrifiées sur l'autel des données
numériques.
Les concepts nomades - Des sciences dures vers les sciences molles
Nous avons déjà remarqué que nombre de concepts migrent des sciences «
dures » vers les sciences « molles » où l'expérimentation n'est souvent guère
adaptée en raison de paramètres physiques non reproductibles, de constante de
temps trop longue ou de complexité trop importante des structures étudiées. La
tentation est donc grande d'utiliser des concepts bien rodés dans des cadres
simplifiés mécanistes où le temps n'est pas un paramètre primordial. Mais toute
extension du champ de pertinence demande beaucoup d'attention et les études sur
la croissance des colonies de bactéries n'apporteront peut‑être aucun
renseignement sur l'extension de nos communautés urbaines, quoique...
Tout transfert de concept doit prendre en compte la notion de changement d'échelle aussi bien dans l'espace que dans le temps. Dans cette deuxième catégorie nous trouverons donc des concepts utilisables mais après avoir bien pondérer leurs limites : sélection naturelle et concurrence (des sciences économiques et sociales vers la biologie), les notions d'ordre, de complexité, d'organisme et de comportement (des sciences humaines et biologiques vers la physique). Ces concepts procèdent de jugement de connaissance mais aussi de valeur et c'est cette ambiguïté qui les rend si délicats à manipuler.
Le concept de chaos est très significatif à cet égard. Ce terme initialement d'origine mythologique, désignant pour les grecs l'état dans lequel se trouvait notre pauvre univers avant que les dieux de l'Olympe n'y mettent bon « ordre », a par la suite désigné toute chose dépourvue d'organisation. Ce terme a été repris en cette fin de siècle par les physiciens dans un sens très particulier, applicables aux systèmes physico-chimiques non prédictibles dont l'attracteur dans l'espace des phases montre une morphologie complexe. Il n'est plus ici question d'absence de structure. Le concept a donc été restreint et reste caractérisé par des paramètres ou des coefficients calculables ou mesurables bien précis. Le champ de validité dans ce cas s'est rétréci et déplacé et le jugement de valeur attaché au départ à ce concept a été totalement éliminé. Ceci n'empêche pas par ailleurs la théorie du chaos d'être critiquée par certains qui voient en elle un vecteur d'idées subversives, contraires à la morale et à l'ordre social, idées qui n'ont jamais existé dans le concept physique.
Dans le même ordre d'idée, la relativité a ainsi été reprise par des philosophes en mal d'inspiration et à peu près tout et n'importe quoi a dû être extrapolé à partir de ce concept. Cette attitude fut d'ailleurs assez fréquente depuis que science et philosophie furent découplées après Pascal et Descartes.
Tout transfert de concept doit prendre en compte la notion de changement d'échelle aussi bien dans l'espace que dans le temps. Dans cette deuxième catégorie nous trouverons donc des concepts utilisables mais après avoir bien pondérer leurs limites : sélection naturelle et concurrence (des sciences économiques et sociales vers la biologie), les notions d'ordre, de complexité, d'organisme et de comportement (des sciences humaines et biologiques vers la physique). Ces concepts procèdent de jugement de connaissance mais aussi de valeur et c'est cette ambiguïté qui les rend si délicats à manipuler.
Le concept de chaos est très significatif à cet égard. Ce terme initialement d'origine mythologique, désignant pour les grecs l'état dans lequel se trouvait notre pauvre univers avant que les dieux de l'Olympe n'y mettent bon « ordre », a par la suite désigné toute chose dépourvue d'organisation. Ce terme a été repris en cette fin de siècle par les physiciens dans un sens très particulier, applicables aux systèmes physico-chimiques non prédictibles dont l'attracteur dans l'espace des phases montre une morphologie complexe. Il n'est plus ici question d'absence de structure. Le concept a donc été restreint et reste caractérisé par des paramètres ou des coefficients calculables ou mesurables bien précis. Le champ de validité dans ce cas s'est rétréci et déplacé et le jugement de valeur attaché au départ à ce concept a été totalement éliminé. Ceci n'empêche pas par ailleurs la théorie du chaos d'être critiquée par certains qui voient en elle un vecteur d'idées subversives, contraires à la morale et à l'ordre social, idées qui n'ont jamais existé dans le concept physique.
Dans le même ordre d'idée, la relativité a ainsi été reprise par des philosophes en mal d'inspiration et à peu près tout et n'importe quoi a dû être extrapolé à partir de ce concept. Cette attitude fut d'ailleurs assez fréquente depuis que science et philosophie furent découplées après Pascal et Descartes.
Transdisciplinarité - Les concepts nomades
L'expression
« concepts nomades » ainsi que les réflexions qui suivent sont en grande partie
empruntées au livre dirigé par I.Stengers « D'une science à l'autre ». Certains
transferts furent judicieux et très féconds. Appartiennent à cette catégorie
les concepts de causalité, de loi, de problème (transfert des maths et de la
physique vers les sciences naturelles et humaines), de système (de la physique
vers l'économie), de corrélation (de la philosophie et de la biologie vers les
sciences humaines). Ce dernier concept largement utilisé recèle néanmoins un
piège de taille dans lequel se fourvoyèrent un certain nombre de scientifiques
: la corrélation positive a souvent été à tort synonyme de lien causal. La corrélation est «
un instrument porteur des exigences de rigueur les plus maniaques et pourtant
associé, sous couvert de définitions apparemment techniques, purement
formelles, aux opérations les plus périlleuses de transmutation de l'ignorance
en science ». Le coefficient de corrélation n'est qu'une observation empirique
et se servir d'un outil en dehors de son champ de validité ou sans rechercher les relations de causalité a toujours conduit à
des inepties, inepties qui peuvent tourner au drame quand elles touchent aux
sciences humaines.
dimanche 15 juillet 2012
Analogies Illustrations (4/4)
La
théorie corpusculaire de la lumière, après une éclipse de plus de deux siècles
depuis Newton, est remise au goût du jour par Planck. Celui‑ci étudie
l'émission lumineuse d'un corps noir et s'aperçoit de l'analogie des formules
mathématiques décrivant le mouvement des molécules de gaz dans une enceinte close
et le spectre d'émission d'un corps chauffé dans un four fermé. En effet les
courbes de distribution des vitesses des molécules et de distribution en
fréquence de la lumière émise sont caractérisées toutes deux par une forme en
cloche (gaussienne). Les quanta lumineux seront donc des particules discrètes à
l'instar des molécules et cette astuce mathématique permettra d'ajuster la
courbe théorique à la courbe expérimentale en évitant le problème de « la
catastrophe ultraviolette » initialement prévue par la théorie du corps noir
(émission UV en masse, énergie infinie). La réalité des quanta sera néanmoins
prouvée par l'effet photoélectrique découvert par Einstein. Rappelons que ce
dernier eut l'intuition de la constance de la vitesse de la lumière en imaginant
le vol d'une mouette au‑dessus des vagues… à chacun ses références.
Quant
à de Broglie, le père de la double nature de la lumière et de la matière, ses
idées se cristalliseront brusquement dans son esprit à la fin de l'été 1923,
après avoir remarqué l'analogie de comportement en diffraction de la lumière et
des électrons ainsi que l'apparition de nombres entiers dans la description des
niveaux énergétiques des électrons dans l'atome de Bohr, ce qui faisait
fortement penser à une quantification. Par la suite la notion arbitraire
d'amplitude de probabilité fut introduite par une pirouette mathématique qui
mélangea, par imitation formelle, l'amplitude de l'onde et la probabilité de présence du corpuscule. Tout le
problème réside en fait dans le changement d'échelle, dans la réduction du
paquet d'ondes.
Enfin quelques brèves à la volée :
Laplace,
en vue de déterminer la vitesse de la lumière, construit son programme de
recherche sur l'analogie des lois en 1/r2 pour la gravitation et l'attraction
électrique.
De
Gennes emploie, pour décrire le comportement des polymères en solution semi‑diluée
(concept des blobs), les mêmes outils statistiques que ceux formalisant les
transitions de phase magnétiques.
Wessel,
cartographe, invente la représentation du nombre imaginaire dans le plan
cartésien, tel un point géographique déterminé par ses coordonnées
cartographiques.
La
morphologie des fullerènes fut entrevue par analogie avec le dôme de la géode
de la Cité des Sciences de la Villette à Paris.
Penrose,
à la recherche d'une explication pour l'existence d'une symétrie d'ordre cinq
dans les quasi‑cristaux, s'inspirera des pavages non périodiques du plan
apparaissant dans les oeuvres du dessinateur Escher.
Multiples
sont les sources d'analogie et chacun trouvera son inspiration dans des
domaines parfois très éloignés du sujet de recherche, au gré de la profondeur
de sa culture scientifique, philosophique ou artistique. Nous reviendrons plus
loin sur le rôle de la culture et de la civilisation dans les sources
d'inspiration.
Analogies Illustrations (3/4)
L'évolution des théories de la lumière et les débuts
de la mécanique quantique sont également très instructifs et nous allons y
retrouver, parmi les adeptes de l'analogie, quelques uns de nos plus grands
savants. Le premier à entrer en scène est T. Young, médecin de son état. Il
n'est pas physicien mais s'intéresse à la vision, l'accommodation de l'oeil et
à l'audition avec la propagation des ondes sonores. Son expérience sur les
interférences sera correctement interprétée et il établira la nature
ondulatoire de la lumière par analogie avec les ondes sonores. Son goût pour la
trans-disciplinarité le portera même à nous donner une première interprétation
de la pierre de Rosette et quelques réflexions sur les bulles de savon, terrain
de choix pour l'étude des surfaces minimales.
Maxwell,
l'unificateur de l’électricité et du magnétisme, imagine l'éther animé
d'engrenages et de tourbillons. Pour lui l'intensité du champ magnétique est
représentée par la vitesse de rotation des tourbillons, l'intensité du champ
électrique est équivalente à la force exercée par les tourbillons sur les
particules et la densité du courant électrique est assimilée au flux des
particules. Il en déduira l'interdépendance des forces électriques et
magnétiques ainsi que l'équation correspondante. De nos jours, le vecteur champ
magnétique est associé à une rotation, le vecteur champ électrique à une
translation et la densité de courant au flux des électrons, mais la notion de
champ a remplacé celles de l'éther et de ses mécanismes associés. La
représentation de Maxwell qui prête maintenant à sourire, n'était donc pas si
aberrante. Par la suite, il abandonnera les tourbillons mais gardera les
énergies de perturbation, potentielle et cinétique promises à un bel avenir.
Mais les tourbillons ont encore de beaux jours devant eux puisque la théorie
des changements de phase les invoquent au passage de l'état normal à l'état
supra-critique...
Analogies Illustrations (2/4)
Si
l'exemple précédent traduit bien l'intérêt de la trans-disciplinarité, celui de
l'invention de l'ampoule par Edison illustre une méthode qui a fait ses preuves
et qui sera utilisée par ce génial inventeur de manière systématique : «
Aborder un domaine qu'on ne connaît pas en s'appuyant sur des analogies avec
ceux qui sont connus ». Etablir des analogies et concevoir d'innombrables
variations sur un même motif s'avéreront être à la base du génie inventif
d'Edison.
La
première analogie consistera à reprendre le réseau d'éclairage par le gaz comme
schéma de distribution pour l'électricité en utilisant les canalisations déjà
existantes pour y faire passer les fils électriques et placer les nouvelles
lampes dans les appareils à gaz reconvertis, de même pour les compteurs. Son
souci était économique et psychologique pour une transition en douceur d'un
système à un autre.
La
deuxième analogie servira à l'invention de l'ampoule électrique par elle-même.
Edison connaît bien la technologie des télégraphes. Le problème à résoudre est
celui de la surchauffe des filaments en platine. Il va donc concevoir "des
régulateurs capables de détourner le courant électrique de l'élément
incandescent. Les ampoules seront les éléments de télégraphie et les
régulateurs seront conçus comme des interrupteurs télégraphiques. Un peu plus
tard, il observa que le métal semblait absorber des gaz issus de l’atmosphère
pendant la chauffe, ce qui baissait sa résistance (une forte résistance
favorise l'incandescence par effet Joule et la puissance consommée ne dépend
que de la surface de chauffe, d'où le fil fin enroulé en spires). Pour
améliorer son ampoule il maintiendra donc son filament sous vide, ce qui lui
permettra par la suite d'utiliser le carbone de bien meilleure performance mais
exigeant l'absence d'oxygène.
La
troisième analogie viendra cette fois du téléphone qu'il améliore en parallèle.
La pastille de carbone est un élément constitutif du microphone. Le noir de
carbone nécessaire étant fabriqué dans le complexe de recherche d'Edison, il
s'aperçut que ce noir de lampe pouvait être roulé tel un fil de platine.
L'ampoule fut définitivement inventée quand le filament incandescent trouvât
son origine dans un fil de coton enroulé plus simple à mettre en oeuvre.Une autre analogie pourrait être signalée au sujet de la conception de la pastille de carbone. Son rôle dans la réception de la parole provient d'une propriété particulière du noir de carbone : sa résistivité s'accroît en fonction de la pression qui s'exerce sur lui. Edison s'est aperçu de cette loi lors de ses recherches sur les câbles télégraphiques immergés. Pour simuler la résistance d'un câble de grande longueur, il utilisa des résistances constituées de tubes remplis de noir de carbone fortement tassé pour obtenir des valeurs de résistance très élevées. Mais le moindre choc perturbait les mesures car les variations de résistance étaient très sensibles à la pression. Ce défaut lui restera en mémoire et il s'en servira pour concevoir un microphone très fidèle.
Analogies Illustrations (1/4)
Un exemple d'adéquation du formalisme mathématique à la compréhension
physique est celui de la courbure de l'espace-temps introduite par Einstein.
Une façon simple d'intuiter ce concept est d'imaginer un diagramme espace (une
dimension) ‑ temps. La dérivée seconde de l'espace par rapport au temps ou
accélération est aussi la courbure de la courbe au point accéléré, comme la
vitesse peut être représentée par la tangente en ce point. Il suffit ensuite de
généraliser à un espace à trois dimensions. La courbure de l'espace-temps est
ainsi reliée par le formalisme mathématique à l'accélération gravitationnelle.
Einstein ne semble pas avoir utilisé cette source d'inspiration pour faire
émerger son concept nouveau mais la relation géométrie - algèbre initiée par
Descartes reste pleine de ressources.
La
naissance de la théorie cellulaire (T. Schwann, 1839) vient du rapprochement
de deux domaines scientifiques tout à fait distincts à cette époque que sont la
botanique et la zoologie. Lorsque Schwann débute ses recherches, seuls
sont reconnus dans le règne végétal les pores et les cellules (trous) et dans
le règne animal les globules rouges. La conception de l'organisme admet
l'existence d'unités simples ou de molécules organiques dotées de propriétés
vitales mais dont les fonctions vitales et le plan d'organisation sont globaux.
Il ne peut y avoir, dans ce schéma de pensée, de rapprochement entre les deux
règnes, végétal et animal. Le terrain favorable à la découverte sera préparé par
des changements techniques, invention du microscope achromatique permettant
l'observation entre autres de structures globulaires et par des changements
conceptuels initiés par Dutrochet ‑ Raspail qui envisageront l'unité des
vésicules végétales et animales dans une vision plus réductionniste et physico-chimique
que vitaliste comme précédemment. Mais le globulisme n'est pas suffisant car le
globule reste sans structure interne et son évolution pose toujours problème.
Le
facteur déclenchant résidera dans les échanges entre Schwann qui est zoologue
et le botaniste Schleiden. Ce souci d'interdisciplinarité conduisit à
l'observation conjointe de noyaux dans les cellules végétales et animales
(corde dorsale d'un embryon). Ils comprirent le rôle du noyau dans le
développement des êtres vivants quelque soit leur règne. La cellule était née
en tant qu'unité élémentaire ayant une vie propre ne dépendant pas d'une force
vitale commune à l'organisme. Cette hypothèse servira de cadre pour les
observations futures et permettra une ré-interprétation des faits observés, par
exemple la diversité des cellules et leur rôle respectif dans l'organisme.
samedi 23 juin 2012
Puissance de l'analogie et concepts migrateurs (2/2)
3. Certains
de nos illustres anciens se sont aidés de représentations ou de modèles
inspirés du paradigme mécaniste : Descartes imagina les planètes tournoyant
dans un univers exempt de vide et peuplé de tourbillons. Maxwell préféra animé
son éther par tout un système de mécanismes divers et variés. Ses
représentations apportent sans doute un support visuel à l'imagination, tant il
est vrai, comme nous le verrons quelques décennies plus tard, qu'il est périlleux de bâtir un monde
abstrait tel que celui régi par la mécanique quantique. Un retour à la
géométrisation de l'espace‑temps, il est vrai un peu particulière puisque
fractale, a d'ailleurs permis d'éliminer les paradoxes qui empoisonnait la
mécanique quantique (Nottale). Néanmoins ces aides à l'inspiration doivent être
utilisées avec précaution et être abandonnées dès que leur cadre trop strict
stérilisent les recherches ou amènent sur de fausses pistes.
Subsiste
une question, celle du fondement des analogies. Pourquoi peut-on utiliser les
analogies avec le succès que l'on connaît ? Aristote avait pressenti le
problème : « ce n'est pas la Nature qui imite l'art, c'est l'inverse ».
Pour R. Thom, les analogies et les métaphores sont possibles car il y a
préexistence de schémas, pas si éloignés peut‑être des catégories a priori de
E. Kant. On a pu concevoir une pompe hydraulique ou un ordinateur parce que
nous avions un coeur et un cerveau. L'histoire nous laissera pourtant le
déroulement conceptuel inverse : l'analogie du fonctionnement du coeur avec
celui d'une pompe (Harvey) et du cerveau avec celui d'un ordinateur (réseaux de
neurones). Même les mathématiques ne seraient que découvertes et non inventées
par l'homme. Elles seraient par là‑même fondées et justifiées. Il est en effet
troublant de réussir à tirer des conclusions pertinentes sur un phénomène
physique en raisonnant uniquement sur son modèle mathématique. C'est cette
confiance dans l'adéquation des mathématiques au réel qui nous évite de
vérifier à chaque étape du raisonnement la survenue d'une dérive éventuelle par
rapport à la physique.
Puissance de l'analogie et concepts migrateurs (1/2)
Nous venons d'expliciter quelques méthodes conduisant à l'innovation et
l'une d'entre elles, la pratique de l'analogie, mérite que l'on s'y attarde un
peu plus. Elle est en effet à l'origine de bon nombre de découvertes et les
exemples illustratifs de cette méthode sont sans doute les plus accessibles à
l'analyse.
La pratique de l'analogie semble avoir été au cours de
l'histoire un réflexe salutaire fréquent pour résoudre un problème. Il parait
en effet naturel de chercher à son problème une solution qui existe déjà
ailleurs par principe d'économie. Mais cette méthode demande une ouverture
d'esprit importante et un champ de connaissances étendu, capacités qui tendent
à disparaître de nos jours avec l'hyper-spécialisation.
La typologie des analogies, liée à la nature de leur
fondement, détermine leur taux de fécondité et le pallier de profondeur qui
peut être atteint lors de leur utilisation. En première approximation, trois
degrés d'abstraction peuvent être dégagés :
1. La nature étant bien faite, il est donc raisonnable de
la copier. Ce type d'analogie très proche du mimétisme a donné naissance
récemment à trois domaines très porteurs : la bionique, la cybernétique et la
théorie des systèmes. L'analogie peut être ici poussée à ses extrêmes sans
grand risque, seules les limitations technologiques pouvant mettre un terme à
l'innovation.
2. En dépit d'effets macroscopiques différents,
certains processus physiques sont fondamentalement de même origine et peuvent
être décrits par les mêmes lois mathématiques. La conduction de la chaleur et
la dispersion d'un colorant dans un liquide relève d'un même processus, celui
de la diffusion. La loi physique sera la même, seules les variables ici des
intensités changeront : température pour la conduction, concentration des
particules de colorant dans le second cas. L'ensemble du modèle mathématique
développé pour l'un des phénomènes pourra être utilisé pour l'autre. Seule
l'interprétation physique des paramètres sera susceptible de présenter quelque
difficulté. Reconnaître et intuiter la nature profonde et commune de phénomènes
physiques disparates permet d'établir un schéma de théorie qui aidera à
comprendre d'autres cas relevant d'un processus semblable. Ainsi la mise en
évidence de phénomènes critiques auto‑organisés avec dimension fractale,
corrélation à longue distance et apparition de structures, s'est faite à partir
de cas dont la nature pouvait sembler très différente : front d'incendie,
agrégation de colloïdes, seuil de percolation magnétique ou électrique. Cette
théorie permettra néanmoins de mieux comprendre le fonctionnement des
batteries (A. Le Méhauté)... L'analogie peut donc soit aider à trouver des solutions, soit
permettre l'émergence d'une nouvelle théorie qui fournira un cadre prédictif
et/ou explicatif à tous ces phénomènes analogiques.
Synthèse et analogie
L'une
des grandes entreprises de la Science consiste à établir une synthèse à partir
d'éléments qui pourraient sembler disparates a priori : Newton établit la loi
de la gravitation en réfléchissant sur la chute des corps, les marées et les
phases de la Lune; Mandelbrot fait émerger le concept de fractale à partir
d'observations économiques, hydrologiques et météorologiques; Mendéleïev passe
en revue tous les corps chimiques et dégage sa loi périodique. Les exemples
peuvent être multipliés à l'envie. Rappelons que "cogito" veut dire
"agiter ensemble". La recherche des analogies et la juxtaposition des
éléments ainsi reconnus permettent d'extraire le concept ou la loi
intéressants. La prise de hauteur ou de recul est nécessaire à l'extraction.
Cette phase est celle de l'abstraction ou induction. Elle nécessite souvent de
ne pas se laisser aller au sens commun.
L'abstraction
vers le concept est parfois utile avant d'entamer des recherches d'analogies.
Cette démarche est recommandée lors du processus d'innovation qui consiste à
inventer un nouveau produit pour une fonction déjà connue. Prenons le cas de la
fenêtre. Si vous gardez en tête la fenêtre telle qu'elle existe généralement,
cette vision va bloquer votre imagination. Il faut alors extraire le concept de
fenêtre, c'est à dire la définir par sa fonction : c'est une interface séparant
deux milieux différents et permettant de contrôler un échange de flux de
matière, d’énergie et d’information. Les idées pourront alors être cherchées
dans des domaines très divers de la science et de la technologie.
lundi 4 juin 2012
Rupture et décalage (3/3)
Le dernier point de ce pôle consacré à la rupture concerne le
débranchement de mauvaises connexions entre matrices intellectuelles. Koestler
présente ainsi le problème : "Acquérir une habitude nouvelle est facile
car l'une des grandes fonctions du système nerveux est de servir de machine à
former des habitudes; se défaire d'une habitude est un trait d'esprit ou de
caractère presque héroïque. La première condition de l'originalité est l'art
d'oublier, au bon moment ce que l'on sait... S'il ne sait oublier, l'esprit
demeure encombré de réponses toutes faites, et ne trouve jamais l'occasion de
poser les bonnes questions."
Certaines découvertes ont ainsi pu voir le jour parce que leur auteur ne savait pas qu'elles étaient théoriquement impossibles. L'histoire de la corde, du poids et du clou est édifiante. Un psychologue proposa à des étudiants de fabriquer un pendule en accrochant au mur à l'aide d'un clou une corde à laquelle était suspendu un poids. Seulement 50% des élèves trouva la solution en se servant du poids pour planter le clou dans le mur. Ceci est très révélateur du fait que la corde et le poids étant présentés attachés ensemble, ils formaient dans l'esprit des élèves un tout indissociable avec une fonction bien précise, celle de pendule et non pas de marteau éventuel. Dans cet exemple, les objets sont liés et les concepts associés également. Ce cas pratique peut prêter à sourire, mais parfois les liens entre concepts sont beaucoup plus subtils et d'autant plus difficiles à remettre en cause. Il existe une cohésion très forte entre les cadres de la perception et les matrices de la pensée.
Certaines découvertes ont ainsi pu voir le jour parce que leur auteur ne savait pas qu'elles étaient théoriquement impossibles. L'histoire de la corde, du poids et du clou est édifiante. Un psychologue proposa à des étudiants de fabriquer un pendule en accrochant au mur à l'aide d'un clou une corde à laquelle était suspendu un poids. Seulement 50% des élèves trouva la solution en se servant du poids pour planter le clou dans le mur. Ceci est très révélateur du fait que la corde et le poids étant présentés attachés ensemble, ils formaient dans l'esprit des élèves un tout indissociable avec une fonction bien précise, celle de pendule et non pas de marteau éventuel. Dans cet exemple, les objets sont liés et les concepts associés également. Ce cas pratique peut prêter à sourire, mais parfois les liens entre concepts sont beaucoup plus subtils et d'autant plus difficiles à remettre en cause. Il existe une cohésion très forte entre les cadres de la perception et les matrices de la pensée.
Rupture et décalage (2/3)
L'un
des pièges de la recherche scientifique relève de l'oubli des hypothèses de
départ, des prémisses qui peuvent avoir leur origine parfois dans des temps
fort reculés et qui font partie du corpus des évidences acquises lors de la
formation du chercheur. Dévoiler ces hypothèses cachées, remettre en cause des
habitudes intellectuelles peut être riche d'enseignement. Nous allons nous
appuyer sur la démarche d'Einstein quand il élabora la théorie de la
Relativité. Quoi de plus évident que la notion d'espace dans lequel on évolue
tous les jours et que celle du temps qui s'écoule toujours si imperturbablement
? Ecoutons son explication quant aux raisons qui l'ont conduit à sa théorie :
"Quand je me suis demandé pourquoi il se
faisait que j'avais, moi en particulier, découvert la théorie de la Relativité,
il m'a semblé que cela était dû à la circonstance suivante. L'adulte normal ne
se préoccupe jamais des problèmes d'espace‑temps. Tout ce qu'il y a à penser là‑dessus,
à son avis, a été pensé au cours de son enfance. Moi au contraire, je me suis
développé si lentement que je n'est commencé que très tard à me poser des
questions sur l'espace et le temps. En conséquence, j'ai étudié le problème
plus à fond qu'un enfant ordinaire."
Quelles qu'en soient les raisons, et Einstein reste
très modeste sur leur nature, la réflexion sur les prémisses et hypothèses
cachées est souvent féconde. Longtemps le Soleil a tourné autour de la Terre et
l'espace est resté euclidien. L'un des piliers de la physique est le principe
de la conservation de l'énergie. Il a été élaboré au milieu du XIXème siècle à
partir des données de base de la physique de cette époque où l'espace était
considéré comme euclidien. Un certain nombre d'indices nous font penser, depuis
les travaux de Nottale (1992), que l'espace peut être fractal. L'énergie se
conserve‑t‑elle dans un tel contexte ? Sans doute que oui, mais... N'oublions pas que deux et deux font
quatre mais uniquement dans la base dix ! La réflexion sur les
"bases" est donc une bonne piste pour l'innovation.
Rupture et décalage (1/3)
Dans
les exemples précédents nous avons déjà identifié les points suivants :
-
Vision
sous un autre angle de faits connus, changement de contexte
-
Prise
de risque et remise en cause d'habitudes intellectuelles ou de principe
scientifique de base
-
Changement
d'un bruit, donc sans signification, en une information pertinente.
Nous allons ajouter et
justifier trois autres points :
-
Prise
à contre‑pied d'un raisonnement classique, inversion logique
-
Dévoilement
des prémisses et des habitudes intellectuelles
-
Débranchement
des mauvaises connexions neuronales.
L'inversion logique du raisonnement peut paraître en
première approche comme peu rationnelle. Et pourtant les exemples sont là pour
nous prouver que ça marche. Le premier remonte à 1821 où Faraday eut l'idée de
construire un moteur électrique où l'énergie électrique est transformée en
énergie mécanique, principe inverse de la dynamo. Personne n'y fit attention.
En 1873, lors de l'exposition de Vienne, un technicien brancha par erreur une
dynamo actionnée par une machine à vapeur sur une dynamo au repos. Cette
dernière se mit alors en mouvement grâce au courant électrique fournit par la
première dynamo. Le moteur électrique était réinventé. Il fallut donc qu'une
deuxième inversion, celle-ci technique, apparaisse accidentellement pour que
l'idée soit acceptée.
Le deuxième exemple est celui de l'invention du
phonographe par Edison. Dans sa jeunesse, il travailla en tant que télégraphiste
et avait inventé un système d'enregistrement des points et des traits du morse
sur un rouleau de papier. Plus tard cet appareil fut perfectionné pour en
retour transmettre les impulsions électriques générées par la gravure des
messages sur le rouleau. Mais le levier responsable de la lecture des gravures
avait tendance à vibrer. A vitesse de rotation rapide du cylindre, il émettait
même des sons continus. Au lieu d'essayer d'éliminer cet inconvénient, ce
bruit, Edison par un renversement de logique, exploita ce phénomène et après
quelques adaptations inventa le phonographe. Là le bruit devint réellement une
information. Cela nous rappelle Pythagore écoutant le forgeron battre des
barres de fer et en déduisant que les sons, dont la hauteur dépend de la
longueur de la barre, sont des vibrations transmises par l'air.
Le
dernier exemple beaucoup plus récent (1995) nous sera fourni par l'idée de base
d'un nouveau procédé d'amortissement des vibrations due à A. Le Méhauté et M. Capdepuy. Le
principe couramment adopté pour dissiper de l'énergie, qu'elle soit vibratoire
ou autre, est de la répartir dans un milieu qui la transformera en une autre
forme d'énergie plus dégradée telle que la chaleur. L'idée, prenant à contre‑pied
ce principe, fut donc de concentrer l'énergie en des points bien précis de la
structure pour la transformer localement. Ainsi les vibrations ne se propagent
plus dans la structure à amortir et cette dernière ne peut plus entrer en
résonance. Ce principe (SPADD) est maintenant utilisé dans de nombreux domaines http://www.artec-spadd.com/.
jeudi 31 mai 2012
Les pistes de la découverte (3/3)
Un deuxième exemple servira d'illustration à notre propos
sur la bisociation, celui de la découverte de la transmission chimique des
impulsions nerveuses par O. Loewi en 1920. Auparavant, le contrôle des
fonctions organiques était perçu comme provenant directement des impulsions
électriques nerveuses. Cette hypothèse prend bien en compte le phénomène
d'excitation mais comment expliquer celui d'inhibition ? Seules des drogues
peuvent permettre ce dernier type d'action. Loewi pensa alors que les nerfs
excités pouvaient libérer des substances chimiques à l'origine des deux types
d'action. Mais à cette période là, il n'avait aucune idée de l'expérience à
réaliser pour démontrer ce phénomène. Quinze ans plus tard, Loewi laissa battre
deux coeurs de grenouille dans des solutions salines pour voir si cette activité
libérait des agents chimiques... Deux ans après, l'idée de l'expérience
cruciale lui vint brusquement dans la nuit. Il allait isoler deux coeurs, l'un
muni de ses nerfs, l'autre dénervé. Après avoir excité le nerf vague du premier
coeur, ce qui allait ralentir ses battements (effet d'inhibition), il injecta
dans le second coeur la solution saline qui perfusait le premier et obtint le
même résultat. La transmission de l'influx nerveux s'effectuait bien via des
substances chimiques. L'idée de l'expérience décisive est donc bien venue de la
juxtaposition de deux matrices différentes : l'une concernant la transmission
de l'influx nerveux et l'autre la sécrétion par des organes d'agents chimiques.
Reliés à notre vision centrale "Penser à côté", se déclinent les
pôles suivants : "rupture et décalage" par rapport aux habitudes,
"synthèse et généralisation" en relation avec "analogies"
et enfin "comportement atypique". Il s'agit ici de présenter une
vision globale des différentes pistes menant à la découverte et le schéma ne
constitue pas un parcours obligé. Les démarches réelles n'empruntent souvent
que quelques chemins dépendant beaucoup de la personnalité du scientifique.
D'autre part, cette synthèse ne constitue pas une panacée garantissant un
résultat. Elle indique simplement les terrains favorables au développement de
bonnes idées.
Les pistes de la découverte (2/3)
Pour illustrer cette notion, nous allons voir comment Archimède en est
venu à pousser son fameux cri au sortir de sa baignoire. Il était une fois, à
Syracuse, un tyran nommé Hiéron, protecteur d'Archimède, ayant reçu une
couronne qu'il soupçonnait n'être pas d'or pur. Archimède fut mandé pour donner
son avis. Connaissant le poids volumique de l'or, il suffisait de peser la
couronne, mais comment faire pour estimer le volume d'une couronne aussi ornée.
La situation était bouchée et la tension accrue. Une intense frustration est
souvent à l'origine d'une découverte d'importance. Qui dit tension, envisage la
relaxation : Archimède se plongea dans sa baignoire. En observant le niveau de
l'eau monter à mesure qu'il y pénétrait, il pensa tout à coup que le volume
d'eau déplacé correspondait aux parties immergées de son corps et qu'il tenait
là le moyen de mesurer le volume de la couronne. L'énoncé de son fameux
principe, tout corps plongé dans un liquide reçoit de sa part une poussée...,
viendrait quelque temps plus tard. La découverte est ici intervenue par
juxtaposition de deux matrices apparemment sans connexion : celle du problème
lié à la couronne et celle de la montée de l'eau dans une baignoire quand on y
plonge un corps. L'observation, d'aspect banal et négligé, de l'eau qui monte
dans un contexte quotidien change de statut et devient source de créativité
quand le contexte change et qu'elle est perçue sous un angle insolite et
significatif. Beaucoup de faits en science prennent sens lorsque l'observation
est guidée par une théorie.
Les pistes de la découverte (1/3)
L'analyse
des exemples mentionnés précédemment nous donne l'occasion de dégager quelques
pistes favorables à la genèse d'idées fécondes. A l'aide de cas présentés de
manière plus succinte, nous compléterons notre liste qui ne se veut en aucun
cas exhaustive.
La
vision globale est centrée sur la notion de "penser à côté" et de
l'acte de bisociation. Ces deux aspects complémentaires de la pensée créative
ont été développés par Koestler dans son ouvrage intitulé "Le cri
d'Archimède". Sa démonstration débute par l'analyse des mécanismes de
l'humour :
"La
structure sous‑jacente à toutes les variétés d'humour est bisociative : il
s'agit de percevoir une situation ou un fait dans deux contextes d'association
habituellement incompatibles. Le résultat est un brusque transfert du courant
de pensée d'une matrice à une autre que régit une logique, ou règle différente.
Mais certaines émotions à cause de leur inertie et de leur persistance, ne
peuvent suivre l'agilité de la pensée. Rejetées par la raison, elles
s'échappent par les issues de moindre résistance, dans le rire... Le terme de
matrice a été introduit pour désigner toute aptitude ou technique, toute
structure d'activité régie par un ensemble de règles, que nous avons appelé
code."
mardi 29 mai 2012
La genèse des fractales (2/2)
Le
terme "fractal" n'existe pas encore. Il sera inventé dans les années
70, lors du travail de synthèse effectué pour faire émerger le concept comme
principe fondamental de la Nature. Entre temps les travaux de Mandelbrot
porteront sur la morphologie terrestre, reliefs et côtes maritimes, la
répartition des galaxies, la forme des nuages, celle des arbres ou des
poumons... La pluridisciplinarité a engendré la possibilité de traquer les
analogies et de trouver le concept unificateur. Les résistances intellectuelles
à l'utilisation de méthodes mathématiques pour simuler des phénomènes naturels,
sont tombées dès lors qu'il a été possible de reproduire des figures imitant la
nature. Le graphisme des fractales et l'approche géométrique sont venus de la
nécessité de faire comprendre aux scientifiques l'intérêt d'une théorie
mathématique qui les rebutait sous son aspect formel.
Une
théorie cohérente sur les fractales verra le jour en 1973 lorsque Mandelbrot
sera obligé, dans une série de séminaires pour le Collège de France de
justifier son interdisciplinarité. Pour la réussite d'une démarche telle que la
sienne, il donne quelques conseils en ces termes :
"Quand on me disait que mes travaux étaient
incompréhensibles, je revenais à la charge et j'expliquais sans me lasser. Si
j'avais été mou et timide, ou trop arrogant, ou si mon livre avait été
illisible, jamais la découverte de fractales n'aurait vu le jour... Et puis
cette démarche exige qu'on reste longtemps suspendu entre les disciplines.
Aujourd'hui, pour qui se lance dans la recherche, c'est une position
pratiquement intenable... L'interdisciplinarité est rarement viable. Quand elle
est intellectuellement possible, et c'est rare, elle est pénible à vivre. Or il
y a des intuitions fécondes qui ne naîtront jamais que dans l'interdisciplinarité."
Les
mots‑clés de la démarche de Mandelbrot sont les suivants : originalité de la
formation, éclectisme et interdisciplinarité, analogies, synthèse et
opiniâtreté.
La genèse des fractales (1/2)
B:
Mandelbrot relate sa découverte dans une interview donnée pour le mensuel
"La Recherche" de mars 1986. Il décrit tout d'abord son parcours
estudiantin quelque peu perturbé par la seconde guerre mondiale. Il passe avec
succès le concours d'entrée à Polytechnique sans avoir quasiment suivi les
cours des classes préparatoires. Il peut ainsi résoudre les problèmes
mathématiques par la géométrie, méthode qu'il maîtrise mais qui n'est plus en vogue
depuis que l'analyse algébrique a été imposée comme méthode universelle par
Bourbaki et enseignée comme telle. Le calcul est roi et l'intuition géométrique
est reléguée dans les oubliettes de l'histoire des sciences. B. Mandelbrot sera
d'ailleurs l'un des premiers avec R. Thom a exhumé cette vieille dame pour le
plus grand bonheur des physiciens. L'originalité de la formation de Mandelbrot
et son décalage par rapport à ce qui est enseigné classiquement constituent le
premier point ayant favorisé la découverte.
Par
la suite, il s'intéresse aux mathématiques appliquées et à leur utilité dans
divers domaines. L'économie le passionne et il remarque que les fluctuations à
long terme sont de même nature que celles à court terme, contrairement à la
théorie en cours qui suppose que la spéculation est la cause des "court
terme" et que les lois fondamentales de l'économie guident les "long
terme". Nous voyons ici apparaître la notion d'auto‑similarité où le motif
représentatif des fluctuations se retrouve à l'identique lors d'un changement
d'échelle ici temporel. Mandelbrot fera la même constatation lorsqu'il étudiera
les crues de différents grands fleuves. La variation du niveau des eaux suit
une loi auto‑similaire. Ce concept émergeant, il le retrouvera en linguistique,
en météorologie. Les notions de bruit, de fluctuations et de turbulence
difficiles à quantifier et à théoriser sont approchées par ce nouveau concept
qui englobe l'irrégularité du phénomène et son caractère auto‑similaire.
jeudi 24 mai 2012
Genèse du tableau de Mendéleiev (5/5)
Le
tableau doit être considéré comme le couronnement de la chimie initiée par
Lavoisier. Malgré le changement de paradigme, on passe du corps simple à
l'élément, il n'ouvre pas d'horizon sur la chimie du XXème siècle. Mendéleiev
refusera la radioactivité et la transmutation des éléments qui remet en cause
sa foi inébranlable en l'individualité de l'élément et son inaltérabilité
(inspiré de la monade de Leibniz?), notion qui l'avait conduit au succès. Cette
foi inébranlable apparait également dans l'élaboration de la loi périodique à
partir des poids atomiques. Car les irrégularités ne manquent pas ainsi que les
approximations. La véritable régularité ne sera découverte qu'au début du XXème
siècle avec celle du cortège électronique : on passe en effet d'une case à une
autre sur une même ligne en rajoutant un électron sur la couche externe,
exception faite pour les métaux de transition entre autres où les sous‑couches
se remplissent tardivement. Le tableau périodique connut donc une phase
prédictive puis explicative grâce à la structure de l'atome.
Nous pouvons maintenant expliciter les grands points
de la démarche de Mendéleiev :
‑ Le besoin pédagogique d'une synthèse prédictive de
données disparates : retrouver une unité disparue,
‑ L'opposition métaphysique à l'hypothèse de Prout :
loi unique contre élément unique. A ce propos, Mendéleiev a été à bonne école
puisque son professeur à l'Institut pédagogique central de St Pétersbourg,
Voskresenski, avait fondé sa pédagogie sur la bataille des idées en science,
‑ L'abstraction des corps simples vers les éléments
correspond aussi à un glissement, à un décalage du concept fondateur,
‑ La vision globale, la prise en compte de critères
à l'encontre des habitudes (les dissemblances entre familles d'éléments),
‑ La foi
inébranlable dans sa théorie malgré des données peu intégrables dans le schéma.
Genèse du tableau de Mendéleiev (4/5)
Le
tableau périodique émergera d'un long travail méthodique. L'idée cruciale
serait venue lors d'une visite d'une fabrique de fromages près de St
Pétersbourg : celle d'arranger les différents groupes d'éléments regroupés par
affinité chimique par ordre de poids atomique. Il aurait ainsi aperçu la
régularité périodique. En 1869, les familles de mêmes propriétés chimiques sont
sur une même ligne et les poids atomiques proches sur une même colonne. Aujourd'hui
la présentation est inversée. Sa réussite vient du fait qu'il a comparé des
familles extrêmes, celles des alcalins et des halogènes, alors que ses
collègues cherchaient uniquement les ressemblances entre éléments. Cette
capacité de prendre à contre‑pied les habitudes de raisonnement est un des traits
qui contribue à la découverte. L'analyse in situ de Leibniz a peut‑être inspiré
cette vision globale. Elle prend en compte des ressemblances mais aussi des
dissemblances et elle seule a permis l'établissement d'un tableau général dont
les cases vides indiquent clairement le caractère prédictif.
Le
tableau a pu voir le jour également pour une raison qui feraient bondir les
positivistes : le manque de données expérimentales ! En effet, les lanthanides
dont les propriétés n'étaient guère explicables du temps de Mendéleiev ne sont
pas encore découverts. C'est une chance car ils auraient sans doute bloqué la
démarche de synthèse car non intégrables dans le système du moment.
Génèse du tableau de Mendéleiev (3/5)
La
pluralité des éléments peut être réduite soit par la voie d'un seul élément
primordial qui serait l'hydrogène (Prout, début du XIXème), soit par
l'établissement d'une loi unique liant les éléments entre eux. L'hypothèse de
Prout aura le mérite de poser le poids atomique comme critère de classement.
Les raisons de la non fécondité de cette hypothèse viennent de la focalisation
sur les relations arithmétiques au détriment des analogies des propriétés
chimiques et du non traitement du problème dans son ensemble. Mendéleiev
s'oriente plutôt vers la recherche d'une loi unique, ce qui lui permettra de
prévoir des cases pour de nouveaux éléments; les théories de ses contemporains
n'auront jamais ce caractère prédictif. Pour combattre l'hypothèse de Prout, il
a besoin de trouver une loi générale valable pour tous les éléments. Son énoncé
est le suivant : "Les propriétés des corps simples et composés dépendent
d'une fonction périodique des poids atomiques des éléments pour la seule raison
que ces propriétés sont elles‑mêmes les propriétés des éléments dont ces corps
dérivent." Nous sommes encore loin du tableau périodique tel que nous le
connaissons. Cette loi établit une relation entre les corps simples et composés
d'une part et éléments d'autre part. Le corps simple est formé de molécules et
l'élément est l'équivalent de l'atome. Par exemple, l'élément carbone se
présente sous la forme de trois corps simples naturels : le diamant, le
graphite et le charbon. Pour nous, le charbon n'est plus un corps simple.
Il y a
glissement du principe explicatif du corps simple vers l'élément. Pour
Lavoisier, l'unité fondamentale est représentée par le corps simple, pour Prout
c'est l'élément primordial. Mendéleiev considère la pluralité des éléments et
son effort d'abstraction portera sur le passage du corps simple aux éléments.
Génèse du tableau de Mendéleiev (2/5)
Les
bases de la chimie moderne ont été établies par Lavoisier au milieu du XVIIIème
siècle. Mais les développements ultérieurs ne sont pas exempts de controverses
portant par exemple sur l'existence des atomes, la nature et le nombre des
éléments chimiques. Il existe en particulier un grave problème d'harmonisation
entre les chimistes quant à la détermination des poids atomiques. Les
différences entre atome et molécule, poids atomique et nombre atomique (nombre
d'électrons dans le cortège) sont encore loin d'être établies. Sous la houlette
de A. Kékulé, sera organisé en 1860 le premier congrès de chimie à Karlsruhe
pour tenter une harmonisation des concepts. Ce sera d'ailleurs le premier du
genre dans le domaine scientifique. On y établiera la distinction entre atome
et molécule avec la remise à l'honneur de la loi d'Avogadro déjà quelque peu
oubliée. Mendéleiev repart convaincu par cette mise au point.
C'est
ce congrès qui met Mendéleiev sur la voie d'une périodicité possible des
propriétés des éléments dans l'ordre croissant des poids atomiques. Il part
déjà sur les bases solides de définition du poids atomique et de la distinction
des atomes et des molécules : "Avec l'application de la loi d'Avogadro‑Gerhardt,
la conception de la molécule est complètement définie et par celà‑même le poids
atomique. On appelle particule, ou particule chimique, ou molécule, la quantité
de substance qui entre en réaction chimique avec d'autres molécules et qui
occupe à l'état de vapeur le même volume que deux parties en poids d'hydrogène.
Les atomes sont les plus petites quantités ou les masses chimiques indivisibles
des éléments qui forment les molécules des corps simples et composés." La
conception de la molécule et sa liaison avec le poids atomique reste encore
quelque peu exotique par comparaison avec les idées actuelles, mais ce qui
compte pour Mendéleiev, c'est d'avoir une base solide, rassurante pour pouvoir
entamer une synthèse. La puissance heuristique de sa démarche sera telle que
les éléments ne rentrant pas dans sa classification verront leur poids atomique
dénoncé à juste titre comme erroné d'un point de vue expérimental, au lieu de
remettre en question sa classification.
Génèse du tableau de Mendéleiev (1/5)
Les
motivations de Mendéleiev s'inscrivent totalement dans le XIXème siècle. Il
espère réunir la physique et la chimie dans une science nouvelle basée sur la
classification périodique (voir article de B. Bensaude‑Vincent dans « Eléments
d'histoire des sciences », SERRES M., 1989, ouvrage collectif, Bordas). Son
approche est guidée par les notions d'individualité et d'intransmutabilité des
éléments chimiques. C'est d'ailleurs plus particulièrement le transfert du
concept d'unité fondamentale, du corps simple à l'élément chimique, qui lui
permettra de découvrir la loi périodique. Nous y reviendrons plus en détail.
Ces propriétés affectées aux éléments l'empêcheront plus tard d'accepter
l'interprétation de la découverte de la radioactivité naturelle par Pierre et
Marie Curie. Il introduira même l'éther dans son tableau au début du siècle,
cinq ans avant qu'Einstein n'en démontre l'inutilité théorique. L'explication
de la classification des éléments et les liens avec leurs propriétés physico‑chimiques
ne seront totalement compris qu'après la mise en évidence du cortège
électronique des éléments, c'est à dire dans les années 20.
mardi 22 mai 2012
Naissance et interprétation de la mécanique ondulatoire (3/3)
Après
1951, un certain nombre de facteurs ramèneront de Broglie vers son
interprétation personnelle de la mécanique ondulatoire :
‑ Les difficultés qu'il a éprouvées pour expliquer
les vues probabilistes,
‑ Les regrets de voir oublier les intuitions
physiques à la base de la mécanique quantique,
‑ La nostalgie secrète des représentations physiques
réalistes, sentiment que partagea Einstein,
‑ L'analyse des objections de Schrödinger et
d'Einstein portant sur les états corrélés lors de ses cours à l'Institut
Poincaré,
- Les travaux de Bohm et surtout de Vigier qui tente
une synthèse entre mécanique ondulatoire et relativité.
Il
reprend les travaux d'Einstein (en collaboration avec Grommer en 1927) qui
définit les particules élémentaires de la matière par l'existence de
singularités dans le champ de gravitation. A partir des seules équations du
champ de gravitation, on démontre que le mouvement des singularités a lieu
suivant les géodésiques de l'espace‑temps. Vigier fait le parallèle avec la
notion de vitesse de la singularité dirigée suivant le gradient de phase de
l'onde (de Broglie, 1927). Il tente par cette analogie d'introduire l'onde à
singularité dans la définition de la métrique de l'espace‑temps.
De
Broglie va alors reconsidérer la théorie de la double solution et proposer que
l'onde à singularité soit non linéaire à l'intérieur d'une région très petite
(10‑13 cm) et linéaire partout ailleurs.
Les deux traits fondamentaux de la démarche de ce savant peuvent être présentés via ses propres commentaires :
"Les analogies ont souvent une portée très
profonde et peuvent servir utilement de guide aux théoriciens pour édifier des
théories nouvelles. Est‑il besoin de rappeler le rôle que l'analogie des forces
d'inertie et des forces de gravitation a joué dans la genèse de la théorie de
la relativité généralisée ou celle du principe de Fermat avec le principe de
Maupertuis dans la genèse de la mécanique ondulatoire ?"
"L'histoire
des sciences montre que les progrès de la science ont été constamment entravés
par l'influence tyrannique de certaines conceptions que l'on avait fini par
considérer comme des dogmes. Pour cette raison, il convient de soumettre
périodiquement à un examen très approfondi les principes que l'on a fini par
admettre sans plus les discuter".
Inscription à :
Articles (Atom)