jeudi 31 mai 2012

Les pistes de la découverte (3/3)


Un deuxième exemple servira d'illustration à notre propos sur la bisociation, celui de la découverte de la transmission chimique des impulsions nerveuses par O. Loewi en 1920. Auparavant, le contrôle des fonctions organiques était perçu comme provenant directement des impulsions électriques nerveuses. Cette hypothèse prend bien en compte le phénomène d'excitation mais comment expliquer celui d'inhibition ? Seules des drogues peuvent permettre ce dernier type d'action. Loewi pensa alors que les nerfs excités pouvaient libérer des substances chimiques à l'origine des deux types d'action. Mais à cette période là, il n'avait aucune idée de l'expérience à réaliser pour démontrer ce phénomène. Quinze ans plus tard, Loewi laissa battre deux coeurs de grenouille dans des solutions salines pour voir si cette activité libérait des agents chimiques... Deux ans après, l'idée de l'expérience cruciale lui vint brusquement dans la nuit. Il allait isoler deux coeurs, l'un muni de ses nerfs, l'autre dénervé. Après avoir excité le nerf vague du premier coeur, ce qui allait ralentir ses battements (effet d'inhibition), il injecta dans le second coeur la solution saline qui perfusait le premier et obtint le même résultat. La transmission de l'influx nerveux s'effectuait bien via des substances chimiques. L'idée de l'expérience décisive est donc bien venue de la juxtaposition de deux matrices différentes : l'une concernant la transmission de l'influx nerveux et l'autre la sécrétion par des organes d'agents chimiques.

Reliés à notre vision centrale "Penser à côté", se déclinent les pôles suivants : "rupture et décalage" par rapport aux habitudes, "synthèse et généralisation" en relation avec "analogies" et enfin "comportement atypique". Il s'agit ici de présenter une vision globale des différentes pistes menant à la découverte et le schéma ne constitue pas un parcours obligé. Les démarches réelles n'empruntent souvent que quelques chemins dépendant beaucoup de la personnalité du scientifique. D'autre part, cette synthèse ne constitue pas une panacée garantissant un résultat. Elle indique simplement les terrains favorables au développement de bonnes idées.

Les pistes de la découverte (2/3)

Pour illustrer cette notion, nous allons voir comment Archimède en est venu à pousser son fameux cri au sortir de sa baignoire. Il était une fois, à Syracuse, un tyran nommé Hiéron, protecteur d'Archimède, ayant reçu une couronne qu'il soupçonnait n'être pas d'or pur. Archimède fut mandé pour donner son avis. Connaissant le poids volumique de l'or, il suffisait de peser la couronne, mais comment faire pour estimer le volume d'une couronne aussi ornée. La situation était bouchée et la tension accrue. Une intense frustration est souvent à l'origine d'une découverte d'importance. Qui dit tension, envisage la relaxation : Archimède se plongea dans sa baignoire. En observant le niveau de l'eau monter à mesure qu'il y pénétrait, il pensa tout à coup que le volume d'eau déplacé correspondait aux parties immergées de son corps et qu'il tenait là le moyen de mesurer le volume de la couronne. L'énoncé de son fameux principe, tout corps plongé dans un liquide reçoit de sa part une poussée..., viendrait quelque temps plus tard. La découverte est ici intervenue par juxtaposition de deux matrices apparemment sans connexion : celle du problème lié à la couronne et celle de la montée de l'eau dans une baignoire quand on y plonge un corps. L'observation, d'aspect banal et négligé, de l'eau qui monte dans un contexte quotidien change de statut et devient source de créativité quand le contexte change et qu'elle est perçue sous un angle insolite et significatif. Beaucoup de faits en science prennent sens lorsque l'observation est guidée par une théorie.

Les pistes de la découverte (1/3)


L'analyse des exemples mentionnés précédemment nous donne l'occasion de dégager quelques pistes favorables à la genèse d'idées fécondes. A l'aide de cas présentés de manière plus succinte, nous compléterons notre liste qui ne se veut en aucun cas exhaustive. 

 La vision globale est centrée sur la notion de "penser à côté" et de l'acte de bisociation. Ces deux aspects complémentaires de la pensée créative ont été développés par Koestler dans son ouvrage intitulé "Le cri d'Archimède". Sa démonstration débute par l'analyse des mécanismes de l'humour :
"La structure sous‑jacente à toutes les variétés d'humour est bisociative : il s'agit de percevoir une situation ou un fait dans deux contextes d'association habituellement incompatibles. Le résultat est un brusque transfert du courant de pensée d'une matrice à une autre que régit une logique, ou règle différente. Mais certaines émotions à cause de leur inertie et de leur persistance, ne peuvent suivre l'agilité de la pensée. Rejetées par la raison, elles s'échappent par les issues de moindre résistance, dans le rire... Le terme de matrice a été introduit pour désigner toute aptitude ou technique, toute structure d'activité régie par un ensemble de règles, que nous avons appelé code."

Koestler retrouve la bisociation dans l'acte créateur scientifique. Pour lui, le point important est de réfléchir autrement qu'à l'habitude, par exemple, en effectuant des renversements logiques, de prendre à contre pied les modes de raisonnement habituel ou bien d'aller chercher des idées dans des domaines éloignés et de faire des rapprochements inattendus. C'est ce qu'il entend par "penser à côté". Poincaré avait en son temps déjà adhéré à cette idée. Les méthodes de créatique dont nous parlerons un peu plus loin se sont bien inspirées de ces notions. La bisociation correspond alors à la juxtaposition de matrices de logique différente. La découverte scientifique apparaît lors de la fusion permanente de deux matrices intellectuelles précédemment jugées incompatibles.

mardi 29 mai 2012

La genèse des fractales (2/2)


Le terme "fractal" n'existe pas encore. Il sera inventé dans les années 70, lors du travail de synthèse effectué pour faire émerger le concept comme principe fondamental de la Nature. Entre temps les travaux de Mandelbrot porteront sur la morphologie terrestre, reliefs et côtes maritimes, la répartition des galaxies, la forme des nuages, celle des arbres ou des poumons... La pluridisciplinarité a engendré la possibilité de traquer les analogies et de trouver le concept unificateur. Les résistances intellectuelles à l'utilisation de méthodes mathématiques pour simuler des phénomènes naturels, sont tombées dès lors qu'il a été possible de reproduire des figures imitant la nature. Le graphisme des fractales et l'approche géométrique sont venus de la nécessité de faire comprendre aux scientifiques l'intérêt d'une théorie mathématique qui les rebutait sous son aspect formel.
Une théorie cohérente sur les fractales verra le jour en 1973 lorsque Mandelbrot sera obligé, dans une série de séminaires pour le Collège de France de justifier son interdisciplinarité. Pour la réussite d'une démarche telle que la sienne, il donne quelques conseils en ces termes :
"Quand on me disait que mes travaux étaient incompréhensibles, je revenais à la charge et j'expliquais sans me lasser. Si j'avais été mou et timide, ou trop arrogant, ou si mon livre avait été illisible, jamais la découverte de fractales n'aurait vu le jour... Et puis cette démarche exige qu'on reste longtemps suspendu entre les disciplines. Aujourd'hui, pour qui se lance dans la recherche, c'est une position pratiquement intenable... L'interdisciplinarité est rarement viable. Quand elle est intellectuellement possible, et c'est rare, elle est pénible à vivre. Or il y a des intuitions fécondes qui ne naîtront jamais que dans l'interdisciplinarité."
Les mots‑clés de la démarche de Mandelbrot sont les suivants : originalité de la formation, éclectisme et interdisciplinarité, analogies, synthèse et opiniâtreté.

La genèse des fractales (1/2)


B: Mandelbrot relate sa découverte dans une interview donnée pour le mensuel "La Recherche" de mars 1986. Il décrit tout d'abord son parcours estudiantin quelque peu perturbé par la seconde guerre mondiale. Il passe avec succès le concours d'entrée à Polytechnique sans avoir quasiment suivi les cours des classes préparatoires. Il peut ainsi résoudre les problèmes mathématiques par la géométrie, méthode qu'il maîtrise mais qui n'est plus en vogue depuis que l'analyse algébrique a été imposée comme méthode universelle par Bourbaki et enseignée comme telle. Le calcul est roi et l'intuition géométrique est reléguée dans les oubliettes de l'histoire des sciences. B. Mandelbrot sera d'ailleurs l'un des premiers avec R. Thom a exhumé cette vieille dame pour le plus grand bonheur des physiciens. L'originalité de la formation de Mandelbrot et son décalage par rapport à ce qui est enseigné classiquement constituent le premier point ayant favorisé la découverte.

Par la suite, il s'intéresse aux mathématiques appliquées et à leur utilité dans divers domaines. L'économie le passionne et il remarque que les fluctuations à long terme sont de même nature que celles à court terme, contrairement à la théorie en cours qui suppose que la spéculation est la cause des "court terme" et que les lois fondamentales de l'économie guident les "long terme". Nous voyons ici apparaître la notion d'auto‑similarité où le motif représentatif des fluctuations se retrouve à l'identique lors d'un changement d'échelle ici temporel. Mandelbrot fera la même constatation lorsqu'il étudiera les crues de différents grands fleuves. La variation du niveau des eaux suit une loi auto‑similaire. Ce concept émergeant, il le retrouvera en linguistique, en météorologie. Les notions de bruit, de fluctuations et de turbulence difficiles à quantifier et à théoriser sont approchées par ce nouveau concept qui englobe l'irrégularité du phénomène et son caractère auto‑similaire.

jeudi 24 mai 2012

Genèse du tableau de Mendéleiev (5/5)


Le tableau doit être considéré comme le couronnement de la chimie initiée par Lavoisier. Malgré le changement de paradigme, on passe du corps simple à l'élément, il n'ouvre pas d'horizon sur la chimie du XXème siècle. Mendéleiev refusera la radioactivité et la transmutation des éléments qui remet en cause sa foi inébranlable en l'individualité de l'élément et son inaltérabilité (inspiré de la monade de Leibniz?), notion qui l'avait conduit au succès. Cette foi inébranlable apparait également dans l'élaboration de la loi périodique à partir des poids atomiques. Car les irrégularités ne manquent pas ainsi que les approximations. La véritable régularité ne sera découverte qu'au début du XXème siècle avec celle du cortège électronique : on passe en effet d'une case à une autre sur une même ligne en rajoutant un électron sur la couche externe, exception faite pour les métaux de transition entre autres où les sous‑couches se remplissent tardivement. Le tableau périodique connut donc une phase prédictive puis explicative grâce à la structure de l'atome.
 Nous pouvons maintenant expliciter les grands points de la démarche de Mendéleiev :
‑ Le besoin pédagogique d'une synthèse prédictive de données disparates : retrouver une unité disparue,
‑ L'opposition métaphysique à l'hypothèse de Prout : loi unique contre élément unique. A ce propos, Mendéleiev a été à bonne école puisque son professeur à l'Institut pédagogique central de St Pétersbourg, Voskresenski, avait fondé sa pédagogie sur la bataille des idées en science,
‑ L'abstraction des corps simples vers les éléments correspond aussi à un glissement, à un décalage du concept fondateur,
‑ La vision globale, la prise en compte de critères à l'encontre des habitudes (les dissemblances entre familles d'éléments),
            ‑ La foi inébranlable dans sa théorie malgré des données peu intégrables dans le schéma.

Genèse du tableau de Mendéleiev (4/5)


Le tableau périodique émergera d'un long travail méthodique. L'idée cruciale serait venue lors d'une visite d'une fabrique de fromages près de St Pétersbourg : celle d'arranger les différents groupes d'éléments regroupés par affinité chimique par ordre de poids atomique. Il aurait ainsi aperçu la régularité périodique. En 1869, les familles de mêmes propriétés chimiques sont sur une même ligne et les poids atomiques proches sur une même colonne. Aujourd'hui la présentation est inversée. Sa réussite vient du fait qu'il a comparé des familles extrêmes, celles des alcalins et des halogènes, alors que ses collègues cherchaient uniquement les ressemblances entre éléments. Cette capacité de prendre à contre‑pied les habitudes de raisonnement est un des traits qui contribue à la découverte. L'analyse in situ de Leibniz a peut‑être inspiré cette vision globale. Elle prend en compte des ressemblances mais aussi des dissemblances et elle seule a permis l'établissement d'un tableau général dont les cases vides indiquent clairement le caractère prédictif.
Le tableau a pu voir le jour également pour une raison qui feraient bondir les positivistes : le manque de données expérimentales ! En effet, les lanthanides dont les propriétés n'étaient guère explicables du temps de Mendéleiev ne sont pas encore découverts. C'est une chance car ils auraient sans doute bloqué la démarche de synthèse car non intégrables dans le système du moment.

Génèse du tableau de Mendéleiev (3/5)


La pluralité des éléments peut être réduite soit par la voie d'un seul élément primordial qui serait l'hydrogène (Prout, début du XIXème), soit par l'établissement d'une loi unique liant les éléments entre eux. L'hypothèse de Prout aura le mérite de poser le poids atomique comme critère de classement. Les raisons de la non fécondité de cette hypothèse viennent de la focalisation sur les relations arithmétiques au détriment des analogies des propriétés chimiques et du non traitement du problème dans son ensemble. Mendéleiev s'oriente plutôt vers la recherche d'une loi unique, ce qui lui permettra de prévoir des cases pour de nouveaux éléments; les théories de ses contemporains n'auront jamais ce caractère prédictif. Pour combattre l'hypothèse de Prout, il a besoin de trouver une loi générale valable pour tous les éléments. Son énoncé est le suivant : "Les propriétés des corps simples et composés dépendent d'une fonction périodique des poids atomiques des éléments pour la seule raison que ces propriétés sont elles‑mêmes les propriétés des éléments dont ces corps dérivent." Nous sommes encore loin du tableau périodique tel que nous le connaissons. Cette loi établit une relation entre les corps simples et composés d'une part et éléments d'autre part. Le corps simple est formé de molécules et l'élément est l'équivalent de l'atome. Par exemple, l'élément carbone se présente sous la forme de trois corps simples naturels : le diamant, le graphite et le charbon. Pour nous, le charbon n'est plus un corps simple.
Il y a glissement du principe explicatif du corps simple vers l'élément. Pour Lavoisier, l'unité fondamentale est représentée par le corps simple, pour Prout c'est l'élément primordial. Mendéleiev considère la pluralité des éléments et son effort d'abstraction portera sur le passage du corps simple aux éléments.

Génèse du tableau de Mendéleiev (2/5)


Les bases de la chimie moderne ont été établies par Lavoisier au milieu du XVIIIème siècle. Mais les développements ultérieurs ne sont pas exempts de controverses portant par exemple sur l'existence des atomes, la nature et le nombre des éléments chimiques. Il existe en particulier un grave problème d'harmonisation entre les chimistes quant à la détermination des poids atomiques. Les différences entre atome et molécule, poids atomique et nombre atomique (nombre d'électrons dans le cortège) sont encore loin d'être établies. Sous la houlette de A. Kékulé, sera organisé en 1860 le premier congrès de chimie à Karlsruhe pour tenter une harmonisation des concepts. Ce sera d'ailleurs le premier du genre dans le domaine scientifique. On y établiera la distinction entre atome et molécule avec la remise à l'honneur de la loi d'Avogadro déjà quelque peu oubliée. Mendéleiev repart convaincu par cette mise au point.

C'est ce congrès qui met Mendéleiev sur la voie d'une périodicité possible des propriétés des éléments dans l'ordre croissant des poids atomiques. Il part déjà sur les bases solides de définition du poids atomique et de la distinction des atomes et des molécules : "Avec l'application de la loi d'Avogadro‑Gerhardt, la conception de la molécule est complètement définie et par celà‑même le poids atomique. On appelle particule, ou particule chimique, ou molécule, la quantité de substance qui entre en réaction chimique avec d'autres molécules et qui occupe à l'état de vapeur le même volume que deux parties en poids d'hydrogène. Les atomes sont les plus petites quantités ou les masses chimiques indivisibles des éléments qui forment les molécules des corps simples et composés." La conception de la molécule et sa liaison avec le poids atomique reste encore quelque peu exotique par comparaison avec les idées actuelles, mais ce qui compte pour Mendéleiev, c'est d'avoir une base solide, rassurante pour pouvoir entamer une synthèse. La puissance heuristique de sa démarche sera telle que les éléments ne rentrant pas dans sa classification verront leur poids atomique dénoncé à juste titre comme erroné d'un point de vue expérimental, au lieu de remettre en question sa classification.

Génèse du tableau de Mendéleiev (1/5)


Les motivations de Mendéleiev s'inscrivent totalement dans le XIXème siècle. Il espère réunir la physique et la chimie dans une science nouvelle basée sur la classification périodique (voir article de B. Bensaude‑Vincent dans « Eléments d'histoire des sciences », SERRES M., 1989, ouvrage collectif, Bordas). Son approche est guidée par les notions d'individualité et d'intransmutabilité des éléments chimiques. C'est d'ailleurs plus particulièrement le transfert du concept d'unité fondamentale, du corps simple à l'élément chimique, qui lui permettra de découvrir la loi périodique. Nous y reviendrons plus en détail. Ces propriétés affectées aux éléments l'empêcheront plus tard d'accepter l'interprétation de la découverte de la radioactivité naturelle par Pierre et Marie Curie. Il introduira même l'éther dans son tableau au début du siècle, cinq ans avant qu'Einstein n'en démontre l'inutilité théorique. L'explication de la classification des éléments et les liens avec leurs propriétés physico‑chimiques ne seront totalement compris qu'après la mise en évidence du cortège électronique des éléments, c'est à dire dans les années 20.

Mendéleiev en 1867 est professeur à l'université de St Pétersbourg où il doit présenter la chimie à ses élèves autrement que sous la forme fastidieuse de monographies de corps chimiques, et à cette époque leur nombre est proche de quatre-vingts. Aucune synthèse n'existe, aucun fil rouge entre les propriétés physiques et chimiques des corps qui permettrait de ne pas compromettre la transmission de la chimie. Ce souci pédagogique nous vaudra deux ans plus tard la fameuse classification (tableau périodique des éléments).

mardi 22 mai 2012

Naissance et interprétation de la mécanique ondulatoire (3/3)


Après 1951, un certain nombre de facteurs ramèneront de Broglie vers son interprétation personnelle de la mécanique ondulatoire :
‑ Les difficultés qu'il a éprouvées pour expliquer les vues probabilistes,
‑ Les regrets de voir oublier les intuitions physiques à la base de la mécanique quantique,
‑ La nostalgie secrète des représentations physiques réalistes, sentiment que partagea Einstein,
‑ L'analyse des objections de Schrödinger et d'Einstein portant sur les états corrélés lors de ses cours à l'Institut Poincaré,
- Les travaux de Bohm et surtout de Vigier qui tente une synthèse entre mécanique ondulatoire et relativité.
Il reprend les travaux d'Einstein (en collaboration avec Grommer en 1927) qui définit les particules élémentaires de la matière par l'existence de singularités dans le champ de gravitation. A partir des seules équations du champ de gravitation, on démontre que le mouvement des singularités a lieu suivant les géodésiques de l'espace‑temps. Vigier fait le parallèle avec la notion de vitesse de la singularité dirigée suivant le gradient de phase de l'onde (de Broglie, 1927). Il tente par cette analogie d'introduire l'onde à singularité dans la définition de la métrique de l'espace‑temps.
De Broglie va alors reconsidérer la théorie de la double solution et proposer que l'onde à singularité soit non linéaire à l'intérieur d'une région très petite (10‑13 cm) et linéaire partout ailleurs.

Les deux traits fondamentaux de la démarche de ce savant peuvent être présentés via ses propres commentaires :
"Les analogies ont souvent une portée très profonde et peuvent servir utilement de guide aux théoriciens pour édifier des théories nouvelles. Est‑il besoin de rappeler le rôle que l'analogie des forces d'inertie et des forces de gravitation a joué dans la genèse de la théorie de la relativité généralisée ou celle du principe de Fermat avec le principe de Maupertuis dans la genèse de la mécanique ondulatoire ?"
"L'histoire des sciences montre que les progrès de la science ont été constamment entravés par l'influence tyrannique de certaines conceptions que l'on avait fini par considérer comme des dogmes. Pour cette raison, il convient de soumettre périodiquement à un examen très approfondi les principes que l'on a fini par admettre sans plus les discuter".

Naissance et interprétation de la mécanique ondulatoire (2/3)


Une première confirmation théorique viendra de Schrödinger en 1926 qui va interpréter le carré de l'amplitude de l'onde comme étant la probabilité d'existence de la particule. Puis viendra une confirmation expérimentale de l'aspect ondulatoire de l'électron avec Davisson et Germer en 1927 qui réussiront à diffracter des électrons dans des cristaux.
L'interprétation de la dualité onde‑corpuscule divise alors les scientifiques. L'école de Copenhage, avec Bohr comme chef de file, tient pour une vue probabiliste et affirme le principe de complémentarité. Pour eux, seule l'onde a une signification : le carré de son amplitude détermine la probabilité de position de la particule et les coefficients de Fourier de la décomposition spectrale, la probabilité de quantité de mouvement.
L. de Broglie veut garder une interprétation déterministe et physique en établissant la théorie de la double solution. Il tente d'associer deux ondes de même phase (point clé de la théorie) mais d'amplitudes différentes, l'une représentant une singularité (corpuscule), l'autre restant continue et support de l'onde associée au corpuscule. Inspiré par Hamilton et Jacobi, pour qui les trajectoires des particules sont des courbes orthogonales aux surfaces d'égale phase de l'onde associée, de Broglie fera décrire au cours du temps à la singularité mobile une trajectoire telle qu'en chaque point sa vitesse soit proportionnelle au gradient de phase de l'onde continue. On retrouve ainsi que la probabilité d'existence de la particule est décrite par le carré de l'amplitude de l'onde (Schrödinger), mais c'est issu simplement du fait, en optique, que la densité de l'énergie radiante est donnée par le carré de l'amplitude de l'onde lumineuse.
La théorie de la double solution est attrayante mais les difficultés du traitement mathématique feront que de Broglie se ralliera à l'interprétation non déterministe de Bohr à partir de 1928 et l'enseignera jusqu'en 1951.

Naissance et interprétation de la mécanique ondulatoire (1/3)


Avant 1924, les photons avaient déjà acquis leur double statut d'onde depuis Fresnel (milieu du XIXème) et de corpuscule avec Einstein en 1905. Les électrons, vecteurs de l'électricité, étaient alors considérés comme des grains de matière. L. de Broglie remarqua cependant, en faisant une analogie entre la mécanique et l'optique, que les nombres quantiques, caractérisant le comportement des électrons dans l'atome et récemment mis en évidence par Bohr, pouvaient être mis en parallèle avec les nombres entiers apparaissant en théorie des ondes (interférences et résonance). Comme pour le photon, l'électron devait donc présenter la dualité onde‑corpuscule. Au mouvement de tout corpuscule fut associée la propagation d'une onde dont la fréquence "f" fut reliée à l'énergie "W" et à la quantité de mouvement du corpuscule "p" via la constante de Planck "h" :
 f = W/h                        f = P/h
En l'absence de champ, un corpuscule animé d'un mouvement rectiligne uniforme est associé à la propagation, dans la direction du mouvement, d'une onde plane monochromatique d'amplitude constante et de phase linéaire en x y z t. La relation entre l'onde et le corpuscule passe par l'accord entre l'état de mouvement de la particule et la phase de l'onde associée. Pour établir les équations précitées, L. de Broglie partit de la réunion du principe de Fermat (optique) et du principe de moindre action de Maupertuis (mécanique). Hamilton avait déjà remarqué que la vitesse de phase de l'onde pour Fermat était l'inverse de la vitesse du corpuscule pour le principe de moindre action. Cela donnait déjà une relation entre la phase de l'onde et la particule. Mais pour être compatible avec la théorie des quanta et la relativité, c'est à dire :
W = mc2 = h f (1)
de Broglie suppose que le corpuscule est le siège d'un phénomène périodique dont la fréquence est définie dans le système propre par :
M0 c2 = h f0 (2)
Mais la fréquence du corpuscule est cyclique et se transforme, par les formules de la relativité, comme la fréquence d'une horloge et non comme celle d'une onde. La première se transforme à l'inverse d'une masse et la seconde de manière équivalente à une masse. C'est donc la seconde qui sera utilisée dans l'équation (1), l'égalité entre la fréquence cyclique et ondulatoire étant assurée par l'équation (2). Le mouvement cyclique interne reste en phase avec la vibration de l'onde au point où se trouve le corpuscule dans tout système de référence.

dimanche 13 mai 2012

Invention des distributions (4/4)


Le résultat de la distribution convoluée à la fonction correspondra à celui de l'opérateur sur la fonction pour la valeur zéro.
Pour passer des opérateurs aux distributions, l'effort était de changer de définition et de remettre en cause tous les développements qui y étaient liés. De plus, pour résoudre le problème de la transformée de Fourier, il a fallu passer du support compact à un support non compact, avec décroissance rapide à l'infini. Ceci revenait à créer un espace fonctionnel particulier pour un problème particulier, ce qui représentait à l'époque une levée d'inhibition conséquente.
En résumé, pourquoi est-ce L. Schwartz l'inventeur des distributions plutôt qu'un autre?
‑ Il a répertorié le même problème en suspens dans beaucoup de domaines. Ces outils mathématiques étaient nombreux et éclectiques.
‑ Ce qui a entraîné un recul suffisant pour voir la portée de l'invention. Ce point a fait la différence avec ses contemporains attelés au même problème.
‑ La frustration de l'absence de sens individuel des dérivées de Choquet­-Deny a permis le déclenchement.
‑ La continuité par rapport aux précurseurs mais surtout la rupture au moment du changement de définition et la remise en cause du travail déjà accompli au cours du passage des opérateurs aux distributions.
‑ La levée d'une inhibition concernant l'adaptation de l'espace fonctionnel au problème traité, pratique peu usitée à cette époque.

L'invention des distributions correspond à un saut qualitatif, à l'apparition d'un nouveau concept. Ceci nécessite des qualités particulières suivant l'analyse de L. Schwartz: "La recherche nécessite un esprit très mobile, original, toujours prêt à des révolutions et très opiniâtre".

Invention des distributions (3/4)


Suivront des notions relatives aux cordes vibrantes et aux fonctions harmoniques, les solutions généralisées d'équations aux dérivées partielles, les parties finies d'intégrales divergentes (Hadamard), les théorèmes de dualité dans les espaces vectoriels topologiques, les courants de De Rham. Parallèlement à L. Schwartz, d'autres chercheurs tentent des approches très similaires. Les fonctionnelles de Sobolev ont été inventées pour résoudre ce type de problème, mais dans un cas très particulier et il n'y a pas eu de généralisation. L'invention de portée générale demande un certain recul par rapport à la problématique. Ce point crucial se retrouve dans nombre de découvertes et sera approfondi par la suite.
Le déclencheur sera l'article de Choquet‑Deny sur les propriétés des moyennes caractéristiques des fonctions harmoniques et poly-harmoniques. Schwartz tentera une généralisation de cet article, mais les dérivées p-ièmes des fonctions n'avaient pas de sens individuel. Il fallait donc inventer un nouveau concept, différent des fonctions, et introduire une rupture dans la théorie existante.
La première solution sera celle des opérateurs, indéfiniment dérivables et où l'ordre des dérivations pourrait être interverti. Une fonction dérivable aura quand même des dérivées, mais ce seront des opérateurs et non des fonctions. Mais cette notion d'opérateur pose problème avec la convolution quand il s'agit de définir leur transformée de Fourier. Un nouveau pas sera alors franchi et les distributions inventées pour résoudre ce dernier problème.

Invention des distributions (2/4)


Parlons donc un peu des précurseurs. L'objectif, rappelons-le, est de généraliser la notion de fonction pour résoudre le problème de la dérivation de fonction non dérivable de manière classique en certains points. La solution sera la distribution qui sera dérivable indéfiniment, chaque dérivée étant elle-même une distribution. On vérifiera par la suite si la distribution est une fonction ou non. 
Peano en 1912 eut le premier l'intuition de ce qu'il fallait rechercher: "Il doit exister une notion de fonctions généralisées qui sont aux fonctions ce que les réels sont aux rationnels". N'oublions pas que Peano avait inventé une courbe non dérivable en tout point recouvrant le plan, que l'on qualifierait maintenant de fractale de dimension 2. Ce monstre a certainement dû lui inspirer la réflexion sur les fonctions généralisées. 
Parmi les précurseurs, il y aura Heaviside et sa fonction échelon (pas de dérivée à l'origine) et Dirac qui invente l'impulsion, dérivée infinie de cet échelon, notion plus physique que mathématique à ce moment-là et qui correspondra à l'élément neutre de la convolution. Les calculs symboliques de Heaviside seront rejetés car ils n'étaient pas justifiés mathématiquement, alors qu'ils donnaient des résultats physiques justes. La justification ne viendra que via la transformation de Laplace (Wiener, Carson, 1926, Vanderpol, 1932). De même pour la fonction de Dirac, qui trouvera son salut grâce aux distributions. Les outils mathématiques sont souvent en retard sur les besoins des calculs physiques et nombre de physiciens se sont vus pénalisés parce que leur théorie n'était pas suffisamment étayée d'un point de vue mathématique alors que les résultats comparés à l'expérimental étaient tout à fait concluants.

samedi 12 mai 2012

L'invention des distributions (1/4)


Les distributions, notion inventée par L. Schwartz en 1945, sont un outil très prisé par les physiciens. Elles permettent en effet de tenir compte de singularités dans les fonctions. Auparavant, seules les fonctions suffisamment régulières pouvaient être dérivées ou intégrées. La méthode d'intégro­-différentiation initiée par Leibniz au XVIII ème siècle est à la base des calculs dans tous les domaines de la physique. Le fait de pouvoir traiter des fonctions à singularités apparaissant fréquemment dans les phénomènes physiques, ouvrait donc un champ immense de connaissances nouvelles. Ce saut conceptuel fut à juste titre couronné par une médaille Fields, l'équivalent du prix Nobel pour les mathématiciens.

L. Schwartz décrit avec précision et humour la démarche intellectuelle qui l'a conduit à cette invention dans son autobiographie parue en 1997, "Un mathématicien aux prises avec le siècle" (55). Il décrit le processus de découverte comme étant quasi instantané. Ce fait est souvent relaté dans la littérature et l'exemple le plus souvent repris est sans doute celui de Poincaré inventant en une seule nuit la théorie des fonctions fuchsiennes. Schwartz fait ici une analogie avec le phénomène de percolation; la connectivité augmente régulièrement, mais la percolation est subite lorsque le chemin construit peu à peu finit par déboucher. Mais que l'on ne s'y trompe pas; il ne s'agit que de la partie émergée de l'iceberg: "II est bien évident que le processus n'est pas concevable si l'on n'imagine pas de nombreuses réflexions antérieures restées infructueuses mais emmagasinées dans le cerveau. Un déclic survenant à l'occasion d'une circonstance particulière réunit parfois les chemins ébauchés. Il s'agit d'un phénomène essentiel pour la découverte. Sans prédécesseurs, sans antécédents, c'est à dire ici des mathématiciens qui ont trouvés des résultats partiels, il n'y aurait pas non plus de découverte scientifique".