Après nous avoir appuyés pendant plus de dix ans, des resserrements budgétaires ont forcé l'INSMT à interrompre le financement du Cerveau à tous les niveaux le 31 mars 2013.

Malgré nos efforts (et malgré la reconnaissance de notre travail par les organismes approchés), nous ne sommes pas parvenus à trouver de nouvelles sources de financement. Nous nous voyons contraints de nous en remettre aux dons de nos lecteurs et lectrices pour continuer de mettre à jour et d'alimenter en contenu le blogue et le site.

Soyez assurés que nous faisons le maximum pour poursuivre notre mission de vulgarisation des neurosciences dans l'esprit premier d'internet, c'est-à-dire dans un souci de partage de l'information, gratuit et sans publicité.

En vous remerciant chaleureusement de votre soutien, qu'il soit moral ou monétaire,

Bruno Dubuc, Patrick Robert, Denis Paquet et Al Daigen






mardi, 14 mai 2019
Que faire quand survient un écart entre théorie et observation ?

La science est faite de théories et d’observations, de calculs et de données empiriques. On a besoin des deux. Parce que sans cadre théorique, les données observées ne veulent rien dire. Et sans mesures ou observations empiriques pour les valider, les plus belles constructions théoriques s’effondrent. C’est ce que l’on va constater cette semaine à trois niveaux d’organisation différents. L’infiniment grand et l’infiniment petit, qui relèvent de la physique. Et l’infiniment complexe, qui relève de notre organisation cérébrale. Bref, ces trois infinis avec lesquels on n’en a jamais fini…

C’est dans la présentation du physicien Étienne Klein intitulée « la structure fondamentale de la matière : le boson de higgs » présentée à la fort intéressante chaîne vidéo Thinkerview il y a un an que je vais puiser mes premiers exemples. Klein est un excellent vulgarisateur capable de rendre accessibles des notions difficiles sans en gommer la complexité parce qu’il prend souvent le temps de faire des mises en situation historiques et épistémologiques avant d’entrer dans le vif du sujet. C’est ainsi qu’il rappelait (vers la 5e minute de sa présentation) qu’au début du XXe siècle, l’orbite de la planète Uranus ne décrivait pas exactement la trajectoire que prédisaient les lois de Newton. Comme on avait une grande confiance en la théorie newtonienne, on se dit qu’il devait probablement y avoir une planète qu’on ne connaissait pas encore et dont l’influence gravitationnelle expliquerait l’écart observé entre ce que les lois de Newton prédisaient et ce que l’on pouvait observer. Peu de temps après, en s’inspirant de ces lois, un astronome allemand aperçu effectivement, en pointant son télescope à l’endroit prévu par ses calculs, une nouvelle planète qu’on appela Neptune.

On a donc ici ce que Klein appelle une solution « ontologique » au problème auquel on était confronté car c’est par la découverte de l’existence d’un nouvel objet dans le réel que l’on a pu réconcilier le paradigme dominant, celui de Newton, avec les observations empiriques.

Même chose pour l’exemple suivant cette fois tiré du monde de l’infiniment petit, celui de la physique des particules. Il s’agit de la découverte de la radioactivité de type bêta, où un noyau d’atome va émettre un proton et un électron, ce dernier devant toujours, selon la théorie quantique, avoir la même énergie. Or les données montraient plutôt une large gamme d’énergie observable. De deux choses l’une encore une fois : ou bien on devait abandonner l’idée que l’énergie se conserve sous-tendue par la théorie; ou bien on devait imaginer un troisième corps qui devait être émis et qui expliquerait les résultats observés. Encore une fois ici, c’est cette seconde option ontologique qui permit d’expliquer le désaccord entre théorie et pratique : Pauli postula l’émission d’une troisième particule, Fermi la nomma neutrino en 1932 et il fallut attendre en 1955 pour pouvoir prouver son existence !

Mais le contraire est aussi possible, c’est-à-dire devoir changer la loi pour expliquer des données. Retour à l’astrophysique et aux planètes. Fin XIXe siècle, on s’intéressait cette fois à l’orbite de la planète la plus proche du soleil, Mercure. Et encore une fois, on trouvait une toute petite différence entre la position observée de la planète et l’endroit où elle aurait dû se trouver selon les lois de Newton. Se souvenant du cas de Neptune, on calcula donc la position que devrait avoir une planète hypothétique encore inconnue dont la gravité expliquerait la position de Mercure. On chercha à cet endroit dans le ciel, mais en vain. La solution vint d’un jeune physicien du nom d’Albert Einstein qui proposa en 1915 sa théorie de la relativité générale qui, lorsqu’appliquée à la trajectoire de Mercure, la prédisait parfaitement. Il avait donc fallu cette fois adopter une solution « législative » en développant une nouvelle théorie, celle de la relativité générale (qui est plus large que les lois newtoniennes tout en les incluant).

Dans le reste de son fascinant exposé, Klein va par la suite s’attaquer à la découverte du boson de higgs et montrer que dans ce cas, c’est à la fois une solution ontologique et normative qui a été requise.

Mais revenons aux sciences cognitives qui sont davantage le pain et le beurre de ce blogue. On utilise de plus en plus cette la notion d’écart entre quelque chose de perçu et un modèle mental sensé prédire correctement cette perception. Souvenez-vous, je vous en avait parlé il y a deux ans et demi et plus récemment avec cet article sur Karl Friston. Cette approche du cerveau comme une machine à faire des prédictions est devenu un cadre théorique très discuté depuis quelques années. Il rappelle que la finalité première d’un système vivant doit être de minimiser le désordre où l’entropie, autrement dit de maintenir sa structure, comme le disait Henri Laborit. Et cette approche dite du « predictive processing » propose que notre cerveau va donc chercher constamment à réduire l’erreur de ses prédictions. Donc un peu comme on l’expliquait plus haut en physique, il y a souvent un écart entre la perception du monde extérieur qui « monte » vers les régions supérieures du cerveau, et les modèles prédictifs de ce monde qui « descendent » à leur rencontre. Comment amoindrir cet écart dans un tel contexte cognitif cette fois-ci ?

Et bien un peu comme dans la démarche scientifique décrite plus haut, deux options s’offre au système cognitif en question : une solution « législative », en changeant le modèles théorique a priori que l’on avait du monde (modifier nos connexions synaptiques qui encodent ce modèle grâce au phénomène de plasticité neuronale); ou bien la solution « ontologique » qui va consister à changer la nature du monde, par exemple l’emplacement d’un objet qui n’était pas à la position prévue et que l’on va déplacer à l’endroit voulu en agissant alors sur l’organisation du monde extérieur. Et comme dans le cas du boson de higgs, les deux phénomènes peuvent se côtoyer de façon intime. On peut très souvent apprendre à s’adapter à une situation (changer nos modèles a priori) tout en modifiant au mieux les structures du monde extérieur pour nous faciliter la vie (ce que Friston appelle « l’inférence active » et qui correspond en gros aux solutions « ontologiques » de Klein).

Il y a dans ce rapprochement entre nos mécanismes cognitifs et le fonctionnement de la science quelque chose de profondément harmonieux, ne trouvez-vous pas ? Jean Piaget ne disait-il pas que l’enfant qui développe son cerveau en expérimentant constamment avec les objets qu’il manipule est au fond un « petit scientifique » ?

Non classé | Comments Closed


Pour publier un commentaire (et nous éviter du SPAM), contactez-nous. Nous le transcrirons au bas de ce billet.