Après nous avoir appuyés pendant plus de dix ans, des resserrements budgétaires ont forcé l'INSMT à interrompre le financement du Cerveau à tous les niveaux le 31 mars 2013.

Malgré tous nos efforts (et malgré la reconnaissance de notre travail par les organismes approchés), nous ne sommes pas parvenus à trouver de nouvelles sources de financement. Nous nous voyons contraints de nous en remettre aux dons de nos lecteurs et lectrices pour continuer de mettre à jour et d'alimenter en contenu le blogue et le site.

Soyez assurés que nous faisons le maximum pour poursuivre notre mission de vulgarisation des neurosciences dans l'esprit premier d'internet, c'est-à-dire dans un souci de partage de l'information, gratuit et sans publicité.

En vous remerciant chaleureusement de votre soutien, qu'il soit moral ou monétaire,

Bruno Dubuc, Patrick Robert, Denis Paquet et Al Daigen






Lundi, 12 novembre 2018
La petite et la grande histoire des neurosciences

Je vous propose cette semaine deux lectures possibles de l’histoire des neurosciences : celle que j’appellerais « la petite » et l’autre, moins évidente mais peut-être plus enivrante, celle de « la grande ».

Un bel exemple de la petite histoire des neurosciences nous est donné par une initiative des étudiant.es gradué.es de l’université de la Colombie-Britannique et de l’université de Calgary, toutes deux de l’ouest canadien. Intitulé « Neuroscience Through the Ages Online Interactive Timeline« , il s’agit d’un site web où l’on peut naviguer une ligne du temps verticale où différentes figures marquantes de l’histoire des neurosciences sont illustrées par un dessin de style bande-dessinée. Et de fait, quand on clique sur l’une des images, on accède à une courte BD de quelques images chacune résumant la contribution scientifique de la personne en question.

De Charles Darwin à Brenda Milner, en passant par Alois Alzheimer, Wilder Penfield ou Donald Hebb, c’est une dizaine de personnalités qui sont décrites pour l’instant sur cette ligne du temps. Mais la page d’accueil du site nous apprend que plusieurs autres s’en viennent prochainement, comme Rita Levimontalcini, Korbinian Brodmann, Alan Hodgkin et Andrew Huxley. Et l’on songe aussi à quelque chose sur Broca, Wernicke et Papez. Bref, on se rapproche du grand classique Neurocomic

Tout cela est fort intéressant et très accessible pour qui n’a aucune idée des jalons importants de l’histoire de cette discipline. Mais les récits historiques, et en particulier ceux de niveau débutant comme celui-ci, sont le résultat de choix et de simplifications inévitables. Or le déploiement d’une discipline scientifique dans le temps est souvent loin d’être une suite linéaire d’événements qui prennent appui les uns sur les autres. Bien sûr, cela arrive. Mais des gens comme Thomas Kuhn ont bien montré que la « science normale » fonctionne souvent pendant un temps à l’intérieur d’un paradigme dominant jusqu’à ce que l’accumulation de données « a-normales » (i.e. hors de la norme, de ce à quoi l’on s’attendait) amène des révolutions scientifiques et avec elles des changements radicaux de paradigmes.

L’une de ces révolutions, célèbre dans l’histoire des neurosciences et rapporté dans la ligne de temps présentée aujourd’hui, explosa au grand jour lors de la remise du prix Nobel de médecine de 1906 attribué conjointement à l’italien Camillo Golgi et l’espagnol Santiago Ramón y Cajal. Lors de son discours de réception du prix, le premier défendit la théorie admise à l’époque à l’effet que le système neveux formait un continuum, une espèce de toile d’araignée avec certes des « nœuds » (les corps cellulaires), mais qui n’étaient que des points plus importants dans un réticulum en continu. Immédiatement après, et ironiquement sur la base d’observation faites au microscope grâce à une coloration mise au point par Golgi, Cajal défendit sa théorie du neurone, nouvelle à l’époque, établissant que les neurones étaient plutôt des entités distinctes et séparées. Je ne sais pas quelle était l’ambiance dans la salle après ces deux discours opposés, mais le fait est que c’est la théorie de Cajal qui fut progressivement adoptée par la communauté scientifique à mesure que d’autres données vinrent l’appuyer (la découverte subséquente de la synapse chimique et de son fonctionnement avec les neurotransmetteurs, entre autres).

Mais voilà qu’au cours des dernières décennies l’on s’est aperçu qu’un autre type de synapse, les synapses électriques (que l’on attribuait alors davantage aux invertébrés), étaient beaucoup plus présentes qu’on le croyait entre les neurones du cortex humain. Et plus on les étudie, plus on s’aperçoit qu’elles sont complexes et ont des rôles fonctionnels variés (par exemple synchroniser l’activité de neurones pyramidaux voisins grâce à des synapses électriques axo-axonales). Que retrouve-t-on alors tout d’un coup ? Quelque chose qui n’est pas sans ressembler au bon vieux maillage en (quasi) continu de Golgi ! Et comme souvent en biologie, on en vient à conclure que ce n’était pas l’un ou l’autre, mais bien l’un ET l’autre…

Des exemples de telles théories qui s’opposent dans un premier temps et qui sont par la suite reconnues comme se complétant, il y en a bien d’autres. Et elles s’accompagnent souvent aussi de la « déchéance » temporaire de la personne derrière la théorie qui perd le premier round, si l’on peut dire, avant sa réhabilitation éventuelle quand on se rend compte qu’elle n’avait pas tout à fait tort, au fond. Celui qui me vient en tête s’inscrit plus largement que dans la seule histoire des neurosciences puisqu’il oppose le français Jean-Baptiste de Lamarck et l’anglais Charles Darwin. Quand ce dernier propose sa théorie de l’évolution par sélection naturelle en 1859, l’on comprend que Lamarck avait tort avec sa théorie de la sélection des caractères acquis. Non la girafe n’avait pas un long cou parce que durant sa vie elle l’avait étiré pour mieux manger les feuilles des arbres et avait ainsi transmis cette acquisition à ses descendants. C’était plutôt parce que dans une portée de petits girafons, celui qui par hasard avait hérité d’un cou plus long allait pouvoir manger mieux durant sa vie, vivre plus vieux, et laisser plus de descendants qui hériteront de cette mutation bénéfique. Et ainsi de suite, jusqu’à ce que ce trait se soit répandu dans toutes la population.

Sauf que ce que j’appelais dans mon titre la « grande histoire » est plus riche et complexe que la petite. Et plus intéressante, comme on peut le constater avec cet exemple. C’est que Lamarck revient aujourd’hui à la mode avec la découverte des mécanismes épigénétiques qui gouvernent l’expression des gènes. Car ce n’est pas tout d’avoir tel ou tel gène, il faut que celui-ci s’exprime, c’est-à-dire fabrique telle ou telle protéine. Or d’où vient l’information qui indique à un gène qu’il doit produire sa protéine ? Très souvent de l’environnement dans lequel baigne un individu, nous apprend l’épigénétique moderne. Si vous êtes stressé de manière chronique par exemple, certains gènes de récepteurs aux hormones de stress vont varier leur taux d’expression suite à ce signal environnemental. Et devinez quoi ? Les petites molécules qui se fixent alors sur l’ADN (sans changer l’ordre des bases nucléique de cet ADN) et qui facilitent ou inhibent son expression semblent se transmettre des parents aux enfants, du moins pour quelques générations. Autrement dit, des caractères acquis durant une vie (suite au stress) amènent une adaptation transmissible à sa descendance. Et voilà donc notre ami Lamarck qui revient par la grande porte, celle de la grande histoire !

Morale de l’histoire, justement : la prochaine fois que vous lirez la biographie d’un savant déchu dans une petite histoire de quelque discipline que ce soit, gardez un certain respect pour lui. Son idée n’est peut-être pas passée dans le paradigme dominant de son époque, mais cela ne veut pas dire qu’elle ne sera pas retenue dans la grande histoire pour décrire éventuellement certains phénomènes. Et surtout, comme le disait Francisco Varela à propos de la science : « Stay with the open question »…

Du simple au complexe | Pas de commentaires


Lundi, 5 novembre 2018
Les effets concrets et troublants des discours haineux sur le cerveau

À la veille des élections de mi-mandat aux États-Unis, on peut se poser plusieurs questions, dont les deux suivantes. D’abord comment se fait-il que Donald Trump, diagnostiqué «narcissique malin» par un psychothérapeute de renom, et donc «dangereusement malade mentalement et incapable d’être président avec ce tempérament», le soit encore deux ans après son élection ? Question difficile qui a déjà fait couler beaucoup d’encre et que je n’aborderai pas ici pour me concentrer sur la seconde question : dans quelle mesure les propos haineux qu’il distille régulièrement dans ses discours ou dans les médias sociaux ont-ils des effets néfastes sur le cerveau et le comportement des gens ?

On sait encore bien peu de choses sur cet organe d’une complexité vertigineuse qu’est le cerveau humain. Mais les sciences cognitives, qui tentent d’établir des ponts entre différentes disciplines comme les neurosciences et la psychologie sociale, permettent aujourd’hui d’apporter des éléments de réponse à ce genre de question. Et le verdict est plutôt sans appel : loin de n’être que de simples effets de rhétorique pour gagner des votes, les propos haineux d’une personne en position de pouvoir amènent les gens à s’éloigner de leur humanité. (Lire la suite…)

Que d'émotions! | Pas de commentaires


Lundi, 29 octobre 2018
Neurobiologie de la mort : on a réussi à enregistrer la vague de dépolarisation finale

La mort est par définition la fin de la vie. Cette quasi tautologie peut néanmoins nous faire avancer dans notre compréhension de l’ultime moment qui nous attend tous à condition considérer correctement ce qui se passe dans ces derniers instants. Longtemps l’on a cru que l’arrêt de l’activité cérébrale faisait foi de tout. La « flatline », comme on dit en anglais pour désigner le tracé plat de l’électroencéphalogramme (EEG), ne montrant plus l’activité électrique oscillatoire intense propre au cerveau vivant, on en déduisait logiquement que la personne était alors décédée.

Mais la vie n’est pas une entité discrète. C’est un processus dynamique complexe. Ainsi en est-il de la mort si l’on en croit les résultats étonnants publiés en janvier dernier dans les Annals of Neurology par Jens Dreier et son équipe. L’article s’intitule “Terminal spreading depolarization and electric silence in death of human cortex.” Cette vague de dépolarisation qui se propage durant plusieurs minutes dans notre cerveau après le début de l’EEG plat, ce serait plutôt ça le vrai visage de la mort cérébral ! (Lire la suite…)

L'émergence de la conscience | Pas de commentaires


Lundi, 22 octobre 2018
Une étude sur la réaction du cerveau à l’isolement social va à l’encontre de cette pratique dans les prisons

Le nombre d’études fascinantes que je vois passer en sciences cognitives dépassant de loin ma capacité à en parler sur ce blogue, j’ai toujours une longue « liste d’attente » de sujets potentiels dans un fichier. Il n’est pas rare alors qu’un sujet d’actualité vu ou entendu dans les médias s’aligne parfaitement avec l’une de ces études en attente de diffusion et la sorte ainsi de l’ombre. C’est le cas cette semaine, avec comme élément déclencheur cette entrevue entendu hier à la radio de Radio-Canada avec Jean-Claude Bernheim, un spécialiste des questions carcérales qui commentait la fin probable du « trou » dans les pénitenciers fédéraux.

Ce qu’on appelle « le trou » en langage familier carcéral, c’est l’isolement préventif ou disciplinaire, une pratique qui consiste à placer un détenu dans une cellule à l’écart du reste de la population carcérale. Sans pratiquement aucun contact social significatif, le détenu ne dispose de rien, pas même un livre ou un crayon pour garder son esprit occupé. (Lire la suite…)

Le plaisir et la douleur, Que d'émotions! | Pas de commentaires


Lundi, 15 octobre 2018
Le cerveau, comme la science, est prédictif (ou bayésien)

Il y a une façon de concevoir le cerveau de plus en plus répandue en sciences cognitives, celle d’une machine à faire des prédictions. L’approche du « cerveau prédictif » (« predictive processing », en anglais) constitue ni plus ni moins qu’un changement de paradigme majeur par rapport à la vieille analogie cerveau-ordinateur du cognitivisme des années ’70, par exemple. Non le cerveau n’attend pas passivement ses «inputs» pour «traiter des représentations symboliques» et produire des «outputs». Il cherche plutôt constamment à faire des inférences à partir des perturbations physiques que subissent ses sens pour tenter d’en comprendre les causes. (Lire la suite…)

De la pensée au langage, L'émergence de la conscience | Pas de commentaires