Je confirme être un professionnel de santé*

* Conformément à la loi française de décembre 2011 relative au renforcement de la sécurité sanitaire et à ses décrets d'application de mai 2012, « les sections des sites internet réservées aux seuls professionnels de santé doivent être, à minima, accessibles après une page d'engagement de l'internaute, certifiant qu'il est un professionnel de santé. »

Informations sur les cookies

Les cookies sont des petits fichiers installés sur votre ordinateur ou votre smartphone. Ils nous permettent de stocker des informations relatives à votre navigation sur notre site.

Politique de confidentialité

Informations sur les cookies

Olea Medical utilise trois types de cookies :

  • Les cookies de session ou de préférences qui sont indispensables à la navigation et au bon fonctionnement du site
  • Les cookies de mesure d’audience et autres traceurs servant à établir les statistiques d’audience du site

Ces cookies sont paramétrés selon les critères d’exemption du consentement tels que définis par la CNIL

Nom du cookieTypeDescription
Nécessaire à la fourniture du serviceMémorise l'attestation obligatoire "professionnel de santé"
Nécessaire à la fourniture du serviceStocke le consentement pour chaque cookie de type “traceur”.
Nécessaire à la fourniture du serviceStocke l'authentification nécessaire au téléchargement des cases reports
Nécessaire à la fourniture du serviceNécessaire au fonctionnement du site. Permet de savoir si les cookies sont activés.
Nécessaire à la fourniture du serviceStocke la langue courante
Authentification clientEspace client uniquement. Ce cookie ne sera pas installé si vous ne vous connectez pas à votre compte.
Nécessaire à la fourniture du serviceEspace client uniquement.
Nécessaire à la fourniture du serviceEspace client uniquement.
Nécessaire à la fourniture du serviceEspace client uniquement.
Nécessaire à la fourniture du serviceEspace client uniquement.
Nécessaire à la fourniture du serviceEspace client uniquement.
Nécessaire à la fourniture du serviceCookie CloudFlare nécessaire à la protection des bots
Mesure d'audienceCookie principal permettant le suivi des visiteurs via le service hubspot
Mesure d'audienceCookie permettant le suivi des sessions via le service hubspot
Mesure d'audienceUtile au suivi suivi des sessions via le service hubspot
Mesure d'audienceCookie lié au service hubspot
Mesure d'audienceSuivi des visites via google analytics
Mesure d'audienceSuivi des visites via google analytics

Quand le cerveau se fragilise, les mots ne suffisent plus

La scène est devenue familière dans les consultations mémoire. Une femme de 68 ans raconte qu’elle égare des prénoms, qu’elle répète une question déjà posée, qu’elle se surprend à compter deux fois les rendez-vous. Elle n’est pas « perdue ». Pas encore. Elle a surtout une inquiétude nette : celle de glisser doucement vers quelque chose d’irréversible.

L’IRM arrive quelques jours plus tard. Le compte rendu mentionne une « atrophie modérée », « compatible avec l’âge » ou « à corréler au contexte clinique ». Ces phrases sont prudentes, parfois nécessaires. Mais elles ont un défaut : elles laissent intacte la zone la plus douloureuse du diagnostic, celle de l’incertitude. Modérée par rapport à quoi ? À quel âge ? À quelle vitesse ? Et surtout : est-ce que ça progresse ?

Pendant longtemps, l’imagerie cérébrale a été un art de l’exclusion. On cherchait une tumeur, un hématome, une hydrocéphalie, un accident vasculaire. La neurodégénérescence, elle, ne se présente pas comme une masse, mais comme un effacement. Ce n’est pas un « objet » qu’on peut cerner d’un trait. C’est une transformation lente, diffuse, parfois inégale, qui s’inscrit dans le temps.

C’est là qu’une bascule est en train de s’opérer : passer d’une lecture surtout qualitative du cerveau, la forme, l’impression globale, les signes évidents, à une lecture quantifiée, comparée, suivie, presque « biologique ». Non pas pour remplacer le regard des cliniciens, mais pour lui donner une mesure, un repère et, parfois, un langage commun.

Ce changement, silencieux, pourrait peser lourd dans les années qui viennent. Parce que les maladies neurodégénératives ne sont plus une question marginale de neurologie. Elles deviennent un fait de société.

Une épidémie lente, dont la société découvre à peine l’ampleur

La démence n’est pas une maladie unique, mais un syndrome : un ensemble de symptômes (mémoire, langage, jugement, autonomie) causés par plusieurs pathologies possibles. L’Organisation mondiale de la santé estimait qu’en 2021, 57 millions de personnes vivaient avec une démence dans le monde, avec près de 10 millions de nouveaux cas chaque année. L’Alzheimer représente la part la plus importante, souvent estimée à 60–70 % des cas.

En Europe, les projections suivent la même pente. Alzheimer Europe estime qu’en 2025, plus de neuf millions de personnes vivraient avec une démence dans les pays de l’UE-27. Et aux États-Unis, l’Alzheimer’s Association, dans son rapport annuel, estime qu’en 2025, 7,2 millions d’Américains de 65 ans et plus vivent avec une démence Alzheimer.

Derrière ces chiffres, il y a des vies qui se rétrécissent, des familles qui se réorganisent, des systèmes de santé qui encaissent la durée, la dépendance, le coût humain. Il y a aussi une vérité plus dure : la neurodégénérescence avance souvent longtemps avant de « se voir » dans le quotidien. Quand les symptômes deviennent indiscutables, le processus pathologique est parfois déjà installé depuis des années.

Alors l’enjeu devient : repérer plus tôt, comprendre mieux, suivre plus finement. L’imagerie, longtemps cantonnée à « photographier », se retrouve sommée d’éclairer un récit évolutif : qu’est-ce qui change, où, à quelle vitesse, et avec quelle signification clinique ?

Le problème d’un cerveau « normal pour l’âge » : tout le monde a raison, et personne n’est aidé

En neuro-imagerie, la prudence est une vertu. Le vieillissement normal s’accompagne d’une certaine perte de volume cérébral. Les sillons s’élargissent, les ventricules peuvent paraître un peu plus grands. À l’œil nu, la frontière entre normal et pathologique n’est pas toujours tranchée, surtout au début.

Le risque, alors, est double.

D’un côté, le radiologue peut sur-interpréter une variation banale et inquiéter à tort. De l’autre, il peut sous-interpréter les premières marques d’un processus neurodégénératif et retarder la prise en charge. Dans les deux cas, une phrase comme « modéré » ou « discret » agit comme une porte entrouverte : elle suggère quelque chose sans permettre de l’attraper.

Pour corriger cela, la médecine s’est dotée, depuis longtemps, d’échelles visuelles : des façons semi-standardisées de décrire ce que l’œil voit, avec des grades. La plus connue dans la suspicion d’Alzheimer est l’échelle d’atrophie temporale médiale (MTA), popularisée à partir des travaux de Scheltens, qui s’appuie sur l’aspect de l’hippocampe et des structures voisines. Ces échelles ont leur utilité clinique et peuvent être robustes, mais elles restent dépendantes d’un apprentissage, d’un contexte et malgré tout d’un regard.

Les études sur l’échelle MTA montrent qu’elle peut être un marqueur valable et utile en pratique, y compris dans des populations hétérogènes, mais soulignent aussi la question de la reproductibilité et de la variabilité entre évaluateurs. Autrement dit : le cerveau n’a pas changé, mais deux lecteurs peuvent lui attribuer des grades légèrement différents. Et lorsqu’on cherche à détecter des évolutions fines, sur plusieurs années, ces écarts deviennent plus importants qu’on ne l’imagine.

La neurodégénérescence est une affaire de millimètres et de temps. Ce qui rend le « tout visuel » parfois cruel : ce n’est pas que les cliniciens ne voient rien, c’est que ce qu’ils voient ne suffit pas toujours à répondre aux questions les plus humaines : « est-ce que ça progresse ? », « à quelle vitesse ? », « qu’est-ce que ça veut dire pour moi ? ».

La quantification : donner un chiffre

Quantifier un cerveau, ce n’est pas lui coller une note. C’est mesurer des volumes, des épaisseurs, des rapports, puis les comparer à des références.

Dans sa forme la plus répandue, la quantification passe par la volumétrie IRM : on utilise une séquence anatomique 3D (souvent T1), puis un logiciel segmente automatiquement différentes structures (hippocampe, lobes, ventricules…), calcule leur volume, et peut les comparer à une base normative ajustée sur l’âge et parfois le sexe. On obtient alors des valeurs qui ne sont plus seulement « petites » ou « modérées », mais situées : percentile, écart à la norme, trajectoire sur le temps.

Une revue récente sur la volumétrie cérébrale en neurologie insiste sur cette idée centrale : l’intérêt clinique de la volumétrie est d’objectiver des changements de volume associés à des pathologies, au lieu de s’en remettre uniquement à l’impression visuelle.

À ce stade, une nuance s’impose : un chiffre n’est pas une vérité absolue. Il dépend de la qualité de l’acquisition, du modèle de segmentation, de l’alignement, du « bruit » technique. Mais il introduit une possibilité nouvelle : suivre l’évolution avec une sensibilité que l’œil seul n’a pas toujours.

Et c’est là que le sujet devient concret. Parce que la neurodégénérescence n’est pas une simple « image » à interpréter. C’est un processus à surveiller.

Pourquoi cette mesure change la prise en charge, dès aujourd’hui

Il y a plusieurs manières dont la quantification transforme déjà le parcours de soin, pas en théorie, mais dans ce que vivent les patients.

La première tient à la clarification diagnostique.

En clinique, le grand défi n’est pas seulement de dire « il y a une démence ». C’est de comprendre laquelle. Alzheimer, démences fronto-temporales, démence à corps de Lewy, atteintes vasculaires, troubles mixtes : les tableaux se chevauchent, les symptômes se ressemblent, les trajectoires diffèrent. L’IRM apporte des indices de topographie : plus temporale, plus frontale, plus postérieure, plus sous-corticale. Mais au stade précoce, ces indices peuvent être discrets.

Quantifier ne remplace pas le raisonnement clinique, mais aide à sortir du « vague ». Un hippocampe au 2e percentile pour l’âge ne raconte pas toute l’histoire, mais il donne un signal plus net qu’un « discret amincissement ». Et surtout, il rend possible la comparaison dans le temps.

La deuxième tient au pronostic : qui va décliner, et à quelle vitesse ?

Une étude publiée en 2024 sur une volumétrie automatisée « cliniquement faisable » suggère que des mesures régionales (notamment hippocampiques) et du volume cérébral total peuvent aider à prédire un déclin cognitif ultérieur chez des patients présentant des symptômes précoces.

Ce type de résultat intéresse les cliniciens pour une raison simple : dans les troubles cognitifs légers, tout le monde ne progresse pas au même rythme. Certains restent stables longtemps. D’autres déclinent rapidement. Les familles, elles, vivent cette incertitude comme une suspension : faut-il adapter la maison ? anticiper une aide ? mettre en place un suivi plus fréquent ? La quantification ne donne pas un destin, mais elle peut contribuer à mieux stratifier le risque.

La troisième tient au suivi : mesurer la progression au lieu de la deviner.

Une étude de 2025 a comparé l’évaluation visuelle de la progression d’atrophie et la volumétrie automatisée sur des examens successifs en « vie réelle ». Elle explore précisément cette question : ce que l’œil perçoit comme progression est-il reflété par des mesures quantitatives, et avec quelle robustesse dans des cohortes non idéales. Le fait même que cette question soit étudiée en conditions réalistes montre le point clé : le défi n’est plus de prouver que la volumétrie fonctionne en laboratoire, mais de la rendre fiable et utile dans la vraie pratique.

Si l’on résume, la quantification ne « remplace » pas l’IRM classique. Elle prolonge son sens : au lieu d’être une photo isolée, elle devient une mesure qui peut être comparée, suivie et discutée.

L’effet « thérapies » : quand l’imagerie devient une condition de traitement

Il y a une raison très actuelle pour laquelle l’imagerie quantitative prend de l’importance : l’arrivée progressive de traitements qui exigent, pour être prescrits et surveillés, une caractérisation plus rigoureuse de la maladie.

Aux États-Unis, par exemple, l’anti-amyloïde lecanemab (Leqembi) a une information de prescription qui recommande une IRM de base et un suivi par IRM, notamment à cause du risque d’ARIA, ces anomalies radiologiques liées au dépôt amyloïde (œdème, micro-hémorragies) qui peuvent être asymptomatiques ou graves. En août 2025, la FDA a même recommandé un monitoring IRM plus précoce pour certains patients, afin d’identifier plus tôt les ARIA-E.

Même logique du côté du donanemab (Kisunla) : le résumé des caractéristiques (label) insiste sur la surveillance IRM et spécifie un calendrier d’IRM avant certaines perfusions.

On peut discuter l’ampleur clinique de ces médicaments, leur accessibilité, leurs bénéfices, leurs risques. Mais une chose est déjà certaine : ils modifient la place de l’imagerie dans le parcours. L’IRM n’est plus seulement un outil de diagnostic différentiel. Elle devient aussi un outil de sécurité et de suivi thérapeutique.

Et quand on entre dans une médecine où le traitement dépend d’une évaluation fine et répétée, la demande de quantification augmente presque mécaniquement. Parce qu’on ne peut pas baser une décision lourde sur des adjectifs flous. On veut des seuils, des évolutions, des preuves de stabilité ou de changement. Le cerveau, d’une certaine manière, est en train de rejoindre ce que le cœur connaît depuis longtemps : la transition d’une impression (« ça a l’air serré ») vers une mesure (fraction d’éjection, gradient, etc.).

Le cerveau est un paysage : la quantification aide à le cartographier

Parler de volumétrie peut sembler abstrait. Mais l’effet le plus concret, pour un patient, est souvent un changement de conversation.

Quand un neurologue ou un gériatre montre un examen et dit : « je trouve ça un peu plus marqué », il parle avec prudence, mais il laisse la famille seule avec ses interprétations. Quand il peut dire : « cette structure est nettement plus petite que ce qu’on attend à cet âge, et elle a diminué de tant en deux ans », la conversation change de densité. Elle devient plus difficile, parfois. Mais elle devient aussi plus claire.

Et cette clarté peut aider à éviter deux écueils fréquents.

Le premier, c’est l’errance diagnostique. Dans certaines situations, les patients enchaînent les consultations parce qu’aucun signe n’est « assez » net. La quantification peut accélérer l’identification d’un profil compatible avec une pathologie donnée, et donc permettre un suivi plus approprié, des conseils plus ciblés, une prise en charge plus structurée.

Le second, c’est l’injustice de l’accès à l’expertise. Un centre mémoire universitaire dispose d’un neuroradiologue expérimenté, habitué aux patterns fins. Un territoire moins doté n’a pas toujours ce luxe. La quantification, lorsqu’elle est robuste et correctement interprétée, peut contribuer à réduire cette disparité en donnant à des équipes moins spécialisées un repère objectif. Certaines publications sur la volumétrie automatisée insistent d’ailleurs sur son intérêt potentiel pour identifier des patients à risque « sans expertise neuroradiologique » avancée, même si cela n’exonère jamais d’une lecture clinique.

Ce point est délicat : personne ne souhaite une médecine automatisée. Mais beaucoup souhaitent une médecine moins inégale. Et la mesure, quand elle est bien encadrée, peut être un outil d’équité.

Ce que les chiffres ne disent pas, et ce qu’ils risquent de faire croire

La quantification a un pouvoir de persuasion. Un chiffre donne l’impression d’une vérité solide. Or, en imagerie, la vérité est souvent un compromis.

D’abord, les mesures sont sensibles à la technique. Deux IRM réalisées sur des machines différentes, avec des protocoles différents, peuvent donner des volumes légèrement différents. Les logiciels tentent de corriger cela, mais le risque de « fausse progression » existe si l’on compare des examens non harmonisés.

Ensuite, les bases normatives posent une question simple : qui est « la norme » ? Si une base de référence est construite majoritairement sur certaines populations, elle peut être moins pertinente pour d’autres. Ce sujet dépasse la technique : il touche à l’équité et aux biais potentiels dans la construction des outils.

Enfin, la neurodégénérescence n’est pas qu’une question de volume. Certaines maladies se jouent dans la microstructure (substance blanche), d’autres dans la connectivité, d’autres dans des dépôts protéiques visibles en TEP (amyloïde, tau), d’autres encore dans des réseaux fonctionnels. Les volumes sont un indicateur puissant, mais partiel. Une revue « pratique » sur les biomarqueurs d’imagerie dans Alzheimer rappelle d’ailleurs que la place et l’utilité des différents biomarqueurs varient selon les contextes et que la transposition en pratique clinique doit rester prudente.

La question n’est donc pas de remplacer le jugement par des chiffres. C’est d’éviter la fausse alternative entre « l’œil » et « la machine ».

La meilleure lecture quantitative est souvent une lecture augmentée : un radiologue qui voit le pattern, un neurologue qui connaît le patient, et une mesure qui aide à objectiver, à comparer, à suivre.

Vers une médecine du temps long : quantifier, c’est aussi accepter la durée

La neurodégénérescence est une médecine du temps long. Elle oblige à penser en années, parfois en décennies. Dans ce domaine, le plus grand ennemi n’est pas seulement la maladie : c’est la dérive de l’attention. Quand les symptômes sont légers, quand la vie continue, quand l’incertitude s’installe, on repousse, on minimise, on s’habitue.

La quantification, paradoxalement, peut jouer comme un rappel. Non pas un rappel anxiogène, mais un rappel structurel : « voilà où on en est », « voilà ce qui change », « voilà ce qui reste stable ». Elle peut servir à décider quand intensifier le suivi, quand proposer des bilans complémentaires, quand orienter vers une consultation spécialisée, quand discuter de la conduite, du travail, de l’organisation familiale.

Dans une époque où l’on cherche des solutions rapides, cette approche a quelque chose de presque contre-culturel : elle rend visible une transformation lente. Elle oblige à regarder en face une trajectoire au lieu de la deviner.

La grande question de fond : qu’est-ce qu’on mesure, et pourquoi ?

Tout outil de mesure porte une philosophie implicite. Mesurer l’atrophie, c’est affirmer que la structure compte. Mesurer l’hippocampe, c’est affirmer que la mémoire a une géographie. Mesurer la progression, c’est affirmer que le temps est un biomarqueur.

Mais la médecine ne mesure pas seulement pour savoir. Elle mesure pour agir. Or, pendant longtemps, on a reproché à la détection précoce de l’Alzheimer de créer de l’angoisse sans solution. Les choses changent lentement : parce que la prévention progresse, parce que le risque est mieux compris, parce que les traitements évoluent, parce que l’accompagnement s’organise, parce que des interventions sur des facteurs de risque peuvent retarder ou réduire la probabilité d’un déclin chez certains. Les débats sont vifs, mais la dynamique est là.

Dans ce contexte, la quantification en imagerie a une place particulière : elle ne promet pas la guérison, elle promet la lucidité. Elle permet de parler plus tôt de ce qui arrive, et donc d’organiser plus tôt ce qui peut l’être : suivi, soutien, adaptations, prévention, recherche, essais cliniques, prise en charge.

Elle devient une pièce d’un puzzle plus large : celui d’une médecine du cerveau qui cesse de fonctionner à l’impression pour entrer dans la mesure.

Une révolution silencieuse, mais pas automatique

Il serait tentant de conclure que la quantification va s’imposer partout, rapidement. La réalité est plus rugueuse.

Pour qu’elle soit utile, il faut des acquisitions standardisées, des pratiques de contrôle qualité, des formations, une capacité à expliquer les résultats aux patients, et une intégration correcte dans les parcours. Il faut aussi accepter que la mesure ne sera jamais parfaite, et qu’elle doit toujours être discutée, contextualisée.

Mais malgré ces limites, la direction est claire. Dans un domaine où l’œil a longtemps été seul face à l’effacement lent du cerveau, l’arrivée de mesures comparables et suivies est un changement de nature. Un passage de la description à la trajectoire.

Ce n’est pas un progrès spectaculaire. Ce n’est pas une démonstration d’IA qui fait le tour des réseaux. C’est un progrès plus rare : celui qui ne se voit pas, mais qui peut faire gagner du temps, de la clarté et, parfois, un peu de paix.

Dans les consultations mémoire, on entend souvent cette phrase : « je veux juste savoir ». Derrière, il y a la peur, évidemment. Mais il y a aussi une demande de repères. La quantification ne répondra pas à tout. Elle n’abolira pas l’angoisse. Elle ne remplacera pas les mots, ni l’écoute, ni la dignité du soin. Elle fait quelque chose de plus simple, et peut-être de plus précieux : elle transforme une impression en information. Et, dans la médecine des maladies neurodégénératives, c’est déjà un changement immense.