Par

Quand on fait un AVC, comment savoir s’il sera plutôt bénin ou s’il tournera mal ? L’intelligence artificielle commence à apporter quelques résultats spectaculaires pour améliorer les réponses à cette question.

 

 

Qu’est-ce qu’un AVC ?
Le cerveau a besoin, partout et harmonieusement, d’être alimenté en oxygène. Celui-ci est apporté par le sang qui arrive par les artères, essentiellement les carotides, lesquelles se ramifient en vaisseaux. Il y a deux grands cas où ce processus est en défaut :
1. celui où les vaisseaux éclatent ou se fissurent, alors le sang se répand à proximité de la lésion : c’est l’AVC « hémorragique », qui arrive souvent aux gens souffrant d’hypertension ;
2. celui où les artères ou les vaisseaux se bouchent. L’obstruction vient de caillots (soit plaques d’athérome – morceaux dégénérés d’artères qui se détachent, soit du sang qui s’est coagulé) ; l’AVC est dit « ischémique » (du grec iskhaimos : qui arrête le sang).

visuels-sciences.jpg
Coupes IRM d’un patient de la cohorte : à gauche de la flèche, les IRM faites à l’admission ; à droite de la flèche l’IRM réalisée une semaine après l’admission, rendant compte de la lésion finale du patient.
a) une coupe d’IRM de diffusion ; b) une coupe d’IRM de perfusion (à un temps donné) ; c) IRM de la même coupe, une semaine après l’admission à l’hôpital, où apparaît nettement la lésion finale ; d) le masque associé à l’IRM de la lésion finale (c), où les tissus ont été détourés par un neurologue : en gris les tissus sains, en blanc la lésion finale.

 

Quel est l’objectif de ta thèse ?
C’est la mise au point d’un modèle capable de prédire l’évolution de lésions cérébrales dues à un AVC ischémique afin d’aider le médecin à poser un diagnostic et à l’orienter dans sa décision d’intervenir ou non chirurgicalement. Mon travail personnel, c’est l’élaboration d’un modèle informatique de prédiction de l’évolution de l’AVC à partir d’images médicales, plus précisément d’IRM de cerveaux. Je ne suis pas médecin ni anatomiste, j’ai donc deux directeurs de thèse : un neurologue et un informaticien. L’assistance informatique dans le traitement des images médicales part de l’hypothèse et du constat que l’ordinateur peut, dans certains cas, repérer des lésions (ou d’autres détails pertinents pour son diagnostic) que ne serait pas en mesure d’apercevoir le médecin à l’œil nu. Il n’est donc pas question de supplanter ou de remplacer le médecin mais, au contraire, de l’assister dans son diagnostic et sa prise de décision.

Quelle est ta formation ?
Après avoir fait une licence biologie-mathématique à l’université Pierre et Marie Curie (Paris), j’ai intégré le parcours « Biologie, informatique et mathématiques » de l’Institut national des sciences appliquées (INSA) de Lyon. Je suis devenue doctorante en recherche clinique, innovation technologique, santé publique (spécialité traitement du signal et image), au sein d’un laboratoire spécialisé dans l’acquisition et le traitement des images médicales. Mais je travaille dans une équipe pluridisciplinaire avec des chercheurs de formations variées : physique, mathématique appliquée, informatique, génie électrique, ainsi que des praticiens hospitaliers chercheurs.

Comment le modèle informatique est-il élaboré et quels problèmes cela pose-t-il ?
Mon cadre de travail se présente de la manière suivante : du point de vue des données, je dispose d’une cohorte de cent patients qui ont chacun passé d’abord deux IRM (l’une dite « de perfusion », l’autre « de diffusion », voir page suivante) au moment de leur admission à l’hôpital, puis une autre IRM une semaine plus tard, qui, cette fois, rend compte de l’évolution de la lésion.
Ensuite, le protocole se présente ainsi : les cent patients volontaires sont répartis en deux groupes : le premier est appelé « ensemble d’entraînement » et est composé de soixante-dix patients et le second, composé des trente patients restants, correspond à l’« ensemble test ». Mes données sont annotées, c’est-à-dire que je connais l’évolution finale de la lésion pour chacun des patients. Les images des soixante-dix patients du modèle d’entraînement, que nous espérons suffisamment représentatifs de la population, vont constituer la matière (les données) à partir de laquelle mon modèle informatique va apprendre à repérer les informations pertinentes qui serviront ensuite à prédire la forme finale de la lésion (c’est la phase d’apprentissage). Une fois cette première phase passée, je soumets à mon modèle, désormais entraîné, les images des trente patients de l’ensemble test. Si la phase d’apprentissage s’est correctement déroulée, alors mon modèle sera en mesure de prédire l’évolution des lésions de chaque patient de l’ensemble test. Pour m’en assurer, je compare l’évolution prédite par le modèle avec les images de la lésion produites une semaine plus tard et je peux ainsi évaluer les performances du modèle.

« Ces nouveaux algorithmes cherchent à imiter les connexions neuronales qui servent à la transmission et au traitement de l’information tels qu’ils se produisent dans le cerveau. »

Cependant, tout cela ne se fait pas sans difficultés. Une première tient au fait que la lésion n’est pas toujours stable : elle peut tout aussi bien grossir que diminuer au cours de la semaine qui sépare les deux IRM. La seconde difficulté est due à la quantité de données que j’ai à ma disposition : le genre de modèle sur lequel je travaille requiert, pour être efficace, une masse très importante de données et, de ce point de vue, les clichés produits à partir de ma modeste cohorte sont très en deçà des quantités attendues. Néanmoins, dans le domaine de l’imagerie médicale, pour des raisons aussi bien financières que juridiques, on dispose rarement de cohortes plus importantes...

Jusque-là, tu connaissais déjà l’évolution…
Oui, mais l’enjeu est maintenant de parvenir à construire un modèle qui, lorsqu’on lui fournit seulement les IRM d’admission d’un nouveau patient tout juste diagnostiqué, soit en mesure de prédire comment sa lésion évoluera. L’objectif est d’entraîner le programme informatique à prédire l’évolution. En d’autres termes, à force d’avoir analysé ce qui se passe dans les cas où l’évolution est connue, le programme va être capable, dans les cas nouveaux, d’aider à expliquer ce qui va se passer, sans avoir vu la suite du film.

Quelques précisions sur les techniques employées ?
S’agissant tout d’abord des images recueillies, je travaille à partir de deux types d’images, et ce, afin de capter le plus d’informations pertinentes possible : celles obtenues par diffusion (qui mesure l’agitation des molécules d’eau dans les tissus cérébraux) et celles obtenues par perfusion (qui utilise un agent de contraste et rend compte de la façon dont le sang circule dans les tissus en fonction du temps). L’ordinateur parvient à repérer, en analysant chaque grain d’images (pixels), certaines propriétés invisibles à l’œil nu.

L’ordinateur n’est qu’une machine, comment peut-elle prédire ?
Concernant maintenant le modèle informatique que je cherche à développer, il s’agit d’un programme informatique fondé sur des techniques d’intelligence artificielle, dites d’« ap­prentissage automatique » (en an­glais : machine learning) développées depuis les années 1980. L’application de techniques statistiques aux algorithmes a contribué à améliorer considérablement nos capacités de classification et de prédiction. On construit des programmes capables de traiter une importante quantité de données et d’« apprendre » à partir d’elles. Mais ces méthodes, très utilisées à l’heure actuelle notamment dans les entreprises, supposent que les données, à partir desquelles l’ordinateur travaille, soient préalablement triées par un agent humain. Le cas du modèle sur lequel je travaille est un peu différent : s’il n’y a pas à proprement parler de tri préalable, les données fournies au modèle sont toutefois épurées dans la mesure où le neurologue trace le contour de chaque lésion finale afin de faciliter l’apprentissage de la machine.

« Il n’est pas question de supplanter ou de remplacer le médecin mais, au contraire, de l’assister dans son diagnostic et sa prise de décision. »

De quoi s’agit-il ?
Ce sont des techniques qui ont connu un essor considérable au début des années 2010. Elles s’inspirent de la façon dont marche notre cerveau afin d’extraire directement les données pertinentes pour la résolution d’un problème, sans tri préalable par un être humain. Ces nouveaux algorithmes reposent sur une architecture spécifique qu’on appelle les « réseaux de neurones artificiels » : ils cherchent à imiter les connexions neuronales qui servent à la transmission et au traitement de l’information tels qu’ils se produisent dans le cerveau. Le succès de leur application est apparu dans la résolution de problèmes de reconnaissance visuelle d’objets. Par exemple, en 2012, l’informaticien Alex Krizhevsky a remporté, par ce moyen, le défi ImageNet organisé par Google en obtenant, en reconnaissance d’images, un taux d’erreur bien inférieur à celui de l’autre finaliste. Autre exemple : l’optimisation de stratégies de jeux, tel le programme AlphaGo qui, en 2015, parvient à battre un joueur professionnel au jeu de go, et dont la combinatoire est telle qu’elle interdit toute recherche exhaustive.

« Mettre au point un modèle capable de prédire l’évolution de lésions cérébrales dues à un AVC ischémique afin d’aider le médecin à poser un diagnostic et à l’orienter dans sa décision d’intervenir ou non chirurgicalement. »

Revenons à ton modèle
Le modèle que je suis en train de développer est justement fondé sur ces techniques d’« apprentissage
profond » et en particulier sur l’algorithme de réseaux de neurones convolutifs (CNN) qui consiste en l’application de nombreux filtres à des données pour en faire ressortir de nouvelles informations sur lesquelles le programme se basera par la suite pour distinguer et identifier certains objets dans une image. Étant donné, encore une fois, que l’on ne saurait identifier quelles sont les informations sur lesquelles notre cerveau se base pour reconnaître un loup d’un chien, ou un visage, ou une lésion, etc., on cherche à reproduire le comportement de notre cerveau dans un programme afin qu’il produise ses propres critères discriminants et qu’il apprenne lui-même à trier les informations et, ainsi, à discerner les objets dans une image. Le programme est entraîné à détecter des indices permettant de prédire l’évolution de la lésion ischémique. Cependant, cela suppose de fournir à l’algorithme une très grande quantité d’images ; or, dans notre cas, il y a beaucoup plus de paramètres (des millions) que de données en entrées. On ne dispose d’images que pour une centaine de personnes, j’entraîne donc mon programme sur environ un millier d’images, ce qui est encore très insuffisant ; cependant, le modèle commence à témoigner d’une certaine efficacité prédictive.

L’intelligence artificielle a-t-elle déjà permis des avancées notables en imagerie médicale ?
Oui, particulièrement en radiologie. Au reste, le métier de radiologue est appelé à changer, certains pensent qu’il est voué à disparaître à long terme, mais c’est un avis tranché. On peut penser que, dans les déserts médicaux, les machines combleront partiellement un manque, mais elles ne suffiront pas. De toute façon, cela n’en rend pas moins indispensable la présence de médecins généralistes et spécialistes.

Noëlie Debs est doctorante à l'INSA de Lyon.
Propos recueillis par Yannis Hausberg.

Cause commune n° 16 • mars/avril 2020