Notre modèle d’apprentissage profond PIANO™ pour la segmentation de l’hippocampe réduit considérablement les taux d’échec du contrôle de la qualité, surpassant les méthodes existantes et permettant des essais cliniques plus petits et plus rentables
Schéma conceptuel de l’architecture U-net pour la segmentation de l’hippocampe, avec une image MR pondérée T1 en entrée et une segmentation 3D en sortie. La partie gauche de la forme en U représente l’encodeur, tandis que la partie droite représente le décodeur, et chaque niveau horizontal représente plusieurs couches convolutives de caractéristiques des données sous-jacentes, condensées dans un espace latent au niveau le plus bas.
Composition des ensembles de données d’entraînement et de test par stade clinique
Fraction représentée par chaque étape clinique dans les ensembles de données d’entraînement, de test et combinés dérivés de l’ensemble de données ADNI. Les stades cliniques représentés sont identifiés comme suit : Cognitivement normale (CN), trouble de la mémoire subjective (SMC), déficience cognitive légère précoce (ECMI), déficience cognitive légère (MCI), déficience cognitive légère tardive (LMCI), maladie d’Alzheimer (MA).
Taux d’échec de la segmentation de l’hippocampe (HC) comparant l’apprentissage profond de PIANO™ (bleu) avec Hippodeep (orange) et FreeSurfer (vert). Left & Right HC représente le cas où la segmentation des deux côtés échoue simultanément dans le même ensemble de données.
L’hippocampe est une région neuroanatomique notoirement difficile à segmenter de manière fiable. Nos analyses montrent que les méthodes couramment utilisées pour la segmentation de l’hippocampe peuvent échouer jusqu’à 10 % du temps sans correction manuelle. La correction manuelle n’est pas préférable car elle introduit des biais indésirables dans les essais cliniques. Les algorithmes d’apprentissage profond offrent des méthodes robustes pour générer une segmentation précise des images.
Les modèles d’apprentissage profond, en particulier les réseaux U-net, sont très bien adaptés à la segmentation tridimensionnelle (3D) de la région d’intérêt (ROI). Les réseaux neuronaux convolutifs (CNN), inspirés du cortex visuel humain, sont des outils puissants pour l’identification des caractéristiques de l’image. Bien qu’ils nécessitent des données d’entraînement et une puissance de traitement importantes pour être développés, une fois formés, ils sont des outils efficaces qui peuvent être rapidement exécutés sur des ressources de calcul standard.
Comme illustré dans le schéma conceptuel, nous avons utilisé une architecture de réseau U-net avec des couches d’encodeur-décodeur pour la segmentation de l’hippocampe, avec une image MR pondérée T1 en entrée et une segmentation 3D de l’hippocampe en sortie.
L’entraînement de modèles de Deep Learning nécessite généralement de grands ensembles de données. cependant, l’architecture de U-net combinée à l’augmentation des données permet un entraînement efficace avec des ensembles de données de neuroimagerie plus petits. Nous avons organisé un ensemble de données d’entraînement d’IRM pondérées en T1 à partir de la base de données ADNI, composé d’une gamme de participants allant des patients cognitivement normaux aux patients atteints de la maladie d’Alzheimer, comme illustré dans le graphique de la composition de l’ensemble d’entraînement. La variété de cette composition est essentielle pour que l’entraînement puisse montrer autant de formes et de variations différentes de l’hippocampe que le modèle d’apprentissage profond. Le modèle entraîné a été testé sur un ensemble de données distinct, sans chevauchement de participants entre les ensembles d’entraînement et de test.
Nous avons utilisé FreeSurfer à des fins de comparaison en raison de son utilisation relativement omniprésente par la communauté universitaire comme l’une des plateformes d’analyse de neuroimagerie les plus performantes et open source disponibles gratuitement. FreeSurfer est également un pipeline automatisé, mais peut nécessiter un dépannage et une intervention manuelle à différentes étapes du traitement, comme indiqué sur leur site Web, afin d’obtenir des résultats optimaux. Cependant, la correction manuelle introduit un biais indésirable et une variabilité intra/inter-observateur dans les données et limite la reproductibilité. Afin de comparer les deux plateformes, aucune intervention manuelle n’a été effectuée.
Nous avons également utilisé HippoDeep à des fins de comparaison, afin de souligner que la conservation de l’ensemble de données d’entraînement est essentielle pour générer une solide performance à partir du modèle d’apprentissage profond. Les segmentations de l’hippocampe de toutes les méthodes ont fait l’objet d’un contrôle de qualité (CQ) via une évaluation visuelle sur des images de vérification.
Notre modèle d’apprentissage profond a surpassé les méthodes existantes, telles que FreeSurfer et HippoDeep, atteignant un taux d’échec de qualité inférieur à 2 % pour l’un ou l’autre hémisphère et <0,4 % pour les deux hémisphères sans corrections manuelles. Cette réduction substantielle du taux d’échec du contrôle de la qualité a un impact direct sur les coûts des essais cliniques, car le taux d’échec du traitement des données plus faible permet d’obtenir des échantillons d’essai potentiellement plus petits. Cette segmentation de l’hippocampe par apprentissage profond a été appliquée à l’ensemble de données FTD.