LE QUOTIDIEN : La révolution de l'IA en santé est-elle déjà concrète sur la pratique des médecins ou en est-on seulement aux prémices ?
DAVID GRUSON : Nous en sommes au début mais il y a déjà des exemples opérationnels avec la reconnaissance d'images par un algorithme qui s'est entraîné à reconnaître tel ou tel signe pathologique. Il y a déjà une série de cas d'usage très concrets en ophtalmologie sur la rétinopathie diabétique, en dermatologie avec le mélanome, et en radiologie avec la mammographie.
En revanche, la France n'est pas prête sur l'utilisation et l'optimisation des données et des algorithmes pour suivre des indicateurs de santé publique et en déduire des mesures de prévention et de prise en charge.
Qu’est-ce qui est le plus révolutionnaire en IA ?
Ce sont précisément les multiples cas d'usage en santé. Les grands concepts de l'IA – le machine learning [apprentissage automatique ou statistique] – sont connus depuis une trentaine d'années mais on sait aujourd'hui appliquer ces technologies au domaine de l'imagerie par exemple. Toutes les semaines, on voit aussi de nouvelles applications comme aux urgences avec l'emploi d'une intelligence artificielle qui permet d'aider les personnels de la régulation médicale dans la gestion des appels au 15.
Certaines spécialités sont-elles directement menacées de disparition ?
Dans les champs très exposés au développement du diagnostic par reconnaissance d'images comme la radiologie, on ne peut pas affirmer que la spécialité est condamnée. En réalité, les radiologues s'adaptent ! Ils se sont même organisés en créant un écosystème d'IA d'imagerie médicale [DRIM France IA, projet visant à construire et exploiter une vaste base de données qualifiées d’imagerie] regroupant la société savante et les représentants des professions pour définir les cas d'usages concrets et les modalités de déploiement de l'IA. Cette discipline s'orientera peut-être vers davantage de radiologie interventionnelle. L'IA ne vient pas se substituer à la décision médicale humaine sur la totalité des champs. C'est une articulation avec la machine qui s'installera.
Quant à la médecine générale, il y aura une réflexion sur le rôle du généraliste vis-à-vis des nouveaux outils diagnostiques algorithmiques. Exemple : un généraliste utilise un système algorithmique spécialisé pour diagnostiquer un patient mais a un doute sur la conclusion. On peut aussi imaginer une télémédecine ou télé-expertise pour qu'il obtienne un second avis spécialisé.
Quels risques principaux identifiez-vous ?
Avec le Comité consultatif national d'éthique, nous avons identifié deux types de risques. Le premier serait de déléguer toutes les décisions médicales à la machine, y compris le consentement du patient. Le médecin perdrait en recul critique et entrerait dans un mécanisme d'automatisme.
Le deuxième, c'est lorsque l'algorithme – qui raisonne sur des données massives – aboutira à des arbitrages pouvant être considérés comme un "mal éthique". Exemple : une IA ne recommande pas telle thérapeutique à une patiente en fin de vie car elle très coûteuse et que ce budget ferait mieux d'être alloué à l'amélioration du système de santé dans son ensemble.
Comment réguler positivement l'IA en santé ?
D'abord, il ne faut pas sur-réglementer au risque de bloquer l'innovation en France et de favoriser l'importation de solutions de médecine algorithmique étrangères dont on ne pourra pas garantir le caractère éthique.
Nous proposons de consolider le devoir d'information du médecin à son patient. Ce dernier devra être informé lorsqu'un traitement algorithmique est utilisé lors d'un acte de soin. Le second principe est celui de la garantie d'une intervention humaine à certains moments clés de la prise en charge. Il faudra définir quels sont ces points critiques afin de réguler l'IA au fil de l'eau. On pourrait imaginer un collège de garantie humaine, dérivé de la RCP [réunion de concertation pluridisciplinaire], associant soignants et représentants des usagers, qui opérerait un deuxième regard sur les dossiers gérés par l'IA, à partir d'événements indésirables constatés ou aléatoires. Cela permettrait de voir au fil de temps si l'IA se comporte bien ou si des dérives se matérialisent. Et dans ce cas, il faudra les corriger auprès du producteur de la solution !
Article précédent
Les algorithmes pour désengorger les urgences
L'aide au diagnostic, champ prioritaire
Les algorithmes pour désengorger les urgences
David Gruson : « Des cas d'usage très concrets en ophtalmologie, dermatologie, radiologie, aux urgences... »