Aller au contenu de la page
Rapport

IA et Santé : pourquoi l’action publique ne peut plus attendre

L’Intelligence Artificielle dans la santé, on en parle déjà beaucoup et partout. Mais quelle politique publique soutient vraiment aujourd’hui le déploiement de cette révolution en marche ? Terra Nova plaide pour accélérer l’implication des pouvoirs publics et liste, avec dix recommandations opérationnelles, les instruments de politique publique qu’appellent aujourd’hui les usages de l’IA dans le soin et la prévention. Point de départ de l’analyse : les usages de l’IA s’accélèrent. Professionnels de santé et patients adhèrent aux promesses que concepteurs et développeurs s’attachent à parfaire, et la régulation européenne et nationale a progressé pour en maîtriser les risques éthiques. Cette accélération de la technologie et de ses usages déplace le champ du débat public : l’enjeu n’est plus de savoir comment encadrer les dilemmes éthico-politiques que l’IA engendre en santé, mais de bâtir, en se fondant sur la littérature scientifique, l’évaluation des usages existants, et le cadre régulateur de l’AI-Act européen, un cadre d’action et des instruments concrets de politique publique. Il y a même urgence si l’on veut sécuriser les enjeux de l’IA en termes de qualité des soins, d’équité en santé et de souveraineté numérique. Nous n’en sommes plus aux questions de principe mais à une problématique d’embrayage, de mise à l’échelle opérationnelle dans laquelle il est urgent que les pouvoirs publics prennent dès maintenant toute leur part avec les instruments qui sont les leurs.

Publié le 

Une technologie en manque de politique publique ?

L’intelligence artificielle constitue un enjeu de plus en plus fort de mobilisation des politiques publiques. La publication, au mois de mars 2024, du rapport de la « Commission IA » réunie sous l’égide de la Première ministre[1] a ainsi constitué une forte illustration de la volonté de la France d’inscrire les enjeux de cette révolution technologique au cœur des priorités publiques. Le sigle « IA » est maintenant un vocable entré dans le langage courant dans les différents champs d’action publique et, plus largement, auprès du grand public.

Rappelons que selon la définition classique de Marvin Lee Minsky[2], l’intelligence artificielle correspond à « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». Les termes « Informatique Heuristique » sont parfois considérés comme plus appropriés, l’heuristique renvoyant, selon le Littré, à « l’art d’inventer, de faire des découvertes ». Nous ne reviendrons pas ici sur les débats terminologiques mais précisons d’emblée que la focale sera mise davantage sur les outils d’algorithmiques d’aide à la décision que sur la robotique[3].

Le déploiement des outils d’intelligence artificielle en santé a fait l’objet récemment de nombreux travaux et publications. La percée technologique constatée depuis début 2023 avec la diffusion rapide de l’intelligence artificielle générative (IAG) a encore accentué l’intérêt pour les usages de l’IA en matière de santé. Certains travaux récents – comme le rapport très important récemment publié par le think tank santé des Echos[4] – ont notamment permis de souligner la démultiplication des cas d’usage, effectifs ou encore potentiels, dans de nombreuses aires thérapeutiques, et le potentiel majeur d’innovations et de création de valeur au sein du système de santé qui leur sont associés. 

Tout en les rappelant synthétiquement, l’objectif de la présente note n’est pas de reprendre ces constatations mais plutôt de les réinterroger à la lumière des politiques publiques : au-delà du constat que les usages sont en pleine expansion, au-delà de l’observation des progrès de la régulation nationale et européenne, quel rôle attribuer aujourd’hui à l’action publique ? L’urgence est à la définition d’une politique publique qui soutienne le déploiement des outils d’IA en santé de façon à ce qu’il soit conforme aux intérêts des patients, au carrefour des principes cardinaux que sont l’équité d’accès, la qualité et la sécurité des pratiques médicales, et la souveraineté. 

Dans une étude globale publiée en 2023, la Chaire Santé de Sciences Po Paris avait montré l’étendue du champ des possibles et l’intérêt de principe de l’action publique dans le domaine de l’IA en santé[5]. Le constat aujourd’hui est cependant celui d’un manque – ou a minima d’un retard de structuration – de cette politique publique. Dans un contexte d’engagement majeur des pouvoirs publics sur le numérique en santé depuis 2017–2018, le champ de l’IA reste paradoxalement moins abordé sous l’angle des leviers d’action publique à utiliser pour améliorer la prévention et l’accès aux soins dans le réel des territoires. 

Ce retrait relatif des politiques publiques a certes aussi ses vertus. L’absence de cadrage national sur le recours à l’IA comme levier d’accès aux soins a laissé de facto une liberté aux initiatives de terrain et aux créateurs d’innovations en santé. Nous sommes ici au fond devant une problématique classique : le dilemme courant d’une action publique qui cherche à combiner la promotion d’une innovation avec la nécessité de la réguler, au risque de la freiner.

Cette problématique du juste curseur éthico-politique de la régulation en matière d’innovation a constitué un enjeu très fort du débat public sur l’IA en santé depuis 2017 et elle a guidé l’engagement du processus de réexamen de la loi de bioéthique française.

Aujourd’hui cependant, mi-2024, l’accélération de la technologie décale le champ du débat public : en pratique, ce dilemme et les outils de sa résolution sont déjà à maturité. Professionnels de santé, chercheurs et patients s’approprient déjà sur le terrain à la fois les outils d’IA et les outils de sa régulation notamment par le principe de garantie humaine reconnu dans la loi de bioéthique française de 2021 et le nouveau règlement européen AI Act. Nous n’en sommes plus à des questions de principe mais à une problématique d’embrayage, de mise à l’échelle du déploiement de ces nouveaux instruments dans un cadre d’action publique conforme aux valeurs des systèmes de santé en France et en Europe.

La présente note ne traitera pas spécifiquement la question majeure de « l’amont » de l’intelligence artificielle, à savoir les modalités de collecte et de traitement des données de santé. Le rapport récemment publié par le Healthcare Data Institute donne une vision d’ensemble de cette thématique en soulignant la nécessité d’un meilleur accès aux données de santé pour l’innovation tout en préservant la confiance des professionnels de santé et des patients[6]. Des moyens ont été consacrés par les pouvoirs publics à ce sujet notamment dans le cadre des appels à projets dédiés mis en œuvre par le Health Data Hub pour soutenir le développement des entrepôts de données de santé (EDS)[7]. Ces leviers doivent naturellement être consolidés. Comme le montrent des démarches transversales comme celles portées dans le cadre du chantier des « datas transformeurs »[8], nous avons à la fois une dynamique réelle à soutenir sur le data management en santé et encore beaucoup de chemin à parcourir pour en tirer tout le potentiel. Nous aurons notamment l’occasion de revenir dans cette note sur la notion de « responsabilité populationnelle » en santé : si l’intelligence artificielle peut en être un adjuvant utile par l’émergence de parcours territorialisés dans plusieurs spécialités médicales, une véritable dynamique de santé populationnelle impliquera une forte structuration des outils de connaissance et de pilotage par les données de santé au plus proches des territoires.

L’objectif de ce travail est donc plutôt d’apporter une contribution sur les usages effectifs et potentiels de l’IA en matière de prévention et d’accès aux soins. Elle s’efforce ainsi d’intégrer des éléments de synthèse de nombreux travaux très utiles et approfondis conduits récemment sur la thématique de l’IA en santé. Mais cette note vise aussi à montrer que le moment est maintenant venu de construire une politique publique de soutien durable à la diffusion de l’IA en santé. Cette étude recense trois types de signaux qui témoignent de l’urgence qu’il y a à se saisir aujourd’hui de cet enjeu. Premier signal, sur la souveraineté : l’accélération de l’innovation technologique et numérique a aussi pour effet de rendre plus poreuses les frontières entre systèmes de santé. Sans initiative forte pour soutenir l’IA en santé dans un cadre d’affirmation de la souveraineté numérique française et européenne, le risque serait grand d’un dépassement voire d’une perte de capacité d’action pour construire l’avenir de notre système de santé. Deuxième signal, sur la qualité et la sécurité des usages : si un cadre juridique – français et européen – est désormais en vigueur autour de l’obligation de supervision humaine des systèmes d’IA par les professionnels de santé et les représentants des patients, nous observons, en l’état, une hétérogénéité des modalités de diffusion de l’IA et des pratiques de contrôle humain. Enfin, dernier signal d’urgence : à voir l’actuelle accélération des usages d’IA génératives, un déficit d’accompagnement public risque d’avoir pour corollaire le développement d’initiatives privées et payantes corrosives pour l’équité d’accès.

Ce document présente les principales opportunités pour l’IA d’améliorer les résultats de santé, les risques critiques à aborder dans son déploiement en santé, et propose des actions politiques pratiques pour opérationnaliser une IA responsable qui respecte les valeurs du système de soins et améliore les résultats de santé. Ces actions bénéficieront de principes communs et de garde-fous qui sont déjà à maturité.

Dans cette perspective, nous montrerons l’ampleur de la diffusion de l’IA dans notre système de santé et de maintien en autonomie, dont la rapidité se combine avec une relative inorganisation (1.).

Pour autant, trois stimuli majeurs peuvent être identifiés pour marquer l’intérêt d’une politique publique de soutien à la diffusion de l’IA en santé : des gains de santé publique à portée de main, une course contre-la-montre pour éviter une perte de souveraineté ainsi qu’un cadre juridique de déploiement désormais à maturité (2.).

Dès lors, une fois reconnue l’urgence de cette politique publique pour soutenir une IA de confiance en santé peuvent être dégagés des leviers d’action à court et moyen terme (3.).

 

1. Une diffusion de l’IA en santé rapide mais peu organisée

1.1 Une percée majeure et en forte accélération de l’IA en santé

Depuis deux à trois ans, notre pays est entré dans une phase d’accélération majeure des intentions de recours aux outils d’IA par les professionnels de santé. Une littérature analytique et académique en pleine croissance le démontre déjà.

Ce phénomène n’est pas propre à notre pays mais constitue une véritable lame de fond transformant les systèmes de santé en Europe, aux Etats-Unis ou en Chine.

La diffusion de l’IA en santé : une trame forte de structuration de l’évolution des systèmes de santé en Europe, aux Etats-Unis et en Chine

Même si le recul manque encore beaucoup pour analyser l’ensemble du phénomène et surtout le qualifier sur la base d’évaluations systémiques, la diffusion des cas d’usage de l’IA constitue bien une véritable révolution mondiale pour le champ de la santé.

L’effort européen d’innovation dans le domaine de l’IA en santé s’avère significatif. Comme l’a montré une récente étude de PWC, au sein de l’UE, l’Allemagne et les Pays-Bas représentent à eux deux 80% des demandes de brevet dans le domaine de l’IA en santé[9]. La France est, quant à elle, l’un des plus gros contributeurs de publications dans le domaine de l’IA en santé (4ᵉ sur 27). En revanche, en matière de demande de brevet, la France est 16ᵉ sur 27, ce qui traduit un besoin d’amélioration du passage de la recherche sur l’IA en santé à la mise en œuvre effective des systèmes d’IA[10]. La diffusion de l’IA en santé en Allemagne et aux Pays-Bas repose principalement sur la position forte d’un acteur privé (« Siemens Healthcare GMBH » en Allemagne et « Koninklijke Philips » aux Pays-Bas)[11]. Dans la majorité des autres États membres, les stratégies se fondent davantage sur un écosystème national de start-ups mettant plus de temps à se mettre en place et nécessitant des soutiens financiers et institutionnels (soutien des gouvernements, système éducatif…)[12]. La conception de l’IA dans le milieu de la santé se concentre pour les start-ups, essentiellement sur deux principaux secteurs que sont la gestion des patients (57%) et le diagnostic des maladies (71%). Sur le fond, les domaines applicatifs dans les différents pays européens se concentrent sur l’apprentissage machine par reconnaissance d’image et le pilotage par les données des parcours patients (dans des logiques de responsabilités populationnelle en santé pour l’Europe du Nord) ; en notant, en outre, une percée plus récente de l’IA générative.

Aux Etats-Unis, dès 2018, la FDA[13] avait autorisé la mise sur le marché du premier dispositif médical intégrant l’IA. L’aide au diagnostic de maladies ou encore la gestion des flux de patients représentent les principaux axes de développement déjà très soutenu de l’IA en santé. À l’échelle d’un établissement de santé, cette technologie est utilisée dans le cadre de la gestion des lits ou encore pour visualiser et centraliser les informations pertinentes de tous les patients de l’établissement. En Floride, certains hôpitaux utilisent l’intelligence artificielle afin de pouvoir connaître la situation en temps réel des hôpitaux de tout l’État de Floride et rediriger les flux si nécessaires[14]. L’IA est également utilisée pour simplifier les tâches administratives au sein des établissements de santé, c’est notamment le cas notamment en matière de gestion des plannings, de recrutement ou encore de simplification administrative pour les personnels de l’établissement[15]. D’autres cas d’usage sont également à relever en matière d’accélération de l’innovation thérapeutique, c’est notamment le cas des technologies de jumeau numérique[16] ou « digital twin ». Cette technologie peut être déployée à la fois dans le cadre d’actes chirurgicaux afin d’avoir une meilleure visualisation d’un organe et à l’échelle plus globale de l’établissement de santé dans le but d’avoir une meilleure visualisation de son activité globale.

En Chine, la première plateforme intégrée pour le diagnostic et le traitement de la dermatologie assistée par l’IA a été déployée en 2017. Les résultats publiés indiquaient un niveau de précision supérieur à 85% concernant le diagnostic d’un sous-type lupus[17]. L’importance grandissante des enjeux de l’IA a conduit le gouvernement chinois à s’associer aux BATX[18] pour « renforcer l’utilisation de l’IA dans trois domaines ; Alibaba, pour bâtir des sociétés de l’intelligence artificielle de la génération de plateformes d’innovation ouvertes du cerveau ; Tencent, pour l’imagerie médicale de l’intelligence artificielle ; Xunfei, pour l’intelligence artificielle d’appui à des plateformes d’innovation vocales »[19]. Le développement de l’IA dans la santé est devenu sur le long terme un enjeu majeur pour la Chine qui ne compte que 12 millions de médecins pour une population totale de 1,4 milliard d’habitants[20].

Alors que la première vague de déploiement a surtout concerné les dispositifs de reconnaissance d’image par apprentissage machine (1.1.1.), on assiste à présent à une accélération du recours à des outils d’IA générative (1.1.2.). La focale mise désormais sur ChatGPT semble en quelque sorte décomplexer les acteurs de santé sur le recours aux dispositifs d’IA de la « génération d’avant ».

1.1.1 Première étape : l’extension rapide des usages des systèmes apprenants d’analyse d’images

Le déploiement de l’IA en santé a d’abord concerné le champ du diagnostic et de la lecture d’images. Il s’agit ici principalement de traumatologie aux urgences, radiologie générale, dermatologie, ophtalmologie : tous ces champs de spécialités à haut niveau de requérance en interprétation d’images connaissent une phase sans précédent de diffusion de solutions d’IA sur le terrain. La diffusion rapide de ces solutions donne des opportunités majeures de rapprochement de l’accès au diagnostic de spécialités dans la ruralité ou dans les quartiers urbains en difficulté.

Ces innovations deviennent un objet de régulation publique : en 2023, plus de 700 systèmes d’intelligence artificielle appliqués au diagnostic médical ont été approuvés par l’agence nord-américaine Food and Drug Administration (FDA).

En France, le premier acteur public à s’emparer des enjeux de cette accélération a été le Comité consultatif national d’éthique (CCNE), et singulièrement de son comité pilote sur le numérique[21] : l’avis commun 141 du CCNE (avis n°4 du Comité national pilote d’éthique du numérique) adopté en novembre 2022[22] a permis d’établir un premier tableau global des différents cas d’utilisation de l’IA observés ou en construction dans le système de santé en France. Se concentrant sur les systèmes d’intelligence artificielle appliqués au diagnostic médical (SIADM) visant l’amélioration des performances techniques des praticiens, cet avis (voir encadré ci-dessous) part du constat suivant : « Le secteur de la santé et de la médecine apparaît particulièrement concerné par le développement de systèmes d’intelligence artificielle. Leur application au champ médical induit une transformation de la relation entre médecins et patients et ouvre de nombreuses questions sur l’avenir des systèmes de santé ». Il représente un document de référence précieux pour constater l’ampleur de la cinétique en cours pour la diffusion de l’IA dans notre système de santé.

Diagnostic médical et intelligence artificielle : synthèse de l’avis 141 CCNE / 4 CNPEN

Le travail du CCNE publié en novembre 2022 s’attache à l’une des applications premières de l’IA : les systèmes apprenants d’analyses d’images (SIADM). Leurs utilisations sont encadrées par l’article 17 de la loi n°2021–1017 du 2 août 2021 relative à la bioéthique. Au niveau européen, l’article 3 de l’IA Act couvre tout logiciel « qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit ».

Le périmètre de réflexion du CCNE s’élargit aux outils d’IA qui sont à la main du patient pour faciliter son parcours de soins : en dehors des SIADM réservés aux professionnels de santé, des applications ou des dispositifs sont proposés aux personnes elles-mêmes dans le cadre de leur parcours de soins qui facilitent et sécurisent le maintien à domicile des patients, peuvent contribuer à améliorer l’observance et permettent d’associer les patients à la prise en charge de leur maladie au quotidien

État des lieux et cas d’usage evidence-based

Le CCNE adopte pour démarche de partir d’un « un état des lieux de la science précis, documenté et à froid » et d’en décrire les usages concrets « dans la mesure où ce qu’est et ce que fait réellement l’IA aujourd’hui est loin d’être clair aux yeux de nombreux acteurs ». Cette approche pragmatique est à raison défendue par le CCNE en considérant que, en l’espèce tout particulièrement, « l’établissement des faits est en tant que telle une clarification éthique ». C’est ainsi que les cas d’usage suivants sont particulièrement analysés dans cet avis, afin d’établir la valeur ajoutée de l’IA sur un critère de qualité des pratiques dans différentes spécialités médicales :

En oncologie (cancers du poumon, du sein et de la prostate) la détection précoce est un critère déterminant pour réduire la mortalité. Les SIADM sont à la fois un gain de temps lors des campagnes massives de dépistage mais arrivent également à une précision de détection proche de 95%. [23][24]

En ophtalmologie, la détection massive et précoce est aussi facilitée pour les maladies rétiniennes : les SIADM ont des applications parmi les plus avancées et les plus prometteuses en matière de détection de la rétinopathie diabétique, de la dégénérescence maculaire liée à l’âge ou de glaucome[25].

En dermatologie, les SIADM permettent de distinguer lésion maligne et bénigne de la peau dans des conditions expérimentales[26], mais cela reste pour l’instant moins concluant que dans le secteur ophtalmologique.

En cardiologie, l’interprétation des caractéristiques du tracé de l’électrocardiogramme (ECG) et de l’échocardiographie permettent la détection de troubles du rythme cardiaque.

– Enfin, dans l’analyse d’images en histopathologie[27], plusieurs études ont montré que les SIADM appliqués à des images microscopiques numérisées à partir de lames d’histopathologie permettaient l’optimisation de la classification histologique et également de distinguer une lésion bénigne d’une lésion maligne. Ces données cliniques, microscopiques et moléculaires permettent à l’intelligence artificielle de prédire le comportement d’une tumeur[28][29].

Amélioration du parcours des soins

Outre les outils utilisés par les professionnels, le CCNE recense aussi de nouveaux outils d’IA qui peuvent permettre d’améliorer le parcours de soins en étant utilisés par les patients eux-mêmes.

Chatbots d’orientation pré-diagnostique : Dans une phase de pré-diagnostic, l’utilisation de chatbots capables de collecter des indications sur les symptômes permet de formuler une première orientation de diagnostic et de stratégie à adopter. Aujourd’hui, Ada[30] ou Babylon[31] font partie de ces exemples de plateformes qui se présentent comme universelles et se préparent à être adoptées à l’international.

Aide à la prise en charge d’urgences vitales : A l’étape suivante de ce parcours, l’aide à la gestion et à la prise en charge d’urgence vitale a recours à un algorithme de priorisation[32]. Deux expériences françaises visent actuellement l’application de SIADM aux services de régulation du Samu : le projet franco-suisse SIA REMU qui ambitionne d’optimiser la régulation des appels d’urgence médicale et l’étude conjointe du CHU de Bordeaux et de l’Inserm qui prévoit le déploiement d’un système de surveillance d’événements de santé publique.

Aide au suivi à domicile : dans la dernière étape du parcours de soins qui est l’aide au suivi des patients à domicile, l’exemple de l’algorithme auto-apprenant produit par Diabeloop pour la gestion automatisée du diabète de type 1, a obtenu en 2020 l’aval de la Haute Autorité de Santé (HAS) pour l’admission au remboursement par l’assurance maladie[33].

 

1.1.2 De la lecture apprenante d’images à la révolution de l’IA générative

L’IA en santé ne relève donc plus, on l’aura compris, de la science-fiction mais bien d’une réalité majeure des systèmes de santé. Ces premiers éléments évoqués n’intègrent pourtant pas le fait de rupture majeure que constitue la percée de l’IA générative, véritable game changer pour la diffusion de l’IA en santé dans son ensemble.

Les systèmes d’intelligence artificielle générative (SIAgen) sont définis notamment par l’avis 7 du Comité National Pilote d’Éthique[34] comme étant des modèles génératifs capables de produire de multiples sorties (outputs ou résultats) : comme du texte ou des images. Ces modèles génératifs peuvent servir de fondation à d’autres systèmes et répondent à des invitations ou requêtes (appelées prompts) en produisant de nouvelles données. Le système peut être unimodal ou multimodal : un système unimodal n’accepte qu’un seul type d’entrée (par exemple, du texte), tandis qu’un système multimodal peut accepter plusieurs types d’entrées (par exemple du texte et des images).

Dans son rapport sur cette question en mars 2024, l’Académie nationale de médecine a montré toute la profondeur des changements en cours. Elle a assumé une position particulièrement forte, affirmant : « L’usage des Systèmes d’Intelligence Artificielle Générative par les professionnels de santé doit se généraliser ; il serait contraire à l’éthique de se passer de l’aide de ces outils ». Pour autant, elle a aussi souligné que « ces systèmes présentent des risques avérés de leur conception à leur utilisation et à leurs évolutions », et recommandé instamment que « tous les professionnels de santé doivent être formés à leur usage ».

Parmi les usages émergents qui sont analysés par l’Académie (voir encadré ci-dessous), ceux qui retiendront ici plus particulièrement l’attention permettent d’améliorer les pratiques des professionnels, l’organisation des établissements, et donc la qualité des soins. Il s’agit par exemple des outils de production de contenus à partir de textes : courriers de liaison entre professionnels, synthèses de dossiers médicaux, comptes-rendus d’hospitalisation sont en passe de connaître une révolution qui aura un impact majeur sur l’emploi du temps des personnels de santé. Les Académiciens appellent de leurs vœux les bénéfices que ces outils apportent pour le travail en réseau des professionnels et soulignent « l’amélioration de la coordination des soins au sein des équipes multidisciplinaires, grâce à des outils de communication intelligents qui pourront mettre à la disposition des professionnels les informations pertinentes pour permettre une prise de décision multidisciplinaire éclairée et rapide ». Ils évoquent aussi, en miroir, la révolution qui s’annonce dans la répartition des tâches et des métiers : « des nouvelles compétences pourront être créées, d’autres disparaitront, la plupart devront s’adapter aux nouvelles technologies ».

Autre élément de disruption dans les pratiques, déjà identifié par l’Académie : la transformation des relations entre usagers et hôpital. Deux voies de transformation sont engagées : d’une part, l’automatisation du suivi des parcours patients, facilitée grâce aux SIAgen, peut permettre d’adapter les plannings en temps quasi réel (prise de rendez-vous) ; d’autre part, les agents conversationnels déjà opérationnels dans certains établissements, peuvent guider et informer les patients à travers les procédures hospitalières tout en réduisant la charge sur le personnel.

Synthèse du rapport de l’Académie nationale de médecine du 5 mars 2024 sur les systèmes d’IA générative en santé

Après avoir examiné les différents cas d’utilisation des SIADM dans les différentes spécialités médicales et l’utilisation de l’intelligence artificielle tout au long du parcours de soins, le rapport de l’Académie nationale de médecine présente les différentes applications remarquables des SIAgen (systèmes d’intelligence artificielle générative).

Les SIAgen sont définis notamment par l’avis 7 du Comité National Pilote d’Éthique du Numérique comme étant des modèles génératifs capables de produire de multiples sorties (outputs ou résultats) comme du texte ou des images.

Le premier apport identifié par l’Académie concerne le champ de la R&D pharmaceutique et celui de la recherche translationnelle et clinique, qui excèdent le périmètre du présent rapport. L’apport de cette technologie dans la découverte conventionnelle des médicaments[35] mais surtout dans le back office s’annonce décisif.

Organisation des établissements hospitaliers et relations avec les professionnels de santé

En dehors de ces promesses en R&D, l’IA générative est en passe de révolutionner les pratiques des professionnels de santé et l’organisation des établissements. L’un des axes de progrès des IA concerne la reconnaissance de textes (manuscrits ou non) et la production de contenus pertinents. Dans le domaine médical, les modèles de langage peuvent aider à générer quasiment en temps réel des comptes-rendus d’hospitalisation, des comptes-rendus opératoires, des notes cliniques, des comptes-rendus de réunion de concertation pluridisciplinaires (RCP), des lettres de liaison entre l’hôpital et les médecins traitants. Les SIAgen paraissent aussi très bien adaptés à la rédaction des lettres d’information personnalisées adressées aux patients.

Un autre axe de progrès est lié aux calculs possibles d’optimisation sous contrainte (localisation physique, gestion des déplacements, meilleure utilisation des ressources…). L’automatisation de certaines tâches administratives hospitalières, notamment le suivi des parcours patients, peut ainsi être facilitée grâce aux SIAgen, par exemple pour permettre d’adapter les plannings en temps quasi réel.

L’Académie nationale de médecine relève également une perspective de renouvellement profond de l’interface Homme-Machine en santé. Des agents conversationnels sont déjà opérationnels dans certains établissements en santé pour guider et informer les patients. L’utilisation des SIAgen pourra améliorer la qualité et la rapidité des réponses afin d’accompagner les patients à travers les procédures hospitalières tout en réduisant la charge pesant sur le personnel. De fait, ce sont toutes les composantes de la relation entre l’individu et l’écosystème de la santé qui sont considérées comme pouvant être concernées par les développements en cours sur l’IA générative : relations avec la Sécurité sociale, les mutuelles, les cliniques et hôpitaux, les médecins, les associations de patients, les soignants à domicile, les aidants…

 

1.1.3 L’extension du périmètre applicatif de l’IA en santé : les exemples de la santé mentale et du vieillissement

En phase majeure d’accélération technologique, l’IA en santé étend, par ailleurs, son spectre applicatif avec des avancées tout à fait notables des cas d’usages susceptibles d’être mobilisés dans les domaines de la santé mentale et du vieillissement. Dans des secteurs essentiels pour l’avenir des systèmes de santé et d’autonomie, l’intelligence artificielle présente de réelles perspectives applicatives.

Dans le domaine de la santé mentale, l’intelligence artificielle donne la perspective d’une détection précoce des pathologies et ouvre de nouvelles modalités d’accès aux dispositifs de prise en charge avec le recours à des agents conversationnels sous contrôle humain en première ligne, sans doute plus adaptés à certaines catégories de populations comme les jeunes. A titre d’exemple, le projet PsyCare[36] à l’initiative du GHU Paris Psychiatrie & Neurosciences met en œuvre une solution d’IA pour la détection précoce et l’aide au diagnostic des troubles psychiques afin de faciliter l’accès aux soins et déployer des programmes thérapeutiques personnalisés. Le CHU de Bordeaux a également élaboré un programme “Julia” sous la forme d’un agent conversationnel pour une aide au diagnostic des addictions.

S’agissant de la prise en charge du vieillissement, des démarches de forte mobilisation du recours à l’IA sont également à souligner comme la mobilisation de robots de stimulation cognitive ou la mise en œuvre de programmes de reconnaissance d’image pour détecter plus précocement l’émergence de pathologies neuro-dégénératives. Cette dynamique d’innovations se retrouve dans la labellisation en 2023 de l’Institut Hospitalo-Universitaire (IHU) HealthAge dédié au vieillissement et porté par le CHU de Toulouse[37].

Ces outils d’IA peuvent aussi être utilisés pour améliorer la qualité de vie des personnes en perte d’autonomie en évitant les séjours hospitaliers inutiles. Ils peuvent ainsi venir en aval des évaluations ICOPE (Integrated Care for Older People), programme de santé publique conçu par l’Organisation mondiale de la Santé (OMS) permettant d’expérimenter une nouvelle approche préventive des soins en ciblant les capacités fonctionnelles des personnes. Ces articulations potentielles ont fait l’objet de communications récentes dans le cadre des Journées du Vieillissement et du Maintien de l’Autonomie de Tours[38]. Le CHU de Limoges a, par ailleurs, engagé une étude innovante en intégrant un double diagnostic envoyé à une intelligence artificielle qui par la suite partagera son propre diagnostic à un médecin à distance qui n’a pas besoin de se déplacer. L’objectif principal est de prévenir les hospitalisations susceptibles d’être évitées. Sur un autre segment applicatif, une solution innovante provient de la startup OSO-AI portée par des entrepreneurs brestois depuis 2018. Placé directement dans les chambres des patients et résidents, que ce soit en Ehpad ou à domicile, cette “oreille augmentée des soignants” se présente sous la forme d’un petit boîtier non invasif qui opère une analyse sonore en temps réel grâce à l’intelligence artificielle. Grâce à ce dispositif, les soignants sont alertés sur leur smartphone en cas de situation de détresse chez un patient – comme des chutes, des cris ou des problèmes respiratoires – et peuvent évaluer le risque détecté. Cette solution est mise en œuvre par le CHU de Brest.

Même si ce mouvement n’est pas homogène dans tous les pays et les spécialités médicales, l’intelligence artificielle arrive donc à maturité opérationnelle dans de nombreux domaines en santé. Pour autant, cette accélération technologique ne s’est pas accompagnée d’une structuration corollaire des politiques publiques pour en dégager tout le potentiel en termes de renforcement de la prévention et de l’accès aux soins.

 

1.2 IA et accès aux soins : un angle mort de la politique de santé ?

La France a mis en œuvre depuis 2017–2018 une stratégie puissante d’accélération dans le domaine de la santé numérique, sous l’impulsion initiale d’Agnès Buzyn alors Ministre chargée de la Santé et de Dominique Pon et Laura Letourneau, copilotes de la nouvelle Délégation ministérielle au numérique en santé (DNS). Dans le cadre d’une première Feuille de route du numérique en santé, des axes forts ont été posés comme la réalisation de « Mon Espace Santé », la montée en charge du DMP, le rattrapage infrastructurel numérique pour les acteurs de soins en ville ou en établissement de santé ou encore le traitement des enjeux – essentiels – d’interopérabilité. Dès cette première étape, cette feuille de route intégrait un axe fort sur l’éthique du numérique en santé.

La mise en œuvre d’une gouvernance nationale du numérique en santé est affichée comme priorité depuis 2019. Le ministère de la santé l’écrivait lui-même en 2023 : « Historiquement, le retard de la France dans le champ du numérique en santé s’explique en partie par l’éparpillement des initiatives et l’absence de stratégie claire et partagée ». L’un des enjeux de la feuille de route du numérique en santé Ma Santé 2022 était de structurer ce millefeuille, notamment en renforçant la Délégation au numérique en santé (DNS) au sein du ministère de la santé. Missionnée par le ministre chargé de la santé en avril 2022, une mission de l’Inspection générale des Affaires sociales (IGAS) a rendu en septembre 2022 un bilan d’étape sur l’action de cette délégation, désignée comme pilote de la politique publique de développement et de régulation numérique en santé. Corroborant le bilan 2019–2022 “FAIT(S)” publié en août 2022 par la DNS et saluant un bilan de quatre années d’action de la délégation, l’IGAS a recommandé la pérennisation de la DNS, entérinée par un décret, publié le 15 mai 2023 qui l’élève au rang de direction d’administration centrale et lui confie le pilotage de la gouvernance avec l’ensemble des parties prenantes du numérique en santé (patients, entreprises, professionnels et établissements, opérateurs, etc.), la conduite de la définition du cadre applicable et des modalités pour s’assurer de la conformité à ce cadre, le suivi des financements publics consacrés au numérique en santé, la responsabilité, la participation ou le concours à certains projets numériques en santé portés par la puissance publique, et la représentation de l’État dans la gouvernance de l’Agence du Numérique en santé (ANS). Le même mois, la DNS a publié la nouvelle feuille de route 2023–2027 “Mettre le numérique au service de la santé[39].

Pourtant, les enjeux du déploiement de l’IA dans le secteur de la santé ne sont pas réductibles aux problématiques du numérique en santé. Ainsi, là où l’approche numérique en santé met l’accent sur l’intégration et l’interopérabilité des systèmes d’information, ainsi que sur la transformation des pratiques de santé grâce aux outils numériques, les enjeux de l’IA se concentrent sur l’utilisation de technologies avancées pour améliorer les diagnostics, les traitements et la recherche. De même, quand l’IA cherche à personnaliser les soins et à améliorer la précision des traitements grâce à des analyses de données avancées, les problématiques du numérique en santé visent plutôt à assurer que les données soient accessibles et partagées efficacement. Enfin, le numérique en santé se concentre sur la mise en place d’une infrastructure numérique robuste alors que le développement de l’IA est axé sur l’innovation technologique et le développement de nouvelles applications et algorithmes.

Par ailleurs, depuis le rapport remis au Président de la République en 2018 par Cédric Villani[40], une orientation majeure est portée sur le développement de l’intelligence artificielle. Cette stratégie a été encore déclinée et approfondie dans le cadre des travaux de la Commission sur l’intelligence artificielle[41]. Ces deux documents mettent fortement en exergue l’intérêt de l’IA dans le champ de la santé.

En dépit de l’intérêt majeur de l’IA en santé souligné dans ces rapports, la décantation ne s’est, cependant, à ce stade, pas encore pleinement opérée en termes de structuration de politique publique.

Le débat public sur ces sujets s’est pour le moment principalement focalisé sur les enjeux de collecte de données de santé et singulièrement sur la question des modalités d’hébergement de la plateforme nationale des données de santé (le Health Data Hub). Ce n’est évidemment pas le lieu ici de revenir sur le fond de ce débat si ce n’est pour à nouveau souligner l’intérêt essentiel, sur le principe, d’une plateforme nationale d’aide à la collecte et au traitement des données de santé placée sous l’égide des pouvoirs publics. Pour autant, il convient de souligner le fait que cette hyper-focalisation sur ce sujet a, d’une certaine manière, déporté la réflexion sur l’IA en santé de la question essentielle, à savoir le développement rapide de ces outils au service de l’amélioration de l’accès aux soins pour les patients et de la qualité et de la sécurité du système de santé dans son ensemble.

Or, cet effet de « stand-byisation » du débat public sur la mobilisation de l’IA au service de l’accès aux soins a un prix. Les risques qu’il y aurait à ne pas bâtir dès 2024 une politique publique de promotion et de régulation éthique de l’IA en santé en France et en Europe sont, en effet, majeurs. Dans un contexte où l’IA se développe à un rythme accéléré au plan mondial, c’est une véritable course contre-la-montre qui est engagée si nous voulons conserver la maîtrise de l’avenir de notre système de santé.

Du rapport VILLANI…

Dès 2018, ce rapport soulignait le caractère “prometteur” de l’intelligence artificielle intégrée dans une perspective d’amélioration de la qualité et la sécurité des soins, de réduction des coûts grâce à une prise en charge personnalisée et prédictive, et de renforcement de l’accès aux soins via des dispositifs de pré-diagnostic et d’aide à l’orientation médicale. Le rapport relevait la diffusion croissante des usages de l’intelligence artificielle dans le domaine de la santé marquée par le caractère novateur de ces systèmes à travers la stimulation de l’innovation à la fois thérapeutique et pharmacologique. En parallèle de l’IA au service de la médecine, le rapport mettait en lumière les effets de transformation profonde des pratiques des professionnels de santé, notamment dans le diagnostic, la construction des thérapies et le suivi des patients. Enfin, le rapport incitait à la réflexion concernant les évolutions futures de notre système de santé l’automatisation provoquant une réorganisation des tâches et des relations entre les acteurs impliqués dans la gestion des politiques de santé.

S’agissant de la mobilisation de l’IA au service des politiques de santé, le rapport recommandait aux pouvoirs publics d’anticiper la réorganisation du système de santé en adoptant des interventions plus agiles grâce à l’exploitation automatisée des données. Le document mettait en exergue l’intérêt majeur de politiques de prévention. Il prenait notamment l’exemple en matière de prévention du suicide de l’Agence de santé publique du Canada (ASPC) celle-ci associée à Advanced Symbolics[42], une startup spécialisée en IA, pour anticiper les risques suicidaires à travers l’analyse automatique des réseaux sociaux.

Pour optimiser le potentiel d’usage de l’IA en santé, le rapport appelait à une clarification de la gouvernance et à proposer une offre de services structurée autour du pilotage par les données. Le document recommandait la création de nouvelles infrastructures d’information et, en particulier, d’une plateforme d’accès et de mutualisation des données pertinentes pour la recherche et l’innovation en santé. Le rapport proposait également une révision des procédures de régulation et de certification pour s’adapter aux technologies évolutives de l’IA en santé. Il suggérait d’expérimenter de nouvelles méthodes de qualification et de certification pour les algorithmes médicaux, similaires au programme FDA Pré-cert aux États-Unis et de transformer le cadre bioéthique pour intégrer les enjeux de l’IA en santé et promouvoir des consultations citoyennes plus fréquentes et adaptées à l’innovation.

… au rapport de la Commission sur l’IA : l’intérêt majeur de l’IA en santé

Le rapport « IA : notre ambition pour la France » publié en début d’année 2024 propose la mise en œuvre d’une stratégie globale pour l’intelligence artificielle en France.

Même s’il ne porte pas spécifiquement sur ce sujet, ce rapport comporte des développements très significatifs sur l’impact de l’IA en santé[43].

Le rapport fait le constat que le système de santé est, en réalité, déjà transformé par l’IA, déjà embarquée dans de nombreux dispositifs médicaux. Les progrès dans le domaine de la santé grâce à l’IA peuvent déjà être attestés et le rapport souligne l’exemple de la découverte récente d’un nouvel antibiotique contre le staphylocoque doré par IA[44].

Ce rapport met en exergue l’amélioration des performances des SIA, notamment ceux d’aide au diagnostic et souligne la capacité de l’intelligence artificielle à révolutionner la recherche de nouveaux traitements ou encore améliorer la prédiction de l’évolution des épidémies[45]. Le rapport montre à quel point les avancées technologiques peuvent bénéficier aussi bien aux soignants qu’aux patients. S’agissant des professionnels, l’IA générative permettra de réduire les tâches et formalités administratives. Pour les patients, le rapport estime que le potentiel le plus important réside dans le développement des IA générative « NLP »[46] ou traitement du langage naturel pour répondre aux questions d’orientation au sein du système de santé[47].

Pour accélérer la diffusion de l’IA en santé, le rapport identifie deux orientations principales :

– Le premier axe proposé est « le développement des capacités d’interactions des outils à base d’IA en mettant à disposition des données riches de dialogue entre soignants et patients, sinon ces IA ne seront entraînées que sur des données non francophones et dans des systèmes de santés différents »[48] ;

– La seconde orientation stratégique porte sur le développement des capacités de l’IA dans la prévention, le diagnostic et l’accompagnement de l’observance des traitements.

Comment expliquer ce retard relatif de structuration des politiques publiques de recours à l’IA dans les domaines de la prévention et de l’accès aux soins, alors que les outils et les usages se diffusent pourtant de façon extrêmement rapide ? Et que l’importance des enjeux est soulignée par des institutions professionnelles majeures de la réflexion stratégique en santé, comme l’Académie de médecine et le CCNE.

La littérature en science politique s’interroge de longue date sur les leviers qui expliquent qu’un enjeu devienne public, qu’une vérité du moment s’impose à un moment donné sur certains objets pour organiser, dans l’agenda de l’action publique, les différents instruments d’une politique publique capable d’ordonner leur usage. De cette littérature, on peut retenir à gros traits que ce qui motive généralement l’émergence d’un problème public sur l’agenda politique et la structuration des instruments d’une politique à son sujet, c’est l’arrivée à maturité conjointe de trois processus : un corpus suffisant de connaissances qui ordonnent le diagnostic (quel est le problème ?) ; l’alignement des valeurs qui ordonnent son interprétation (en quoi nos principes fondamentaux sont impliqués ?) ; et la structuration des acteurs et des intérêts en jeu (qui porte quelles solutions et pourquoi ?).

S’agissant de l’IA en santé, ces processus arrivent aujourd’hui à maturité. Ordonner une politique publique est donc possible, nécessaire et même urgent.

  Du côté des acteurs et des intérêts en jeu, le constat est que les professionnels eux-mêmes s’emparent du sujet avec un degré d’adhésion singulièrement élevé et des usages variés de plus en plus répandus sur le terrain. Dans un sondage fin 2023 auquel ont répondu 500 médecins français, le think tank Healthcare Data Institute a montré que 70% déclarent se sentir à l’aise pour collaborer avec l’IA dans le soin[49]. Signe de cet intérêt croissant des professionnels de santé, la CSMF a pris position pour que la thématique de l’intelligence artificielle soit intégrée dans le cadre de la négociation conventionnelle récemment conclue avec l’assurance-maladie.

De même, l’écosystème des acteurs de la conception et du développement des outils a acquis très rapidement un degré de maturité. Les pouvoirs publics et les acteurs économiques ont structuré des écosystèmes pilotes comme PariSanté Campus et Future4Care pour accompagner cette dynamique.

Pour l’analyste des politiques publiques, il est surprenant de constater que cette maturité des réseaux d’acteurs – concepteurs, développeurs ou professionnels utilisateurs – n’ait pas eu à ce jour l’effet d’un déclencheur pour structurer concrètement l’action publique dans le domaine du recours pratique à l’IA sur la prévention et l’accès aux soins.

De même, si l’on suit la grille d’analyse des politiques publiques exposée par Bruno Palier, dite des « Trois I »[50] pour « Intérêts » (des acteurs), « Idées » et « Institutions », le décalage relatif que l’on observe dans la mobilisation des acteurs publics institutionnels est paradoxal au regard de la maturité du cadre scientifique des « Idées », c’est-à-dire du référentiel cognitif d’utilisation de l’IA en santé. En effet, le cadre scientifique d’évaluation des bénéfices du recours à l’IA dans le soin est en pleine expansion, avec un socle de connaissances « proof of concept » déjà mûr dans la littérature internationale.

Le cadre d’interprétation scientifique de l’IA en santé est en passe d’être défini et largement partagé sur la valeur cardinale de notre système de soins : la qualité des soins, qui inclut trois dimensions normatives :

  • Leur efficacité d’abord, en termes de résultats cliniques comme le montrent les travaux analytiques précités du CCNE ou de l’Académie nationale de médecine ;
  • Leur bienveillance ensuite, en lien avec les préférences des patients pour un soin empathique. De ce point de vue, il convient de relever l’engagement majeur de France Assos Santé pour soutenir la diffusion des outils numériques et d’intelligence artificielle au service des patients et son engagement pour en assurer la supervision dans de nouveaux cadres de démocratie sanitaire en émergence ;
  • Et ensuite leur efficience, au sens d’une amélioration de la pertinence des soins dans un cadre de contraintes pesant sur les finances publiques.

Sur chacune de ces dimensions fondamentales de la qualité des prises en charge, le recours à l’IA dispose aujourd’hui dans la littérature scientifique internationale de données qui font office de « proof of concept ». Le cadre cognitif d’interprétation arrive à maturité suffisante pour ordonner la construction d’une politique publique dédiée.

La finalisation du cadre normatif de régulation qu’appelle l’usage de l’IA en santé constitue également une brique importante de la construction d’une politique publique. Cette dynamique est, pour autant, encore à relayer et amplifier pour accompagner la conduite du changement par les acteurs de terrain.

En la matière, c’est naturellement l’adoption de l’AI Act européen qui marque la maturité de l’écosystème normatif, on y reviendra plus loin. Les risques qu’il y aurait à ne pas en déduire dès 2024 une politique publique opérationnelle dédiée à l’IA en santé en France sont clairs et documentés. L’IA peut aider à résoudre certains des plus grands défis de la santé, comme l’épuisement du personnel, les menaces futures pour la santé publique, le vieillissement de la population et la complexité croissante des soins due à la multiplicité des maladies chroniques.

Ne pas transformer les principes généraux de régulation en instruments opérationnels de déploiement encadré induit des risques significatifs. Ceux-ci incluent l’aggravation des inégalités numériques et de santé, le développement possiblement anarchique d’usages non-sécurisés de données privées, la perte de confiance des utilisateurs, ou encore un déséquilibre de souveraineté.

Des applications d’IA sur mesure, sans capacité ou intention de se développer à grande échelle (par exemple, en raison d’incompatibilités de système ou de manque de ressources techniques), risquent de créer un ensemble fragmenté d’innovations en IA construites et maintenues par des organisations de santé riches, accessibles uniquement aux segments aisés du public. Des fondations solides et coordonnées au plan des data, des contraintes techniques et des instruments politiques de déploiement sont nécessaires pour libérer de façon qualitative et équitable la valeur ajoutée que l’IA peut offrir pour le système de santé et de maintien en autonomie.

 

1.3 Des inégalités de diffusion déjà constatées

L’absence de structuration d’une politique de mobilisation de l’IA pour soutenir l’accès aux soins induit un risque d’apparition de phénomènes d’inégalités de diffusion de l’innovation. La question reste, en l’état, trop peu étudiée et ne peut être identifiée qu’à l’aune des missions conduites sur le terrain. De ce point de vue, la taille des structures ou la présence en proximité d’un écosystème technologique structuré ne constituent pas nécessairement des gradients cohérents avec le déploiement effectif d’une stratégie de mobilisation de l’IA au service de l’accès aux soins pour les patients.

1.3.1 Inégalités territoriales

En l’état, nous constatons une forte disparité d’appropriation de l’IA en santé selon les territoires. Certaines régions restent à l’écart du mouvement. Dans la plupart des territoires, l’IA se diffuse, à ce stade, plutôt au coup par coup en devenant standard sur certains segments comme l’apprentissage machine par reconnaissance d’image en traumatologie. Dans certains territoires en avance de phase comme l’Aveyron, l’IA peut être utilisée comme un véritable vecteur de structuration de parcours territoriaux de santé par aires thérapeutiques.

Le domaine de la radiologie est particulièrement illustratif de ce constat. Sous l’effet de l’augmentation des besoins en santé en raison du vieillissement de la population et de l’augmentation avec l’âge de l’incidence des pathologies chroniques, le nombre d’examens radiologiques en 2050 sera probablement multiplié par deux. Le conseil professionnel de la radiologie française (G4) évoque « un vrai problème de démographie de la spécialité », qui indique que l’augmentation des effectifs et du nombre de radiologues par habitant ne compense pas la hausse croissante de la demande d’examens.

Ces besoins croissants d’accès aux diagnostics vont encore accroître des disparités territoriales d’ores et déjà préoccupantes selon la Cour des Comptes. Les Atlas de la démographie médicale publiés par l’Ordre des médecins mettent, en effet, en évidence une répartition hétérogène des radiologues ayant pour conséquence un accès inégal aux services de diagnostic radiologique et des zones sous-desservies.

Sources : Cour des Comptes – Rapports sur l’imagerie médicale 2016 et 2022 ; CNOM – Atlas Démographie 2023 En nombre de médecins pour 100 000 habitants (densité moyenne France entière : 9,1 médecins pour 100 000 habitants

Cette situation provoque, en l’état, des niveaux différents de conscientisation par les acteurs de santé de l’intérêt du recours à l’IA. A ce stade, le déploiement sur le terrain de l’intelligence artificielle ne répond à aucun modèle médico-économique normé de déploiement. Cette diffusion est fonction directement de l’engagement des acteurs sur l’innovation, de leur créativité et aussi souvent de la proximité avec des écosystèmes technologiques. La pression de la démographie médicale représente aussi un critère très important de l’intérêt porté à l’IA pour aider à l’accès aux soins. A rebours de l’idée reçue selon laquelle l’IA serait avant tout un sujet de structures « de pointe », l’intelligence artificielle de reconnaissance d’image trouve, en l’état, plus facilement son terrain applicatif dans des zones de sous-densité médicale pour répondre à la demande d’accès aux diagnostics de spécialités.

Mais nous constatons également des disparités dans l’usage avec des pratiques très diversifiées en matière de contrôle humain. Par exemple, dans le domaine de la reconnaissance d’image en traumatologie, des établissements de santé peuvent utiliser l’intelligence artificielle sans aucun contrôle de radiologue.

Si nous ne nous mettons pas rapidement en situation d’homogénéiser les pratiques de recours à l’IA et de standardiser les démarches de contrôle humain à mettre en œuvre, nous risquons de voir ces disparités s’élargir aux autres spécialités requérant un niveau élevé de reconnaissance d’image et caractérisées par des tensions significatives de démographie médicale comme la dermatologie ou l’ophtalmologie.

 

1.3.2 Inégalités selon les revenus

Ces dispositifs sont, dans une très large majorité des cas, non intégrés dans des modèles de remboursement mis à part dans le cadre de financements de projets innovants. Certes, la mobilisation du dispositif de financements expérimentaux dits de l’« article 51 » a pu être utile à la diffusion de solutions d’IA sur le terrain comme dans le domaine du recours à l’intelligence artificielle dans le champ bucco-dentaire. Pour autant, nous ne disposons pas encore de modèle systémique de prise en compte de ces innovations par les financements classiques de solidarité fondant notre système de santé.

Or, devant la pression causée par les inégalités de démographie médicale et les attentes de nos concitoyens en matière d’accès aux soins, le risque est grand de voir, à court terme, se déployer une offre alternative hors champ de solidarité. Un vecteur technologique non solvabilisé par la Sécurité sociale pourrait ainsi voir le jour à partir d’une logique de plateformisation extra-européenne. Il proposerait, moyennant paiement direct et sans remboursement solidaire, la mise à disposition d’une batterie d’algorithmes courants d’IA en santé dans une logique d’auto-diagnostic. Une telle configuration serait naturellement dangereuse : porteuse d’un modèle de désintermédiation par les professionnels de santé, elle ferait courir un risque sur la prise en charge des patients quant à la fiabilité des diagnostics et sans doute surtout quant à la continuité du parcours de prise en charge. Sur le plan économique et social, cette « offre » serait sans doute en partie attractive pour ceux de nos concitoyens disposant des moyens matériels pour souscrire une forme d’abonnement non couverte par la Sécurité sociale. Le contrechoc serait très probablement lourd en termes d’inégalités d’accès à l’innovation et porterait en germe la tentation d’un détricotage des solidarités fondatrices de notre système de santé.

 

1.4 De premières initiatives de structuration dans les domaines de la cybersécurité et l’innovation en santé

« Mettre à l’agenda » des politiques publiques le sujet de l’intelligence artificielle en santé est possible : de premières initiatives sont déjà en cours dans les domaines de la gestion du risque cyber associé à l’IA et de la rénovation des méthodologies d’essais cliniques.

1.4.1 IA et cybersécurité

Dans le domaine de la cybersécurité, nous pouvons constater une mobilisation croissante des pouvoirs publics pour soutenir les efforts d’anticipation, de gestion des risques et de réponses aux crises quand elles surviennent, ce mouvement concernant également le recours à l’intelligence artificielle. Les avancées majeures associées à la diffusion de l’IA en santé sont, en effet, accompagnées de défis en matière de cybersécurité notamment causés par le fait que ces modèles traitent de données médicales, c’est-à-dire sensibles.

Les principaux risques cyber identifiés s’agissant de l’intelligence artificielle sont les suivants :

– La désinformation des patients/professionnels de santé, causée notamment par la génération d’« hallucinations » ou de « confabulation », c’est-à-dire de réponses fausses ou trompeuses présentées comme des faits certains ;

– L’introduction de données biaisées dans le set d’entraînement des algorithmes, menant à des résultats eux-mêmes biaisés ;

– L’attaque des SI médicaux, souvent mal protégés et on-premise, c’est-à-dire hébergés sur site. Ces attaques sont de plus en plus fréquentes et peuvent être menées sous forme de ransomware ;

– La fuite de données/le vol de données médicales, privées et sensibles ;

– La manipulation et la modification des modèles par des personnes tierces ;

– La non-robustesse des SIA médicaux.

  Pour répondre à ces enjeux, des briques de politique publique se mettent en place. Cette thématique peut être ainsi adressée dans le cadre du nouveau plan sur la cybersécurité dans les établissements de santé. Aurélien Rousseau, Ministre de la Santé et de la Prévention, et Jean-Noël Barrot Ministre délégué chargé du Numérique ont présenté ce plan le 18 décembre 2023 au Centre Hospitalier de Versailles, victime d’une cyberattaque lourde en décembre 2022. Ce programme « Cybersécurité accélération et Résilience des Établissements » (Care) doté de 250 M€ jusqu’en 2025 avec un objectif d’investissement total de 750 M€ d’ici 2027 décline ainsi 20 objectifs selon 4 axes : gouvernance et résilience ; ressources et mutualisation ; sensibilisation ; sécurité opérationnelle. Aux côtés du ministère chargé de la Santé, l’Agence nationale de la sécurité des systèmes d’information (ANSSI) est appelée à jouer un rôle déterminant dans l’appui à la mise en œuvre de ce plan.

Des dispositions spécifiques sont, en outre, prévues par l’AI Act européen s’agissant de la cybersécurité des systèmes d’IA à hauts risques : l’article 9 (“Risk-management system”) et l’article 15 (“Accuracy robustness and cybersecurity”).

En application de ces dispositions, des mesures techniques et organisationnelles doivent être mises en œuvre pour garantir la résilience face aux erreurs, aux défauts ou aux incohérences qui peuvent survenir au sein du système ou de l’environnement dans lequel le système fonctionne. Les systèmes à haut risque doivent être résilients aux tentatives d’altération de leurs utilisations, comportements, sorties ou performances par des parties tierces exploitant leurs vulnérabilités.

Les systèmes à apprentissages continus doivent, par ailleurs, être déployés de telle sorte que :

– Des résultats potentiellement biaisés ne puissent influencer des données d’entrée pour de futures opérations ;

– Des données d’entrée ne puissent être manipulées de façon malveillante et utilisées pour l’apprentissage des modèles pendant l’opération.

Les solutions techniques visant à remédier aux vulnérabilités propres à l’IA doivent comprendre des mesures pour prévoir, détecter, résoudre et contrôler des problématiques d’empoisonnement des données (data poisoning), d’empoisonnement du modèle (model poisoning), d’exemples adverses ou d’évasion du modèle (adversarial examples or model evasion), d’attaques de confidentialité ou de failles du modèle.

 

1.4.2 IA et innovation en santé

Cette mobilisation plutôt récente sur la cybersécurité est intervenue pour l’essentiel après la survenue de crises majeures ayant touché principalement des établissements de santé. Cette aptitude de notre système de santé à répondre aux crises est, en effet, bien documentée par la littérature d’analyse des politiques publiques. Dans son appréhension plus globale sur les enjeux de prévention et d’accès aux soins, le champ de l’IA en santé se prête, cependant, mal à une telle attitude de construction « à réaction » des stratégies publiques.

Ce domaine requiert en effet de l’anticipation, de la vision stratégique à moyen terme et une évaluation continue et précise des effets du déploiement de l’innovation pour notre système de santé. La création de l’Agence de l’innovation en santé (AIS) en 2022 traduit, à cet égard, un effort clair de structuration d’un domaine de politique publique – l’innovation en santé – avec un opérateur identifié sous l’impulsion du Dr Lise Alter, des moyens dédiés dans le cadre du plan France Innovation Santé 2030[51] et une formulation lisible d’objectifs de politique publique.

Comme on le verra, cette approche est déjà avancée s’agissant de la révolution des méthodologies d’essais cliniques par l’IA. Elle montre le potentiel associé à l’engagement d’une démarche de même ordre plus focalisée sur l’IA en matière d’appui à la prévention, d’aide à l’accès aux soins et plus largement de recomposition de notre système de santé.

Cet exemple montre que la France sait aussi se mobiliser pour structurer des domaines de politique publique en bonne intelligence avec les acteurs du système de santé et les concepteurs d’innovation. Pour autant, l’extrapolation de cette approche en termes de politique publique cohérente pour l’ensemble du domaine de l’IA en santé reste loin d’être acquise. Or, dans un contexte de compétition mondialisée sur l’intelligence artificielle, attendre une prochaine crise pour agir reviendrait à coup sûr à faire courir à la France le risque d’un déclassement.

 

2.  Trois stimuli majeurs pour structurer une politique publique de l’IA pour la prévention et l’accès à la santé

2.1 Des gains majeurs de santé publique à portée de main

Cette percée majeure de l’IA en santé constitue pour les professionnels et pour les patients une opportunité sans précédent de gains de santé publique.

L’IA apporte des bénéfices considérables pour les patients, pour les professionnels de santé, pour le système de santé en matière de prévention, d’accès aux soins. C’est aussi une réponse à la désertification médicale dans certaines zones et sur certaines spécialités, et aux grands enjeux de santé publique des prochaines années.

Ce moment d’accélération ouvre ainsi des potentialités nouvelles d’accès plus précoce aux diagnostics de spécialités. Une vraie révolution dans la prévention du cancer du sein est ainsi à portée de main avec la mise au point de systèmes opérationnels d’interprétation des mammographies.

Les applications de l’IA en santé se retrouvent sur l’ensemble des « segments » de la politique de santé. Les études scientifiques réalisées mais aussi les premières expérimentations conduites sur le terrain ont permis de produire un corpus de connaissances – académiques et pratiques – qui est à maturité pour montrer que l’intelligence artificielle peut réellement changer la donne.

L’IA enrichit d’ores et déjà l’action publique en santé sur les quatre grands axes qui la fondent aujourd’hui (tels que structurés par exemple dans la stratégie nationale de santé 2018–2022[52]) : le renforcement de la prévention ; la lutte contre les inégalités sociales et territoriales d’accès aux soins ; la qualité, la sécurité et la pertinence des prises en charge à chaque étape d’un parcours coordonné et où le temps médical est mieux préservé ; et enfin le renforcement innovant de la place des usagers au cœur de leur santé. 

L’IA peut ainsi apporter un gain majeur pour la santé des femmes aussi bien d’un point de vue de la recherche médicale que des parcours de santé. En effet, de nombreuses solutions sont développées dans le champ de la santé reproductive, la santé sexuelle, la prise en charge et la meilleure connaissance de maladies chroniques comme l’endométriose, mais également le suivi de la maternité et du post partum ou encore l’oncologie. Ces domaines de déploiement de l’IA sont essentiels en matière de santé publique et peuvent permettre de rattraper le retard existant en matière de santé des femmes dans le cadre d’un écosystème FemTech France[53] en structuration rapide.

 

2.1.1 Quand l’IA révolutionne l’oncologie

Le domaine de l’oncologie constitue l’un des champs les plus avancés dans le recours à l’intelligence artificielle. Le niveau d’opérationnalité technologique des solutions, les avancées en cours et à venir sur les terrains de la recherche, de la prévention et du soin mais aussi la capacité très forte de l’écosystème – établissements de santé et professionnels, industriels et concepteurs d’innovations mais aussi associations de patients – à se fédérer montrent à quel point ces opportunités majeures pour les patients et les professionnels de santé ne peuvent être laissées de côté.

Comme l’ont, en particulier, bien montré les travaux dédiés à l’intelligence artificielle menés dans le cadre de la Convention nationale d’Unicancer 2023[54], l’intelligence artificielle est d’ores et déjà une réalité en oncologie. Les outils de reconnaissance d’image sont déjà fortement développés pour l’interprétation des mammographies, le dépistage du cancer du côlon ou, en dermatologie, du mélanome et du carcinome. En radiothérapie, les outils d’aide au contourage des rayons deviennent désormais standard pour mieux cibler les zones tumorales.

Par ailleurs, les Centres de lutte contre le cancer ont déjà structuré des bases de données essentielles – comme ConSoRe[55] – pour l’entraînement des modèles d’intelligence artificielle à des fins de recherche, de prévention et d’appui à la prise en charge des patients. Ces démarches ont trouvé leur prolongement avec la labellisation de l’entrepôt national d’ONCO-DS[56] dans le cadre de l’appel à projets national déclenché sur les entrepôts de données de santé.

Dans le domaine du pilotage par les données pour améliorer la vie quotidienne des patients, les premiers outils émergent avec, par exemple, l’admission au remboursement par la Sécurité sociale en octobre 2023 de Résilience, dispositif d’aide suivi des chimiothérapies.

L’IA générative ouvre également de nouvelles perspectives dans l’aide à la réponse aux questions des patients et des proches aidants ou encore dans l’observance des traitements et la synthèse des dossiers médicaux pour les professionnels.

Pour capter ces gains majeurs de santé publique, l’oncologie a également su se mobiliser pour structurer un écosystème original rassemblant l’ensemble des acteurs industriels en articulation avec les centres de lutte contre le cancer et l’Institut national du Cancer (INCa) : la Filière intelligence artificielle et Cancer (FIAC). Fruit de deux ans de collaboration entre l’Alliance pour la Recherche et l’Innovation des Industries de Santé (ARIIS) et l’INCa, la création de la FIAC est à ce jour l’une des plus importantes concrétisations du Programme « Intelligence Artificielle et Santé » issu du Contrat Stratégique de Filière des Industries et Technologies de Santé (CSF-ITS)[57].

L’exemple du dépistage du cancer du sein montre que ce potentiel majeur du recours à l’IA dans le domaine de la prévention et de la santé publique ne peut être appréhendé que si l’on pense de façon concomitante la construction de l’innovation et les modalités organisationnelles et pratiques de son déploiement. Dans ce secteur, l’innovation technologique en intelligence artificielle est maintenant portée depuis plusieurs années. La France a été présente fortement dans cette matière avec de nombreux travaux scientifiques et l’élaboration de solutions compétitives au plan mondial comme celle développée par la start-up Therapixel.

Pour autant, la question du déploiement pratique dans le parcours de dépistage de ces systèmes d’IA de reconnaissance de mammographies avait été peu analysée jusqu’ici. La publication récente d’une étude sur des données danoises montre l’importance essentielle du choix des paramètres du protocole de déploiement du système d’intelligence artificielle.

L’importance du protocole de déploiement et des modalités organisationnelles pour diffuser l’IA en matière de santé publique : l’exemple du dépistage du cancer du sein

Cette étude d’Andreas Lauritzen et al.[58] vise à comparer les modalités d’organisation et les performances en matière de dépistage du cancer du sein selon que celui-ci a intégré ou non un système d’IA de reconnaissance des mammographies. L’étude porte sur 60 751 et 58 246 femmes de 50 à 69 ans vivant au Danemark ayant connu un dépistage mammographique bisannuel avant et après la mise en place d’un système d’IA.

Le système d’IA (SIA) utilisé est déjà commercialisé et nommé “Transpara” (V1.7.1 ; ScreenPoint Medical). Il s’agit d’un modèle d’apprentissage profond de type deep learning entraîné sur des données européennes et américaines mais sur aucune donnée danoise. Sa fonction est de mettre en évidence des lésions profondes et des calcifications suspectes dans les mammographies. L’outil va générer un score allant de 1 à 10 (10 étant le seuil maximal déterminant le plus haut niveau de probabilité de détection d’un cancer du sein) permettant de stratifier un niveau de risque déterminant un niveau de probabilité de cancer du sein. Les mammographies ont été lues conformément aux exigences européennes[59] par une équipe de 21 radiologues plus ou moins expérimentés.

Antérieurement à la mise en œuvre de l’IA, le processus de dépistage relevait d’une double lecture par deux radiologues indépendants, le dernier lecteur était toujours un radiologue senior. A l’issue du diagnostic, soit un rappel était formulé, soit une réunion des radiologues lecteurs étaient organisées afin de déterminer la meilleure décision médicale.

Postérieurement à l’utilisation du système d’IA, la procédure de dépistage évolue. La radiographie fait l’objet d’une première lecture par l’IA qui accorde un score de risque. Si ce dernier est de 5 ou inférieur à 5, le dépistage est lu en seconde lecture par l’un des radiologues principaux. Si celui-ci estime un rappel nécessaire alors il devra se réunir avec les autres radiologues pour prendre une décision. Le 3 mai 2022, le chiffre du score change de 5 à 7, la procédure reste quant à elle inchangée. Les examens restants, c’est-à-dire supérieurs à 5 avant le 3 mai 2022 puis supérieurs à 7, font l’objet d’une double lecture toujours avec aide à la décision du SIA.

L’étude montre que l’utilisation de l’IA dans ce programme danois dans le cadre d’un dépistage mammographique en population a permis de réduire la charge de travail des radiologues liée à la lecture de 33,5%. L’IA a également permis d’améliorer la qualité du dépistage lui-même avec un taux de rappel diminué de 20,5%. Le taux de détection du cancer a augmenté passant à 0,82% contre 0,70% avant l’IA. Le taux de faux positif a été ramené de 2,39% avant recours à l’IA à 1,63%. La valeur prédictive positive est plus élevée avec l’IA, passant de 22,6% avant recours à l’IA à 33,6% après.

L’étude souligne, cependant, des limites méthodologiques importantes comme les impacts distorsifs de la période du Covid-19 dans l’accès au dépistage ou encore les effets d’adaptation des diligences des radiologues aux protocoles avec ou sans IA.

 

2.1.2 L’IA et l’innovation thérapeutique

L’intelligence artificielle ouvre, par ailleurs, des perspectives considérables d’accélération de l’innovation thérapeutique en France et en Europe

Au stade amont, la percée de l’IA générative permet de franchir une étape très importante dans l’identification et la synthèse des publications médicales et scientifiques.

IA générative et synthèse des publications scientifiques

Les progrès de l’IA générative (principalement via les nouveaux LLMs de type GPT-4 ou GPT-4o) vont radicalement changer la manière d’analyser les publications scientifiques. Pour rappel, ces modèles excellent dans l’analyse, la compréhension, la génération et la synthèse du langage naturel à une échelle et une précision qui dépassent l’humain. L’IA générative (IAG) permet un meilleur accès à la connaissance pour les chercheurs. Elle ouvre également la voie à l’analyse de vastes quantités de données pour extraire des tendances, générer des résumés précis mais également pour suggérer de nouvelles pistes de recherche basées sur un large panel de publications. 

L’intégration de l’IAG dans la recherche académique présente donc des avantages considérables, tels que :

– Une réduction significative du temps consacré à la recherche documentaire et à la rédaction ;

– Une amélioration de la qualité des publications ;  

– Une traduction automatique des articles.

Néanmoins, certaines problématiques éthiques telles que la génération d’hallucinations, la présence et l’amplification de biais, ou encore le respect des droits d’auteurs sont à prendre en considération. L’adoption de l’IAG peut être vue comme une révolution dans l’analyse des publications scientifiques, offrant des outils puissants pour la synthèse de l’information et la génération de nouvelles connaissances. Néanmoins, cette adoption doit être accompagnée d’une régulation forte et d’une réflexion sur ses implications éthiques.

L’IA révolutionne la chaîne de production des médicaments et des dispositifs médicaux en permettant de réaliser virtuellement – in silico – les premières étapes de l’innovation thérapeutique. Le déploiement sur une large échelle de ces nouveaux outils va profondément transformer les modèles de mise en œuvre des essais cliniques, accélérer l’innovation et induire potentiellement d’importantes économies d’échelle dans un contexte dans lequel notre système de santé éprouve de plus en plus de difficultés à financer et rendre accessibles les thérapeutiques nouvelles.

Données artificielles, essais cliniques in silico, jumeaux numériques : l’IA comme catalyseur de l’innovation thérapeutique

Faire plus et mieux : cette promesse de l’IA appliquée au domaine de la santé revêt différentes formes. En particulier, les données de santé artificielles offrent des perspectives inédites, avec la possibilité de gagner en puissance, de réaliser plus de tests, dans un contexte plus sécurisé et ainsi de contribuer à développer de nouveaux traitements efficaces, sûrs et utiles aux patients.

Dans son rapport précité sur l’IA générative en santé, l’Académie nationale de médecine relève l’apport de cette technologie dans la découverte conventionnelle des médicaments[60] mais surtout dans l’optimisation des fonctions-supports du secteur pharmaceutique. Pour rappel, on estime que le développement d’un médicament prend au minimum 12 ans avec un coût de 1 à 3 milliards. Dans ce secteur, l’IA générative doit pouvoir accélérer la génération de molécules, grâce à l’utilisation de réseaux antagonistes génératifs (GAN), de réseaux de neurones récurrents (RNN) et des réseaux de neurones graphiques (GNN). Le gain de productivité par rapport au temps nécessaire jusqu’à maintenant à un chimiste est estimé à 50% pour la phase de conception et un peu moins pour les phases ultérieures de développement. Les SIAgen peuvent également aider à prédire les interactions potentiellement dangereuses entre médicaments.[61]

Le Livre Blanc sur les données artificielles en santé, publié le 30 avril 2024 et coordonné par le Dr Jean-Louis FRAYSSE et le Pr Stéphanie ALLASSONNIERE[62] explore les nouvelles perspectives offertes par l’intelligence artificielle (IA) dans le vaste champ des données artificielles. Ce document essentiel pour clarifier le débat sur ces question détaille les enjeux et les perspectives qu’offre l’utilisation des cohortes de patients artificiels dans les essais cliniques. Concrètement, demain, des patients « artificiels » pourront être créés sur la base des données cliniques existantes, recueillies dans le cadre du soin ou de recherches précédentes. L’enjeu de ces « patients artificiels » est d’optimiser la conduite des essais clinique en limitant et simplifiant les besoins de recrutement de patients, tout en garantissant la sécurité́ et le niveau de preuve de ces essais. Après avoir détaillé les fondements et justifications scientifiques de l’élaboration de ces données de santé dites artificielles, à savoir l’augmentation de données conventionnelles, le Livre Blanc retrace les usages attendus de ces cohortes de patients artificiels, notamment dans le cadre de la recherche clinique pour renforcer la puissance d’un essai clinique et lui permettre de conclure par exemple. Ces outils de génération de cohortes de patients artificiels sont en cours de validation pour leur usage en recherche clinique, même si la preuve de concept de son utilisation a bien été faite et précisée dans un chapitre de ce livre blanc.

La mobilisation de ces outils requiert des garanties de sécurité pour les patients et les usagers, tant au niveau de la protection des données que sur les garanties de confiance pour les produits de santé développés à l’aide de données artificielles (la génération de données artificielles est un exemple d’utilisation secondaire des données de santé collectées lors des prises en charge des patients). En rassemblant des acteurs publics et privés de divers secteurs, ce livre blanc vise à promouvoir l’innovation en santé et à renforcer la compétitivité de la France et de l’Europe dans ce domaine.

Un essai clinique in silico désigne une méthode de recherche biomédicale utilisant la modélisation informatique et la simulation pour étudier les processus biologiques et les effets de médicaments. Plutôt que de mener des expérimentations sur des êtres humains ou des animaux, les essais in silico s’appuient sur des modèles informatiques complexes pour simuler la réponse du corps humain aux différentes substances. Ces essais ont plusieurs avantages. Premièrement, ils réduisent la nécessité de tests sur des animaux ou des humains, ce qui est à la fois éthique et pratique. Deuxièmement, ils peuvent être plus rapides et moins coûteux que les essais cliniques traditionnels. Enfin, ils permettent de tester des hypothèses sur de larges populations virtuelles, qui seraient difficiles à réunir dans la réalité.

Les jumeaux numériques, des répliques virtuelles de systèmes biologiques ou de patients individuels, constituent une autre avancée révolutionnaire propulsée par l’IA. En créant des modèles numériques précis de patients, les chercheurs peuvent personnaliser les traitements et prédire les réponses aux thérapies avec une précision inédite.

Ces innovations permettent non seulement d’optimiser le parcours de soins pour chaque patient, mais aussi de faciliter une médecine de précision qui s’adapte aux particularités génétiques et physiologiques individuelles.

A rebours du constat général sur un certain retard de conception des politiques publiques en matière d’IA, ce vaste champ de la rénovation des méthodologies d’essais cliniques fait l’objet d’une initiative portée l’Agence de l’Innovation en Santé avec F-CRIN[63] dans le cadre des orientations du plan Innovation Santé 2030. Les premières conclusions de ces travaux présentés au mois de mai 2024 et lors de la journée nationale organisée à Lille le 24 juin par l’AIS et F-CRIN[64] montrent que des perspectives fortes de structuration des synergies action publique / initiatives privées peuvent émerger à court terme.

 

2.2 Une course contre la montre pour éviter une perte de souveraineté et de maître du système de santé : vers un « Netflix de l’IA en santé » ?

L’intelligence artificielle transforme donc d’ores et déjà en profondeur notre système de santé. Le non-déploiement de ces dispositifs d’IA induit a contrario des pertes de chances dans l’accès aux soins mais aussi dans la diffusion de l’innovation dans le système de santé. Ce constat du risque éthique pour les professionnels et les patients associé à un retard de diffusion de l’intelligence artificielle avait été porté par le Comité consultatif national d’éthique dès son avis 129 de 2018 et réitéré dans son avis 141 de 2023 précité et émis conjointement avec le Comité consultatif national pilote d’éthique du numérique. Ces enjeux restent encore sous-jacents aujourd’hui mais sont appelés à devenir de plus en plus visibles.

Par ailleurs, le numérique rend plus poreux entre eux les systèmes de santé, et nos concitoyens ont de moins en moins de réticences à se tourner vers des outils numériques conçus hors de nos frontières. Pour prévenir ce risque d’apparition d’un « Netflix de l’IA en santé », source de désintermédiation par les professionnels de santé, il est urgent de développer des outils d’IA dans un contexte de souveraineté numérique française et européenne.

A cet égard, le potentiel d’applications de nouvelles solutions d’IA générative pour synthétiser les dossiers patients représente sans doute un enjeu clé dans l’année qui vient. En effet, des solutions d’IA arrivent à maturité pour synthétiser ces ensembles de documents et données sur le parcours du patient pour faire gagner du temps aux professionnels de santé et les accompagner dans leurs décisions de prise en charge. La maîtrise de ces systèmes d’IA applicables aux dossiers patients informatisés (DPI) des établissements de santé ou en ville et – plus encore – des dossiers constitués au plan national comme le dossier pharmaceutique (DP) porté par l’Ordre des Pharmaciens et le DMP doit pouvoir constituer une priorité urgente et partagée d’une future politique publique de l’IA en santé. L’exemple du dispositif « DALVIA » récemment présenté par La Poste Santé & Autonomie montre que des initiatives françaises fortes existent déjà en ce sens.  

IA générative et souveraineté numérique : l’exemple du projet Dalvia de La Poste Santé & Autonomie pour synthétiser le dossier médical du patient

En collaboration avec des acteurs français tels que Mistral AI et le cloud de confiance NumSpot, Dalvia Santé a pour ambition de contribuer à l’amélioration des soins en redonnant du temps médical aux professionnels de santé. Actuellement en test au sein d’établissements de santé, la solution sera distribuée par La Poste Santé & Autonomie à compter de septembre 2024. Dalvia Santé est conçue pour aider les professionnels de santé à optimiser leur organisation et à regagner du temps médical à consacrer à leurs patients.

Les premiers tests réalisés en situation réelle dans des hôpitaux permettent d’estimer un gain de temps supérieur à 1 heure par jour et par médecin. La solution d’IA générative permet d’accéder plus rapidement aux informations médicales du patient et de préparer la synthèse des informations nécessaires à la coordination des soins en produisant des documents types, tels que la lettre de liaison, pour le médecin adresseur par exemple lors de la sortie du patient de l’hôpital. Le choix a été fait d’intégrer nativement un dispositif de garantie humaine et de conformité AI Act européen construit dans le cadre de la démarche de labellisation par Ethik-IA et le Digital Médical Hub.

 

2.3 Un cadre juridique désormais propice à un déploiement de solutions d’IA de confiance

La finalisation du nouveau Règlement européen sur l’IA – l’AI Act – constitue une étape majeure pour la diffusion de l’IA en santé en France et en Europe.

Ce texte est assorti d’un cadre de régulation global pour l’ensemble des systèmes d’IA quels que soient leurs domaines d’application. Il emporte une série d’obligations – assorties d’un niveau de sanctions financières équivalentes à celles du RGPD – graduées en fonction du niveau de risque des systèmes, classifiés selon leur domaine sectoriel d’application.

Ce projet de règlement de l’Union européenne sur l’intelligence artificielle a pour objectif d’établir des règles harmonisées sur l’intelligence artificielle au sein de l’Union et de faire de l’Europe un précurseur en termes de régulation de l’IA sans toutefois freiner l’innovation.

L’approche privilégiée a été de fonder les exigences sur le niveau de risque engendré par les systèmes d’IA pour la santé, la sécurité ou les droits fondamentaux. Elle prévoit donc quatre niveaux de risque : inacceptable, haut risque, risque limité et risque minime. Les principales exigences du règlement concernent les systèmes d’IA à haut risque, parmi lesquels figure notamment la santé, avec des sanctions associées pouvant aller de 1 à 7% du chiffre d’affaires annuel mondial.

Le Chapitre 2 du titre III inclut des exigences qui devront être respectées par les fournisseurs et utilisateurs de ces systèmes, qui concernent :

– Un système de gestion des risques et de la qualité

– Les données et la gouvernance des données

– Une documentation technique précise

– Un enregistrement des journaux (Record-keeping)

– La transparence et la fourniture d’information

– Le contrôle humain

– La cybersécurité, la robustesse et l’exactitude

Dans cette logique essentielle de qualité et gestion des risques associés à l’intelligence artificielle, la reconnaissance du principe de contrôle humain ou de garantie humaine de l’IA se situe en cohérence avec le cadre déjà introduit en France par la loi de bioéthique d’août 2021.

La Garantie Humaine de l’IA

Pour rappel, dans le champ de la santé, cette obligation de conformité en Garantie Humaine est recommandée depuis 2018 par le Comité consultatif national d’éthique[65], notion inscrite à l’article 17 de la loi de bioéthique du 2 août 2021 (Loi n°2021–1017), ainsi que dans les recommandations de l’OMS de 2021 sur l’éthique et la gouvernance de l’intelligence artificielle[66]. Ce principe a également fait l’objet de nombreux travaux de la part de la Société française de santé digitale (SFSD).

Ce principe de Garantie Humaine a également été repris aux articles 14 et 26 du Règlement européen sur l’IA. L’article 14 du projet implique pour les fournisseurs de systèmes d’IA à haut risque de mettre en œuvre des mesures de contrôle humain dès la conception, afin de permettre une mise en application en vie réelle par les utilisateurs de la solution suite à la mise sur le marché ou la mise en service du système. L’article 26 du projet, qui fait partie du chapitre 3 « Obligations incombant aux fournisseurs et utilisateurs de systèmes d’IA à haut risque et à d’autres parties », concerne les obligations des utilisateurs de systèmes d’IA, qui utilisent les ressources fournies par les fournisseurs pour assurer la conformité du système et son bon fonctionnement après la mise en service ou la mise sur le marché́ du système. Les utilisateurs doivent par ailleurs s’assurer que le contrôle humain sera confié à des personnes ayant les compétences, la formation, l’autorité et les ressources nécessaires à cette fin.

S’agissant de l’IA générative, l’approche retenue a permis un compromis entre les différentes propositions, en distinguant deux niveaux pour les modèles de fondation et les GPAI. Les modèles emportant des risques systémiques (notamment dépassant un seuil de 10^25 FLOPS[67]) intégreront des obligations supplémentaires (évaluation des risques systémiques, cybersécurité et environnement, codes de bonnes pratiques, transparence…) et les seuils pour les systèmes d’IA génératives dans lesquels ils seront intégrés seront relatifs au nombre d’utilisateurs finaux européens. Pour les systèmes « low tier », les obligations seront bien plus légères. Les systèmes en open source[68] et la R&D sont quant à eux exclus de la règlementation.

  Le Trilogue a également permis de trouver un compromis quant au calendrier : une entrée en application progressive entre 6 et 36 mois :

  • 6 mois pour les cas d’usage prohibés
  • 12 mois pour les modèles de fondation et l’IA générative
  • 24 mois pour les exigences des systèmes à haut risque
  • 36 mois pour les réglementations d’harmonisation

Dès 2024, les initiatives de compliance volontaire dans une logique de qualité et gestion des risques sont encouragées. Le co-rapporteur Brando Benifei a ainsi affirmé lors de la conférence de presse clôturant le Trilogue : « We will work on voluntary compliance, and we encourage everyone to start respecting the rules in a gradual way, this will be the big work of 2024 ».

Un cadre de régulation de l’IA a également été posé aux Etats-Unis avec, sur le fond, une convergence assez forte avec l’Europe sur la reconnaissance d’une obligation de supervision humaine des systèmes d’intelligence artificielle. A ce stade, il convient donc de sortir de l’idée que l’Europe aurait « surréglementé » l’IA en santé : c’est plutôt une convergence transatlantique qui se dégage au plan juridique. A la suite des opinions de régulation précédemment émises depuis 2021 par la FDA exigeant une supervision humaine (Human Oversight) des systèmes d’IA, l’Executive Order publié par le Président Biden à la fin du mois d’octobre 2023 établit dans son principe et ses modalités un cadre de régulation au moins aussi contraignant que le règlement européen sur l’IA[69]. Ce texte – de portée globale pour l’ensemble des champs applicatifs de l’IA – demande au « Secretary of HHS »[70] d’établir une task force mettant en œuvre un plan stratégique pour une utilisation responsable de l’IA dans la santé et les services sociaux. Cette démarche doit intégrer la prise en compte d’un contrôle humain approprié des résultats de l’IA.

Pour autant, il convient naturellement de relever que s’il y a bien convergence sur le fond des mesures de régulation, la portée juridique des cadres posés pour la régulation de l’IA en santé dans l’Union européenne et aux Etats-Unis n’est pas la même. En effet, alors que le règlement européen s’impose – sans mesures applicatives nationales complémentaires – aux lois nationales dans l’UE et ne peut être modifié que selon le processus législatif communautaire, ce qu’un Executive Order a fait aux Etats-Unis, un autre Executive Order peut le défaire. Dans ce domaine comme bien sûr dans beaucoup d’autres, il conviendra donc de suivre avec la plus grande attention les résultats des échéances électorales américaines du mois de novembre 2024.

 

3. L’urgence d’une politique publique de déploiement d’une IA de confiance pour la prévention et à l’accès à la santé

Dans un contexte de demandes fortes de nos concitoyens en matière d’accès aux soins, la diffusion de l’intelligence artificielle ne constituera naturellement pas une réponse globale à toutes les préoccupations. Elle peut, cependant, constituer un adjuvant utile pour renforcer les démarches de prévention, accélérer l’innovation thérapeutique ou encore faciliter l’accès aux diagnostics de spécialités, en particulier dans la ruralité ou dans les quartiers urbains en difficulté.

La pression de la demande d’usages, dans un contexte de recours de plus en large au numérique dans les différents domaines de la vie économie et sociale et de porosité plus grande des systèmes de santé entre eux sous l’effet de la digitalisation, risque pourtant de conduire à une diffusion non maîtrisée de ces outils. Un tel mouvement, assorti de problématiques médicales potentielles évidentes, se doublerait de risques de perte de souveraineté numérique pour notre système de santé et d’un approfondissement des inégalités d’accès à l’innovation (selon les territoires et selon les revenus).

La structuration d’une politique de santé en faveur de l’intégration et du déploiement rapides de dispositifs d’IA de confiance, prenant en compte les enjeux de santé publique et médico-économiques, apparaît donc comme un impératif dont l’urgence se fait de plus en plus ressentir en cette année 2024. Tout ne pourra bien sûr pas se faire du jour au lendemain dans un domaine requérant une combinatoire d’actions opérationnelles et de vision stratégique pour l’avenir de notre système de santé et d’autonomie. A cet égard, il convient donc de distinguer entre les leviers d’action à court et à moyen terme. Par ailleurs, il importe d’insister, dans un contexte de changements si rapides, sur l’importance d’une veille technologique en continu sur les avancées de l’IA en santé.

 

3.1 Leviers d’action à court terme : donner une impulsion forte pour accélérer l’entrée de l’IA dans le réel de l’accessibilité des soins

 

  • Donner une impulsion politique pour la diffusion de l’IA en santé

Nous l’avons vu, les changements à l’œuvre liés à la diffusion de l’intelligence artificielle au sein de notre système de santé et d’autonomie sont d’ores et déjà considérables et vont continuer à s’accélérer. Ces évolutions se sont, pour l’essentiel, opérées jusqu’ici dans une logique bottom-up, c’est-à-dire à partir du terrain. Ce faisant, cette dynamique est source de créativité dans l’appropriation de ces outils par les acteurs du système de santé. Pour tenter de conjurer les risques d’une diffusion non maîtrisée, chercher à substituer à cette logique un schéma top-down constituerait très probablement une erreur. Tout se passe, en l’état, comme si la question de l’IA d’accès aux soins avait été appropriée d’abord par les acteurs de terrain puis par certaines agences régionales de santé en avance de phase[71] avant maintenant de remonter vers le niveau national. Le ministère de la Santé a, par ailleurs, fait évoluer sa structuration sur le numérique en identifiant un portage politique de ces sujets relatifs à l’IA et à l’accès aux soins par un pilote du numérique auprès de la direction générale de l’offre de soins (DGOS) et en concentrant les moyens de mise en œuvre opérationnelle au sein de la délégation pour le numérique en santé (DNS).

Dans ce contexte et au regard de l’ampleur majeure des enjeux en cause, la structuration d’une politique publique de l’IA en santé gagnerait sans doute à se déployer dans le cadre d’un lieu de portage original, associant pouvoirs publics (représentant le niveau national et les ARS), représentants des patients, acteurs de santé et représentants des innovateurs en IA. La présence dans cette instance des acteurs de la prévention, de la couverture du risque et de l’assurabilité du recours aux systèmes d’IA revêt bien sûr une importance particulière. En outre, la participation de représentants des collectivités territoriales – et notamment des Régions en tant qu’acteurs de la recherche et de l’innovation numérique et des Départements sur les politiques d’autonomie – présenterait un intérêt pour faire émerger et relayer les initiatives du terrain. 

Évidemment, l’objectif ne doit pas être ici d’établir une couche de plus dans l’administration déjà complexe du numérique en santé mais plutôt de s’organiser collectivement en mode gestion de projet pour remporter le contre-la-montre de la compétition mondialisée sur l’IA en santé. La constitution d’un Conseil stratégique de l’IA en santé, présidé par le ou la Ministre chargé de la Santé, doté d’une lettre de mission interministérielle et s’appuyant sur une task-force légère mobilisant la DGOS et les équipes de la DNS pourrait constituer une formule appropriée.

Proposition 1 :

Constituer un Conseil stratégique de l’IA en santé associant pouvoirs publics, représentants des patients, acteurs de santé et représentants des innovateurs en IA pour structurer la politique publique d’accompagnement de la diffusion de cette technologie sans brider les initiatives de terrain

  • Observer et documenter la diffusion du recours aux systèmes d’IA comme levier de prévention et d’accès aux soins dans une logique de responsabilité populationnelle[72]

L’ANAP (Agence nationale d’appui à la performance des établissements de santé et médico-sociaux) a été l’une des premières institutions à proposer et diffuser une liste concrète des différents outils d’IA pour la santé, classés en différentes catégories d’usages potentiels. Ce recensement permet aux acteurs de santé de disposer d’un panorama des outils d’IA[73].

L’accélération très rapide de la diffusion de la technologie nécessite, en outre, la mobilisation d’outils de veille permanente. De ce point de vue, la plateforme de veille du recours à l’IA constitué dans le cadre des travaux du think tank Heath&Tech[74], porté par Care Insight, constitue un outil de suivi très précieux.

Pour autant, ces démarches gagneraient à être complétées par la constitution d’un observatoire de la diffusion du recours à l’IA dans des logiques territorialisées de déploiement de programmes pilotes de prévention et de nouvelles initiatives en matière d’accessibilité des soins. Les moyens publics d’observation des politiques de santé doivent pouvoir être mobilisés à cette fin. Un bilan au moins annuel de la diffusion de l’IA pour l’accès aux soins serait présenté par ce futur observatoire devant le Conseil stratégique de l’IA en santé.

Proposition 2 :

Établir un Observatoire de la diffusion de l’IA pour la prévention et l’accès aux soins permettant de réunir le matériau de suivi sur la diffusion des cas d’usage et ses effets dans une logique de responsabilité populationnelle en santé. Cet Observatoire intégrerait une forte dimension médico-économique à ses travaux pour dresser et actualiser le bilan des effets de la diffusion de l’IA au sein de notre système de santé et d’autonomie.

  • Définir dans le cadre de la prochaine LFSS un modèle médico-économique durable pour la diffusion de l’IA en santé et faire émerger les premiers parcours territoriaux de santé mobilisant le recours à l’IA

  Des moyens très significatifs sont d’ores et déjà mobilisés pour soutenir l’effort d’innovation et de R&D des systèmes d’IA. Cette démarche doit bien sûr être poursuivie et approfondie dans un cadre français et européen.

Une fois développés, labellisés et mis sur le marché, les outils d’IA ne nécessiteront pas nécessairement un apport systématique d’argent public complémentaire pour soutenir leur diffusion. Pour autant, des éléments de cadrage doivent pouvoir être établis pour créer les conditions d’un modèle médico-économique durable pour la diffusion de ces outils. Dans un contexte de tensions fortes sur les finances publiques en général et les finances sociales en particulier, trois cas de figure sont, en effet, sans doute à distinguer :

L’IA génératrice de retours sur investissement directs sur l’administration et le pilotage du système de santé (portant notamment sur les fonctions-supports du système de santé comme l’IA d’appui à l’automatisation des admissions des patients, l’IA d’aide au codage des actes médicaux ou encore l’IA d’aide à l’optimisation des fonctions de documentation, de signalement ou de gestion des dossiers d’autorisations d’activités par les agences régionales de santé) pour lesquels les gains d’efficience doivent permettre à eux seuls de documenter et légitimer le coût d’acquisition des systèmes d’intelligence artificielle ;

L’IA génératrice d’une meilleure organisation médicale et d’une plus grande qualité et sécurité des soins pour laquelle des modèles adaptés de soutien progressif à l’innovation pourront être construits. De ce point de vue, le précédent de l’incubation de la chirurgie ambulatoire au sein de notre système de santé peut être gardé à l’esprit : un processus pluriannuel avait été mis en œuvre de valorisation tarifaire de la modalité organisationnelle innovante (la chirurgie ambulatoire) et de dévalorisation de la modalité organisationnelle ancienne (la chirurgie d’hospitalisation complète substituable). Un dispositif de ce type pourra être utilisé pour soutenir la diffusion de l’IA médicale dès lors que celle-ci devient une modalité quasiment « standard » d’un parcours de soin, comme dans les cas de l’interprétation de traumatologie aux urgences ou du contourage des rayons en radiothérapie (et ce d’autant plus que les séances de radiothérapie viennent de faire l’objet d’une forfaitisation) ;

L’IA de prévention et de santé publique pour soutenir par exemple le dépistage du cancer du sein ou du cancer du côlon ou le diagnostic en amont de spécialités dans la ruralité comme en radiologie ou dans la prévention de l’insuffisance cardiaque. Nous savons que ces logiques de prévention et de Value Based Healthcare[75] se heurtent en partie en France aux logiques de financement à l’acte. Dans ces conditions, des apports de financement public sous la forme d’enveloppes dédiées conditionnées à l’évaluation des gains de santé publique et médico-économiques obtenus pourraient être identifiés.

Comme le montrait le Cercle de Recherche d’Analyse sur la Protection Sociale (CRAPS) dès 2020 dans un rapport consacré à l’impact de l’IA sur la protection sociale[76], cet effort de diffusion durable de l’IA en santé doit pouvoir être co-construit entre l’assurance-maladie et les mutuelles et organismes complémentaires. Ces derniers ont ici un champ majeur et nouveau pour montrer toute leur contributivité en matière de repérage de l’innovation émergente en santé et d’intégration de ces nouveaux dispositifs à leurs formules de contrats pour faire bénéficier ces outils au plus grand nombre.

Dans une logique de responsabilité populationnelle en santé, cinq premiers parcours territoriaux de santé mobilisant l’IA pourraient, en outre, être engagés dès le 1er janvier 2025.

Cette expérimentation viserait les domaines dans lesquels l’IA a d’ores et déjà fait ses preuves opérationnelles et représenterait un levier d’accès aux soins et de pertinence des actes (traumatologie, dermatologie, mammographie, ophtalmologie gastro-entérologie ou encore santé respiratoire). A la suite des premières orientations favorables au développement de l’IA posées dans la nouvelle convention médicale, ce dispositif pourrait intégrer une valorisation de l’acte de contrôle médical humain et une démarche d’évaluation des effets observés en termes de prévention, accès aux soins et pertinence des actes. Un ordre de grandeur de 300 M€ pour les deux premières années d’engagement de la démarche permettrait de financer une première étape significative.

Ces parcours intégreraient une évaluation médico-économique précise des effets de la diffusion de l’IA en termes d’accès à la prévention et aux soins et de gains d’efficience induits. La liste de ces parcours serait validée en Conseil stratégique de l’IA en santé. Ces programmes seraient engagés sur une durée de trois à cinq ans et feraient l’objet d’une actualisation annuelle. Ces parcours seraient d’abord déployés chacun sur une dizaine de territoires pilotes (dont une partie en zone de difficultés constatées d’accès aux soins) avant, le cas échéant, d’être étendus au plan national.

Nous pouvons donner quelques exemples de parcours susceptibles d’être rapidement déployés. Chacun de ces parcours aurait naturellement à faire l’objet de discussions approfondies avec les représentants des professionnels concernés et des patients quant aux possibles modalités de déploiement qui ne sont ici présentées qu’à titre indicatif.

Parcours 1 : Pré-diagnostic en Dermatologie

– Le professionnel en ville ou à domicile mobilise un outil d’IA de reconnaissance d’image qui permet un premier diagnostic de mélanome ou carcinome

– Ce premier avis est, le cas échéant, suivi d’une téléconsultation avec le médecin traitant ou un dermatologue

– Un protocole d’adressage est mis en œuvre avec un établissement de santé de référence sur le territoire

 

Parcours 2 : Suivi du diabète

– Le professionnel en ville ou à domicile mobilise un outil d’IA permettant le monitoring de la glycémie

– Ce premier avis est, le cas échéant, suivi d’une téléconsultation avec le médecin traitant ou un endocrinologue

– Un protocole d’adressage est mis en œuvre avec un établissement de santé de référence sur le territoire

 

Parcours 3 : Suivi de l’insuffisance cardiaque

– Le médecin généraliste mobilise un système d’IA d’aide à la prévention de l’insuffisance cardiaque ou à l’interprétation des électrocardiogrammes (ECG)

– Ce premier avis est, le cas échéant, suivi d’une téléconsultation avec un cardiologue

– Un protocole d’adressage est mis en œuvre avec un établissement de santé de référence sur le territoire

 

Parcours 4 : Dépistage du cancer du sein

– La diffusion de l’IA permet d’élargir le dépistage par une adaptation du protocole de première lecture dans une logique d’« aller vers » pour les territoires les plus en difficulté d’accès

– La palpation et l’échographie restent opérées en première ligne par un professionnel médical

– Le premier avis par IA est corroboré par un téléradiologue spécialisé en mammographie dans le cadre d’un protocole de suivi et d’adressage avec l’établissement de santé de référence

– Le dispositif de seconde lecture au niveau départemental n’est pas modifié

 

Proposition 3

Établir en Loi de finance de la Sécurité sociale (LFSS) pour 2025 un modèle médico-économique ternaire de diffusion de l’IA en santé (distinguant IA de pilotage des fonctions-supports, IA d’amélioration de l’organisation médicale et IA de prévention et de santé publique) et engager dès le 1er janvier 2025 les cinq premiers parcours territoriaux de santé avec IA dans une dizaine de territoires pilotes et sous garantie humaine médicale.

 

  • Créer la confiance autour de l’IA en santé en mobilisant le levier de la préparation de l’AI Act européen pour diffuser une culture de la Garantie Humaine de l’IA

La création des conditions de la confiance des professionnels et des patients autour du recours à l’IA en santé représente un enjeu prioritaire pour assurer une diffusion durable de cette innovation technologique. A cet égard, il est nécessaire d’accompagner la mise en conformité à l’AI Act auprès des soignants utilisateurs d’IA afin de déployer des écosystèmes de confiance sous l’égide des représentants des spécialités concernés et des représentants des patients. C’est précisément le but de la reconnaissance du principe de Garantie Humaine dans la loi de bioéthique française d’août 2021 et dans le nouveau règlement européen sur l’IA.

Pour piloter cette conformité éthique et juridique, l’intérêt de création de « Collèges de Garantie Humaine » associant représentants des professionnels et représentants des patients a été souligné dès l’avis 129 du Comité consultatif national d’éthique établi dans le cadre de la préparation de la révision de la loi de bioéthique.

Des démarches pilotes ont ainsi déjà été initiées dans plusieurs aires thérapeutiques comme :

– Les soins bucco-dentaires sous l’égide de l’Union française pour la santé bucco-dentaire (UFSBD) ;

Le premier Collège de Garantie Humaine de l’IA : le projet pilote Oralien porté par l’Union française pour la santé bucco-dentaire (UFSBD)

Le premier projet d’accompagnement en conformité en Garantie Humaine a été initié avec l’Union française pour la santé bucco-dentaire (UFSBD).

L’UFSBD avait confié à Ethik-IA et Vatier la réalisation d’un audit juridique et éthique du fonctionnement de la solution ORALIEN (solution d’IA de reconnaissance d’image mise en œuvre par la start-up française Dental Monitoring dans le domaine dentaire s’appliquant à 48 EHPAD dans le cadre d’un protocole de financements innovants dits de l’article 51 de la loi de financement de la Sécurité sociale) afin de s’assurer de la conformité de celle-ci au cadre juridique et éthique de l’IA en santé.

La mise en œuvre de ce Collège de garantie humaine associé à l’expérimentation de l’UFSBD constitue le premier cas effectivement mis en œuvre d’un principe dorénavant inscrit en droit européen. L’audit mis en œuvre a permis l’élaboration d’un modèle de supervision, consistant en une analyse de dossiers traités par l’IA par des réviseurs chirurgiens-dentistes mandatés par l’UFSBD, des propositions d’actions correctives et un bilan annuel du fonctionnement du dispositif permettant de le faire évoluer.

Le dispositif s’opérant initialement sur une base trimestrielle est désormais mis en œuvre sur une base semestrielle au regard des résultats observés dans le cadre de cette démarche de supervision humaine.

– La radiologie sous la supervision depuis 2018 de DRIM France IA[77] qui rassemble les radiologues libéraux et hospitaliers ;

– La biologie sous égide de la Société française d’informatique des laboratoires (SFIL) ;

– Ou encore l’oncologie dans le cadre d’une démarche pilote porté par Unicancer à l’échelle de l’ensemble des Centres de lutte contre le cancer.

L’intérêt de la participation des patients à ces démarches de Garantie Humaine a été très fortement souligné dans le cadre des travaux menés à ce sujet par France Assos Santé, qui fédère les associations représentatives des patients. Ce faisant, cette collégialité en garantie humaine de l’IA peut être analysée comme un nouvel espace de démocratie sanitaire permettant un dialogue régulier associant tiers de confiance professionnels, concepteurs d’innovations en IA et représentants des bénéficiaires finaux.

Il est à souligner que ce principe de Garantie Humaine a également été endossé dès 2018 dans le cadre des travaux de la Mutualité française sur l’intelligence artificielle et le data management en santé conduit par Eric Chenut, désormais Président de la Fédération nationale de la Mutualité française. A la suite de cette démarche, un écosystème de garantie humaine de l’IA dans le champ mutualiste a été initié mi-2023 avec une initiative pilote de la MGEN pour construire et mettre en œuvre un modèle de conformité applicable aux traitements algorithmiques utilisés dans ce domaine.

La Fédération de l’hospitalisation privée (FHP) a fait de la diffusion de l’IA et de régulation éthique à partir du principe de garantie humaine une des orientations mises en œuvre dans le cadre de sa nouvelle démarche d’entreprise à mission. Cette initiative rejoint le déploiement rapide des cas d’usage de l’IA sur le terrain.

La Haute Autorité de Santé a, par ailleurs, soutenu ce processus de reconnaissance en intégrant la Garantie Humaine dès 2020 dans les critères identifiés dans le cadre de sa grille d’évaluation des dispositifs médicaux avec IA préalablement à leur admission par la Sécurité sociale[78]. Lionel Collet, Président de la HAS, a récemment annoncé que les décisions que la HAS seraient amenées à prendre concernant les systèmes d’IA en santé seraient motivées au regard des dispositifs de garantie humaine mis en place.

Proposition 4 :

Soutenir la structuration des écosystèmes de garantie humaine de l’IA par la valorisation du temps médical dédié à la construction des méthodologies de supervision et le développement de plateformes de conformité permettant de garder la traçabilité du contrôle humain et son auditabilité par le régulateur dans le cadre de l’AI Act européen.

 

3.2 Leviers d’action à moyen terme : promouvoir un modèle durable de diffusion de l’IA en santé et en autonomie fondé sur la Garantie Humaine des professionnels de santé et des représentants des patients

Pour accompagner ces transformations, une véritable démarche d’accompagnement à la conduite du changement doit pouvoir être initiée en mobilisant l’ensemble des leviers possibles.

  • Doter la France d’une plateforme souveraine d’aide à la mise en œuvre de ces systèmes d’IA au plus proche des professionnels et des patients

Pour permettre la mobilisation de ces systèmes d’IA en cohérence avec les réalités quotidiennes des professionnels, des patients et des proches aidants, la maîtrise du vecteur technologique de distribution de ces outils technologiques dans un cadre de confiance constitue un enjeu-clé.

En effet, les expériences de diffusion d’outils numériques dans le cadre de logiques de plateformisation montrent que la maîtrise de la plateforme représente aussi une condition de maîtrise de l’accès au service numérique dans ses modalités pratiques mais aussi dans la fixation de ses paramètres économiques.

Dans ces conditions, il convient de soutenir le développement et l’hébergement[79] dans un cadre souverain et de confiance de plateformes de distribution de ces systèmes d’IA en établissements de santé, en ville et à domicile au plus près des professionnels et des patients.

Les systèmes d’IA susceptibles d’être distribués par un vecteur de ce type devront faire l’objet, par les processus adaptés de conformité AI Act, labellisation et normalisation, des mécanismes de reconnaissance et de validation utiles.

L’objet ne doit pas être ici de viser une démarche centralisée mais plutôt, par la voie d’un appel à projets national, de favoriser l’éclosion de consortiums traduisant cette logique de souveraineté numérique.

Proposition 5 :

Soutenir le développement et l’hébergement dans un cadre de souveraineté et de confiance de plateformes technologiques d’accès à ces systèmes d’IA en santé et en autonomie au plus près des réalités des professionnels, des patients et de leurs proches aidants. L’objet ne doit pas être ici de viser une démarche centralisée mais plutôt, par la voie d’un appel à projets national, de favoriser l’éclosion de consortiums traduisant cette logique de souveraineté numérique.

  • Engager une véritable démarche stratégique de gestion prévisionnelle des emplois et des compétences dans le recours à l’IA en santé

Dans une étude réalisée en 2019, l’Institut Montaigne[80] préconisait un changement d’approche sur l’accompagnement de ces transformations associées à l’IA pour les métiers de la santé. La proposition d’établir une méthodologie d’évaluation des impacts de l’IA sur l’emploi permet, à cet égard, d’appréhender les effets de création et de transformation des métiers du secteur de la santé. Les pouvoirs publics auraient tout intérêt à créer, en la matière, une plateforme de dialogue entre les différents acteurs impliqués. La méthodologie de chiffrage proposée dans cette note s’articule autour de six étapes clés. La première étape consiste à recenser les effectifs par catégories professionnelles du secteur de la santé, comme par exemple la gestion administrative. Ensuite, il s’agit de répertorier les métiers appartenant aux catégories professionnelles à l’instar de celui de secrétaire médical(e). Sont ensuite identifiées les activités ou tâches correspondant à chaque métier, ce qui permet, lors de la quatrième étape, de déterminer le taux de substitution de chaque activité identifiée. L’étape suivante vise à mesurer le taux de substitution pour chaque métier. Enfin, la dernière étape permet de réaliser des scénarios d’impact. La construction d’un cadre de dialogue associant les représentants des patients, les professionnels de santé, les partenaires sociaux et les acteurs économiques constitue un axe prioritaire pour mener à bien ce chantier.

Dès 2017, Ethik-IA abordait ces enjeux RH dans le cadre de la publication de ses « cinq clés de régulation de l’intelligence artificielle et de la robotisation en santé ». La clé numéro 4 était, ainsi, rédigée : « la mise en œuvre d’un dispositif d’intelligence artificielle ou de robotisation en santé ne doit pas conduire à écarter l’application des principes et règles déontologiques dans l’exercice des professions de santé utilisant ces dispositifs. Les effets du recours à un dispositif d’intelligence artificielle ou de robotisation sur les conditions de cet exercice doivent, dans toute la mesure du possible, faire l’objet de modalités d’anticipation et d’accompagnement. Une partie des gains d’efficience obtenus par le déploiement de l’intelligence artificielle et de la robotisation en santé doit être mobilisée pour le financement de cet accompagnement, la formation – initiale et continue – des professionnels aux enjeux de l’intelligence artificielle et de la robotisation et pour le soutien à l’émergence de nouveaux métiers dans le champ sanitaire et médico-social. » Cette proposition – issue d’un travail approfondi de concertation avec les acteurs de santé – visait à positionner la prise en compte de ces enjeux RH dans une optique résolument positive et anticipatrice. La diffusion de l’IA et de la robotisation peut, en effet, représenter une opportunité pour l’amélioration de la qualité de vie au travail pour autant que ses effets RH soient suivis en continu pour, dans toute la mesure du possible, être anticipés.

Depuis cinq ans, des avancées sont intervenues en ce sens. L’actualisation de l’arrêté sur le développement professionnel continu médical en septembre 2019 a permis de faire de l’IA une orientation prioritaire pour les programmes de formation médicale continue. Un programme pilote de sensibilisation à l’IA pour les élèves des instituts paramédicaux a été initié par la Région Auvergne-Rhône Alpes.

En outre, l’ANFH a déclenché en 2021 un programme de préparation à l’IA pour les établissements de santé de quatre régions pilotes (PACA, Auvergne-Rhône Alpes, Occitanie et Corse) permettant de mettre en œuvre des actions de sensibilisation générales pour les professionnels hospitaliers mais aussi des formations-accompagnement thématiques sur les domaines prioritaires de diffusion de l’IA à l’hôpital public. Ce dispositif constitue le plus important programme d’accompagnement à l’IA mis en œuvre par un organisme de formation professionnelle dans le secteur public. 

Depuis quatre ans, l’Université Paris-Cité a, en outre, structuré une chaire IA pilotée par le Pr Guillaume Assie et mettant en œuvre un diplôme d’université combinant enseignements sur l’IA, ses usages en santé et sa régulation éthique et destiné à un public associant concepteurs de systèmes, professionnels ou managers de santé. D’autres démarches de ce type se sont structurées depuis lors comme à Montpellier ou à Dijon.

En 2023, François Braun, Ministre de la Prévention et de la Santé annonçait la généralisation de la sensibilisation aux enjeux numériques dans le cadre des formations paramédicales. Nous n’en sommes, cependant, pas encore à la généralisation de contenus sur l’intelligence artificielle dans le cadre de ce nouveau dispositif très important.

Par ailleurs, en 2024, des initiatives intéressantes ont été prises dans le domaine du management pour inscrire dans les cursus de l’EHESP et de l’EN3S une première sensibilisation aux enjeux de l’IA dans les domaines de la santé et de l’autonomie.

Il convient, enfin, naturellement de ne pas perdre de vue les besoins de plus en plus importants en formations spécialisées sur les domaines techniques associés à l’IA : directions de système d’information, informatique médicale, métiers du data management en santé. 

Proposition 6 :

Engager une impulsion nationale pour systématiser la sensibilisation à l’IA dans les formations initiales des acteurs de santé et d’autonomie et soutenir les démarches de gestion prévisionnelle des emplois et des compétences portant sur l’IA en santé. La sensibilisation à l’IA pourrait être intégrée systématiquement à toutes les formations initiales paramédicales, médicales et managériales en santé. L’éclosion de cursus de spécialités et de formations spécialisées multidisciplinaires devrait être encouragée. La formation continue à l’IA de l’ensemble des professionnels du système de santé et du maintien en autonomie devrait être fixée comme un objectif de politique publique à cinq ans. Un tour de table sur l’IA réunissant l’ensemble des acteurs de la formation initiale et continue sur la santé et l’autonomie pourrait être organisé sous l’égide du Conseil stratégique de l’IA en santé.

  • Maitriser les enjeux de responsabilité pour les professionnels de santé et stimuler de véritables démarches de qualité et gestion des risques dans le recours à l’IA

La maîtrise des enjeux de responsabilités et d’assurabilité pour les professionnels de santé dans une logique de qualité et gestion des risques s’avère essentielle pour assurer la confiance dans le recours à l’IA.

La question de l’impact de l’intelligence artificielle sur les régimes de responsabilité des professionnels fait actuellement l’objet de tous les fantasmes. Pour répondre à la révolution technologique, il faudrait d’urgence mettre en place un cadre autonome de responsabilité des robots ou de l’intelligence artificielle. Sur cette question comme sur d’autres enjeux associés à l’intelligence artificielle en santé, il est, en réalité, surtout important de prendre un peu de recul pour mesurer la portée exacte des évolutions en cours.

En réalité, l’appréhension par le droit de l’impact de l’action des machines – et même des robots – sur notre santé ne constitue pas réellement une question juridique nouvelle et trouve en bonne partie sa réponse dans le cadre des principes classiques de la responsabilité du fait des choses prévus par le Code civil. Ces règles générales se complètent de régimes spéciaux de responsabilité dont celui relatif aux produits défectueux, issu d’une directive communautaire du 25 juillet 1985 transposée – tardivement – dans notre droit par une loi du 19 mai 1998. Dans ce régime, en cas de dysfonctionnement du système d’IA, la charge d’indemniser associés à son usage se déplace sur le concepteur du dispositif.

Cependant, l’apparition d’une nouvelle génération d’« IA apprenantes » peut conduire à rendre inopérant le régime de responsabilité des produits défectueux. En effet, la notion de risque de développement constitue un motif d’exonération de responsabilité. Il s’agit d’un risque découlant de produits défectueux que l’on ne pouvait déterminer au moment de la conception du produit, au vu de l’état des connaissances scientifiques et techniques[81]. Nous pourrions tout à fait être dans cette situation dans le cas de dommages causés par des développements « autogénérés » par l’IA au-delà de sa programmation initiale, à partir d’un raisonnement par inférence. Les premières applications pratiques d’IA génératives dans le domaine de la santé ont montré que ces possibilités de dommages n’étaient pas du tout théoriques et sans doute appelées à se développer de façon significative.

Cette évolution appelle donc, en premier lieu, une réponse sur le terrain du cadre juridique applicable, ce qui est précisément l’objet du projet en cours de modification de la directive relative à la responsabilité du fait des produits défectueux. 

L’actualisation en cours de la directive sur la responsabilité du fait des produits défectueux

L’apport principal de l’actualisation de la directive[82] est d’incorporer une nouvelle catégorie, celle des « produits numériques », et notamment l’intelligence artificielle. Cette directive fait intervenir une nouvelle notion, « l’interconnexion des produits », pour mieux prendre en considération le développement des nouvelles technologies. Ainsi, la défectuosité d’un produit peut dépendre de la défectuosité d’un autre produit interconnecté[83] (par exemple, Un DM qui dépendrait des résultats d’un IoT pour fonctionner). Pour autant, la directive ne s’applique pas aux logiciels gratuits en open source qui ont été développés ou fournis en dehors d’une activité commerciale[84]. L’actualisation de la directive a conduit à une actualisation de l’engagement de la responsabilité des opérateurs économiques de la chaîne de distribution des produits. La responsabilité des concepteurs des IA pourrait difficilement être mise en cause, particulièrement celles des concepteurs d’ « IA apprenante ».

Cette difficulté résulte de deux facteurs, le premier est inhérent à la complexité technique et scientifique de l’IA, et le second tient à la notion de risque de développement permettant aux opérateurs économiques de s’exonérer de leur responsabilité.

Concernant la complexité technique et scientifique des système d’IA, le législateur a prévu un allégement de la charge de la preuve en prévoyant un mécanisme de divulgation des preuves[85] et en donnant la possibilité aux juridictions de présumer la défectuosité, le lien de causalité ou les deux en prenant en considération les circonstances de l’affaire (ces circonstances sont notamment, la difficulté excessive due à la complexité technique et scientifique) et en démontrant uniquement la plausibilité de la défectuosité, le lien de causalité ou les deux[86].

De surcroît, le législateur a également prévu un mécanisme pour tempérer la notion de « risque de développement ». En effet, le législateur européen a laissé la faculté aux États membres de prévoir une dérogation au sein de leur système juridique pour maintenir la responsabilité des opérateurs économiques, et ce, malgré le risque de développement[87].  Cette mesure devra être limitée ou spécifiée à une catégorie de produit ; justifiée par un objectif d’intérêt public ; et proportionnée dans la mesure où ils sont propres à assurer la réalisation des objectifs poursuivis et n’excèdent pas ce qui est nécessaire pour atteindre ces objectifs.

Une diffusion durable dans un cadre de sécurité juridique de l’IA pour les professionnels, les patients et les établissements de santé implique, par ailleurs, de réfléchir sur le fond aux enjeux de l’assurabilité du recours à ces systèmes d’intelligence artificielle dans les domaines de la santé et de l’autonomie.

A ce stade, en écho à la question plus large qui vient d’être évoquée pour les régimes de responsabilité, nous ne constatons pas, à ce stade, de déstabilisation associée à la diffusion de l’IA en santé des mécanismes de l’assurance des professionnels et des établissements. Les questions potentielles à traiter à moyen terme sont, cependant, nombreuses et sensibles et notamment la perspective de mise en cause de la responsabilité d’un professionnel ou d’un établissement de santé n’ayant pas utilisé un système d’IA qui se serait progressivement imposé comme un gold standard dans le domaine médical concerné.

Une façon pragmatique d’anticiper ces enjeux consiste à appréhender le sujet dans une logique proactive de qualité et de gestion des risques. C’est le sens des travaux conduits au plan européen sous l’égide de RELYENS, mutuelle issue du secteur hospitalier français et devenue le premier assureur européen des établissements de santé : l’intégration de programmes de qualité et de gestion des risques autour de l’IA en santé est ici associée à une démarche de transformation du métier de l’assurance vers le management des risques[88].

D’un point de vue opérationnel, à l’échelle des structures de santé, la formule du Collège de Garantie Humaine peut être adaptée afin de créer les conditions de cette politique émergente de qualité et gestion des risques autour de l’intelligence artificielle. C’est le sens des initiatives engagées par le Groupe hospitalier Saint-Joseph à Paris et le CHU de Toulouse.

Déployer une politique de qualité et gestion des risques autour de l’usage de l’IA en santé : les exemples des Collèges de Garantie Humaine de l’hôpital Saint-Joseph à Paris et du CHU de Toulouse

L’intégration de l’intelligence artificielle au sein des hôpitaux représente une perspective d’avancée majeure dans l’accès aux soins et la pratique clinique. Cette intégration nécessite néanmoins la structuration d’une stratégie de déploiement opérationnelle, ainsi qu’une gouvernance effective à l’échelle de l’établissement.

Le contexte européen d’adoption du Règlement sur l’IA (AI Act) implique également pour les établissements de santé, actuels et futurs déployeurs de ces solutions, d’assurer la conformité de l’utilisation de ces systèmes, notamment par un contrôle humain effectif de toutes les solutions utilisées. Cette obligation de contrôle humain peut être respectée par la création de « Collèges de Garantie Humaine » à l’échelle d’un établissement de santé, visant à s’appuyer sur les instances préexistantes afin d’établir un dialogue partagé autour des outils et projets d’IA de l’établissement.

L’article 26 du Règlement, qui concerne les obligations des déployeurs de systèmes d’IA qui utilisent les ressources fournies par les fournisseurs pour assurer la conformité́ du système et son bon fonctionnement après la mise en service ou la mise sur le marché́ du système, devront prendre les mesures techniques et organisationnelles appropriées afin de garantir que le système est utilisé conformément à sa finalité, et s’assurer que le contrôle humain est confié à des personnes physiques ayant les compétences, la formation, l’autorité et le soutien nécessaires à cette fin. En ce sens, les collèges de Garantie Humaine permettent le suivi de toutes les solutions utilisées permettra d’assurer le respect de cet article, mais également d’établir des standards éthiques d’intégration de l’IA dans l’établissement, et de faire remonter des problématiques spécifiques afin de faciliter la surveillance des systèmes après leur déploiement. C’est le sens de la démarche initiée par Ethik-IA avec l’Hôpital Saint Joseph de Paris (GHPSJ).

Cette démarche GHPSJ – Ethik-IA s’est initiée par la sélection de trois systèmes d’IA déjà déployées au sein de l’établissement :

– Une solution de scoring des prescriptions (pharmacie) ;

– Une solution d’aide au diagnostic radiographique des fractures ;

– Une solution d’aide à la facturation aux urgences

Un groupe de travail a été créé afin d’élaborer une grille d’analyse à partir de ces trois solutions ayant des finalités différentes, afin de créer un outil permettant le suivi de toutes les solutions utilisées au sein de l’établissement. Cette grille s’articule autour des notions de sécurité, d’éthique, de bénéfice d’utilisation, d’information du patient et de procédures alternatives.

Une démarche du même ordre est actuellement en cours de construction au sein du CHU de Toulouse, dans le cadre de la démarche d’accompagnement à l’intelligence artificielle lancé par l’ANFH. L’objectif global de ces collèges est d’intégrer le déploiement de l’IA dans la politique plus globale de qualité et gestion des risques des établissements de santé, et d’intégrer l’IA dans une démarche d’amélioration continue de qualité des soins et la sécurité des patients.

Les Assises hospitalo-universitaires de Versailles du 15 décembre 2023 ont recommandé la généralisation de ces démarches pour l’ensemble des CHU d’ici l’entrée en vigueur du règlement européen sur l’intelligence artificielle.

Ces initiatives d’établissements de santé pourraient sans doute être extrapolées en ville à l’échelle des Communautés professionnelles territoriales de santé (CPTS) ou, plus largement, au niveau des territoires de santé en cohérence avec la reconnaissance progressive de parcours territoriaux de santé intégrant le recours à l’IA.

Proposition 7 :

Généraliser les démarches types collèges de garantie humaine en établissement de santé et en CPTS. L’engagement dans ces dynamiques de qualité et gestion des risques pour la diffusion de l’IA en santé serait à intégrer et soutenir dans le cadre des indicateurs qualité des établissements de santé et des professionnels de ville. Les premières démarches pilotes de prise en compte de cette logique de garantie humaine dans l’assurabilité des systèmes d’IA sont à encourager. 

  • Encourager l’émergence de nouvelles synergies entre professionnels dans le recours à l’IA

Dans ce contexte de révolution technologique, il ne faut pas craindre la disparition des médecins, et plus généralement des soignants. Au contraire, c’est bien une possibilité majeure de simplification des conditions d’exercice et d’amélioration de la qualité de vie au travail qu’il faut saisir.

Dans ce contexte, le rôle du médecin non seulement n’est pas menacé mais il est appelé à s’élargir significativement. Il a vocation à se positionner de plus en plus en premier agent d’accès à l’IA de spécialité, sous le contrôle humain des spécialistes concernés, en temps réel ou en différé dans le cadre de la nouvelle activité en pleine émergence de télémédecine de garantie humaine de l’IA.

Par ailleurs, le mouvement de diffusion de l’IA en santé entre en synergie avec la volonté affichée par les pouvoirs publics d’étendre les compétences susceptibles d’être dévolues aux pharmaciens et aux professionnels paramédicaux. Au Portugal, l’intelligence artificielle de reconnaissance d’image en dermatologie est ainsi d’ores et déjà utilisée en première ligne par les infirmiers à domicile mobilisant un outil d’IA sur smartphone dans le cadre d’un protocole faisant intervenir en deuxième étape un contrôle à distance par un dermatologue.

  Ces interventions articulées entre professionnels paramédicaux et médicaux ouvrent également des opportunités très significatives pour renouveler les conditions du maintien en autonomie et de la prévention en direction des personnes les plus vulnérables.

Proposition 8 :

Initier d’ici 2026 deux premiers parcours de recours à l’IA combinant les interventions des professionnels paramédicaux et médicaux en dermatologie et dans le domaine du maintien en autonomie à domicile. Ces parcours gagneraient à s’appuyer sur un portail de confiance pour l’accès à ces outils en ville ou à domicile sous contrôle humain des professionnels de santé. 

Par ailleurs, la mise en œuvre de l’obligation de contrôle humain de l’IA en vie réelle ouvre la voie à l’apparition de pratiques de télémédecine de garantie humaine de l’intelligence artificielle. En radiologie, MEDIN+ s’est ainsi positionné, en partenariat avec Ethik-IA, en avance de phase sur la spécialisation de ses professionnels pour intervenir dans le cadre de protocoles de supervision humaine de l’IA pour permettre un accès renforcé aux soins combiné à un contrôle asynchrone de spécialiste, comme dans le cas du recours à l’intelligence artificielle d’interprétation des images de traumatologie aux urgences. Ces configurations permettent de développer de nouvelles modalités d’accessibilité aux soins en combinant intervention présentielle d’un professionnel de santé en première ligne, mobilisation de l’innovation en IA et contrôle à distance du spécialiste. La création de la confiance autour de ce type d’organisation implique naturellement un point de vigilance quant au mouvement en cours de financiarisation de certains acteurs de téléradiologie.

Proposition 9 :

Soutenir l’innovation organisationnelle ouverte par la télémédecine et la téléradiologie de garantie humaine de l’IA qui permet de faciliter l’accès au diagnostic de spécialité pour le patient tout en mettant en place un protocole rigoureux et traçable de contrôle humain par les spécialistes. 

  • Positionner fortement la France et l’Europe sur l’enjeu de la normalisation de l’IA en santé

  Cette compétition mondialisée autour de l’IA en santé implique de relever, outre les défis de l’innovation technologique et de la régulation positive, celui de la normalisation européenne et internationale. En effet, cette vision ouverte d’une IA santé préservant l’humain au cœur d’un système de santé solidaire implique de porter également cette vision dans le cadre de ces travaux techniques qui définiront les modalités internationales de diffusion des technologies.

  Les premiers travaux menés avec l’AFNOR, les acteurs industriels et les représentants des patients montrent à quel point ces enjeux sont décisifs pour la compétitivité de la France et de l’Europe sur ces sujets et pour maintenir dans un contexte mondial une attention aux enjeux éthiques de l’intelligence artificielle. 

Un premier exemple de projet de normalisation sur l’IA en santé : l’AFNOR-SPEC « Garantie Humaine de l’IA »

La démarche initiée par Ethik-IA avec l’AFNOR en 2023, matérialisée par l’AFNOR-SPEC n°2213 « Garantie Humaine des systèmes fondés sur l’intelligence artificielle en santé » publiée en accès libre le 31 mai 2024, propose des premiers éléments de réponse méthodologiques à la question du contrôle humain effectif prévu par l’AI Act pour les fournisseurs de systèmes d’IA en santé (concepteurs). Ce document a été construit dans le cadre d’un groupe de travail diversifié, incluant notamment les experts règlementaires du SNITEM et du LEEM, mais aussi le Digital Medical Hub, avec lequel Ethik-IA a lancé le premier label de Garantie Humaine de l’IA le 1er février 2022, ou encore l’UFSBD, partenaire pilote d’Ethik-IA en Garantie Humaine dans le domaine des soins bucco-dentaires.

Ce document décrit la démarche méthodologique pouvant être mise en œuvre par les concepteurs pour assurer une Garantie Humaine effective de leur système, initiée par l’identification des risques spécifiques à la solution et son contexte d’utilisation, puis la création de collèges de Garantie Humaine spécifiques à un système d’IA en santé, incluant notamment la composition du collège, les critères d’analyse pertinents de leur solution, l’organisation des réunions du collège ou encore la traçabilité et l’auditabilité du dispositif. Ce document a pour objectif de s’axer sur l’exigence de contrôle humain pour les systèmes d’IA à haut risque prévue par l’article 14 de l’AI Act, mais aussi d’apporter des premiers éléments de réflexion sectoriels à la normalisation de cette exigence prévue par le Règlement, qui s’appliquera à tous les secteurs d’utilisation de l’IA au sein de l’Union européenne.

Proposition 10 :

Soutenir l’engagement des acteurs français dans la construction du cadre de normalisation européenne et internationale pour l’intelligence artificielle en santé et en autonomie.

 

Bibliographie

 

I. OUVRAGES

Bibault, Jean-Emmanuel. (2023). 2041: L’odyssée de la médecine. Éditions Équateur ;

Jérôme Marchand-Arvier et al. (2023). Rapport sur les systèmes d’IA générative en santé.

 

II. MONOGRAPHIES

Djeddi et al., Advancing drug–target interaction prediction: a comprehensive graph-based approach integrating knowledge graph embedding and ProtBERT pretraining, BMC Bioinformatics (2023), 24, 488 (2023), https://doi.org/10.1186/s12859–023–05593–6 ;

Faqar-Uz-Zaman S.F. et al., (2021), “Study protocol for a prospective, double-blinded, observational study investigating the diagnostic accuracy of an app-based diagnostic health care application in an emergency room setting: the eRadaR trial”, British Medical Journal Open, 11:e041396 ;

McDuff, D., Schaekermann, M., Tu, T., Palepu, A., Wang, A., Garrison, J., … & Natarajan, V. (2023). Towards Accurate Differential Diagnosis with Large Language Models. arXiv preprint arXiv:2312.00164 ;

TU, T.ET AL. (2024) « Towards Conversational Diagnostic AI » ;

OLAWADE D. B., O. J. WADA, A. C. DAVID-OLAWADE, E. KUNONGA, O. ABAIRE, ET J. LING (2023) « Using artificial intelligence to improve public health: a narrative review » Front Public Health ;

N. AGARWAL, A. MOEHRING, P. RAJPURKAR, ET T. SALZ (2023), « Combining Human Expertise with Artificial Intelligence: Experimental Evidence from Radiology », Working paper.

 

III. RAPPORTS OFFICIELS

Académie Nationale de Médecine. (2023). Rapport-Systèmes d’IA générative en santé ;

Commission de l’intelligence artificielle, « IA : Notre ambition pour la France », 2024 ;

Healthcare Data Institute. (2024). Rapport sur l’intelligence artificielle en santé ;

PWC, « Study on eHealth interoperability of Health Data and Artificial Intelligence for Health and Care in European Union”, Lot 2 : Artificial Intelligence for Health and care in the UE, Final Country Factsheets, 2021 ;

PWC, « Study on eHealth interoperability of Health Data and Artificial Intelligence for Health and Care in European Union”, Lot 2 : Artificial Intelligence for Health and care in the UE, Final Study Report, 2021 ;

Rapport de l’Académie Nationale de Médecine du 5 mars 2024 ;

VILLANI C., « Donner un sens à l’intelligence artificielle – pour une stratégie nationale et européenne », Rapport mars 2018.


IV. AVIS ET RECOMMANDATIONS

Comité consultatif national d’éthique, Contribution à la révision de la loi de bioéthique, Avis n° 129, 25 septembre 2018 ;

Comité Consultatif National d’Éthique (CCNE), & Comité National Pilote d’Éthique du Numérique (CNPEN). . Avis 141 du CCNE et 4 du CNPEN – Diagnostic Médical et Intelligence Artificielle : Enjeux Éthiques ;!

CNPEN, Avis n° 3 du 15 septembre 2021, Agents conversationnels : enjeux d’éthique ;

HAS, Avis de la Commission Nationale d’Evaluation des Dispositifs Médicaux et des Technologies de Santé (CNEDiMTS) du 28 janvier 2020 ;

Think Tank Économie Santé. (2024). Reco 2024 – IA en santé. . Think Tank Économie Santé.

 

V. ARTICLES

ALLISONE, « IA & santé : Où en sont la Chine, les États-Unis et l’Europe », 12 mars 2024 ;

Ayers, J. W., Poliak, A., Dredze, M., Leas, E. C., Zhu, Z., Kelley, J. B., … & Smith, D. M. (2023). Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA internal medicine ;

Blanc D., et al., (2020), “Artificial intelligence solution to classify pulmonary nodules on CT”, Diagnostic and Interventional Imaging, 101 ;

Colling R., et al., (2019), “Artificial intelligence in digital pathology: a roadmap to routine use in clinical practice”, The Journal of Pathology, 249: 143–50 ;

Coudray N., et al., (2018), “Classification and mutation prediction from non–small cell lung cancer histopathology images using deep learning”, Nature Medicine, 24, 1559–67 ;

Van der Laak J., et al., (2021), “Deep learning in histopathology: the path to the clinic”, Nature Medicine, 27, 775–84 ;

D. et al., (2019), “End-to-end lung cancer screening with three-dimensional deep learning on low-dose chest computed tomography“, Nature Medicine, 25, 954–61 ;

Editorial de Nature, janvier 2024 : There are holes in EU AI Act ;

E. Svoboda, (2020), “Deep learning delivers early detection”, Nature, 587, S20–2 ;

Esteva A., et al., (2017), “Dermatologist-level classification of skin cancer with deep neural networks”, Nature, 542 ;

Fondation Jean Jaurès, « systèmes de santé : une comparaison France/États-Unis, 15 mai 2023 ;

Gruson, D., & Grass, É. (2020). Quelle régulation positive éthique de l’intelligence artificielle en santé?. Les Tribunes de la santé, (1), 25–33 ;

Gruson, D. (2019). Le numérique et l’intelligence artificielle en santé: surveillance généralisée ou avancée majeure?. Les Tribunes de la santé, (2), 23–29 ;

Gruson, D. (2022, August). Pilotage par les données et l’IA en santé: faire vivre l’écosystème de la « Garantie humaine » MedTech et HealthTech!. In Annales des Mines-Réalités industrielles (No. 3, pp. 24–26) ;

Gruson, D. (2022). Systèmes d’information en santé; intelligence artificielle et Garantie Humaine: une nouvelle étape historique?. Journal de Droit de la Santé et de l’Assurance Maladie, (31) ;

Institut National de la Santé et de la Recherche Médicale (Inserm). (2024). Intelligence artificielle et santé ;

Jean-Urbain Hubau et al. (2024). Cartes de France de l’accès aux soins. Éditions Fondation Jean-Jaurès ;

MORLET-HAÏDARA L., « Le numérique et l’intelligence artificielle au service des publics âgés : des opportunités soulevant des problématiques éthiques et juridiques », Journal du Droit de la Santé et de l’Assurance – Maladie (JDSAM), vol. 31, no. 1, 2022 ;

OMS, « L’intelligence artificielle dans la recherche en santé mentale : nouvelle étude de l’OMS sur les applications et les défis », CP 6 février 2023 ;

SHEN, Y., F. E. SHAMOUT, J. R. OLIVER, ET AL. « Artificial intelligence system reduces false-positive findings in the interpretation of breast ultrasound exams » Nat Commun, 21 septembre 2024 ;

Strong, E., DiGiammarino, A., Weng, Y., Kumar, A., Hosamani, P., Hom, J., & Chen, J. H. (2023). Chatbot vs medical student performance on free-response clinical reasoning examinations. JAMA internal medicine, 183(9), 1028–1030 ;

Syryk C., et al., (2020), “Accurate diagnosis of lymphoma on whole-slide histopathology images using deep learning”, npj Digital Medicine, 3, 63 ;

WANG W., “Artificial Intelligence and healthcare in China : What is the role for soft law?”, Droit, santé et société, 2021/3 (N°3) ;

ZHOU L., « L’intelligence artificielle médicale commence à accélérer l’industrialisation », New economics guide, juillet 2017.

 

VI. LÉGISLATIONS

Règlement (UE) 2024/… DU PARLEMENT EUROPÉEN ET DU CONSEIL du… établissant des règles harmonisées concernant l’intelligence artificielle [et modifiant les règlements (CE) n°300/2008, (UE) n°167/2013, (UE) n°168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (législation sur l’intelligence artificielle)], 6 mars 2024 ;

European Parliament legislative resolution of 12 March 2024 on the proposal for a directive of the European Parliament and of the Council on liability for defective products (COM(2022)0495 – C9–0322/2022 – 2022/0302(COD)).


[1] Commission de l’intelligence artificielle, IA : notre ambition pour la France, mars 2024 https://www.info.gouv.fr/upload/media/content/0001/09/4d3cc456dd2f5b9d79ee75feea63b47f10d75158.pdf

[2] Co-fondateur du groupe Intelligence Artificielle au MIT. « Steps toward artificial intelligence », Proceedings of the IRE, janvier 1961.

[3] Cette dernière est également marquée par des avancées très rapides comme dans le champ urologique mais avec, à ce stade, moins d’enjeux de substitution de la décision de la machine à celle de l’Humain ; les procédés utilisés reviennent en pratique à « augmenter » le geste du chirurgien, celui restant maître de la décision elle-même.

[4] Think Tank Economie Santé, Recommandation 2024 : cinq mesures pour que la révolution de l’IA renforce réellement le système de santé https://www.lesechosleparisien-evenements.com/wp-content/uploads/2024/03/LA-RECO-2024-BD-BAT-page-a-page.pdf

[5] Chaire Santé Sciences Po, Enjeux de l’intelligence artificielle en santé, février 2023 https://www.sciencespo.fr/chaire-sante/sites/sciencespo.fr.chaire-sante/files/Enjeux%20de%20l%27IA%20en%20sante%CC%81%2026.05.pdf

[6] Healthcare Data Institute, Dix recommandations pour faire de l’IA en santé une réalité, janvier 2024 https://healthcaredatainstitute.com/

[7] https://www.health-data-hub.fr/aap-eds

[8] https://5juilletdatatransformeurs.com/

[9] PWC, « Study on eHealth Interoperability of Health Data and Artificial Intelligence for Health and Care in European Union », Lot 2 : Artificial Intelligence for health and care in the UE, Final Study Report, 2021, p.25

[10] PWC, « Study on eHealth Interoperability of Health Data and Artificial Intelligence for Health and Care in European Union », Lot 2 : Artificial Intelligence for health and care in the UE, Country Factsheets, 2021, p.63

[11] Ibid., p. 34

[12] ibid., p. 35

[13] Food and Drug Administration.

[14]https://www.gehealthcare.com/about/newsroom/press-releases/tampa-general-hospital-and-ge-healthcares-carecomm-saves-40-million-cuts-20000

[15] https://www.shiftmed.com/blog/impact-of-ai-in-healthcare-administration/

[16] BLONS. E, Glossaire, « L’IA au cœur de l’entreprise », 2023, p. 173 à 178 : Un jumeau numérique est une représentation virtuelle d’une entité ou d’un processus du monde réel. Il est composé des trois éléments suivants : une entité physique dans l’espace réel ; le jumeau numérique sous forme de logiciel ; et les données qui relient les deux premiers éléments.

[17] Zhou luhan, « l’intelligence artificielle médicale commence à accélérer l’industrialisation », New economics guide, juillet 2017, pp. 18–22.

[18] Baidu, Alibaba, Tencent, Xunfei

[19] WANG Wei, « Artificial Intelligence and healthcare in china : What is the rôle for sort law ? », Droit, santé et société, 2021/3 (N°3), p. 29 à 37

[20] Allisone, « IA & santé : Où en sont la Chine, les États-Unis et l’Europe », 12 mars 2024

[21] Le Comité national pilote d’éthique du numérique créé en décembre 2019 a été pérennisé en Comité Consultatif National d’Éthique du Numérique (C.C.N.E. du Numérique) le 27 mai 2024 https://cabinetpm.hosting.augure.com/Augure_CCNE/r/ContenuEnLigne/Download?id=1BE2DCC6-AAF7–414F-AF5F-C8A1EB2FFCE1&filename=CCNE_CP_20240527_Creation-CCNE-Numerique.pdf

[22] L’avis commun 141 CCNE/Avis 4 CNPEN du Comité Consultatif National d’Ethique adopté en novembre 2022 « fait suite à une saisine du Comité national pilote d’éthique du numérique (CNPEN) par le Premier ministre sur les enjeux d’éthique de l’utilisation de l’intelligence artificielle (IA) dans le champ du diagnostic médical, exprimée dans sa lettre de mission du 15 juillet 2019.”

[23] Ibid. p.20, cf Ardila, D. et al., (2019), “End-to-end lung cancer screening with three-dimensional deep learning on low-dose chest computed tomography“, Nature Medicine, 25, 954–61 ; Blanc D., et al., (2020), “Artificial intelligence solution to classify pulmonary nodules on CT”, Diagnostic and Interventional Imaging, 101 : 803–810.

[24] Ibid. p.20, cf E. Svoboda, (2020), “Deep learning delivers early detection”, Nature, 587, S20–2.

[25] Le marquage « CE » figure sur la majorité des produits non alimentaires. Il matérialise l’engagement du fabricant du produit sur sa conformité aux exigences fixées par la réglementation communautaire. Il doit être apposé avant qu’un produit ne soit mis sur le marché européen

[26] l’avis commun 141 CCNE/Avis 4 CNPEN du Comité Consultatif National d’Ethique adopté en novembre 2022 p20 Esteva A., et al., (2017), “Dermatologist-level classification of skin cancer with deep neural networks”, Nature, 542: 115–18.

[27] L’avis commun 141 CCNE/Avis 4 CNPEN du Comité Consultatif National d’Ethique adopté en novembre 2022 p.23 : “Elle est établie à partir d’échantillons de tissus ou de cellules prélevés lors d’une intervention chirurgicale, d’une endoscopie, ou lors de tout autre prélèvement, fixés sur lame de verre. Le diagnostic se fonde sur la distinction des différents constituants de l’architecture tissulaire et cellulaire au microscope optique après coloration et marquages. Ces lames sont aujourd’hui numérisées”.

[28] Ibid. p.23, cf Syryk C., et al., (2020), “Accurate diagnosis of lymphoma on whole-slide histopathology images using deep learning”, npj Digital Medicine, 3, 63 ; Coudray N., et al., (2018), “Classification and mutation prediction from non–small cell lung cancer histopathology images using deep learning”, Nature Medicine, 24, 1559–67.

[29] Ibid. p.23, cf Colling R., et al., (2019), “Artificial intelligence in digital pathology: a roadmap to routine use in clinical practice”, The Journal of Pathology, 249: 143–50 ; Van der Laak J., et al., (2021), “Deep learning in

histopathology: the path to the clinic”, Nature Medicine, 27, 775–84.

[30] Ibid. p.28, Consultable au lien suivant : https://ada.com/

[31] Ibid. p.28,. Consultable au lien suivant : https://www.babylonhealth.com/en-us

[32] Ibid. p.28, D’après plusieurs études, « 40 % des diagnostics d’admission lors de la première présentation aux urgences ne concordent pas avec le diagnostic final du patient », voir cette synthèse : Faqar-Uz-Zaman S.F. et al., (2021), “Study protocol for a prospective, double-blinded, observational study investigating the

diagnostic accuracy of an app-based diagnostic health care application in an emergency room setting: the

eRadaR trial”, British Medical Journal Open, 11:e041396.

[33] Ibid. p.29. Le capteur mesure toutes les 5 minutes le glucose interstitiel qui est transmis au terminal mobile. Ce terminal mobile vise à piloter automatiquement la pompe à insuline, ou proposer des recommandations àpartir des données du capteur, des données historiques du patient, de la pompe à insuline et des données rentrées par le patient », voir : HAS, Avis de la Commission Nationale d’Evaluation des Dispositifs Médicaux et des Technologies de Santé (CNEDiMTS) du 28 janvier 2020, 45 p.

[34] Le CCNE est né en 1983 après la naissance par fécondation in vitro du premier bébé français. Le rôle du CCNE est de fournir un éclairage utile aux décideurs et au débat public sur les enjeux éthiques de ces progrès.

[35]Rapport de l’Académie Nationale de Médecine du 5 mars 2024. p.9 “Le marché de la découverte de médicaments par l’IA générative de 150M$ en 2023 pourrait être multiplié par 10 dans les années à venir”

[36] Intervention précoce dans la psychose : vers une psychiatrie préventive et personnalisée : Coordonné par Pr. Marie-Odile Krebs (Université de Paris/GHU Paris/Inserm) https://www.ghu-paris.fr/fr/programme-psycare

[37] https://www.chu-toulouse.fr/ihu-toulouse-cree-son-institut-dedie-a-la-9936

[38] https://congres-jvma.fr/

[39] Dans la foulée, Hela Ghariani a été nommée, en conseil des ministres du 7 juin, déléguée au numérique en santé. Elle est avec David Sainati, co-responsable du numérique en santé dans un fonctionnement en binôme complémentaire à la tête de la DNS.

[40] Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne, Rapport remis au Premier ministre, 2018 https://www.google.fr/books/edition/Donner_un_sens_%C3%A0_l_intelligence_artific/Q7lUDwAAQBAJ?hl=fr&gbpv=1&printsec=frontcover

[41] IA : notre ambition pour la France, rapport de la Commission de l’intelligence artificielle remis à la Première ministre, mars 2024 https://www.info.gouv.fr/upload/media/content/0001/09/4d3cc456dd2f5b9d79ee75feea63b47f10d75158.pdf

[42] https://www.innovant.fr/2018/01/11/lintelligence-artificielle-prevenir-suicides/

[43] Commission de l’intelligence artificielle, 2.1.4 Mieux soigner grâce à l’IA : plus de temps au soin « IA : Notre ambition pour la France », 2024, p. 81–82

[44] WONG, F., ZHENG, E.J., VALERI, J. A., et al.(2023) « Discovery of a structural class of antibiotics with explainable deep learning » Nature.

[45] OLAWADE D. B., O. J. WADA, A. C. DAVID-OLAWADE, E. KUNONGA, O. ABAIRE, ET J. LING (2023) « Using artificial intelligence to improve public health: a narrative review » Front Public Health

[46] Natural language Processing

[47] TU, T.ET AL. (2024) « Towards Conversational Diagnostic AI »

[48] Commission de l’intelligence artificielle, 2.1.4 Mieux soigner grâce à l’IA : plus de temps au soin « IA : Notre ambition pour la France », 2024, p. 82

[49] https://healthcaredatainstitute.com/wp-content/uploads/2024/01/etudes-hdi-day-2023_compressed_compressed-1.pdf

[50] https://sciencespo.hal.science/hal-03385740v1/file/2005-les-trois-i.pdf

[51] https://www.entreprises.gouv.fr/fr/actualites/innovation-sante-2030-plan-ambitieux-pour-industries-de-sante

[52] https://sante.gouv.fr/IMG/pdf/dossier_sns_2017_vdef.pdf

[53] https://www.femtechfrance.org/

[54] https://www.unicancer.fr/wp-content/uploads/2023/11/cp-conventionunicancer2023–1.pdf

[55] Pour « Continuum Soins Recherche ».

[56] https://recherche.unicancer.fr/fr/programmes/oncods/

[57] https://filiere-ia.fr/nous-connaitre/organisation/

[58] Andreas D. Lauritzen, PhD • Martin Lillholm, Ph.D. • Elsebeth Lynge, Ph.D. • Mads Nielsen, Ph.D. •Nico Karssemeijer, PhD • Ilse Vejborg, MD, “Indicateurs précoces de l’impact de l’utilisation de l’IA dans le dépistage du cancer du sein par mammographie”, Radiology, Vol 311, Number 3, 27 mars 2014.

[59] . Perry N, Broeders M, de Wolf C, Törnberg S, Holland R, von Karsa L. European guidelines for quality assurance in breast cancer screening and diagnosis. Fourth edition—summary document. Ann Oncol 2008;19(4):614–22.

[60] Rapport de l’Académie Nationale de Médecine du 5 mars 2024. p.9 “Le marché de la découverte de médicaments par l’IA générative de 150M$ en 2023 pourrait être multiplié par 10 dans les années à venir”

[61] Ibid. p.9, cf Advancing drug–target interaction prediction: a comprehensive graph-based approach integrating knowledge graph embedding and ProtBERT pretraining, Djeddi et al. BMC Bioinformatics (2023), 24, 488 (2023), https://doi.org/10.1186/s12859–023–05593–6.

[62] Livre_blanc_Données_de_santé_artificielles-250424.pdf

[63] French Clinical Research Infrastructure Network, initiative engagée dès 2010 dans le cadre du programme d’investissements d’avenir.

[64] Colloque national "Next generation in clinical research: AI, in silico and external arms, Time to make them real" https://www.fcrin.org/espace-media/actualites/colloque-next-generation-clinical-research-ai-silico-and-external-arms-time

 

[65] Avis 129 et 141.

[66] https://www.who.int/fr/news/item/28–06–2021-who-issues-first-global-report-on-ai-in-health-and-six-guiding-principles-for-its-design-and-use

[67] Mesure de la puissance de calcul.

[68] En l’absence de risques systémiques.  

[69] Executive order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, 30 octobre 2023 https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/

[70] Secrétaire à la santé et aux services sociaux.

[71] L’ARS de Bretagne a, ainsi, déclenché dès 2022 un appel à manifestation d’intérêt mobilisant les crédits du Fonds d’intervention régional (FIR) pour soutenir l’émergence de cas d’usage d’intelligence artificielle dans la région.

[72] Cette démarche, qui se traduit par des programmes cliniques élaborés par l’ensemble des acteurs de santé d’un territoire, a d’abord été développée au Québec. Depuis 2017, elle est au cœur de la stratégie de santé de la Fédération hospitalière de France et plus particulièrement portée par les travaux d’Antoine MALONE. L’article 20 de la loi du 24 juillet 2019 relative à l’organisation et à la transformation du système de santé dispose ainsi que désormais, « l’ensemble des acteurs de santé d’un territoire est responsable de l’amélioration de la santé de la population de ce territoire ainsi que de la prise en charge optimale des patients de ce territoire. »

[73] Sur la plateforme ANAP des solutions d’IA en santé : https://ia.anap.fr/

[74] https://care-insight.fr/think-tank/

[75] Sur la définition de ce concept proposée par le panel d’experts de la Commission européenne : https://health.ec.europa.eu/system/files/2019–11/2019_defining-value-vbhc_factsheet_en_0.pdf

[76] CRAPS, “L’IA : un défi pour la protection sociale », 2020 https://www.thinktankcraps.fr/lia-un-defi-pour-la-protection-sociale-2/

[77] DRIM France IA est une association loi 1901, émanation du G4, Conseil National Professionnel de la Radiologie, qui regroupe les 4 institutions de la radiologie française (SFR, FNMR, CERF et SRH). Ces institutions représentent les 8 885 radiologues qui exercent en France (données 2019). L’un de ses principaux objectifs est d’accompagner le développement de l’IA en radiologie en aidant les radiologues à choisir des solutions d’IA pertinentes et validées, à les installer dans le respect des réglementations et en accompagnant la mise au point de solutions d’IA pertinentes et répondant aux besoins des radiologues français. DRIM France IA souhaite également pouvoir tester sur des datas et les différentes solutions disponibles. La mise œuvre de la garantie humaine afin de surveiller toute dérive des outils d’IA est également un enjeu fort pour DRIM.

[78] https://www.has-sante.fr/jcms/p_3212876/fr/un-nouvel-outil-pour-l-evaluation-des-dispositifs-medicaux-embarquant-de-l-intelligence-artificielle

[79] La qualification SecNumCloud constitue ainsi un visa de sécurité délivré par l’ANSSI attribué aux prestataires de service cloud, qui atteste du niveau optimum de qualité, de sécurité et de confiance de leurs services.

[80] Institut Montaigne, IA et emploi en santé : quoi de neuf docteur ? https://www.institutmontaigne.org/publications/ia-et-emploi-en-sante-quoi-de-neuf-docteur

[81] Pascal Oudot, Le Risque de développement, Éditions universitaires de Dijon, 2005.

[82] European Parliament legislative resolution of 12 March 2024 on the proposal for a directive of the European Parliament and of the Council on liability for defective products (COM(2022)0495 – C9–0322/2022 – 2022/0302(COD))

[83] Ibid., Article 8.1.b)

[84] Ibid., Article 2.2 : This Directive does not apply to free and open-source software that is developed or supplied outside the course of a commercial activity.

[85] Ibid., Article 9

[86] Ibid., Article 10

[87] Ibid., Article 18

[88] https://www.relyens.eu/fr/relyens/relyens-innove

Site Internet fabriqué avec  et  éco-conçu pour diminuer son empreinte environnementale.
Angle Web, Écoconception de site Internet en Savoie