Par Catherine Paley-Vincent, Avocat associée et Nathalie Boudet-Gizardin, Avocat counsel

Article publié avec l'aimable autorisation du Conseil départemental de l'Ordre des Médecins des Hauts-de-Seine

Qualifiée par certains de « tsunami numérique », l’IA a déjà investi l’exercice quotidien de la médecine, qu’il s’agisse d’offrir aux médecins une aide au diagnostic et aux choix thérapeutiques, une lecture d’imageries médicales, une assistance robotique aux interventions chirurgicales, ou encore de développer une médecine de la prédiction et de la prévention. À côté des médecins utilisateurs de l’IA, comme peuvent l’être des radiologues ou des chirurgiens, coexistent des médecins prescripteurs de l’IA, qui recommandent l’utilisation d’applications de santé et d’objets connectés à leurs patients, notamment lorsqu’ils sont atteints de maladies chroniques.

Ces procédés d’aide à la décision médicale sont qualifiés, par les spécialistes, d’IA dite « faible », c’est-à-dire qu’elle n’égale pas le cerveau humain et joue uniquement un rôle d’assistance du médecin. Par opposition, l’IA dite « forte » consisterait à concevoir une machine capable de raisonner comme l’humain, de progresser du fait de sa propre expérience, d’acquérir une autonomie vis-à-vis de ses programmes initiaux, donc in fine de se substituer aux médecins…Nous n’y sommes pas encore !

L’IA « faible » permet déjà d’améliorer la qualité des soins et l’efficacité de la prise en charge des patients, en réduisant les risques d’erreurs de diagnostic et de thérapeutiques, et devrait permettre à l’avenir de développer une médecine plus personnalisée, d’optimiser les pratiques médicales et de réduire leurs coûts. Son déploiement tous azimuts est-il pour autant susceptible de remettre en cause la place du médecin dans la relation de soins et sa responsabilité à l’égard du patient ?

Quels risques pour les médecins utilisateurs ou prescripteurs de l’IA ?

Une transformation de la relation de soins

Comme l’a souligné le Conseil d’État dans une étude récente relative à la Révision des Lois de Bioéthique, le développement croissant de l’IA dans la relation de soins médecin-patient pourrait favoriser une forme de dépossession du savoir médical du médecin. Au profit des patients qui, en utilisant des objets connectés, deviennent experts de leur maladie, donc plus autonomes. Également, au profit des logiciels et algorithmes, dont le savoir serait supérieur à celui du médecin. Dépossédé de son expertise, le médecin ne doit pas devenir « un simple exécutant déqualifié suivant les prescriptions de la machine ».

Le risque d’une « déshumanisation » de la relation de soins est encore pointé du doigt par le Conseil d’Etat, du fait de la possibilité nouvelle pour le médecin de déléguer à la machine des tâches qu’il assumait jusque-là. Si l’on peut se réjouir de ce que l’essor de l’IA permette au médecin de déléguer des actes purement techniques ou administratifs, il doit veiller à ne pas se retrouver mis à l’écart de la relation de soins, dont la dimension humaine et relationnelle est au cœur de la médecine. Dans son rapport de janvier 2018, le CNOM souligne les dangers d’une médecine sans médecin, qui s’en remettrait « aveuglément à des « décisions » prises par des algorithmes dénués de nuances, de compassion et d’empathie ».

Un élargissement des cas de responsabilité médicale

Ni le Conseil d’État, ni la Cour de Cassation n’ont encore été saisis d’un contentieux impliquant l’IA. Néanmoins, si demain un tel contentieux survenait, qui serait désigné comme responsable du dommage causé au patient du fait de l’IA ? Des voix se sont élevées pour une reconnaissance de la personnalité juridique du « robot intelligent », soulevant ainsi une multitude d’interrogations : quel robot serait susceptible d’acquérir la personnalité juridique ? Qui serait tenu de souscrire l’assurance responsabilité civile du robot ? Quelle sécurité juridique pour le patient ? Très controversée, la reconnaissance de la personnalité juridique du « robot intelligent » et de sa responsabilité éventuelle semble aujourd’hui avoir heureusement été abandonnée, au profit du maintien de la responsabilité civile du médecin utilisateur ou prescripteur de l’IA.

En aucun cas, le médecin ne pourra s’exonérer de sa responsabilité du fait de l’utilisation de l’IA. Bien au contraire, il devra redoubler de vigilance, sous peine de voir sa responsabilité engagée pour faute : en cas de mauvaise utilisation du système intelligent, du fait d’une erreur de programmation de la machine, ou encore en cas d’un défaut de maintenance, telle une absence d’actualisation d’un logiciel ayant conduit à une analyse médicale erronée ou dépassée. Quid, par ailleurs, du médecin qui n’aurait pas détecté une erreur d’analyse commise par le système intelligent ou qui aurait causé un dommage à son patient en ne suivant pas le diagnostic ou les prévisions de la machine ? La responsabilité du médecin utilisateur ou prescripteur de l’IA pourrait également être recherchée dans son obligation d’information ou de conseil, par un patient mal informé des risques liés à l’utilisation de l’IA, ou mal conseillé au sujet du choix d’une application de santé s'avérant inadaptée à sa pathologie ou défaillante.

Ces hypothèses doivent être distinguées de celle où l’IA causerait un dommage au patient, du fait de la survenance d’un “bug” de la machine, lié à un défaut de conception. Le médecin utilisateur de la machine défectueuse, poursuivi par le patient, pourrait alors se retourner contre le fabricant, pour engager sa responsabilité sur le fondement de la loi n°98-389 du 19 mai 1998 relative à la responsabilité du fait des produits défectueux.

Compte tenu des exigences prévisibles des patients à l’égard de l’IA, il est à redouter que la responsabilité des médecins soit davantage sollicitée en cas d’échec.

Comment réguler le déploiement de l’IA pour soigner ?

Rendre les médecins “cyber-compatibles”

Pour lutter contre une dépossession du savoir médical et une déshumanisation de la relation de soins, le médecin utilisateur d’un dispositif d’IA devra veiller à préserver sa relation avec son patient, conserver son libre arbitre, et être capable de porter un regard critique sur les résultats fournis par ce dispositif, simple outil d’assistance à la décision médicale qu’il prendra et assumera seul. Ainsi, un radiologue devra s’écarter des interprétations d’images radiologiques réalisées par un logiciel, s’il les estime douteuses et motiver expressément sa décision dans le dossier médical de son patient. 

Pour être capable de porter un regard critique sur l’analyse fournie par le dispositif d’IA, encore faut-il que le médecin comprenne, dans les grandes lignes, le processus selon lequel il fonctionne. La CNIL propose d’instaurer « une exigence d’explicabilité » des algorithmes, impliquant que le concepteur d’un dispositif d’IA mette à la disposition du médecin utilisateur, les informations lui permettant d’en comprendre la logique générale de fonctionnement. Le médecin utilisateur devrait bénéficier également d’une formation, afin qu’il puisse cerner les limites du dispositif et le cas échéant, être en mesure de s’écarter de ses recommandations et d’en expliciter les raisons à son patient. 

Quant au médecin prescripteur de dispositifs d’IA, il devra également bien appréhender le développement de ces dispositifs sur le marché de la santé et maîtriser leurs modes de fonctionnement, puisqu’il en préconise l’usage à ses patients. Susceptible d’engager sa responsabilité pour mauvaise recommandation, il serait prudent qu’il oriente ses patients vers des applications de santé labellisées. L’essor de l’IA impliquera donc, à terme, une transformation de la formation initiale et continue des médecins, lesquels devront obligatoirement être formés à ces nouveaux dispositifs.

Respecter les droits du patient concerné par un dispositif d’IA

Le médecin doit être particulièrement vigilant au respect des droits de son patient, lorsqu’il envisage d’utiliser un dispositif d’IA, dans le cadre de sa prise en charge. Ainsi, avant d’y recourir, que ce soit pour poser un diagnostic ou faire un choix thérapeutique, le médecin devra en informer son patient et recueillir, par écrit, son consentement éclairé, tout en lui exposant les risques liés à cette utilisation. A cette occasion, il n’est pas exclu que le patient s’oppose au recours à l’IA, dans les soins qui lui seront apportés. Le médecin ne pourra alors passer outre ce refus. En cas de consentement, l’information du patient devra également porter sur l’utilisation de ses données de santé, celle-ci devant intervenir dans le respect du secret professionnel et de la réglementation sur la protection des données personnelles. 

Devenus acteurs de leur propre santé, les patients devront, face aux dispositifs d’IA, être encore plus coopératifs et proactifs, puisque ces dispositifs “s'alimentent” de leurs données personnelles, aussi bien de leurs données de santé que des informations qu’ils communiquent sur leur mode de vie ou le suivi de leur traitement.

Recourir à l’IA dans une relation de soins nécessite donc de prendre ses responsabilités aussi bien pour le médecin que pour le patient.

Catherine-Paley-Vincent

Catherine Paley-Vincent

Associée

Expert reconnu en droit de la santé, elle intervient notamment pour la constitution et le suivi de structures entre professionnels de santé hospitaliers et/ou libéraux, pour la gestion des conflits éventuels et de leurs suites transactionnelles, judiciaires ou disciplinaires. Le domaine de l’Imagerie médicale lui est particulièrement familier.

Elle conseille des laboratoires pharmaceutiques en matière de dispositifs médicaux, d’étiquetage et d’essais cliniques.

Elle est régulièrement consultée sur l’application de la déontologie, notamment en matière de réglementation des Ordres professionnels de réseaux, de publicité et d’internet utilisé dans le monde médical et vétérinaire.

Nathalie-Boudet

Nathalie Boudet-Gizardin

Counsel

Elle a rejoint le cabinet la même année au sein de l’équipe Civil et Santé de Catherine Paley-Vincent. Elle conseille les acteurs de santé particulièrement en matière de :

Défense civile, disciplinaire et pénale des professionnels de santé, des ordres professionnels et des laboratoires de biologie médicale et vétérinaire

Conseil et assistance des professionnels de santé pour structurer leurs activités, y compris dans le cadre de coopération public/privé, notamment en imagerie médicale

Accompagnement des professionnels de santé et des entreprises innovantes dans le développement de leurs projets e-santé.