6 février 2026

Quels enjeux éthiques et juridiques de l’intelligence artificielle en médecine ?

Sans remplacer les médecins, l’IA transforme en profondeur la pratique médicale et pose des enjeux éthiques et juridiques majeurs.

Comme Geppetto devant Pinocchio [1], son pantin de bois qui prend vie, nous sommes face à l’IA à la fois fascinés et perplexes… voire apeurés. Resterons-nous le marionnettiste d’une IA qui demeurera notre marionnette, ou serons-nous dépassés par notre création pour devenir son pantin ? Sur la prise de pouvoir de l’IA sur l’homme, laissons cela aux amateurs de science-fiction. Le philosophe et informaticien Maël Pégny nous invite à « faire face aux aspects dystopiques de notre présent, plutôt qu’à une éventuelle dystopie future [2] ». Or la technomédecine est aussi riche de promesses que d’inquiétudes. Et les perspectives de l’IA en médecine relèvent autant de l’utopie [3] que de la dystopie.

Dans l’espace court de cet article, je soulèverai trois enjeux éthiques majeurs de l’usage de l’IA en médecine. Premièrement, j’évoquerai l’apprentissage de l’IA médicale dans l’objectif de montrer qu’elle ne remplacera pas les médecins. Deuxièmement, il s’agira d’envisager quelques enjeux éthiques et juridiques de l’aide au diagnostic et à la thérapeutique par l’IA. Troisièmement, j’aborderai des problèmes que pose l’usage de données personnelles de santé.

Avec l’avènement récent de ChatGPT [4], la plus célèbre des IA génératives (générant des textes, des documents sonores et des vidéos à la demande), nous pourrions croire que toutes les IA travaillent par autoapprentissage, en apprenant du contenu de nos prompts (questions des utilisateurs) et en cherchant dans les données massives disponibles sur l’ensemble du web. Or, l’autoapprentissage n’est pas la norme pour toutes les IA. Nombre d’IA, en particulier médicales, apprennent à répondre aux questions grâce à des humains qui passent leur temps de travail à les « nourrir » de données qu’’ils étiquettent pour que l’IA comprenne un ou plusieurs objets et les distingue. [5] L’histoire qui suit le démontre.

Le philosophe Gaspard Kœnig a entrepris un voyage principalement en Californie et en Chine pour comprendre les enjeux de l’IA, et en a tiré un livre tout à fait passionnant [6]. Avant de partir en voyage, Kœnig rend visite à son cousin radiologue à Rouen. Ce dernier lui demande si l’IA va lui prendre son travail.

Pour répondre à cette question, le philosophe voyageur interroge le docteur Curtis Langlotz, directeur du centre d’IA en médecine de l’université de Stanford [7] : « Dans le cas de l’IA, l’élaboration et l’amélioration des algorithmes requièrent et continueront de requérir un important travail de labellisation d’images. » Il existe des boot camps de labellisation « où des bases de données sont analysées à la chaîne par des yeux et des cerveaux humains avant de nourrir la machine. » Et Kœnig de conclure : « les formes traditionnelles de perception et de savoir restent nécessaires en amont, même si elles deviennent invisibles une fois que l’algorithme a atteint sa maturité. Ce travail de labellisation ne sera jamais terminé : il se poursuit et s’affine à mesure que la science avance. Pour remplacer les radiologues, il faut donc former… des radiologues ! [8] ».

Bonne nouvelle pour le cousin de Rouen, et pour nous aussi : nous restons les marionnettistes de l’IA, en tout cas d’un grand nombre d’entre elles. Les IA qui fonctionnent par autoapprentissage posent une foule de questions, que nous n’aurons pas la place de poser ici. Trois questions s’imposent cependant en médecine – et dans une foule d’autres domaines : comment « raisonne » l’IA ? Qui décide de la machine ou du médecin ? Qui porte la responsabilité de la décision ? 

Prenons ces questions de la troisième à la première. La responsabilité morale consiste à assumer ses actes vis-à-vis d’autrui, en particulier quand nous risquons de lui nuire, et le principe de non-malfaisance, cardinal en éthique médicale, nous rappelle sans cesse que la médecine peut faire très mal et nuire aux patients [9]. La responsabilité juridique consiste à appliquer la loi, et à répondre de nos actes et d’éventuelles transgressions dont nous serions auteurs devant une juridiction légale. On voit mal un patient poursuivre la machine en justice, ou accuser les codeurs d’une IA médicale d’une faute morale. Face à sa conscience ou face à une juridiction quelconque, le médecin aura à répondre de ses actes. Il est donc requis qu’il conserve la décision pour pouvoir en répondre.

En outre, le philosophe Mathieu Corteel pointe le danger, pour les médecins, de perdre la clinique, soit l’analyse empirique et à l’aide d’outils et d’images de l’extérieur et de l’intérieur du corps du patient, en vue du soin au chevet de ce dernier. La télémédecine présente le même danger, même s’il faudrait développer les enjeux éthiques spécifiques de cette (de moins en moins) nouvelle pratique médicale. Concernant l’IA en médecine, Corteel avertit les médecins et les soignants de se défier de la « panacée computationnelle [10] », autrement dit d’une solution miracle d’aide au diagnostic et à la prescription via l’informatique.

Ce qui parle au médecin dans le corps du patient est sa douleur qui, selon Corteel, échappe à l’IA. Il précise : « dans le regard clinique, les formes de subjectivité du médecin suivent un certain ordre naturel des pathologies desquelles résultent une attention et un soin qui dépassent la somme des parties pour tenter de parler une langue étrangère, celle de la souffrance. [11] » Et il conclut : « Vouloir coder la douleur dans des échelles et des métriques pour mieux implémenter le soin et l’attention dans une IA me semble une voie vers la déshumanisation de la médecine. [12] » La position clinicienne de Corteel est intéressante et séduisante, mais la reconnaissance faciale pourrait bien repérer des inflexions difficilement perceptible à l’œil nu du patient, ou des contractions musculaires peu visibles. Le fait qu’il existe ou existera des IA d’aide à l’analyse de la douleur ne fait aucune doute.

Le fait que le médecin semble encore le meilleur clinicien ne signifie pas qu’il doive se passer de l’IA et n’être que clinicien. Un médecin ne peut analyser 300 000 photos de peaux atteintes de mélanomes en quelques secondes pour estimer quelles sont l’ampleur et la malignité du vôtre. Des IA dermatologiques le peuvent déjà [13]. La collaboration médecin-IA doit permettre des progrès fulgurants de la médecine. Mais un problème éthique important est la compréhension du raisonnement de l’IA.

Mais ce qui compte est le résultat. Le médecin ne va pas analyser lui-même les 300 000 photos de peaux atteintes de mélanomes. Il sait que l’IA fonctionne avec des probabilités établies à partir de millions de données de santé, selon une formule qu’on peut résumer brièvement ainsi : « Au vu de la photo de la peau du patient fournie à l’IA, la probabilité que la patient est un mélanome X à tel stade avec telles caractéristique est proche de 100% ». L’IA peut poursuivre l’analyse, pour proposer des axes thérapeutiques si les photos de mélanome qui ont nourri son apprentissage ont été étiquetées avec des traitements précis. Toujours par calcul de probabilités, l’IA détermine un traitement à condition que le médecin ait entré toutes les données de santé de son patient pour ajuster le traitement. Un clinicien doit rester maître de la thérapeutique qu’il inscrit sur l’ordonnance, pour les questions de responsabilité juridiques et morales.

Même si l’IA doit être nourrie, comme nous l’avons vu plus haut, de nombreuses IA ont un mode d’apprentissage dit « profond ». Maël Pégny explique ce dont il s’agit : « L’apprentissage y est effectué avec une plus grande autonomie, et les programmes produits par cette méthode sont qualifiés d’opaques, au sens où les critères employés par le programme final pour exécuter sa tâche demeurent obscures même aux yeux de ses développeurs [14] » Or, pour que le médecin puisse assumer sa responsabilité juridique, mais aussi morale, il doit rester maître du raisonnement et doit pouvoir accéder au « raisonnement » de la machine, c’est-à-dire comprendre comment elle parvient aux résultats qu’elle propose. Les médecins ne doivent pas devenir les marionnettes de l’IA, mais doivent rester les marionnettistes.

Le médecin ne pourra vraisemblablement pas reconstituer le raisonnement de l’IA de bout en bout. Mais il doit garder son propre raisonnement clinique, et garder un esprit critique sur les résultats que propose la machine, tant concernant les diagnostics que les thérapeutiques. C’est un point essentiel de l’éthique de la technomédecine, pour que la responsabilité du médecin reste pleine et entière. Le médecin travaille avec les données médicales recueillies avec le patient (ses antécédents médicaux, ce qu’il dit de ses symptômes), sur son corps et dans son corps. L’IA travaille avec des milliards de données de patients du monde entier. Il est donc important de considérer les enjeux juridiques et éthiques de la manipulation et la communication informatique de ces données, qui sont des données personnelles de santé (DPS).

Pourquoi les données de santé et leurs transmissions par internet sont-elles stratégiques ? Aujourd’hui, le respirateur artificielle qui vous permet de lutter contre l’apnée du sommeil communique des données sur votre usage au fournisseur, qui doit rendre des comptes à la Sécurité Sociale. Si vous avez un usage aléatoire et insuffisant de ce respirateur, vous pourriez bien en voir cesser la prise en charge. Les pompes à insuline communiquent avec votre centre de diabétologie. Dans L’homme nu, livre qui a déjà dix ans, Marc Dugain et Christophe Labbé expliquent que des assurances états-uniennes fournissent des montres connectées qui enregistrent que vous faîtes de l’exercice physique, et envoient des données à votre assureur santé, lequel baisse la prime ou l’augmente en fonction de l’exercice physique que vous réalisez avec régularité et intensité, ou pas [15].

Mais nous pourrions bien subir des fuites de données très préjudiciables : si l’assureur de votre crédit immobilier vient à savoir que vous avez des problèmes cardiaques, il pourrait exiger un nouveau questionnaire médical, qui amènerait à l’exclusion des garanties tout problème cardiaque. Les technologies sont très souvent ambivalentes. Elles sont riches de promesses, formidables quand elles sont tenues, mais elles sont aussi porteuses de dérives potentiellement néfastes pour les individus et pour les peuples… d’où la nécessité une réflexion juridique et éthique sur la protection des données personnelles, en particulier des données de santé.

La juriste Margo Bernelin explique, dans un article de 2019, que la loi du 24 juillet 2019 relative à l’organisation et à la transformation du système de santé a créé une plateforme des données personnelles de santé (DPS), qui recueillent des données massives de santé à des fins de recherche : « En effet, s’ajoutent aux bases de données médico-administratives, toutes les données recueillies à l’occasion de soins remboursés par l’assurance maladie. Par conséquent, toute donnée clinique recueillie à l’occasion d’une visite médicale prise en charge par l’assurance maladie pourra intégrer la plateforme. Il s’agira par exemple de mesures de poids, de taille, des informations précises sur l’état de santé du patient, des résultats des tests sanguins ou encore des motifs de consultation. [16] »  

Tout l’enjeu éthique et politique pour le législateur est de préserver la vie privée et la sécurité des usagers des services de santé, tout en faisant en sorte que les projets de recherches en santé et médecine avancent sans être bridés par des mesures protectrices entravantes, notamment en vue du développement d’IA médicales. Margo Bernelin [17] précise que la loi de 2019 prévoit que « le système national des données de santé ne contient ni les noms et les prénoms des personnes, ni leur numéro d’inscription au répertoire national d’identification des personnes physiques, ni leur adresse. Les numéros d’identification des professionnels de santé sont conservés et gérés séparément des autres données.[18] » 

En outre, l’article L. 1460-1 du Code de la Santé Publique stipule que les traitements effectués sur les données mises à disposition par le système national des données de santé (SNDS) « ne peuvent avoir ni pour objet ni pour effet de porter atteinte à la vie privée des personnes concernées. Ils ne doivent en aucun cas avoir pour fin l’identification directe ou indirecte de ces personnes. » Bernelin ajoute que ce même article de loi « interdit que les données du SNDS ne soient utilisées pour prendre une décision à l’encontre des personnes identifiées par des traitements, notamment l’augmentation du montant d’une prime d’assurance. [19] »      

Mais la pression exercée par les multiples entreprises du capitalisme de surveillance [20] qui requiert des données pourra-t-elle être efficacement maîtrisée et régulée par les lois et politiques publiques nationales et européennes de protection des usagers du système de santé ? A voir. Ainsi que le développe le philosophe Philippe Huneman [21], nous sommes entrés depuis l’avènement d’internet dans les sociétés du profilage, prenant acte de la prophétie formulée par le philosophe Gilles Deleuze en 1990 : « Ce sont les sociétés de contrôle qui sont en train de remplacer les sociétés disciplinaires. [22] » Pour le contrôle par les entreprises privées et les institutions publiques des individus, les données personnelles de santé sont stratégiques. Les cyberattaques qui visent régulièrement les hôpitaux en sont une sinistre preuve : l’attaque du centre hospitalier de Versailles du 4 décembre 2022 est un exemple parmi d’autres. Les réflexions éthiques et les tentatives de régulation politique et juridique – même si elles sont déjà nombreuses – ne font que commencer. L’enjeu majeur est ici de ne pas devenir les marionnettes des pouvoirs qui veulent nous assujettir, et de rester maître de notre destin individuel et collectif.

[1] Carlo Collodi, Les aventures de Pinocchio, Paris, Galimard, 2003 (1883).
[2] Maël Pégny, Ethique des algorithmes et de l’intelligence artificielle, Paris, J. Vrin, 2024, p. 27.
[3] Voir le médecin utopiste Laurent Alexandre, Et si nous devenions immortels ? Comment la technomédecine va bouleverser l’humanité, Paris, Le livre de Poche, 2018.
[4] Laurent Alexandre, La guerre des intelligences à l’heure de ChatGPT, Paris, Le Livre de Poche, 2024.
[5] Gaspard Kœnig, La fin de l’individu. Voyage d’un philosophe au pays de l’intelligence artificielle, Paris, Alpha, 2024, chapitre « Le turc mécanique », pp. 37 sqq.
[6] Gaspard Kœnig, La fin de l’individu. Voyage d’un philosophe au pays de l’intelligence artificielle, Paris, Alpha, 2024.
[7] Idem, pp. 135-139.
[8] Idem, p. 138.
[9] Tom L. Beauchamp & James F. Childress, Les principes de l’éthique biomédicale, Paris, Les Belles Lettres, 2008 (2001), pp. 167 sqq.
[10] Mathieu Corteel, Ni Dieu ni IA. Une philosophie sceptique de l’intelligence artificielle, Paris, La Découverte, 2025, p. 109.
[11] Idem, p. 132.
[12] Idem, p. 138.
[13] Voir de nombreux outils médicaux utilisant l’IA dans Marie-Caroline Laï (médecin de santé publique), Ethique, Intelligence Artificielle et santé. Pour la construction d’un cadre éthique opérationnel, Paris, L’Harmattan, 2024, pp. 17 sqq [Ce livre est une très bonne et brève introduction aux enjeux éthiques des IA médicales.]
[14] Maël Pégny, Ethique des algorithmes et de l’intelligence artificielle, Paris, J. Vrin, 2024, p. 65.
[15] Marc Dugain & Christophe Labbé, L’homme nu. La dictature invisible du numérique, Paris, Plon, Robert Laffont, 2016, pp. 80 sqq.
[16] Margo Bernelin, « Intelligence artificielle en santé : la ruée vers les données personnelles », Cités, 80, Presses Universitaires de France, 2019, pp. 80-81.
[17] Idem, pp. 85-86.
[18] Art. L. 1461-4 du Code de la Santé Publique.
[19] Idem, p. 86.
[20] Shoshana Zuboff, L’âge du capitalisme de surveillance. Le combat pour un avenir humain face aux nouvelles frontières du pouvoir, Paris, Zulma, 2022 (2019).
[21] Philippe Huneman, Les sociétés du profilage. Evaluer, optimiser, prédire, Paris, Payot, 2023.
[22] Gilles Deleuze, Pourparlers, Paris, Editions de Minuit, 1990, p. 241.

Partager sur 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Archives :

18 avril 2024

Personne âgée vulnérable : l’éthique s’invite au débat

4 avril 2024

Exploration de l’éthique dans le sanitaire et dans le médico-social (enquête)

11 janvier 2024

Création du CCNE du Numérique

12 janvier 2023

Débats sur la fin de vie : les espaces de réflexion éthique en première ligne

23 décembre 2022

Fin de vie : le débat est lancé

19 décembre 2022

PMA : les enjeux éthiques de la levée de l’anonymat

29 novembre 2022

Le partenariat patient : L’avenir de la démocratie en santé ?

28 novembre 2022

L’EREGIN recrute son directeur à compter du 1er mars 2023

24 novembre 2022

Cinq mesures innovantes pour les plans greffes et dons d’organe

Close
Close

Contactez-nous

Adresse :

Siège : CHU de Guadeloupe

Antenne opérationnelle :
SAS IMM’EAUX 10 Quartier Sisyphe
Voie Verte ZI de Jarry
97122 BAIE-MAHAULT

 

 

Email :
contact@eregin.com

 

Formulaire de contact :

Une question sur l’une de nos formations ou l’un de nos événements ?

 

Contactez-nous

Suivez-nous sur