
Éthique en santé : quand l’intelligence artificielle change la donne
L’Intelligence artificielle (IA) impacte aujourd’hui de nombreux secteurs d’activité et l’univers de la santé ne fait pas exception. En France, certaines technologies sont déjà développées, d’autres moins. Face à l’essor rapide de ces évolutions, la question de l’éthique prend une importance croissante.
Le scientifique américain, Marvin Minsky, définit l’intelligence artificielle (IA) comme « la science qui consiste à faire faire aux machines ce que l’homme ferait avec une certaine intelligence ». Dans le domaine de la santé, cette avancée technologique, basée sur l’apprentissage de données et la mise au point d’algorithmes prédéfinis, prend des formes variées et généralement pertinentes. L’objectif étant d’améliorer la prise en soins des patients et de perfectionner les pratiques médicales.
En France, l’IA se déploie aujourd’hui assez largement dans le domaine de l’imagerie (radiologie, oncologie, dermatologie, ophtalmologie…). Grâce à une analyse de chaque pixel, avec un niveau de détail beaucoup plus puissant que le regard humain, ce système est capable de détecter la moindre anomalie avec une grande précision.
« Les performances d’un tel outil sont déjà visibles en matière de repérage de tumeurs cancéreuses, de grains de beauté malins, ou pour analyser plus finement des rétines, etc., précise Hélène Gebel, formatrice indépendante en éthique. Plus une détection est précoce, plus le traitement peut commencer rapidement, augmentant ainsi les chances de guérison ».
Toutefois, aussi efficace soit-elle, cette avancée technologique n’en demeure pas moins problématique sur le plan éthique. En effet, elle pose la question de la responsabilité médicale. Si un médecin estime que l’IA se trompe sur la présence d’une tumeur et n’enclenche pas de traitement, sa responsabilité sera-t-elle engagée si le cancer se développe après-coup ? Ou inversement : Si l’IA détecte une tumeur maligne qui, finalement ne l’est pas, mais a déclenché une prise en soins surdimensionnée de la part du médecin entrainant des séquelles dommageables ?
La responsabilité médicale peut-elle se diluer dans le système d’intelligence artificielle ? Qui est responsable en cas d’erreur ? Le médecin ? La machine ? Son fabricant ? A ce jour, il n’existe pas encore de cadre juridique clair.
« C’est une suite logique de ce qui préexistait, souligne Hélène Gebel. Les radiologues comptent aujourd’hui parmi les médecins les plus exposés aux procédures judiciaires, car ils ne sont pas infaillibles. Cette question de responsabilité et de conséquences sur les usages mérite donc d’être posée ».
Notion de vérité
Tout comme l’imagerie, le diagnostic médical cristallise également bon nombre de recherches et de possibles évolutions via l’IA, ouvrant ainsi la voie à des résultats plus précis, rapides et personnalisés. En France, où quelques expérimentations sont en cours, la dernière loi de bioéthique (2021) introduit cette notion de système d’intelligence artificielle en matière de diagnostic médical.
À terme, chacun pourrait obtenir un diagnostic médical en remplissant simplement un questionnaire en ligne. « Ce type d’outil génère à nouveau plusieurs problématiques éthiques, poursuit Hélène Gebel. Cela pourrait bouleverser la relation soignant/soigné. Va-t-on préférer être devant son ordinateur pour obtenir un diagnostic rapide ou va-t-on continuer à consulter son médecin ? L’annonce du diagnostic doit-elle se faire par l’humain ou par la machine ? Quid de la suite à donner ? Quels soins ? Quels traitements ? ».
La notion de vérité se pose également. Faut-il estimer que tout ce que répond l’intelligence artificielle est vrai ? « Même s’il repose sur des données factuelles, le système d’algorithmes est conçu par l’homme et peut, par définition, être biaisé. Par exemple, pour être objectif, juste et efficace, un système d’IA en diagnostic doit être nourri par des données représentatives de la population mondiale dans son ensemble et pas juste d’une seule catégorie ethnique.
” À ce jour, en matière de recommandations éthiques, la position est claire : ces outils ne doivent en aucune manière remplacer le médecin ”.
Efficacité contre consentement
Un troisième domaine, encore sous-développé en France, concerne le parcours de soins, qui pourrait être fortement facilité par l’IA. En effet, combiner différentes approches médicales et paramédicales (kiné, psychologie, chirurgie…) peut souvent rendre les démarches très complexes pour les patients et les soignants. Une IA pourrait, en agrégeant toutes les données, grandement simplifier le parcours de soins. Mais cela suppose qu’elles soient hébergées, stockées et analysées de manière automatique et au même endroit. La question éthique du consentement prend ainsi toute sa place. « Aujourd’hui, en France, plusieurs plateformes existent, mais elles sont dispersées, loin d’être automatisées et basées sur le volontariat des patients, précise Hélène Gebel. L’évolution n’est pas pour maintenant. Chez nous, le consentement prime encore sur l’efficacité ».
Imagerie, diagnostic, parcours de soins, chirurgie : les évolutions technologiques sont très rapides et touchent l’ensemble des secteurs de la santé. Ces innovations, qui promettent de transformer la médecine, soulèvent toutefois des questions éthiques cruciales nécessitant une réflexion approfondie sur leur intégration et leur régulation.

« Il est essentiel de développer une culture numérique aussi bien chez les patients que chez les professionnels de santé »
L’essor des plateformes numériques et de l’intelligence artificielle en santé soulève des défis majeurs : protection des patients, transparence, équité d’accès et responsabilité. Hélène Gebel, référente éthique chez Sopra Steria nous aide à mieux comprendre ces enjeux et les principes éthiques qui devraient guider leur régulation.
Quels principes éthiques devraient, selon vous, guider la régulation des plateformes de données de santé pour concilier l’innovation et la protection des droits des patients ?
Selon le Comité national pilote d’éthique du numérique (CNPEN), qui a publié un avis spécifique sur ce thème[1], plusieurs principes éthiques devraient guider la régulation des plateformes de données de santé.
La protection des données personnelles vise tout d’abord à assurer la sécurité et la confidentialité des données de santé des patients. C’est fondamental, car ce sont des données dites sensibles (cf. définition de la CNIL[2]), pour lesquelles des protections renforcées doivent être mises en place techniquement.
Il existe ensuite les principes d’autonomie et de transparence permettant un consentement éclairé. Les patients restent maîtres de leurs données et sont donc décisionnaires concernant l’accès à celles-ci : Par qui l’accès peut-il se faire ? Sur quel laps de temps ? Pour quel(s) usage(s) ? Mais cela suppose que le fonctionnement des applications numériques, ou solutions, leur soit explicité, ce qui n’est pas simple. Car, aujourd’hui, certains systèmes d’IA génèrent des résultats que les fondateurs eux-mêmes ne comprennent plus (les systèmes d’IA s’entraînant tout seuls en permanence).
Afin d’éviter toute discrimination, le principe d’équité doit, lui aussi, servir de boussole. Il faut à la fois garantir un accès équitable aux applications, par exemple, en luttant contre la fracture numérique, mais aussi s’assurer qu’il n’y ait pas qu’une seule catégorie de la population qui bénéficie de son usage.
Si vous développez une application de santé destinée uniquement aux moins de 50 ans, sans le préciser, deux problèmes se posent : un manque de transparence et le risque que les recommandations venant de cette application soient inadaptées, voire dangereuses pour des personnes plus âgées.
S’ajoute donc, pour finir, un principe de responsabilité. Les administrations ou entreprises qui gèrent des plateformes de données de santé doivent mettre en place une gouvernance responsable permettant de faire appliquer tous ces principes éthiques. Sans cela, le risque est réel que ces règles ne soient pas respectées, même en l’absence de toute intention malveillante
Comment préserver l’éthique du soin et la relation patient/professionnel de santé dans le cadre du développement des systèmes d’IA d’aide au diagnostic ou de la télémédecine ?
Ces technologies doivent être considérées comme des outils, au même titre qu’un stéthoscope ou qu’un instrument chirurgical. Ces outils peuvent accompagner les professionnels de santé, les aider à obtenir des résultats plus précis et plus rapides, mais ils ne les remplacent pas. Ils interviennent dans la relation de soin, cependant ils ne la constituent pas.
Il est donc essentiel de développer une culture numérique aussi bien chez les patients que chez les professionnels de santé. Cela permet de garder un esprit critique sur les capacités de ces outils et de ne pas nourrir de fantasmes autour de leur utilisation.
L'usage massif des données de santé et les systèmes d'IA peuvent renforcer des inégalités existantes, notamment en matière d'accès aux soins ou de biais algorithmiques. Quels mécanismes éthiques et juridiques pourraient être mis en place pour éviter ces biais et garantir une justice sociale dans l'exploitation des données médicales ?
La réglementation évolue, certes tardivement, par rapport aux innovations technologiques, et prend en compte de plus en plus ces risques, comme en témoigne l’AI Act adopté par l’Union européenne en 2024. Cependant, l’existence d’un cadre réglementaire ne garantit pas une protection absolue contre tous les risques.
Chaque administration en santé et chaque entreprise travaillant avec des données de santé doit mener sa propre réflexion éthique sur ces enjeux. Cela suppose, en amont, de former tous les agents et salariés à l’éthique du numérique. Une fois la formation effectuée, et à l’instar des établissements sanitaires et médico-sociaux, ces administrations et entreprises peuvent aussi mettre en place des comités d’éthique.
Laisser un commentaire