Éthique en santé : quand l’intelligence artificielle change la donne

Septembre 2024

L’Intelligence artificielle (IA) impacte aujourd’hui de nombreux secteurs d’activité et l’univers de la santé ne fait pas exception. En France, certaines technologies sont déjà développées, d’autres moins. Face à l’essor rapide de ces évolutions, la question de l’éthique prend une importance croissante.

Le scientifique américain, Marvin Minsky, définit l’intelligence artificielle (IA) comme « la science qui consiste à faire faire aux machines ce que l’homme ferait avec une certaine intelligence ». Dans le domaine de la santé, cette avancée technologique, basée sur l’apprentissage de données et la mise au point d’algorithmes prédéfinis, prend des formes variées et généralement pertinentes. L’objectif étant d’améliorer la prise en soins des patients et de perfectionner les pratiques médicales.

En France, l’IA se déploie aujourd’hui assez largement dans le domaine de l’imagerie (radiologie, oncologie, dermatologie, ophtalmologie…). Grâce à une analyse de chaque pixel, avec un niveau de détail beaucoup plus puissant que le regard humain, ce système est capable de détecter la moindre anomalie avec une grande précision.

« Les performances d’un tel outil sont déjà visibles en matière de repérage de tumeurs cancéreuses, de grains de beauté malins, ou pour analyser plus finement des rétines, etc., précise Hélène Gebel, formatrice indépendante en éthique. Plus une détection est précoce, plus le traitement peut commencer rapidement, augmentant ainsi les chances de guérison ».

Toutefois, aussi efficace soit-elle, cette avancée technologique n’en demeure pas moins problématique sur le plan éthique. En effet, elle pose la question de la responsabilité médicale. Si un médecin estime que l’IA se trompe sur la présence d’une tumeur et n’enclenche pas de traitement, sa responsabilité sera-t-elle engagée si le cancer se développe après-coup ? Ou inversement : Si l’IA détecte une tumeur maligne qui, finalement ne l’est pas, mais a déclenché une prise en soins surdimensionnée de la part du médecin entrainant des séquelles dommageables ?  

La responsabilité médicale peut-elle se diluer dans le système d’intelligence artificielle ? Qui est responsable en cas d’erreur ? Le médecin ? La machine ? Son fabricant ? A ce jour, il n’existe pas encore de cadre juridique clair.

« C’est une suite logique de ce qui préexistait, souligne Hélène Gebel. Les radiologues comptent aujourd’hui parmi les médecins les plus exposés aux procédures judiciaires, car ils ne sont pas infaillibles. Cette question de responsabilité et de conséquences sur les usages mérite donc d’être posée ».  

Notion de vérité

Tout comme l’imagerie, le diagnostic médical cristallise également bon nombre de recherches et de possibles évolutions via l’IA, ouvrant ainsi la voie à des résultats plus précis, rapides et personnalisés. En France, où quelques expérimentations sont en cours, la dernière loi de bioéthique (2021) introduit cette notion de système d’intelligence artificielle en matière de diagnostic médical.

À terme, chacun pourrait obtenir un diagnostic médical en remplissant simplement un questionnaire en ligne. « Ce type d’outil génère à nouveau plusieurs problématiques éthiques, poursuit Hélène Gebel. Cela pourrait bouleverser la relation soignant/soigné. Va-t-on préférer être devant son ordinateur pour obtenir un diagnostic rapide ou va-t-on continuer à consulter son médecin ? L’annonce du diagnostic doit-elle se faire par l’humain ou par la machine ? Quid de la suite à donner ? Quels soins ? Quels traitements ? ».

La notion de vérité se pose également. Faut-il estimer que tout ce que répond l’intelligence artificielle est vrai ?  « Même s’il repose sur des données factuelles, le système d’algorithmes est conçu par l’homme et peut, par définition, être biaisé. Par exemple, pour être objectif, juste et efficace, un système d’IA en diagnostic doit être nourri par des données représentatives de la population mondiale dans son ensemble et pas juste d’une seule catégorie ethnique.

À ce jour, en matière de recommandations éthiques, la position est claire :  ces outils ne doivent en aucune manière remplacer le médecin ».

Efficacité contre consentement

Un troisième domaine, encore sous-développé en France, concerne le parcours de soins, qui pourrait être fortement facilité par l’IA. En effet, combiner différentes approches médicales et paramédicales (kiné, psychologie, chirurgie…) peut souvent rendre les démarches très complexes pour les patients et les soignants. Une IA pourrait, en agrégeant toutes les données, grandement simplifier le parcours de soins. Mais cela suppose qu’elles soient hébergées, stockées et analysées de manière automatique et au même endroit. La question éthique du consentement prend ainsi toute sa place. « Aujourd’hui, en France, plusieurs plateformes existent, mais elles sont dispersées, loin d’être automatisées et basées sur le volontariat des patients, précise Hélène Gebel. L’évolution n’est pas pour maintenant. Chez nous, le consentement prime encore sur l’efficacité ».

Imagerie, diagnostic, parcours de soins, chirurgie : les évolutions technologiques sont très rapides et touchent l’ensemble des secteurs de la santé. Ces innovations, qui promettent de transformer la médecine, soulèvent toutefois des questions éthiques cruciales nécessitant une réflexion approfondie sur leur intégration et leur régulation. 

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Close
Close

Contactez-nous

Adresse :

EREGIN – SAS IMM’EAUX
10 Quartier Sisyphe – Voie Verte, ZI de Jarry, 97122 BAIE-MAHAULT (Guadeloupe)

 

Email :
contact@eregin.com

 

Formulaire de contact :

Une question sur l’une de nos formations ou l’un de nos événements ?

 

Contactez-nous

Suivez-nous sur