Les actus

Intelligence artificielle : l’individu ou le collectif d’abord ?

Avec la numérisation, la santé devient un enjeu géostratégique majeur. Dans ce contexte, le déploiement de l’intelligence artificielle et de la robotisation en santé semble irréversible. Cela va impacter massivement les prises en charge courantes et tous les segments de la médecine recourant directement au numérique et à la robotique. Faut-il pour autant craindre et encadrer la médecine algorithmique ?

David Gruson*, membre du comité de direction de la Chaire santé de Sciences Po Paris et de l’initiative « académique et citoyenne » Ethik-IA nous livre ses convictions.

 

David Gruson a présenté, le 19 janvier 2018, l’initiative « académique et citoyenne » Ethik-IA qui entend défendre une « régulation positive » de l’intelligence artificielle (IA) et de la robotisation en santé, notamment dans le cadre des Etats généraux de la bioéthique. Sa prise de position a été intégrée fin septembre 2018 par le Comité Consultatif National d’Ethique dans son avis pour la révision de la loi n° 2011-814 du 7 juillet 2011 relative à la bioéthique. Ethik-IA part du constat du « développement absolument irréversible » de l’IA et de la robotisation dans le champ sanitaire et médico-social et des « opportunités » que présentent ces « évolutions technologiques majeures » en termes économiques, et pour l’organisation du système de soins. Mais il aborde aussi une question très sensible : le risque de minoration de la valeur de la personne par rapport au collectif.

Association BPCO : Le Big Data, réponse à tous les problèmes de santé ou plutôt « Big Brother » ?

David Gruson : Je dirais plutôt que le risque éthique principal vis-à-vis de l’intelligence artificielle en santé est un développement insuffisant. Il aura fallu dix ans entre l’adoption du régime juridique de la télémédecine et le déverrouillage, encore partiel, de son modèle économique dans la loi de loi de financement de la sécurité sociale pour 2018. Chaque jour, nous sommes confrontés à des situations de non-pertinence ou de sous-efficience des soins qui pourraient être évitées par plus de pilotage des données de santé. Il ne faut pas se fermer à l’innovation numérique, et celle-ci se développe très vite dans le domaine de la reconnaissance d’images.

Le Big Data (collecte massive de données) en particulier au moyen d’objets connectés, est un vecteur majeur d’avancées pour la qualité des soins, les droits des patients et la connaissance scientifique. Mais cette apparente clarté en termes de santé publique se heurte à une réalité plus complexe. Toutes les données ne se valent pas sur le plan éthique, entre les données « bien-être » et les données génétiques plus sensibles, par exemple. Concernant ces dernières, la loi de bioéthique de 1994 a défini un cadre juridique spécifique pour les fiches informatiques ayant pour finalité la recherche médicale, notamment génétique, en mettent en place une procédure d’autorisation par la CNIL, après avis d’un comité consultatif d’experts chargés d’analyser la méthodologie de la recherche.

 

Quels sont les enjeux de la régulation de l’IA en santé ?

L’impact de la médecine algorithmique sur la responsabilité des professionnels est un enjeu majeur. A mon avis, sur ce plan, l’IA ne produira pas d’impact immédiat : les régimes actuels de responsabilité des professionnels suffisent à régler 99,9% des cas, dans le cadre du régime de « responsabilité du fait des choses » en droit civil français. Lorsqu’un robot, un appareil ou un logiciel cause un dommage, son gardien ou son concepteur est responsable, ainsi qu’un directeur d’établissement ou le professionnel lui-même exerçant en libéral.

Par ailleurs, lors de la survenue d’une défectuosité, d’un dysfonctionnement du robot ou de l’algorithme d’aide à la décision, s’applique une directive communautaire transposée en droit français en 1998 : « La responsabilité du fait des produits défectueux ». Le producteur de la machine sera alors déclaré responsable.

Mais cette responsabilité souffre une exception, dans le cadre de l’IA et plus spécifiquement du Machine Learning (machine ou logiciel auto-apprenants) appelée le « risque de développement », c’est-à-dire un risque qui ne pouvait pas être connu lors de la mise sur le marché du produit. Imaginons une IA d’aide au diagnostic en imagerie, en mesure de déceler la présence d’une tumeur sur un cliché. Après une certaine durée de développement, l’algorithme ou l’IA va produire une nouvelle version d’elle-même, afin d’écarter les hypothèses aberrantes. A terme, l’algorithme deviendra tellement différent de sa forme initiale que l’on entrera dans le cadre de ce risque de développement ! Il ne sera plus possible de rechercher la responsabilité du producteur en cas de dommage. A ce jour, aucun cas de sinistralité n’est apparu, ce qui ne saurait tarder et à une grande échelle…

 

Le temps est-il compté ?  

La préconisation que le groupe Ethik-IA a portée et que le Comité Consultatif National d’Ethique a bien voulu relayer est qu’il est surtout urgent de ne pas modifier le régime de responsabilité en vigueur mais d’ouvrir la réflexion au niveau européen, sans quoi la France s’expose à être un formidable « repoussoir » pour les innovations.

J’en arrive au « risque de délégation » de la décision médicale. Par exemple, l’algorithme de détection des tumeurs confirme au médecin la présence d’une tumeur avec un taux de certitude de 99,9%. Le risque est que le médecin ne prenne aucun recul par rapport à l’avis de la machine. Ce risque s’applique aussi au patient qui reçoit une proposition thérapeutique. Sera-t-il capable de prendre réellement du recul dans son consentement aux soins, même si en théorie et en droit ce consentement reste en vigueur ? Il faut prendre conscience que la puissance des capacités du service de pilotage algorithmique peut éroder notre propre capacité à prendre du recul.

 

La mise en balance des intérêts individuel et collectif est aussi une spécificité de l’IA…

En effet, l’algorithme traite des données en masse à partir desquelles il propose une aide à la décision, en écartant des hypothèses individuelles, qui sont, je le rappelle, des situations humaines. En dépit de l’absence d’« intentionnalité » de l’IA, la possibilité de dommages individuels existe. Un exemple parmi de nombreux autres est le patient en fin de vie pour lequel l’IA considèrera qu’il n’est pas efficient de proposer telle thérapeutique, dans l’intérêt du plus grand nombre, pour favoriser la qualité et l’efficience du système de santé. L’IA tirera les conséquences de sa programmation et pourra être confrontée à des arbitrages entre la valeur de la vie individuelle et la préservation d’impératifs collectifs de santé publique. Ce risque de minoration de la prise en compte de la personne par rapport à l’intérêt collectif sera probablement renforcé en contexte de gestion de crise.

Mais il faut bien sûr remettre ce risque en perspective : sa survenue n’est que théorique et il serait absolument non-éthique de refuser les avancées en santé permises par le numérique et l’intelligence artificielle.

 

Parler de « bombe atomique » en se référant à l’IA serait selon vous excessif ?

Certes, mais il faudra savoir gérer la combinaison de ces deux facteurs : la délégation de la décision médicale et celle de consentement du patient ainsi que la minoration de l’individu versus l’intérêt collectif. Le risque est que tout cela avance sans que l’on s’en aperçoive. En effet, l’amélioration du système grâce au déploiement de la médecine algorithmique sera telle qu’il y aura immanquablement une satisfaction et une fascination devant sa qualité et son efficacité. D’où la nécessité d’une prise de recul, sans bloquer l’innovation par un carcan règlementaire.

 

Quelles seraient alors les clés de la régulation positive de l’IA en santé ?

Ethik-IA en a formulé cinq, relayées par le Comité Consultatif National d’Ethique le 25 septembre 2018 :

-L’information et le consentement du patient (le patient doit être systématiquement informé préalablement du recours à un dispositif d’IA dans son parcours de prise en charge, avec des modalités particulières dont des dispositions de protection renforcée pour les personnes vulnérables, le recours à une personne de confiance etc.).

-Le principe de garantie humaine du dispositif d’IA en santé. Il s’agit de conserver une supervision humaine du process, assuré par des procédés de vérification régulière -ciblée et aléatoire- ainsi que par l’aménagement d’une capacité d’exercice d’un deuxième regard médical humain à la demande d’un patient ou d’un professionnel de santé, pourquoi pas par l’intermédiaire de dispositifs de télémédecine.

-La graduation de la régulation en fonction du niveau de sensibilité des données de santé avec l’élaboration de normes de bonne pratique.

-L’accompagnement de l’adaptation des métiers, avec un financement, au cours de la formation médicale initiale ou continue (orientation prioritaire validée, dès 2019), des personnels aux enjeux de l’IA et de la robotisation pour le soutien à l’émergence de nouveaux métiers dans le champ sanitaire et médico-social.

-L’intervention d’une supervision externe et indépendante, qui diligente des études d’évaluation régulière pour apprécier les effets du déploiement de l’IA et de la robotisation en santé. Elle soutient également la recherche.

Il faut éviter l’écueil de la surrèglementation, pour ne pas tuer dans l’œuf l’innovation numérique et l’IA en santé. L’idée serait de concevoir une autorité investie d’une certaine souveraineté – par exemple la Haute Autorité de Santé – dont la mission serait de s’assurer que les garanties sont respectées, sans pour autant qu’elle n’intervienne sur le fond de la règlementation.

* David Gruson a écrit le premier polar bioéthique* « S.A.R.R.A. : Une intelligence artificielle ».

Éditions Beta Publisher, 318 pages, 12,99 €

Et « L’intelligence artificielle sauvera l’humanité, mais… » Editions de L’observatoire ISBN 1032904771, 16

Propos recueillis par Hélène Joubert, avec David Gruson, à l’occasion des JPRS (Journées Pneumologie respiration Sommeil, 4-6 octobre 2018, Bordeaux).

Cet article n’a pas répondu à ma question, pourquoi ?

Dans le but de vous informer au mieux dites-nous …

Merci pour votre message !