La responsabilité médicale à l’ère de l’intelligence artificielle : Une analyse microéconomique

Bertrand CHOPARD, LIRAES, Université Paris Cité

Olivier MUSY, LIRAES, Université Paris Cité

Introduction

L’intelligence artificielle (IA) entre progressivement dans la pratique médicale : aide au diagnostic, interprétation d’examens, suivi de patients ou triage. Le rapport Villani (2018) souligne le potentiel de ces technologies pour accroître la précision des diagnostics et réduire le risque d’erreurs médicales, en combinant l’expertise du médecin avec la puissance de calcul et d’analyse des algorithmes. Si la combinaison d’un médecin et d’une IA permet d’offrir des soins de meilleure qualité que ceux produits isolément par chacun (Griffin, 2021), le risque d’erreur demeure. Une recommandation peut être inadaptée, mal comprise, ou appliquée dans un contexte clinique qui échappe au modèle. L’occurrence d’une telle erreur pose une question juridique nouvelle : si une décision d’un médecin, assisté par une IA conçue par un producteur externe, cause un dommage, qui doit indemniser le patient ?
En droit, la responsabilité civile vise à identifier l’auteur d’un dommage et à déterminer qui doit en assurer la réparation (Shavell, 2007). Appliquée au champ médical, elle recouvre les situations dans lesquelles un préjudice résulte d’un acte de soin, qu’il soit imputable au professionnel de santé ou au fabricant d’un dispositif médical. L’introduction de l’IA vient toutefois brouiller cette répartition traditionnelle des rôles : la décision n’est plus entièrement humaine, sans être pour autant totalement automatisée. La cause du dommage peut tenir à la fois à l’outil et à son usage.
C’est précisément à ce stade que l’analyse économique apporte un éclairage utile. Les règles de responsabilité ne se contentent pas de répartir les coûts une fois l’erreur survenue : elles influencent aussi, en amont, les comportements. En modifiant les incitations à la précaution, elles affectent les investissements dans la qualité et la sécurité, tant pour les médecins que pour les producteurs d’IA. Une question centrale se pose alors : quels régimes de responsabilité incitent le mieux les médecins et les producteurs à adopter des niveaux de précaution socialement désirables ? Autrement dit, quelles règles juridiques permettent de minimiser le coût social, c’est-à-dire la somme du coût de la précaution et de l’espérance de dommages aux victimes d’erreurs médicales ?
Une partie de la doctrine estime que les régimes existants sont suffisants pour appréhender les dommages liés à l’IA en santé. Mais plusieurs institutions, dont l’Union européenne, cherchent à clarifier la répartition des responsabilités entre utilisateurs et producteurs d’IA (European Proposal for a Directive, 2022). Cette tension entre continuité juridique et besoin d’ajustement justifie, selon nous, un réexamen attentif des règles actuelles à la lumière des incitations qu’elles génèrent. Traditionnellement, la littérature sur la responsabilité jointe considère des acteurs symétriques dans leur rôle. Ici la relation est asymétrique : le producteur conçoit l’outil, mais le médecin reste le prescripteur final. Il décide d’utiliser l’IA, du degré de confiance qu’il lui accorde et des vérifications à effectuer. Mais il influence aussi le producteur : un médecin plus exposé juridiquement sera prêt à payer davantage pour une IA plus sûre, ce qui pousse la firme à investir.
Dans Chopard et Musy (2025), nous analysons comment différents régimes de responsabilité civile modifient les choix de précaution des médecins utilisateurs d’IA et des producteurs d’IA, afin d’identifier ensuite ceux qui conduisent à des résultats socialement efficaces. La question est donc bel et bien économique : les règles de responsabilité structurent les efforts de précaution, influencent le coût total d’utilisation de l’IA et, au final, déterminent la sécurité des patients.

Deux régimes de responsabilité capables d’atteindre l’efficacité sociale

Quand on parle d’« efficacité sociale », l’objectif n’est pas de réduire les risques à zéro. Une activité utile génère toujours une part de risque, et la précaution a un coût. Côté producteur, cela signifie par exemple plus de tests, plus de données, une meilleure documentation. Côté médecin, cela peut être du temps d’analyse, de vérification ou de surveillance. Dans ce cadre, notre analyse met en évidence que seuls deux régimes de responsabilité permettent d’atteindre des niveaux de précaution socialement efficaces.
Le premier régime consiste à faire peser l’intégralité de la responsabilité sur le médecin. Dans ce cadre, le producteur de l’IA n’est jamais tenu responsable des dommages. Ce résultat peut sembler contre-intuitif : pourquoi un producteur d’IA investirait-il autant dans la qualité de son outil s’il n’est jamais juridiquement exposé ? La réponse tient à la relation économique entre les deux parties. Le médecin, qui anticipe devoir indemniser seul le patient en cas d’erreur, est prêt à payer davantage pour une IA plus fiable. Cette disposition à payer incite alors le producteur à investir efficacement dans la qualité de son produit. Ce régime présente néanmoins un défaut majeur : il fait peser l’intégralité du risque juridique sur le médecin, ce qui peut apparaître excessif dans un contexte où les décisions médicales sont de plus en plus partagées avec des outils technologiques complexes.
Le second régime, plus équitable, repose sur une articulation de règles de responsabilité. Le médecin est soumis à une règle de négligence, selon laquelle sa responsabilité n’est engagée qu’en cas de manquement au standard de soin, entendu comme le niveau de précaution socialement désirable. Dans la pratique, ce standard ne se limite pas à sa définition théorique : il est concrètement apprécié à partir des avis d’experts, des recommandations de bonne pratique et de l’état de la science médicale.
Le producteur d’IA, quant à lui, est soumis à une responsabilité stricte en cas de défaut de son produit, ce défaut étant caractérisé lorsque la qualité du produit s’écarte du niveau de précaution socialement efficace. Dans ce cadre, lorsque le médecin n’est pas fautif, le producteur supporte seul la charge de l’indemnisation ; en revanche, si le médecin est fautif, cette charge lui incombe.

Nos résultats montrent que cette architecture juridique permet d’atteindre des niveaux de précaution efficaces, à une condition essentielle : que la faute du médecin entraîne une responsabilité pleine et entière. Autrement dit, dès lors que le médecin est reconnu négligent, il ne doit pas pouvoir partager le coût de l’indemnisation avec le producteur de l’IA. Toute forme de partage affaiblit ses incitations à la précaution et conduit à des choix sous-optimaux.

Ce résultat fait écho aux orientations récemment proposées par le Parlement européen sur la responsabilité liée à l’IA, qui privilégie justement une articulation entre responsabilité pour faute des professionnels de santé et responsabilité stricte des producteurs de technologies.

Pourquoi le partage de responsabilité pose problème ?

Beaucoup de solutions “intermédiaires” paraissent attractives, mais elles ont souvent un point commun : elles organisent un partage systématique du paiement des indemnisations entre le médecin et le producteur d’IA. Si une partie du coût est transférée au producteur, le médecin a moins d’intérêt à vérifier l’outil et à rester vigilant. Cela peut accroître l’usage de l’IA, mais au prix d’un relâchement de la précaution. Du côté des producteurs, l’effet est ambigu : ils peuvent investir plus pour compenser, mais dans certaines configurations, ils vont au contraire sous-investir, ce qui, combiné à l’effort de précaution moindre du médecin, augmente la probabilité d’erreurs médicales. Même quand le producteur est en responsabilité stricte et le médecin en responsabilité pour faute, autoriser un partage en cas de faute tend à affaiblir les incitations des deux côtés. C’est pourquoi, dans notre modèle, la faute du médecin doit entraîner une responsabilité pleine.

Le rôle délicat de la régulation publique

Notre analyse se concentre sur les décisions de niveau de soin des producteurs et des utilisateurs d’IA, sans traiter explicitement de la diffusion de ces technologies dans le système de santé. La diffusion de l’IA soulève des enjeux réglementaires distincts, notamment le rôle des autorités sanitaires chargées d’autoriser la mise sur le marché des outils d’IA. Ces autorités peuvent poursuivre des objectifs différents de ceux du droit de la responsabilité médicale, en privilégiant la diffusion de technologies performantes plutôt que l’atteinte immédiate du niveau de soin socialement efficace. Dans ce cadre, il peut exister un arbitrage entre le nombre de patients bénéficiant de l’IA et le niveau de qualité des outils autorisés. Toutefois, notre analyse montre que les règles de responsabilité pourraient, à elles seules, inciter producteurs et utilisateurs à adopter un niveau de soin optimal, même lorsque l’autorité sanitaire autorise une qualité inférieure pour favoriser la diffusion. En outre, lorsque l’usage de l’IA améliore effectivement les résultats de santé, y compris avec des outils de qualité imparfaite, une diffusion accrue pourrait néanmoins être socialement désirable. L’analyse de ces arbitrages entre qualité, responsabilité et diffusion de l’IA constitue une piste importante pour de futurs travaux.

Conclusion : ajuster les règles plutôt que les remplacer

L’intégration de l’IA change la prise de décision médicale : elle devient plus collective, entre l’humain et l’outil. Nos résultats suggèrent un message clair : réduire la responsabilité du médecin au nom de l’innovation peut être contre-productif. Même assisté par une IA, le médecin reste l’acteur central de la décision : il choisit d’utiliser l’outil et d’en suivre ou non la recommandation en mobilisant son expertise. Il faut donc éviter de l’inciter à se comporter comme un simple exécutant. Pour autant, la réparation des dommages ne doit pas reposer entièrement sur lui : la responsabilité du producteur en cas de défaut doit jouer pleinement.

Les défis à venir résident dans la capacité des systèmes juridiques à collecter et traiter l’information nécessaire pour évaluer et attribuer correctement les fautes humaines, les défauts technologiques et les standards de soin applicables.


Références


Chopard, B., O. Musy. 2025. Optimal Liability Rules for Human-AI Health Care Decisions. Annals of Economics and Statistics, No. 158 (June), pp. 81-104.

DOI: doi.org/10.2307/48845129

Griffin, F. 2021. Artificial intelligence and liability in health care. Health Matrix, vol. 31, pp. 65-106.

Shavell, S. 2007. Liability for accidents. Handbook of Law and Economics, Vol. 1, pp. 139-182.

Sites Web : Bertrand Chopard Google site ; Olivier Musy Google site ; LIRAES Université Paris Cité


Tous les articles