L’intelligence artificielle en médecine
En médecine, l’intelligence artificielle est de plus en plus utilisée. Mais son utilisation comporte des risques. Êtes-vous en mesure de les gérer?
Utilisez-vous l’intelligence artificielle (IA) pour résumer les principaux éléments d’un dossier médical imposant? Pour bonifier votre rapport de consultation ou d’expertise? Pour faciliter la lecture d’un test d’investigation clinique? Pour identifier des pistes de traitement pour votre patient? Ou pour rédiger vos notes à l’aide d’un scribe IA?
Plusieurs médecins découvrent l’IA et ses avantages, sans avoir pleinement conscience des risques qu’elle comporte en contexte de pratique médicale. Il est même possible que des médecins y recourent sans le savoir, au travers d’applications ou de sites Web qu’ils utilisent au quotidien.
Rappelons 3 responsabilités déontologiques qui incombent aux médecins.
Dans cette page
1. Formation médicale continue : acquérir les compétences avant l’usage
Avant d’utiliser un nouvel instrument médical, un médicament novateur ou toute autre nouveauté médicale, le médecin doit posséder les compétences nécessaires pour ce faire; il en est de même pour l’IA. Comprendre les bases du fonctionnement de l’IA, ses limites et être en mesure d’en gérer les risques est primordial avant d’intégrer l’IA dans sa pratique, faute de quoi une formation sur le sujet s’impose.
Dans cette page
2. Secret professionnel : protection des renseignements personnels et de santé de la patientèle
Tout médecin a la responsabilité d’assurer la sécurité et la confidentialité des renseignements personnels et des renseignements de santé auxquels il a accès dans l’exercice de sa profession. Verser dans un outil d’IA non certifié par le Bureau de certification du ministère de la Santé et des Services sociaux1 (MSSS) des informations permettant d’identifier directement ou indirectement une patiente ou un patient expose leurs données à des risques de fuite (ex. : devenir des informations publiques), d’accès non autorisé ou d’utilisation inadéquate. En effet, ces outils partagent les données traitées avec l’entreprise qui les commercialise et les opère, ce qui compromet leur confidentialité.
Il n’est donc pas adéquat de verser des rapports de consultation ou d’expertise, des dossiers cliniques ou des portions de ceux-ci (incluant des images de patients ou de leurs tests) dans un outil d’IA non certifié par le MSSS, comme c’est le cas pour les outils d’IA générative grand public (ex. : ChatGPT, Copilot, Gemini, etc.) ou même pour certaines solutions destinées aux professionnels de la santé (ex. : OpenEvidence, UpToDate, etc.).
Vous utilisez un scribe IA? Assurez-vous qu’il soit certifié par le Bureau de certification du MSSS, sinon des actions spécifiques doivent être entreprises (voir, pour ce faire, Scribe et intelligence artificielle).
Lisez l'article Scribe et intelligence artificielle
Tous les outils d’IA en santé doivent avoir fait l’objet d’une évaluation des facteurs relatifs à la vie privée (EFVP2). Cette EFVP est généralement réalisée par la personne responsable de la protection des renseignements personnels du lieu où l’outil sera utilisé.
Dans cette page
3. Qualité de l’exercice : évaluer, valider et assumer la responsabilité
L’IA peut fournir des réponses plausibles, formulées avec assurance, mais qui sont parfois entièrement erronées. Les risques d’hallucinations3, de biais et d’informations inexactes de l’IA sont bien documentés. Avant d’utiliser du contenu généré par l’IA, le médecin doit faire preuve de jugement clinique et de prudence. Il doit s’assurer que l’information obtenue est véridique, pertinente et applicable à la situation clinique de son patient. S’il ne peut effectuer cette vérification, il ne devrait pas utiliser l’IA.
L’usage de l’IA n’exonère pas le médecin de sa responsabilité : c’est toujours lui qui répond de la qualité de l’acte posé.
Dans cette page
En conclusion
L’intelligence artificielle peut soutenir la pratique médicale, mais seulement si elle est utilisée avec discernement et prudence, car elle comporte des risques et ne remplace ni l’expertise ni le jugement clinique.
Pour poursuivre votre réflexion, consultez les publications du CMQ sur l'intelligence artificielle et surveillez les prochaines mises à jour qui préciseront l’encadrement de l’IA en médecine.
Date de publication : 26 février 2026
Références
1 Pour voir la liste des applications certifiées, consultez la page Web du Bureau de certification du MSSS.
2 L’EFVP sera l’occasion de mettre en place des stratégies visant à respecter les obligations qui s’imposent en matière de protection de renseignements personnels et à éviter ou atténuer les conséquences d’une gestion inadéquate de ces renseignements. Consultez la Loi sur les renseignements de santé et de services sociaux, notamment les articles 78 et 106.
3 Hallucination d’IA : selon l’Office québécois de la langue française, il s’agit d’un contenu incorrect, inopportun ou fictif généré par une intelligence artificielle générative et présenté de manière factuelle, comme si les informations étaient authentiques ou en adéquation avec la requête d'origine.