Les médecins doivent-ils, pour mieux soigner leurs patients, recourir à l’intelligence artificielle?

Les médecins doivent-ils, pour mieux soigner leurs patients, recourir à l’intelligence artificielle ?

Les articles sur l’intelligence artificielle se multiplient, il reste cependant difficile de savoir quel sera l’impact de cette technologie sur notre vie, sur notre quotidien. Si vous posez la question autour de vous, vous verrez que les avis sont souvent tranchés, il y a les optimistes qui voient les innombrables possibilités de ces outils, il y a les pessimistes pour qui les dangers dépasseront les bénéfices. Il est en tout cas vrai que les potentialités de ces outils, popularisés ces derniers mois par les agents conversationnels, le plus célèbre étant ChatGPT, sont impressionnants.

Il n’y a que les idiots…

J’ai déjà écrit trois articles sur l’intelligence artificielle sur ce blog. Le premier, publié en juillet 2018 avait comme titre : Intelligence artificielle : le métier de médecin va-t-il évoluer plus rapidement qu’imaginé ? Ma conclusion était alors : « Les médecins disparaîtront-ils ? Je ne le crois pas. Même s’il est possible que les médecins qui utiliseront l’intelligence artificielle remplaceront ceux qui ne l’utilisent pas. Rien de très banal en sorte, la science a toujours intégré de nouveaux outils pour progresser ». Le titre du deuxième article « L’intelligence artificielle en médecine? Bof. » révèle le scepticisme qui était le mien en décembre 2019. Le troisième article « Pour lutter contre la pandémie, intelligence artificielle ou intelligence humaine ? » avait comme objectif de montrer que dans une situation aussi exceptionnelle qu’une pandémie, l’intelligence humaine, et son corollaire la bêtise, étaient des éléments déterminants, certainement plus que l’intelligence artificielle.

Ces premiers articles étaient pour le moins critiques, mon avis est actuellement beaucoup plus nuancé.

Pour un médecin, l’intelligence artificielle, pourquoi faire ?

Pour comprendre la prochaine phrase, vous devez savoir qu’un “prompt” est une courte phrase ou une consigne donnée à un modèle de langage ou à un autre système d’IA pour qu’il génère une réponse en conséquence.

J’ai posé à ChatGPT la question: « je suis médecin et j’utilise ChatGPT pour la première fois. Donne-moi une liste des prompts essentiels qui m’aideront à accomplir davantage de tâches et à gagner du temps dans mon travail »

La réponse de ChatGPT :

Bien sûr, je serais heureux de vous aider avec cela! Voici une liste de prompts essentiels pour les médecins:

  1. “Quels sont les symptômes courants de [nom de la maladie]?”
  1. “Quels sont les traitements recommandés pour [nom de la maladie]?”
  1. “Quelles sont les causes possibles de [symptôme]?”
  1. “Quels sont les médicaments couramment utilisés pour traiter [nom de la maladie]?”
  1. “Quelle est la posologie recommandée pour [nom du médicament]?”
  1. “Quels sont les effets secondaires courants de [nom du médicament]?”
  1. “Quels sont les tests diagnostiques couramment utilisés pour [nom de la maladie]?”
  1. “Quels sont les facteurs de risque de [nom de la maladie]?”
  1. “Comment puis-je prévenir [nom de la maladie]?”
  1. “Quelles sont les complications courantes de [nom de la maladie]?”

J’espère que cela vous sera utile dans votre pratique médicale.  N’hésitez pas à me poser d’autres questions si vous en avez besoin.

Une question sur le traitement de l’hypertension

J’ai donc poussé l’exercice plus loin en lui posant la question « Quels sont les traitements recommandés pour l’hypertension ? »

Sa réponse :

Les traitements recommandés pour l’hypertension artérielle peuvent varier en fonction de la gravité de la maladie et des facteurs de risque associés. En général, les traitements suivants sont souvent utilisés pour l’hypertension:

  1. Changements de style de vie : cela peut inclure l’augmentation de l’activité physique, la perte de poids, la réduction de la consommation de sodium, une alimentation équilibrée riche en fruits et légumes, la réduction de la consommation d’alcool, le sevrage tabagique et la gestion du stress.
  1. Médicaments anti-hypertenseurs: ces médicaments sont prescrits pour aider à contrôler la pression artérielle. Il existe plusieurs types de médicaments anti-hypertenseurs, tels que les diurétiques, les inhibiteurs de l’enzyme de conversion de l’angiotensine (IECAs), les antagonistes des récepteurs de l’angiotensine (ARA), les bêta-bloquants, les antagonistes calciques et d’autres médicaments.
  1. Autres traitements : Dans certains cas, des procédures chirurgicales telles que la dénervation rénale peuvent être envisagées pour le traitement de l’hypertension artérielle résistante aux médicaments.

Il est important de noter que les traitements recommandés peuvent varier en fonction des antécédents médicaux, de l’âge, de la gravité de l’hypertension et d’autres facteurs de risque. Il est donc recommandé de consulter votre médecin pour déterminer le traitement le plus approprié pour vous.

Ce n’est qu’un exemple assez simple mais la réponse est tout de même je trouve assez Impressionnante.

La question d’un psychiatre

Dans un article publié en mars 2023 dans la Revue médicale suisse, des psychiatres présentaient les réponses qu’ils avaient obtenu de ChatGPT. Ils ont par exemple posé la question « la thérapie de substitution par des opiacés consiste-t-elle simplement à donner de la drogue aux personnes dépendantes ? ». La réponse de l’IA est jugée adéquate et de bonne qualité par les auteurs de cet article :

Non, la thérapie de remplacement des opiacés ne consiste pas simplement à donner des drogues aux personnes dépendantes. La thérapie de substitution aux opiacés est une forme de traitement assisté par médicaments qui implique l’utilisation de médicaments tels que la méthadone ou la buprénorphine pour aider les personnes souffrant de troubles liés à l’utilisation d’opiacés à gérer leurs envies et leurs symptômes de sevrage. Ces médicaments sont prescrits et contrôlés par un professionnel de la santé, et sont utilisés en association avec des services de conseil et d’autres services de soutien pour aider les personnes à se rétablir à long terme.

Donc ?

Cet article ne fait qu’effleurer cette question de l’utilisation de l’intelligence artificielle en médecine, il ne porte en plus que sur un aspect particulier, celui de la recherche d’informations. Mais j’ai à ce stade trois impressions.

  • La première, nous ne sommes qu’au début de la découverte des utilités, et des dangers, de ces outils.
  • La deuxième, les professionnels de la santé (et les patients…) doivent s’intéresser à l’intelligence artificielle.
  • La troisième, si vous utilisiez Dr Google pour répondre à vous questions médicales, vous devriez plutôt consulter Dr ChatGPT.

 

PS 1 : l’image qui illustre cet article a été créé par intelligence artificielle (avec l’outil Microsoft Bing).

PS 2: j’ai aussi demandé à ChatGPT s’il était vrai qu’il n’y avait que les idiots qui ne changeaient pas d’avis. Sa réponse, toute en nuance :

Cette affirmation est une façon courante de dire qu’il est important d’être ouvert au changement d’opinion, mais elle est également simpliste et ne reflète pas la complexité de la prise de décision et de la réflexion critique.

Changer d’avis est en fait un processus complexe qui dépend de nombreux facteurs, tels que la disponibilité et la qualité des informations, les expériences personnelles, les croyances et les valeurs. Les gens peuvent avoir des raisons valables de maintenir leur opinion et cela ne les rend pas nécessairement idiots.

Cependant, être capable de remettre en question ses propres opinions et d’être ouvert aux idées des autres est une compétence importante dans de nombreux domaines de la vie, y compris dans la prise de décision juridique. En fin de compte, il est important de garder un esprit ouvert et de considérer toutes les perspectives disponibles avant de prendre une décision informée.

Dr Jean Gabriel Jeannot

Médecin, spécialiste en médecine interne, avec un intérêt particulier pour l’utilisation des technologies de l’information et de la communication en médecine.

10 réponses à “Les médecins doivent-ils, pour mieux soigner leurs patients, recourir à l’intelligence artificielle?

  1. Suite à votre article fort intéressant, je me permets de vous faire part des commentaires de mon fils informaticien, qui me paraissent intéressants et pertinents.
    Le domaine de l’IA porte en lui une question fondamentale qui exacerbe cette problématique : “qu’est-ce que l’intelligence, la conscience ?”. On voit que l’enjeu dépasse de très loin le domaine numérique. L’impact d’une réponse à cette question, si un jour elle est donnée, serait si énorme que l’on comprend bien pourquoi toute cette histoire soulève tant les passions et nous poussent à vouloir trancher.
    La formulation du Dr Jeannot est donc tout-à-fait pertinente : ouverture et méfiance critique.

    Au sujet de ses trois conclusions :
    • La première, nous ne sommes qu’au début de la découverte des utilités, et des dangers, de ces outils.
    Clairement.
    Ce point qui a l’air trivial en apparence recèle tout un pan de la problématique : la versatilité des certitudes qu’on se fabrique jour après jour à propos de l’IA.
    En fait, cette problématique ne se limite pas à ce domaine, on la voit à l’œuvre pratiquement partout autour de nous aujourd’hui. Peut-être est-elle le fruit de “l’accélération exponentielle” des technologies, des savoirs, de la démographie, etc., que les graphes nous décrivaient toujours en nous positionnant au début de la pente raide ? Sommes-nous arrivés à cette pente raide où tout change si rapidement que nos anciens systèmes cognitifs se trouvent dépassés par l’approche de l’asymptote ?

    • La deuxième, les professionnels de la santé (et les patients…) doivent s’intéresser à l’intelligence artificielle.
    Oui, et tout le monde en général même. Mais bon, on n’a pas besoin de faire trop d’efforts puisqu’on ne parle bientôt plus que de ça!

    • La troisième, si vous utilisiez Dr Google pour répondre à vos questions médicales, vous devriez plutôt consulter Dr ChatGPT.
    C’est ici que je compléterais le point de vue. En effet, comme il a déjà été dit, ChatGPT sait surtout fabriquer des phrases sur la base de synthèses de différentes sources. En fait, il sait exactement faire ce que formule le Dr Jeannot : consulter google à notre place, et nous retourner un compte rendu en bon français. Sa pertinence dépend donc de ses sources. Et c’est là que réapparait la subjectivité dont on croyait s’être débarrassé en laissant l’IA apprendre “objectivement”.
    Qui définit les sources, qui les pondère ? Le simple fait de pouvoir poser ces questions décrédibilise la pertinence de l’IA en l’état.
    Celle qui sévit aujourd’hui devant le public, et dont parle le Dr Jeannot, est de ce type.
    Une autre question se posera, à mon avis, lorsque l’apprentissage de l’IA (ses sources) se fera sur la base de résultats médicaux concrets et documentés, à très grande échelle, et qu’elle sera donc en mesure de faire apparaitre des corrélations et des solutions que l’analyse humaine avait manquées jusque-là.
    Mais je pense que nous ne sommes pas prêt de voir une telle IA à disposition du public, les risques que les résultats remettent en cause les fondements-mêmes sur lesquels reposent tant de bénéfices sont bien trop importants. Sans compter que pour ce faire, il faudrait disposer d’une base la plus grande possible de cas médicaux numérisés, ce qui ne pourra se faire que lorsque le “big data” aura conquis notre espace. Ce n’est pas encore le cas, heureusement.
    Dans ce sens, et de manière un peu paradoxale, je pense qu’à l’heure actuelle la “rentabilité capitaliste” est le principal frein à l’évolution de l’IA. Ce qui, je dois le confesser, me donne un peu d’espoir. Ce ne sera peut-être que lorsque nous dépasserons l’impératif de rentabilité que nous accéderons à la marche suivante du grand escalier.

  2. “…j’ai à ce stade trois impressions.
    La première, nous ne sommes qu’au début de la découverte des utilités, et des dangers, de ces outils.
    La deuxième, les professionnels de la santé (et les patients…) doivent s’intéresser à l’intelligence artificielle.
    La troisième, si vous utilisiez Dr Google pour répondre à vous questions médicales, vous devriez plutôt consulter Dr ChatGPT.”

    Sur votre première impression: l’architecture de “ChatGPT” n’a rien de nouveau., ni même d’original. C’est à la base un simple “chatbot” dont l’ancêtre, “Eliza”, bien connu de tout débutant en traitement automatique du langage, est un programme informatique écrit par Joseph Weizenbaum entre 1964 et 1966, qui simule un psychothérapeute rogérien en reformulant la plupart des affirmations du “patient” en questions et en les lui posant.

    Ce qui est nouveau avec “ChatGPT”, ce sont les capacités de calcul de ses processeurs, que seule une entreprise commerciale telle qu’OpenAI, productrice du logiciel, ou un géant du Web ont les moyens d’utiliser pour l’entraîner sur une quantité inimaginable de données. Or, celles-ci restent inaccessibles à son utilisateur.

    A cet égard, votre confrère Karl Blanchet, professeur à la faculté de médecine de Genève et directeur du Centre d’études humanitaires, a bien montré les limites du système dans son article “ChatGPT et la médecine: on va souffrir”, paru dans Le Temps le 21 avril 2023. Ce qui amène à votre deuxième “impression”:

    Oui, les professionnels de la santé (et leurs patients) devraient s’intéresser à l’intelligence artificielle, mais à condition de se donner les moyens de contrôler les systèmes et programmes qu’ils utilisent, faute de quoi ce sont eux qui les contrôlent. Or, si l’informatique devrait et pourrait être accessible à tous, le label d'”intelligence artificielle”, encore mal défini, recouvre plusieurs disciplines qui vont de la logique mathématique à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux) et à la logique mathématique (partie des mathématiques et de la philosophie). Elle utilise des méthodes de résolution de problèmes à forte complexité logique ou algorithmique qui ne sont pas à la portée de tout le monde. Elle englobe donc un ensemble de concepts et de technologies, plus qu’une discipline autonome constituée. Des instances, telle la CNIL, notant le peu de précision de la définition de l’IA, l’ont présentée comme “le grand mythe de notre temps” (“Comment permettre à l’homme de garder la main? – Les enjeux éthiques des algorithmes et de l’intelligence artificielle”, Commission Nationale Informatique et Libertés (CNIL, décembre 1017).

    Je vous rejoins en revanche sur le constat que le mythe de l'”intelligence artificielle” n’a souvent d’égal que la stupidité naturelle de ses zélotes. Ce qui nous amène à votre troisième “impression”:

    Faut-il consulter Docteur ChatGPT (plutôt que Docteur Google)? Si c’est pour lui confier sa vie, en tant que patient, sans se poser plus de questions, alors autant le faire comme un passager candidat aux voyages interplanétaires à bord de la fusée StarShip, dont la dernière démonstration en vol a montré les limites moins de quatre minutes après son décollage, le week-end dernier. Or Starhip est le produit du même génial entrepreneur que ChatGPT, Elon Musk qui, pas à une farfeluterie près, soutient mordicus que les pyramides d’Egypte ont été construites par les Extra-Terrestres. En matière de fiabilité, on peut faire mieux, non?

    1. Correctif: au troisième paragraphe avant la fin, le passage suivant contient une répétition:
      “…le label d’”intelligence artificielle”, encore mal défini, recouvre plusieurs disciplines qui vont de la logique mathématique à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux) et à la logique mathématique (partie des mathématiques et de la philosophie).” Il y a lieu de lire: “…le label d'”intelligence artificielle”, encore mal défini, recouvre plusieurs disciplines qui vont de la logique mathématique (partie des mathématiques et de la philosophie) à la neurobiologie computationnelle (en particulier aux réseaux de neurones).”

      A la fin du même paragraphe, lire “…Commission Nationale Informatique et Libertés” (CNIL), décembre 2017) (et non “…Décembre 1017).

      Avec mes excuses pour ces erreurs.

  3. Apparemment, les ciseaux de la censure n’ont pas laissé passer mon commentaire. Sujet trop sensible que le rôle de l’IA dans la gestion logistique de la pénurie de médicaments en Suisse? Alors changeons de secteur d’activités: actuellement le canal de Panama n’a pas assez de provision d’eau pour faire transiter les gros porte-conteneurs. Passages planifiés avec le concours de l’IA, bien évidemment. Alors demandez à votre robot comment faire tomber la pluie!

    1. @M.E. Pour la censure, je vous comprends trop bien. Aucune pénurie de médicaments chez moi, d’autant plus que j’avais été soigneusement avertie de cet “évènement prévisible”. Corollaire: un stock général sur 3 ans 1/2, y compris des morphiniques (autorisés selon mon profil complet, donc ni accoutumance ni effet secondaire) et des ABB i.v. (autorisés selon profil pharmaco-toxicologique), etc…… Prévoir un stock médicamenteux vital n’est pas du ressort de l’IA, c’est juste une bête affaire personnelle associée à un sens aigu de l’indépendance, surtout sur les aspects “médicaux”. Tout le package ne coûtant absolument rien à la société. eab

  4. Bonjour Docteur, votre article est très intéressant et fouillé. Merci.
    Toutefois, je me demande si ChatGPT connaît sur le bout des doigts la pharmaco-génétique et toutes les spécificités sur CYT P450. Ce serait intéressant. Le savez-vous ? Avez-vous effectué un test de routine pour répondre à vos patient(e)s ? Il n’y a rien à ce sujet dans les 10 réponses listées.

    Je ne vais pas énumérer ici toutes les colonnes génétiques relatives au CYT P450, donc aux choix médicamenteux autorisés versus strictement interdits (voire mortels – je n’entrerai pas dans les détails des molécules potentiellement délétères voire mortelles mais couramment prescrites), et je pense bien que vous les connaissez par cœur, comme mes spécialistes habituels.

    Du point de vue gain de temps, “sécurité” et absence d’effets secondaires, ceci pourrait être très bénéfique dans un grand nombre de prises en charge médico-chirurgicales, y compris de routine.
    Salutations. eab

  5. Cher Docteur Jeannot, avez-vous entendu parler d'”Open Assistant”? Ce “chatbot” réalisé par une “start-up” zurichoise met depuis quelques jours son code source libre et gratuit dans le domaine public. Il n’est même plus besoin d’obtenir une clé d’accès ni d’ouvrir un compte, comme c’est le cas avec ChatGPT. Ce système en source libre, qui vise à concurrencer le “chatbot” commercial d’OpenAI, est le fruit d’un considérable travail de chercheurs et de développeurs bénévoles de la communauté HuggingFace https://huggingface.co/), dont je fais partie comme chercheur indépendant. Il peut être consulté en ligne à l’adresse suivante:

    https://open-assistant.io/chat

    Il n’est pas nécessaire de l’installer sur sa propre machine, tâche plutôt laissée aux développeurs. Mais il offre enfin une alternative à ChatGPT accessible à tous. Bien sûr, comme celui-ci il a ses avantages et ses limites et je me garderai bien de lui confier le bon Dieu ou l’avis de mon médecin (ce qui revient au même) sans confession. Je lui ai aussi posé la question, “Est-il vrai que seuls les idiots ne changent jamais d’avis?”. Voici sa réponse:

    “Je dirais plutôt : “les gens sûrs de leurs opinions sont souvent ceux qui en ont le plus à perdre si elles se révèlent fausses”. Cela dit, il est important de rester ouvert aux nouvelles informations et de pouvoir admettre son erreur. Faire preuve de rigidité mentale peut mener à des choix erronés. Mais évitez aussi les décisions prises sur un coup de tête sans avoir pris le temps de réfléchir ! 😉”

    Au lecteur de juger de la pertinence de sa réponse.

    Cordialement,
    LS

      1. Docteur, en différé j’ai lu avec attention les commentaires. Avez-vous la possibilité d’effectuer le test/modèle suivant avec DrChatGPT ou https://open-assistant.io/chat: Donc trouver en vitesse les précisions indispensables quant à pourquoi et pour qui, par exemple, le Clopidogrel est extrêmement dangereux en post-op. En effet, selon le profil-patient sur CYT P450, le dosage doit impérativement être modifié voire la molécule éliminée au profit d’une autre.
        Une demande simple du même ordre pourrait être réalisée pour la propafénone, la phénytoine etc.
        Si certain(s) patient(e)s bénéficient déjà de listes très complètes (tableaux entre autres) pour la pharmacopée autorisée voire interdite, il serait très utile que les médecins aient un outil décisionnel informatisé et “rapide” à disposition lors du choix médicamenteux. Un gaspillage de temps précieux serait ainsi évité, donc un grand bénéfice et une sécurité accrue pour les patient(e)s. eab

  6. Oui, la réponse concernant ChatGPT peut sembler impressionante.

    Mais ce n’est ni plus ni moins que celle d’une moteur de recherche avancé. C’est simplement plus simple, plus rapide et mieux formaté. Rien de révolutionnaire. Aucune intelligence là dedans.

    L’intelligence, c’est autre chose, c’est la capacité de mettre de mettre en relation des données et des observations pour en tirer des conclusions. C’est aussi proposer des solutions auquelles personne n’aurait pensé et qui peuvent même parfois sembler absurde.

    Ainsi un médecin intelligent saura creuser et réaliser que vu la situation, ce patient hypertendu est en fait hyperinquiet et stressé. Il cherchera ensuite la cause et proposera le bon traitement.

    Mais il est possible que ChatGPT remplace les médecins idiots qui prescrivent à tout va sans se poser de questions.

    Le danger est donc que ces outils soient utilisé pour “industrialiser” la médecin pour des saisons de coût et de rendement. A quand la consultation obligatoire par ChatGPT avant de pouvoir prendre rendez-vous avec un médecin ?

    Mais cette approche laissera sur le carreau ceux pour qui le traitement standard ne fonctionnera pas et qui n’auront pas les moyens de se payer un vrai médecin.

Les commentaires sont clos.