L'intelligence artificielle dans les soins de santé : Peter Lee sur l'empathie, l'autonomisation et l'équité
Pourquoi c'est important
Peter Lee, Ph. D., se décrit lui-même comme un « technophile », mais lorsqu’il parle d’intelligence artificielle (IA), il part du point de vue d’un patient ou d’un membre de sa famille. Lorsqu’on lui a demandé ce qui l’excitait le plus dans le potentiel de l’IA pour améliorer les soins de santé, le co-auteur du livre The AI Revolution in Medicine: GPT-4 and Beyond s’est dit enthousiasmé par la façon dont l’utilisation de l’IA peut aider les gens à se sentir plus autonomes dans leurs interactions avec le système de santé. Dans l’entretien suivant avec l’ Institute for Healthcare Improvement (IHI), Lee parle de ses expériences personnelles et professionnelles avec GPT-4, un outil basé sur l’IA qui traite la parole humaine et la convertit en texte, créé par la société OpenAI, soutenue par Microsoft. Lee est vice-président de la recherche et des incubations chez Microsoft et sera l’un des principaux orateurs du IHI Forum (du 10 au 13 décembre 2023).
Utiliser l'IA pour se sentir plus autonome en tant que patient et membre de la famille
Mon exemple préféré d’utilisation de l’IA [pour se sentir plus autonome] est l’utilisation de GPT-4 pour décoder les informations du système de santé. Je l’utilise pour comprendre l’explication des avis de prestations que je reçois de l’assurance maladie fournie par notre employeur chaque fois qu’un membre de ma famille subit une intervention ou une intervention. L’autre mois, j’ai passé mon examen physique annuel et j’ai reçu le PDF de mes analyses de sang quatre jours plus tard par courriel. Ce n’est qu’une pile de chiffres. Pouvoir donner ce genre d’informations à GPT-4 et dire : « Expliquez-moi cela. Y a-t-il quelque chose auquel je dois prêter attention ? Y a-t-il des questions que je devrais poser à mon médecin ? » est incroyablement stimulant.
Comment utiliser l’IA pour gagner du temps
Je me concentre principalement sur la capacité de l’IA générative à améliorer la vie quotidienne des médecins et des infirmières en réduisant leurs tâches administratives. Je suis très heureux de voir que non seulement notre entreprise, mais aussi d’autres entreprises, commencent à intégrer l’IA générative dans les systèmes de prise de notes cliniques et dans les systèmes de communication avec les patients [dossiers médicaux électroniques]. C’est formidable de parler aux médecins et aux infirmières et de les entendre dire : « Wow, cela permet d’éviter de ramener du travail à la maison le soir. »
Sur les hypothèses erronées concernant l’IA générative
Les systèmes d’IA générative [qui aident les utilisateurs à générer du nouveau contenu à partir de diverses entrées] sont des moteurs de raisonnement. Ce ne sont pas des ordinateurs au sens traditionnel du terme. En d’autres termes, si vous considérez un ordinateur comme une machine capable de se souvenir parfaitement de quelque chose et de faire des calculs parfaits, ce ne sont pas des ordinateurs. Nous pouvons donc avoir des problèmes dans la prestation de soins de santé si nous supposons que ces choses sont des ordinateurs et ces malentendus peuvent conduire à des erreurs. Ethan Mollick, professeur associé à la Wharton School de l’Université de Pennsylvanie, a déclaré : « Il est presque préférable de considérer [ChatGPT] comme une personne, comme un stagiaire qui travaille pour vous » et non comme un ordinateur.
Si nous supposons trop ou pas assez sur le potentiel de l’IA dans les soins de santé
Un système d’IA générative comme GPT-4 est à la fois plus intelligent et plus bête que tous ceux que vous avez rencontrés. Je pense que nous avons tous deux trop et trop peu d’idées sur son potentiel dans le domaine des soins de santé. Si vous êtes médecin et que vous voyez le tableau initial d’un patient, vous obtenez les résultats initiaux des tests de laboratoire, et à partir de ceux-ci, vous établissez un diagnostic différentiel. Vous pouvez également demander à GPT-4 d’examiner ce tableau initial et les résultats initiaux de laboratoire et de lui demander de produire un diagnostic différentiel, mais ce diagnostic différentiel ne doit pas être automatiquement considéré comme meilleur que celui que vous obtiendriez d’un être humain. Il est donc nécessaire dans cette situation d’avoir un humain dans la boucle pour examiner les résultats et les vérifier.
Une autre approche consiste à demander au médecin ou à l'infirmière de formuler son propre diagnostic différentiel, puis de le transmettre à GPT-4 et de dire : « Voici ce que je pense. Pouvez-vous regarder cela et le critiquer ? » Bien qu'un système d'IA générative comme GPT-4 ne soit pas aussi efficace que les êtres humains pour générer du contenu, nous constatons qu'il peut être utile pour la critique, l'amélioration ou la synthèse.
GPT-4 a des biais, tout comme les êtres humains, mais il est étonnamment doué pour repérer les biais dans les choses qu’il lit ou dans les décisions que prennent d’autres systèmes d’IA ou des êtres humains. Vous voyez donc cette dichotomie dans laquelle il peut être bon dans certains domaines, mais toujours défectueux. J’aime considérer GPT-4 comme un outil qui amplifie notre propre intelligence. Il nous aide à améliorer les domaines dans lesquels nous sommes bons, mais il peut aussi révéler certains de nos défauts. Il est très important de comprendre les tenants et aboutissants de ces dichotomies dès maintenant.
Sur l'utilisation de l'IA générative pour communiquer avec empathie
[Mon équipe et moi-même] avons eu un accès anticipé à GPT-4 à la fin de l’été 2022. Nous étudiions les applications potentielles et l’impact, à la fois positif et négatif, que GPT-4 pourrait avoir en médecine et dans le domaine des soins de santé. Au début, nous nous sommes attachés à déterminer à quel point cet outil pouvait être intelligent. Nous l’avons vu comme un robot de connaissances médicales. Pourrait-il réussir l’examen de licence médicale américain ? Pourrait-il réussir l’examen NCLEX-RN (National Council Licensure Examination for Registered Nurses) ? Pourrait-il lire, réviser et répondre à des questions sur un article de recherche médicale ?
Plus tard, en novembre 2022, OpenAI a publié ChatGPT en utilisant un modèle d'IA plus ancien et plus petit appelé GPT-3.5. Nos laboratoires de recherche ont commencé à recevoir des e-mails de médecins et d'infirmières du monde entier disant : « C'est un outil formidable. Nous l'utilisons pour rédiger des résumés après visite et nos patients l'apprécient vraiment. » C'était inattendu. Depuis lors, nous avons appris que la manière d'interagir avec les patients est l'un des plus grands défis quotidiens des cliniciens et des administrateurs.
L’un de mes collègues avait une amie qui avait malheureusement reçu un diagnostic de cancer du pancréas à un stade avancé. Connaissant sa relation personnelle avec cette patiente, le spécialiste a demandé à mon collègue de lui parler des options de traitement qui s’offraient à elle. Mon collègue a eu beaucoup de mal à expliquer à GPT-4 : « Voilà la situation. Je ne sais pas quoi lui dire. »
Les conseils concrets sur la façon d’aborder la situation étaient remarquables. Et puis, à la fin de la conversation, mon collègue a dit à GPT-4 : « Merci pour ce conseil. C’est très utile. » Et GPT-4 a répondu : « De rien, mais qu’en est-il de vous ? Est-ce que vous obtenez tout ce dont vous avez besoin ? Comment vous sentez-vous et comment tenez-vous le coup ? »
Depuis lors, plusieurs centres médicaux universitaires ont mené des recherches sur [l'empathie et le GPT-4]. Un article publié dans la revue JAMA Internal Medicine a mesuré le degré d'empathie et d'exactitude technique des réponses du GPT-4 aux questions des patients. Ils ont découvert que le GPT-4 est à peu près aussi correct que les réponses d'un médecin humain, mais que, d'un facteur de près de 10 contre un, les réponses du GPT-4 étaient jugées plus empathiques . Des études initiales ont également été réalisées pour comparer les notes rédigées par le GPT-4 aux [communications des médecins aux patients]. La réponse dominante a été que les notes du GPT-4 sont plus « humaines ». Aujourd'hui, bien sûr, nous savons qu'elles ne le sont pas. En fait, un médecin ou une infirmière est tellement occupé et surchargé de travail qu'il doit se contenter de répondre à ces communications alors que GPT-4 peut prendre le temps d'ajouter ces touches personnelles supplémentaires — « Félicitations pour être devenu grand-parent le mois dernier » ou « Meilleurs vœux pour votre mariage le mois prochain » — qui sont très appréciées dans la prestation de soins de santé. Il y a un an, nous n'aurions jamais imaginé que l'IA générative puisse être utilisée de cette façon.
Sur les questions de partialité et d’inégalité
En tant que technologue, je rêve de mettre à la disposition de tous les individus les informations médicales les plus efficaces et les plus efficaces au monde, ce qui permettrait à notre monde et à notre société de faire un grand pas en avant vers un accès plus équitable aux soins de santé. Je me suis toutefois rendu compte qu’il ne sera pas si facile d’utiliser la technologie pour résoudre le problème de l’équité en matière de santé. La technologie n’est pas une solution miracle. Ces systèmes présentent des biais. La question est de savoir si nous pouvons les corriger et les corriger. Je pense que ces systèmes sont le reflet des humains et qu’ils sont donc intrinsèquement biaisés, tout comme nous. Mais je trouve encourageant de constater que, bien que GPT-4 présente de nombreux biais, il comprend également le concept de biais et comprend que les biais sont nuisibles. Par exemple, si vous lui présentez un scénario impliquant un consentement médical éclairé et une prise de décision biaisée, il détecte très efficacement les biais de l’IA ou des êtres humains. En fin de compte, l’IA n’est qu’un outil. J’espère que cela pourra devenir un outil puissant pour lutter contre les préjugés, l’injustice et le manque d’équité.
Comment utiliser l'IA générative pour rendre une situation difficile un peu plus facile
Plus tôt cette année, mon père est décédé après une très longue maladie. Il a été malade pendant près de deux ans. Pendant cette période, il a consulté un médecin généraliste et deux spécialistes. Il avait besoin de l’aide de mes deux sœurs et de moi, mais nous vivions tous à des centaines de kilomètres. Comme c’est souvent le cas dans les familles, nous avons dû résoudre une situation complexe à distance. Au cours de ce processus, les tensions ont éclaté entre mes deux sœurs et moi, et nos relations ont commencé à se détériorer. Nous avions prévu cette conversation téléphonique de 15 minutes avec l’un des spécialistes et nous nous disputions sur la meilleure façon d’utiliser ce temps. Nous avons donné tous les résultats des analyses de laboratoire, les notes, la liste des médicaments et les dernières observations au GPT-4, nous avons expliqué la situation et nous avons dit : « Nous allons avoir un appel téléphonique de 15 minutes avec le spécialiste. Quelle serait la meilleure façon d’utiliser ce temps ? De quoi devrions-nous parler ? Quelles sont les meilleures questions à poser ? » Cela a fait baisser la température et nous a aidés à nous sentir plus en contrôle de la situation.
Note de l'éditeur : cette interview a été modifiée pour des raisons de longueur et de clarté.
Vous pourriez également être intéressé par :
La génération actuelle d’outils d’IA : trois considérations pour les responsables de la qualité
The New York Times - Quand les médecins utilisent un chatbot pour améliorer leur comportement au chevet des patients