Inteligencia artificial en la atención sanitaria: Peter Lee habla de empatía, empoderamiento y equidad
Por qué es importante
Peter Lee, PhD, puede llamarse a sí mismo un “experto en tecnología”, pero cuando habla de inteligencia artificial (IA), comienza desde la perspectiva de un paciente o un familiar. Cuando se le preguntó qué es lo que más le entusiasma del potencial de la IA para mejorar la atención sanitaria, el coautor del libro The AI Revolution in Medicine: GPT-4 and Beyond expresó entusiasmo sobre cómo el uso de la IA puede ayudar a las personas a sentirse más empoderadas en sus interacciones con la salud. sistema de atención. En la siguiente entrevista con el Institute for Healthcare Improvement (IHI), Lee analiza sus experiencias personales y profesionales con GPT-4, una herramienta impulsada por IA que procesa el habla humana y la convierte en texto, creada por la empresa OpenAI, respaldada por Microsoft. Lee es vicepresidente corporativo de investigación e incubaciones de Microsoft y será el orador principal en el IHI Forum (del 10 al 13 de diciembre de 2023).
Sobre el uso de la IA para sentirse más empoderado como paciente y familiar
Mi ejemplo favorito de uso de la IA [para sentirme más empoderado] es el uso de GPT-4 para decodificar información del sistema de atención médica. Lo uso para comprender la explicación del aviso de beneficios que recibo del seguro médico proporcionado por nuestro empleador cada vez que alguien de mi familia se somete a un procedimiento o se hace algo. Justo el otro mes, me hice mi examen físico anual y recibí el PDF de mis análisis de CBC cuatro días después en un correo electrónico. Es sólo un montón de números. Poder darle este tipo de información a GPT-4 y decir: “Explícame esto. ¿Hay algo a lo que debo prestar atención? ¿Hay preguntas que debería hacerle a mi médico? es increíblemente empoderante.
Sobre el uso de la IA para ahorrar tiempo
Gran parte de mi atención se centra en el poder de la IA generativa para mejorar la vida laboral diaria de médicos y enfermeras al reducir su papeleo y trabajo administrativo. Estoy muy emocionado de ver que no solo nuestra empresa, sino también otras empresas, también están comenzando a incorporar IA generativa en sistemas de toma de notas clínicas y en sistemas de comunicación con pacientes [registros médicos electrónicos]. Es fantástico hablar con médicos y enfermeras y hacerles decir: "Vaya, esto hace que sea más fácil evitar llevar trabajo a casa por la noche".
Sobre suposiciones erróneas sobre la IA generativa
Los sistemas de inteligencia artificial generativa [que ayudan a los usuarios a generar contenido nuevo basado en una variedad de entradas] son motores de razonamiento. No son computadoras en el sentido tradicional. En otras palabras, si piensas en una computadora como una máquina que recuerda perfectamente la memoria y realiza cálculos perfectos, estas cosas no son computadoras. Y, por lo tanto, podemos meternos en problemas en la prestación de atención médica si asumimos que estas cosas son computadoras y que estos malentendidos pueden llevar a errores. Ethan Mollick, profesor asociado de la Wharton School de la Universidad de Pensilvania, dijo: "Es casi mejor pensar en [ChatGPT] como una persona, como un pasante que trabaja para usted" y no como una computadora.
Sobre si asumimos demasiado o muy poco sobre el potencial de la IA en la atención sanitaria
Un sistema de IA generativa como GPT-4 es más inteligente que cualquiera que haya conocido y más tonto que cualquiera que haya conocido. Creo que ambos asumimos demasiado y demasiado poco sobre su potencial en la atención sanitaria. Si usted es médico y ve la presentación inicial de un paciente, obtiene los resultados iniciales de las pruebas de laboratorio y, a partir de ellos, forma un diagnóstico diferencial. También puede pedirle a GPT-4 que observe esa presentación inicial y los laboratorios iniciales y pedirle a GPT-4 que produzca un diagnóstico diferencial, pero no se debe asumir automáticamente que ese diagnóstico diferencial es mejor que el que obtendría de un ser humano. . Por lo tanto, en esa situación es necesario tener un humano al tanto para revisar los resultados y verificarlos.
Otro enfoque es hacer que el médico o enfermera humano forme su propio diagnóstico diferencial y luego entregárselo al GPT-4 y decir: “Esto es lo que estoy pensando. ¿Puedes mirar esto y criticarlo? Si bien un sistema de IA generativa como GPT-4 en algunos aspectos no es tan bueno como los seres humanos a la hora de generar contenido, estamos descubriendo que puede ser bueno para realizar críticas, mejoras o resúmenes.
GPT-4 tiene sesgos al igual que los seres humanos, pero es sorprendentemente bueno para detectar sesgos en las cosas que lee o en las decisiones que toman otros sistemas de inteligencia artificial o seres humanos. Entonces se ve esta dicotomía en la que puede ser bueno en algunas cosas, pero aun así defectuoso. Me gusta pensar en GPT-4 como una herramienta que amplifica nuestra propia inteligencia. Nos ayuda a mejorar las cosas en las que somos buenos, pero también puede mostrar algunos de nuestros mismos defectos. Comprender los entresijos de esas dicotomías en este momento es muy importante.
Sobre el uso de la IA generativa para comunicarse con empatía
[Mi equipo y yo] obtuvimos acceso temprano a GPT-4 a fines del verano de 2022. Estábamos investigando las posibles aplicaciones y el impacto, tanto positivo como negativo, que GPT-4 podría tener en la medicina y la atención médica. Al principio, nos centramos en determinar qué tan inteligente podría ser esta cosa. Lo vimos como un robot de conocimiento médico. ¿Podría aprobar el examen de licencia médica de EE. UU.? ¿Podría aprobar el examen NCLEX-RN (Examen de Licencia del Consejo Nacional para Enfermeras Registradas)? ¿Podría leer, revisar y responder preguntas sobre un trabajo de investigación médica?
Más tarde, en noviembre de 2022, OpenAI lanzó ChatGPT utilizando un modelo de IA anterior más pequeño llamado GPT-3.5. Nuestros laboratorios de investigación comenzaron a recibir correos electrónicos de médicos y enfermeras de todo el mundo que decían: “Esto es algo fantástico. Lo utilizamos para escribir resúmenes después de las visitas y a nuestros pacientes les gusta mucho”. Eso fue inesperado. Desde entonces, hemos aprendido que cómo interactuar con los pacientes es uno de los mayores desafíos diarios que enfrentan los médicos y administradores.
Uno de mis colegas tenía un amigo al que lamentablemente le diagnosticaron cáncer de páncreas en etapa avanzada. Conociendo su relación personal con esta paciente, el especialista le pidió a mi colega que hablara con ella sobre sus opciones de tratamiento. Mi colega realmente tuvo dificultades cuando le explicó a GPT-4: “Esta es la situación. No sé qué decirle”.
Los consejos concretos sobre cómo abordar la situación fueron notables. Y luego, al final de la conversación, mi colega le dijo a GPT-4: “Gracias por este consejo. Es muy útil”. Y GPT-4 respondió: “De nada, pero ¿y tú? ¿Estás obteniendo todo lo que necesitas? ¿Cómo te sientes y cómo estás pasando por esto?"
Desde entonces, varios centros médicos académicos han realizado investigaciones sobre [la empatía y GPT-4]. Un artículo en JAMA Internal Medicine midió cuán empáticas y técnicamente correctas fueron las respuestas de GPT-4 a las preguntas de los pacientes. Descubrieron que GPT-4 es tan correcto como las respuestas de un médico humano, pero por un factor de casi 10 a uno, se consideró que las respuestas de GPT-4 eran más empáticas . También se han realizado estudios iniciales que comparan las notas escritas por GPT-4 con las [comunicaciones a los pacientes] de los médicos. La respuesta predominante ha sido que las notas GPT-4 son más "humanas". Ahora, por supuesto, sabemos que no son más humanos. Lo que sucede es que un médico o una enfermera están ocupados y tan sobrecargados de trabajo que simplemente tienen que transmitir estas comunicaciones, mientras que GPT-4 puede tomarse el tiempo para agregar esos toques personales adicionales: "Felicitaciones por ser abuelo el mes pasado" o “Mis mejores deseos para su boda el próximo mes”, que son tan valorados en la prestación de atención médica. Hace un año nunca esperábamos que esto fuera un uso de la IA generativa.
Sobre cuestiones de prejuicios e inequidad
Hablando como tecnólogos, nuestro sueño es poner la mejor y más empoderadora información médica del mundo en manos de todos por igual y que hacerlo permitiría a nuestro mundo y a nuestra sociedad dar un paso importante hacia un acceso más equitativo a la atención médica. Sin embargo, me he dado cuenta de que utilizar la tecnología para abordar la cuestión de la equidad en salud no será tan fácil. La tecnología no es una solución milagrosa. Estos sistemas presentan sesgos. La pregunta es si podemos reparar y corregir estos sesgos. Mi propia opinión es que estos sistemas son reflejos de los humanos y que, por lo tanto, están inherentemente sesgados al igual que nosotros. Pero me parece esperanzador que, aunque GPT-4 exhiba muchos sesgos, también comprenda el concepto de sesgo y comprenda que los sesgos son perjudiciales. Por ejemplo, si se le presenta un escenario que involucra consentimiento médico informado y toma de decisiones sesgada, detecta de manera muy confiable los sesgos exhibidos por la IA o los seres humanos. Al fin y al cabo, la IA es sólo una herramienta. Mi esperanza es que pueda convertirse en una herramienta poderosa para combatir los prejuicios, la injusticia y la falta de equidad.
Sobre el uso de la IA generativa para hacer que una situación desafiante sea un poco más fácil
A principios de este año, mi padre falleció después de una larga enfermedad. Estuvo enfermo durante casi dos años. Durante ese tiempo, estuvo viendo a un médico de atención primaria y dos especialistas. Necesitaba ayuda mía y de mis dos hermanas, pero todos vivíamos a cientos de kilómetros de distancia. Como sucede en muchas familias, teníamos esta situación compleja que estábamos tratando de resolver a larga distancia. En ese proceso, las tensiones estallaron entre mis dos hermanas y yo, y nuestras relaciones comenzaron a deteriorarse. Programaríamos esa dorada conversación telefónica de 15 minutos con uno de los especialistas y discutiríamos sobre la mejor manera de aprovechar el tiempo. Le dimos todos los resultados de las pruebas de laboratorio, notas, la lista de medicamentos y las últimas observaciones al GPT-4, explicamos la situación y dijimos: “Vamos a tener una llamada telefónica de 15 minutos con el especialista. ¿Cuál sería la mejor manera de utilizar ese tiempo? ¿De qué deberíamos hablar? ¿Cuáles son las mejores preguntas para hacer?” Bajó la temperatura y nos ayudó a sentirnos más en control de la situación.
Nota del editor: esta entrevista ha sido editada para mayor extensión y claridad.
Usted también podría estar interesado en:
La generación actual de herramientas de IA: tres consideraciones para los líderes de calidad
The New York Times - Cuando los médicos utilizan un chatbot para mejorar su trato con los pacientes