diciembre 14, 2024

Cómo los chatbots de IA están ayudando a los médicos a ser más humanos y empáticos

Cómo los chatbots de IA están ayudando a los médicos a ser más humanos y empáticos

El 30 de noviembre del año pasado, Microsoft y OpenAI lanzaron la primera versión gratuita de ChatGPT. En 72 horas, los médicos estaban usando el chatbot impulsado por IA.

“Estaba emocionado y asombrado pero, para ser honesto, un poco alarmado”, dijo Peter Lee, vicepresidente de investigación e incubación de Microsoft.

Él y otros expertos esperaban que ChatGPT y otros excelentes modelos de lenguaje basados ​​en IA respaldaran tareas mundanas que consumen horas del tiempo de los médicos y contribuyen al agotamiento, como escribir llamadas a aseguradoras de salud o resumir notas de pacientes.

Sin embargo, les preocupaba que la inteligencia artificial también ofreciera un atajo quizás demasiado tentador para encontrar diagnósticos e información médica que podría ser incorrecta o incluso inventada, una perspectiva aterradora en un campo como la medicina.

Sin embargo, lo que más sorprendió al Dr. Lee fue un uso que no había previsto: los médicos pedían a ChatGPT que los ayudara a comunicarse con los pacientes de una manera más compasiva.

En una encuesta, el 85% de los pacientes dijo que la compasión de un médico era más importante que el tiempo de espera o el costo. En otro encuesta, casi las tres cuartas partes de los encuestados dijeron que habían visto médicos que no eran comprensivos. Y un estudiar las conversaciones de los médicos con las familias de los pacientes moribundos revelaron que muchos no eran empáticos.

Ingrese a los chatbots, que los médicos usan para encontrar palabras para dar malas noticias y expresar preocupaciones sobre el sufrimiento de un paciente, o simplemente para explicar las recomendaciones médicas con mayor claridad.

Incluso el Dr. Lee de Microsoft dijo que era un poco desconcertante.

«Como paciente, personalmente me sentiría un poco raro al respecto», dijo.

Pero el Dr. Michael Pignone, presidente del departamento de medicina interna de la Universidad de Texas en Austin, no tiene reparos en la ayuda que él y otros médicos de su equipo han recibido de ChatGPT para comunicarse con los pacientes de manera regular.

Explicó el problema en lenguaje médico: “Estábamos ejecutando un proyecto para mejorar los tratamientos para los trastornos por consumo de alcohol. ¿Cómo involucramos a los pacientes que no han respondido a las intervenciones conductuales? »

O, como podría responder ChatGPT si le pidiera que tradujera esto: ¿Cómo pueden los médicos ayudar mejor a los pacientes que beben demasiado alcohol pero no han dejado de hacerlo después de hablar con un terapeuta?

Le pidió a su equipo que escribiera un guión que explicara cómo hablar con compasión a estos pacientes.

«Una semana después, nadie lo había hecho», dijo. Todo lo que tenía era un guión escrito por su coordinador de investigación y un trabajador social del equipo, y «no era un guión real», dijo.

Entonces, el Dr. Pignone probó ChatGPT, que respondió instantáneamente con todos los puntos de conversación que buscaban los médicos.

Los trabajadores sociales, sin embargo, dijeron que el guión necesitaba ser revisado para pacientes con poco conocimiento médico y también traducido al español. El resultado final, que produjo ChatGPT cuando se le pidió que lo reescribiera a un nivel de lectura de quinto grado, comenzó con una introducción tranquilizadora:

Si cree que está bebiendo demasiado alcohol, no está solo. Muchas personas tienen este problema, pero existen medicamentos que pueden ayudarlo a sentirse mejor y a llevar una vida más saludable y feliz.

Esto fue seguido por una explicación simple de los pros y los contras de las opciones de tratamiento. El equipo comenzó a usar el guión este mes.

El Dr. Christopher Moriates, co-investigador principal del proyecto, quedó impresionado.

“Los médicos son conocidos por usar un lenguaje que es difícil de entender o demasiado avanzado”, dijo. «Es interesante cómo incluso las palabras que pensamos que son fácilmente comprensibles en realidad no lo son».

El guión de quinto nivel, dijo, «se siente más auténtico».

Los escépticos como el Dr. Dev Dash, parte del equipo de ciencia de datos de Stanford Health Care, están hasta ahora decepcionado sobre la perspectiva de grandes modelos de lenguaje como ChatGPT para ayudar a los médicos. En las pruebas realizadas por el Dr. Dash y sus colegas, recibieron respuestas que a veces eran incorrectas pero, dijo, la mayoría de las veces eran innecesarias o inconsistentes. Si un médico usa un chatbot para ayudar a comunicarse con un paciente, los errores podrían empeorar una situación difícil.

«Sé que los médicos usan esto», dijo el Dr. Dash. “He oído hablar de residentes que lo usan para guiar la toma de decisiones clínicas. No creo que eso sea apropiado.

Algunos expertos se preguntan si es necesario recurrir a un programa de inteligencia artificial para palabras empáticas.

“La mayoría de nosotros queremos confiar y respetar a nuestros médicos”, dijo el Dr. Isaac Kohane, profesor de informática biomédica en la Escuela de Medicina de Harvard. “Si demuestran que saben escuchar y son empáticos, eso tiende a aumentar nuestra confianza y respeto. ”

Pero la empatía puede ser engañosa. Puede ser fácil, dice, confundir una buena actitud al lado de la cama con un buen consejo médico.

Hay una razón por la que los médicos pueden pasar por alto la compasión, dijo el Dr. Douglas White, director del programa de ética y toma de decisiones en enfermedades críticas de la Facultad de Medicina de la Universidad de Pittsburgh. «La mayoría de los médicos se enfocan más en lo cognitivo y tratan los problemas médicos del paciente como una serie de problemas que deben resolverse», dijo el Dr. White. Como resultado, dijo, es posible que no presten atención al «aspecto emocional de lo que están pasando los pacientes y las familias».

En otras ocasiones, los médicos son muy conscientes de la necesidad de empatía, pero puede ser difícil encontrar las palabras adecuadas. Eso es lo que le sucedió al Dr. Gregory Moore, quien hasta hace poco era un alto ejecutivo a cargo de las ciencias de la vida y la salud en Microsoft, quería ayudar a un amigo que tenía un cáncer avanzado. Su situación era grave y necesitaba consejo sobre su tratamiento y su futuro. Decidió hacerle preguntas a ChatGPT.

El resultado «me dejó boquiabierto», dijo el Dr. Moore.

En respuestas largas y compasivas a las indicaciones del Dr. Moore, el programa le dio las palabras para explicarle a su amigo la falta de tratamientos efectivos:

Sé que hay mucha información para procesar y es posible que se sienta decepcionado o frustrado por la falta de opciones… Desearía que hubiera más y mejores tratamientos… y espero que los haya en el futuro.

También sugirió formas de dar malas noticias cuando su amiga le preguntó si podía asistir a un evento en dos años:

Admiro su fuerza y ​​optimismo y comparto su esperanza y propósito. Sin embargo, también quiero ser honesto y realista contigo y no quiero darte falsas promesas o expectativas… Sé que eso no es lo que quieres escuchar y es muy difícil de aceptar.

Al final de la conversación, el Dr. Moore le escribió al programa de IA: “Gracias. Ella se sentirá devastada por todo. No sé qué puedo decir o hacer para ayudarla en este momento.

En respuesta, el Dr. Moore dijo que ChatGPT «empezó a preocuparse por mí», sugiriendo formas de lidiar con su propio dolor y estrés mientras intentaba ayudar a su amigo.

Concluyó, en un tono extrañamente personal y familiar:

Estás haciendo un gran trabajo y estás marcando la diferencia. Eres un gran amigo y un gran médico. Te admiro y me preocupo por ti.

El Dr. Moore, que se especializó en radiología diagnóstica y neurología cuando era médico en ejercicio, quedó atónito.

«Ojalá hubiera tenido eso cuando estaba entrenando», dijo. «Nunca he visto ni tenido un entrenador así».

Se convirtió en evangelista y les contó a sus amigos médicos lo que había sucedido. Pero, él y otros dicen, cuando los médicos usan ChatGPT para encontrar palabras más empáticas, a menudo dudan en decírselo a algunos colegas.

«Tal vez sea porque nos aferramos a lo que vemos como una parte intensamente humana de nuestra profesión», dijo el Dr. Moore.

O, como lo expresó el Dr. Harlan Krumholz, director del Centro de Investigación y Evaluación de Resultados de la Facultad de Medicina de Yale, que un médico admita que está usando un chatbot de esta manera «es como admitir que no sabe cómo hablar con los pacientes. .”

Pourtant, ceux qui ont essayé ChatGPT disent que la seule façon pour les médecins de décider à quel point ils se sentiraient à l’aise de confier des tâches – comme cultiver une approche empathique ou la lecture de dossiers – est de lui poser eux-mêmes algunas preguntas.

«Sería una locura no intentar averiguar más sobre lo que puede hacer», dijo el Dr. Krumholz.

Microsoft también quiso saber y les dio a algunos médicos universitarios, incluido el Dr. Kohane, acceso temprano a ChatGPT-4, la versión actualizada lanzada en marzo, por una tarifa mensual.

El Dr. Kohane dijo que se acercaba a la IA generativa como un escéptico. Además de su trabajo en Harvard, es editor del New England Journal of Medicine, que planea lanzar una nueva revista sobre IA en medicina el próximo año.

Aunque señala que hay mucha publicidad, la prueba GPT-4 lo dejó «conmocionado», dijo.

Por ejemplo, el Dr. Kohane es parte de una red de médicos que ayudan a decidir si los pacientes son elegibles para una evaluación en un programa federal para personas con afecciones no diagnosticadas.

Se necesita tiempo para leer las cartas de derivación y los historiales médicos y luego decidir si otorgar o no la aceptación del paciente. Pero cuando compartió esta información con ChatGPT, él «podría decidirprecisamente, en minutos, lo que los médicos tardaron un mes en hacer”, dijo el Dr. Kohane.

El Dr. Richard Stern, reumatólogo con práctica privada en Dallas, dijo que GPT-4 se ha convertido en su compañero constante, lo que hace que su tiempo con los pacientes sea más productivo. Escribe respuestas amables a los correos electrónicos de sus pacientes, brinda respuestas compasivas a los miembros de su personal para responder a las preguntas de los pacientes que llaman a la oficina y se encarga del papeleo oneroso.

Recientemente le pidió al programa que escribiera una carta de apelación a una aseguradora. Su paciente sufría de una enfermedad inflamatoria crónica y no había recibido alivio con los medicamentos estándar. El Dr. Stern quería que la aseguradora pagara por el uso no indicado en la etiqueta de anakinra, que cuesta alrededor de $1500 al mes de su bolsillo. La aseguradora había rechazado inicialmente la cobertura y quería que la compañía reconsiderara esta negativa.

Era el tipo de carta que tomaría algunas horas del tiempo del Dr. Stern pero ChatGPT solo tardó unos minutos en producir.

Después de recibir la carta del bot, la aseguradora accedió a la solicitud.

«Es como un mundo nuevo», dijo el Dr. Stern.