Como parte de una tendencia nacional, durante la pandemia, muchos más pacientes de NYU Langone Health comenzaron a usar herramientas de registros de salud electrónicos para hacer preguntas a sus médicos, renovar recetas y revisar los resultados de pruebas. Muchas preguntas digitales de los pacientes llegaron a través de una herramienta de comunicación llamada In Basket, que está integrada en el sistema de registros de salud electrónicos (EHR) de NYU Langone, EPIC.
Si bien los médicos siempre han dedicado tiempo a gestionar los mensajes del EHR, vieron un aumento anual de más del 30% en los últimos años en el número de mensajes recibidos diariamente, según un artículo de Paul A. Testa, MD, director médico de información de NYU Langone. Testa escribió que no es raro que los médicos reciban más de 150 mensajes en In Basket por día. Como los sistemas de salud no están diseñados para manejar este tipo de tráfico, los médicos terminaron cubriendo la brecha, dedicando largas horas después del trabajo a revisar los mensajes. Esta carga se cita como una razón por la que la mitad de los médicos reportan agotamiento.
Ahora, un nuevo estudio, dirigido por investigadores de la Escuela de Medicina Grossman de la NYU, muestra que una herramienta de IA puede redactar respuestas a las consultas de los pacientes en el EHR con la misma precisión que sus profesionales de la salud humanos, y con una “empatía” percibida mayor. Los hallazgos resaltan el potencial de estas herramientas para reducir drásticamente la carga del In Basket de los médicos al tiempo que mejoran su comunicación con los pacientes, siempre y cuando los proveedores humanos revisen los borradores de IA antes de enviarlos.
NYU Langone Health ha estado probando las capacidades de la inteligencia artificial generativa (genAI), en la que los algoritmos informáticos desarrollan opciones probables para la próxima palabra en cualquier oración según cómo las personas han usado palabras en contexto en Internet. Un resultado de esta predicción de la próxima palabra es que los “chatbots” genAI pueden responder a las preguntas en un lenguaje convincente similar al humano. NYU Langone en 2023 obtuvo la licencia de “una instancia privada” de GPT4, el último pariente del famoso chatbot chatGPT, que permitió a los médicos experimentar utilizando datos reales de pacientes mientras se adherían a las reglas de privacidad de datos.
Publicado en línea el 16 de julio en JAMA Network Open, el nuevo estudio examinó los borradores generados por GPT4 a las consultas de pacientes en In Basket, y hizo que los médicos de atención primaria los compararan con las respuestas humanas reales a esos mensajes.
“Nuestros resultados sugieren que los chatbots podrían reducir la carga de trabajo de los proveedores de atención al permitir respuestas eficientes y empáticas a las inquietudes de los pacientes”, dijo el autor principal del estudio, William Small, MD, profesor asistente clínico en el Departamento de Medicina de la Escuela de Medicina Grossman de la NYU. “Encontramos que los chatbots de IA integrados en el EHR que usan datos específicos del paciente pueden redactar mensajes similares en calidad a los proveedores humanos”.
Para el estudio, dieciséis médicos de atención primaria calificaron 344 pares asignados aleatoriamente de respuestas de IA y humanas a mensajes de pacientes en cuanto a precisión, relevancia, exhaustividad y tono, e indicaron si usarían la respuesta de IA como un primer borrador o si tendrían que comenzar desde cero al escribir el mensaje del paciente. Los médicos no sabían si las respuestas que estaban revisando fueron generadas por humanos o por la herramienta de IA (estudio ciego).
El equipo de investigación encontró que la precisión, integridad y relevancia de las respuestas de la IA generativa y los proveedores humanos no diferían estadísticamente. Las respuestas de la IA generativa superaron a los proveedores humanos en términos de comprensibilidad y tono en un 9,5%. Además, las respuestas de la IA tenían más del doble de probabilidades (125% más probabilidades) de considerarse empáticas y un 62% más probabilidades de usar un lenguaje que transmitiera positividad (potencialmente relacionado con la esperanza) y afiliación (“estamos en esto juntos”).
Por otro lado, las respuestas de la IA también fueron un 38% más largas y un 31% más propensas a usar un lenguaje complejo, por lo que se necesita más entrenamiento de la herramienta, dicen los investigadores. Mientras que los humanos respondían a las consultas de los pacientes a un nivel de sexto grado, la IA estaba escribiendo a un nivel de octavo grado, según una medida estándar de legibilidad llamada puntuación Flesch Kincaid.
Los investigadores argumentaron que el uso de información privada de pacientes por parte de los chatbots, en lugar de información general de Internet, se acerca más a cómo se usaría esta tecnología en el mundo real. Se necesitarán estudios futuros para confirmar si los datos privados mejoraron específicamente el rendimiento de la herramienta de IA.
“Este trabajo demuestra que la herramienta de IA puede crear borradores de respuestas de alta calidad a las solicitudes de los pacientes”, dijo el autor correspondiente Devin Mann, MD director senior de Innovación en Informática en NYU Langone Medical Center Information Technology (MCIT). “Con esta aprobación del médico en su lugar, la calidad del mensaje GenAI será igual en el futuro cercano en calidad, estilo de comunicación y usabilidad, a las respuestas generadas por humanos”, agregó Mann, también profesor en los Departamentos de Salud de la Población y Medicina.
Junto con los Dres. Small y Mann, los autores del estudio de NYU Langone Health fueron Beatrix Brandfield-Harvey, Zoe Jonassen, Soumik Mandal, Elizabeth Stevens, Vincent Major, Erin Lostraglio, Adam Szerencsy, Simon Jones, Yindalon Aphinyanaphongs y Stephen Johnson. También autores fueron Oded Nov en la Escuela de Ingeniería Tandon de la NYU y Batia Wiesenfeld de la Escuela de Negocios Stern de la NYU.
El estudio fue financiado por las subvenciones de la National Science Foundation 1928614 y 2129076) y las subvenciones de la Swiss National Science Foundation P500PS_202955 y P5R5PS_217714.
Revista
JAMA Network Open
Método de Investigación
Estudio experimental
Sujeto de Investigación
Personas
Título del Artículo
Respuestas basadas en modelos de lenguaje de gran tamaño a los mensajes de los pacientes en el In-Basket
Fecha de Publicación del Artículo
16-Jul-2024