Un chatbot parece ser “significativamente más empático” que los médicos a la hora de responder a las preguntas de los pacientes, según los científicos.
Los investigadores pidieron a un equipo de profesionales sanitarios colegiados que calificaran las respuestas de los médicos y de ChatGPT, un programa informático diseñado para simular conversaciones en línea con humanos.
Descubrieron que la proporción de respuestas calificadas como “empáticas” o “muy empáticas” era mayor para ChatGPT que para los médicos.
ChatGPT también parecía puntuar más alto que los médicos en la calidad de las respuestas a los pacientes.
En un artículo publicado en la revista Jama Internal Medicine, los investigadores señalaron que se necesitan más estudios para evaluar si chatbots como ChatGPT pueden utilizarse en entornos clínicos para ayudar a reducir el agotamiento de los médicos y otros profesionales sanitarios.
Dijeron: “En este estudio transversal, un chatbot generó respuestas de calidad y empáticas a las preguntas de los pacientes planteadas en un foro en línea”.
“Se justifica una mayor exploración de esta tecnología en entornos clínicos, como el uso de chatbot para redactar respuestas que los médicos podrían luego editar”.
“Los ensayos aleatorios podrían evaluar más a fondo si el uso de asistentes de IA podría mejorar las respuestas, disminuir el agotamiento de los médicos y mejorar los resultados de los pacientes”.
Para el estudio, los investigadores analizaron las preguntas formuladas por los pacientes en el foro de medios sociales Reddit, que fueron respondidas por un médico verificado.
A continuación, se plantearon las mismas preguntas a ChatGPT.
Las respuestas de los médicos y ChatGPT fueron anonimizadas y calificadas aleatoriamente por profesionales sanitarios.
De las 195 preguntas y respuestas, los resultados mostraron que, en general, los evaluadores preferían las respuestas del chatbot a las de los médicos.
Según los investigadores, las respuestas del chatGPT también fueron calificadas como significativamente más empáticas que las de los médicos, y la proporción de respuestas calificadas como de “buena” o “muy buena” calidad fue mayor para el chatbot que para los médicos.
Mirella Lapata, catedrática de Procesamiento del Lenguaje Natural de la Universidad de Edimburgo, comentó el estudio: “El estudio evalúa la capacidad de ChatGPT para ofrecer respuestas a las preguntas de los pacientes y las compara con las respuestas escritas por los médicos”.
La ad
Comments