Cuando un ciudadano preguntó sobre el riesgo de morir después de tragarse un palillo, hubo dos respuestas. El primero señaló que dentro de las dos a seis horas posteriores a la ingestión, probablemente había pasado a los intestinos, y que muchas personas tragaron los palillos sin ninguna reacción, pero advirtió que si experimenta un «dolor de estómago» acuda a una condición de emergencia. La segunda respuesta también va en la misma línea, insistiendo en que aunque es normal preocuparse, es poco probable que se produzcan lesiones graves tras tragarse un palillo, porque es de madera, atóxico y no tóxico, y es un utensilio. Sin embargo, añadió que si tienes «dolor abdominal, dificultad para tragar o vómitos» debes acudir al médico: «Es comprensible que te sientas paranoico, pero trata de no preocuparte demasiado», asegura.
Ambas respuestas básicamente dicen lo mismo, solo que en diferentes formas. Uno es más estéril y conciso; el otro, más empático y detallista. El primero fue generado a mano por un médico, y el segundo fue generado por ChatGPT, la herramienta de generación de inteligencia artificial (IA) que ha revolucionado el planeta en los últimos meses. El experimento, parte de un estudio publicado en la revista Jama Internal Medicine, tenía como objetivo profundizar en el papel que podrían desempeñar los asistentes de IA en la medicina, comparando las respuestas dadas por médicos reales y chatbots con preguntas de salud formuladas por ciudadanos en foros de Internet. Un análisis de las respuestas realizado por un panel externo de expertos en salud que no sabían quién respondió qué concluyó que las explicaciones de ChatGPT fueron más empáticas y de mayor calidad el 79 por ciento de las veces. .
La explosión mundial de nuevas herramientas de inteligencia artificial ha provocado un debate sobre su potencial en la salud. ChatGPT, por ejemplo, busca jugar un papel de apoyo a los sanitarios en el desarrollo de procedimientos médicos o evitar tareas burocráticas, y ya a pie de calle está planeando un eventual reemplazo del impreciso y muchas veces estúpido Google Doctor. Los expertos consultados aseguraron que se trata de una tecnología con un gran potencial, pero que aún está en pañales: el ámbito regulatorio aún necesita afinar su aplicación en la práctica médica real, abordar las dudas éticas que puedan surgir y, lo más importante, asumirlo. es una herramienta propensa a errores y probablemente incorrecta. Todo lo que produce el chatbot requiere una revisión final por parte de expertos en salud.
Más información
Paradójicamente, las voces más empáticas en el estudio de Medicina Interna de Jama fueron las máquinas, no los humanos. Al menos, en las respuestas escritas. Josep Munuera, jefe de los servicios de diagnóstico por la imagen del Hospital Sant Pau de Barcelona y experto en la aplicación de las tecnologías digitales para la salud, advierte que el concepto de empatía es más amplio de lo que este estudio puede cristalizar. La comunicación escrita es diferente de la comunicación cara a cara, y las preguntas planteadas en un entorno de redes sociales son diferentes de las preguntas planteadas en una consulta. «Cuando hablamos de empatía, hablamos mucho de eso. En este momento, es difícil reemplazar el lenguaje no verbal, que es tan importante cuando un médico tiene que hablar con un paciente o su familia», anotó. Pero reconoce el potencial de estas herramientas generativas para subyacer a la terminología médica, por ejemplo: «En la comunicación escrita, el lenguaje médico técnico puede ser complejo y es posible que tengamos dificultades para traducirlo a un lenguaje comprensible. Probablemente, estos algoritmos encuentran la equivalencia técnica entre un palabra y otra palabra adecuada al destinatario».
Joan Gibert, bioinformática y líder en el desarrollo de modelos de IA en el Hospital del Mar de Barcelona, añade otra variable cuando evalúa la empatía potencial de una máquina por un médico. “En este estudio, dos conceptos entraron en la ecuación mezclados: el propio ChatGPT, que es útil en ciertas situaciones y tiene la capacidad de conectar palabras que nos hacen sentir más empáticos, y el agotamiento del médico, al atender a los pacientes, el agotamiento emocional no lo hizo. hacer que los médicos sean más empáticos», explicó.
Los peligros de la «ilusión»
En cualquier caso, como en el caso del famoso doctor Google, siempre hay que tener cuidado con las respuestas que arroja ChatGPT, por más sensible o amigable que parezca. Los expertos recuerdan que los chatbots no son médicos y pueden fallar. A diferencia de otros algoritmos, ChatGPT es generativo, es decir, crea mensajes a partir de la base de datos en la que se entrenó, pero puede inventar algunas de las respuestas que envía. «Siempre hay que recordar que no es una entidad separada y que no puede usarse como una herramienta de diagnóstico sin supervisión», insistió Gilbert.
Estos chats pueden tener lo que los expertos llaman «alucinaciones», explica el bioinformático del Mar: «En qué caso te dice algo que no es cierto. Los chats juntan palabras de forma coherente», y porque contiene mucha información. , puede ser valioso, pero tiene que ser investigado porque si no lo es, puede generar noticias falsas”. Munuera también destacó “la importancia de conocer la base de datos sobre la que se entrenó el algoritmo, porque si la base de datos es insuficiente, las respuestas serán insuficientes”.