ChatGPT lucha por responder preguntas médicas

Según un nuevo estudio, es posible que ChatGPT no sea la solución para las respuestas a preguntas médicas.

Para los investigadores, las respuestas en línea no pueden reemplazar el consejo de un profesional de la salud. Imagen ilustrativa.

Los investigadores de la Universidad de Long Island realizaron un estudio para determinar la eficacia del Chat GTP, según los hallazgos presentados en la reunión anual de la Sociedad Estadounidense de Farmacéuticos de Sistemas de Salud en Anaheim, California, la IA no estaría dando los resultados esperados.

Los indagadores plantearon 39 consultas relacionadas con medicamentos a la versión gratuita del chatbot de inteligencia artificial, las cuales eran preguntas reales del servicio de información sobre medicamentos de la Facultad de Farmacia de la universidad. Luego, las respuestas del software se compararon con las respuestas escritas y revisadas por farmacéuticos capacitados.

El estudio encontró que ChatGPT proporcionó respuestas precisas a solo unas 10 de las preguntas, o aproximadamente una cuarta parte del total. Para las otras 29 preguntas, las respuestas estaban incompletas o inexactas, o no respondían a las preguntas.

Cabe destacar que, ChatGPT, el chatbot de IA experimental de OpenAI, se lanzó en noviembre de 2022 y se convirtió en la aplicación para consumidores de más rápido crecimiento de la historia, con casi 100 millones de personas registrándose en dos meses.

Tras esa popularidad, el interés de los investigadores surgió por la preocupación de que sus estudiantes, otros farmacéuticos y consumidores comunes recurrieran a recursos como ChatGPT para explorar preguntas sobre sus planes de salud y medicamentos, mencionó Sara Grossman, profesora asociada de práctica farmacéutica en Long Island. Universidad y uno de los autores del estudio.

Sin embargo, descubrieron que esas consultas a menudo arrojaban respuestas inexactas, o incluso peligrosas. En una pregunta, por ejemplo, los investigadores preguntaron a ChatGPT si el medicamento antiviral Covid-19 Paxlovid y el medicamento para bajar la presión arterial verapamilo reaccionarían entre sí en el cuerpo. ChatGPT respondió que tomar los dos medicamentos juntos no produciría efectos adversos.

En realidad, las personas que toman ambos medicamentos pueden tener una gran caída de la presión arterial, lo que puede provocar mareos y desmayos. Para los pacientes que toman ambos, los médicos a menudo crean planes específicos para cada paciente, que incluyen reducir la dosis de verapamilo o advertir a la persona que se levante lentamente después de estar sentada, dijo Grossman, por lo que considera que la orientación de ChatGPT, habría puesto a las personas en peligro.

Frente al hecho, los investigadores pidieron al chatbot referencias científicas para respaldar cada una de sus respuestas, y descubrieron que el software solo podía proporcionarles ocho de las preguntas que formulaban. Y en cada caso, se sorprendieron al descubrir que ChatGPT estaba fabricando referencias.

Por su parte, un portavoz de OpenAI, la organización que desarrolla ChatGPT, dijo que aconseja a los usuarios no confiar en las respuestas como sustituto del asesoramiento o tratamiento médico profesional.

Asimismo, señaló las políticas de uso de ChatGPT, que indican que los modelos de OpenAI no están ajustados para proporcionar información médica. La política también establece que los modelos nunca deben usarse para brindar servicios de diagnóstico o tratamiento para afecciones médicas graves.

Aunque Grossman no estaba segura de cuántas personas usan ChatGPT para abordar preguntas sobre medicamentos, expresó su preocupación de que pudieran usar el chatbot como si buscaran asesoramiento médico en motores de búsqueda como Google.

Para obtener información médica en línea, recomendó que los consumidores utilicen sitios web gubernamentales que brinden información confiable, como la página MedlinePlus de los Institutos Nacionales de Salud.